Simple Science

La science de pointe expliquée simplement

# Finance quantitative# Économie générale# Économie

Croyances sur la performance de l'IA et l'adoption des technologies

Cet article examine comment les croyances humaines influencent les opinions sur les capacités de l'IA.

― 7 min lire


Les croyances sur laLes croyances sur laperformance de l'IAimpactent l'adoption.les technologies d'IA.manière dont les entreprises adoptentLes perceptions humaines influencent la
Table des matières

L'intelligence artificielle (IA) devient de plus en plus importante dans notre vie quotidienne. À mesure qu'on utilise l'IA pour diverses tâches, on commence à se faire des idées sur ses performances. Mais souvent, ces idées sont faussées. Cet article explore comment les gens perçoivent les capacités de l'IA et comment ça influence l'adoption de la technologie.

Croyances humaines sur la performance de l'IA

Quand les gens évaluent l'IA, ils utilisent souvent le même cadre que pour juger les capacités humaines. Ce n'est pas toujours précis, car l'IA peut exceller dans des tâches complexes tout en ayant du mal avec des trucs plus simples. Ce décalage peut mener à ce qu'on appelle "l'anthropomorphisme de la performance", où les gens projettent des qualités humaines sur l'IA de manière inexacte.

Dans notre exploration, on a découvert que quand les humains voient l'IA échouer à des tâches simples, ils ont tendance à conclure qu'elle manque de compétences. À l'inverse, si elle réussit une tâche difficile, ça les pousse à croire que l'IA doit être capable dans des tâches plus simples. Cette tendance peut fausser notre compréhension des véritables capacités et limitations de l'IA.

L'expérience

Pour enquêter sur ces croyances, on a fait une expérience où les participants devaient prédire la performance de humains et d'IA sur des problèmes de maths. On a conçu deux tâches principales pour les participants : estimer à quel point un agent (humain ou IA) résoudrait des problèmes de maths et mettre à jour ces croyances en fonction de la performance observée.

Détails des tâches

Dans la première tâche, on a demandé aux participants de répondre à des questions de maths et de prédire la probabilité qu'un agent choisi au hasard (humain ou IA) réponde correctement. La seconde tâche consistait à montrer aux participants les résultats de la performance d'un agent sur une tâche (soit un succès, soit un échec) et ensuite leur demander de mettre à jour leurs prédictions en conséquence.

Les participants étaient divisés en deux groupes : un groupe a évalué la performance humaine, tandis que l'autre a évalué celle de l'IA. En comparant les réponses des deux groupes, on voulait voir comment les croyances sur la performance variaient entre humains et IA.

Résultats : Comprendre les croyances antérieures

Nos résultats ont révélé des patterns notables dans les croyances des participants. Il y avait une corrélation négative claire entre la difficulté des problèmes de maths et la performance prédite pour les humains et l'IA. En termes simples, plus les problèmes étaient durs, plus les participants s'attendaient à ce que les humains et l'IA performent moins bien. Cependant, la force de cette corrélation était plus forte pour les humains que pour l'IA.

Fait intéressant, les prédictions moyennes pour la performance de l'IA étaient systématiquement plus élevées que pour les humains, suggérant un biais optimiste envers l'IA. Cet optimisme pourrait venir des tendances anthropomorphiques déjà mentionnées, où les participants s'attendaient à ce que l'IA performe de la même manière que les humains dans différentes tâches.

Analyser les mises à jour de croyance

Après avoir observé la performance d'un agent sur une tâche, les participants devaient mettre à jour leurs croyances sur combien cet agent performerait sur les tâches suivantes. On a trouvé que la difficulté de la tâche jouait un rôle significatif dans la manière dont les participants mettaient à jour leurs croyances.

Quand les participants voyaient un agent réussir à un problème difficile, ils augmentaient leurs attentes sur sa performance sur des problèmes plus faciles. En revanche, si l'agent échouait à un problème facile, les participants étaient moins enclins à diminuer leurs attentes sur sa performance à des problèmes plus difficiles.

Globalement, les croyances sur les humains et l'IA suivaient des patterns similaires, indiquant que les gens appliquent un modèle mental cohérent lorsqu'ils évaluent la performance, peu importe si l'agent est humain ou IA.

Le rôle de l'IA dans l'adoption de la technologie

Les implications de ces résultats vont au-delà des croyances individuelles jusqu'au contexte plus large de l'adoption de la technologie. Quand les organisations envisagent de mettre en place des technologies IA, leurs décisions sont influencées par combien elles pensent que l'IA peut performer par rapport aux travailleurs humains.

Adoption retardée

Une conséquence majeure est le potentiel de retard dans l'adoption de l'IA. Si les organisations ont des vues trop pessimistes sur l'IA basées sur sa performance dans des tâches triviales, elles peuvent hésiter à l'intégrer dans leurs opérations. Ce retard peut entraîner des occasions manquées, surtout dans des tâches où l'IA pourrait en fait surpasser les humains.

Sur-adoption

Inversement, les organisations peuvent sur-adopter les technologies IA si elles ne comprennent pas ses capacités. Si elles croient que la performance de l'IA est universellement supérieure, elles pourraient la déployer dans des domaines où les humains excellent, entraînant des inefficacités.

Conséquences économiques

Ces patterns de croyance peuvent mener à des résultats économiques au travail. Selon comment elles perçoivent les compétences de l'IA, les entreprises peuvent soit sous-utiliser, soit s'appuyer excessivement sur l'IA. Les coûts associés à ces idées fausses peuvent s'accumuler, affectant finalement la productivité et la rentabilité.

Recommandation

Pour adresser ces problèmes, les organisations devraient être conscientes de leurs attentes concernant la performance de l'IA et les gérer activement. La formation et l'éducation sur les vraies capacités de l'IA peuvent aider à aligner les perceptions humaines avec la réalité. Cette compréhension permettra aux entreprises de prendre des décisions plus éclairées sur quand et comment déployer les technologies IA efficacement.

Conclusion

Le rôle croissant de l'IA dans la société nécessite une compréhension plus profonde de comment les humains forment des croyances sur sa performance. Notre étude souligne la nécessité d'une évaluation soigneuse des capacités de l'IA pour éviter des attentes mal placées. En reconnaissant la tendance vers l'anthropomorphisme de la performance, on peut travailler vers une intégration plus précise et productive de l'IA dans nos vies.

Directions futures

Alors que l'IA continue de se développer, des recherches supplémentaires sont nécessaires pour comprendre la nature évolutive de sa performance. Des études à long terme peuvent aider à affiner notre compréhension de comment les croyances humaines sur l'IA s'adaptent au fil du temps et dans différentes circonstances. Cet examen continu sera crucial alors que nous naviguons dans les défis et les opportunités présentés par l'IA dans divers secteurs.

En résumé, bien que l'IA ait beaucoup de promesses, nos perceptions et nos croyances sur ses capacités doivent être en phase avec sa performance réelle pour maximiser les bénéfices de cette technologie. En favorisant une compréhension plus réaliste, on peut faciliter des pratiques d'adoption plus intelligentes et améliorer nos résultats collectifs dans le domaine de l'IA.

Source originale

Titre: Human Learning about AI Performance

Résumé: How do humans assess the performance of Artificial Intelligence (AI) across different tasks? AI has been noted for its surprising ability to accomplish very complex tasks while failing seemingly trivial ones. We show that humans engage in ``performance anthropomorphism'' when assessing AI capabilities: they project onto AI the ability model that they use to assess humans. In this model, observing an agent fail an easy task is highly diagnostic of a low ability, making them unlikely to succeed at any harder task. Conversely, a success on a hard task makes successes on any easier task likely. We experimentally show that humans project this model onto AI. Both prior beliefs and belief updating about AI performance on standardized math questions appear consistent with the human ability model. This contrasts with actual AI performance, which is uncorrelated with human difficulty in our context, and makes such beliefs misspecified. Embedding our framework into an adoption model, we show that patterns of under- and over-adoption can be sustained in an equilibrium with anthropomorphic beliefs.

Auteurs: Bnaya Dreyfuss, Raphael Raux

Dernière mise à jour: 2024-06-08 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2406.05408

Source PDF: https://arxiv.org/pdf/2406.05408

Licence: https://creativecommons.org/licenses/by-nc-sa/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Articles similaires