Collaboration IA : Confiance et Compréhension dans la Prise de Décision
Examiner comment la confiance des utilisateurs influence la collaboration avec les systèmes d'IA.
― 6 min lire
Table des matières
L'IA et les modèles d'apprentissage automatique sont utilisés dans plein de domaines importants, comme la santé et la justice. Mais se fier entièrement à ces modèles peut poser des problèmes éthiques. Mieux vaut que les humains bossent avec ces systèmes pour prendre des décisions ensemble. Cette étude vise à examiner comment l'incertitude dans les prévisions des modèles et leurs explications peuvent influencer la confiance et la compréhension des systèmes d'IA.
L'importance de la collaboration humain-IA
Dans des domaines critiques, se fier seulement à l'IA peut être risqué. Quand les humains collaborent avec l'IA, ils gardent le contrôle sur les décisions, ce qui peut être crucial dans des situations à enjeux élevés. L'objectif est de tirer le meilleur des deux, des gens et des machines. Comprendre quand faire confiance aux prévisions du modèle est essentiel pour cette collaboration.
Facteurs influençant l'interaction humain-IA
Des recherches montrent que la fiabilité d'un modèle et la confiance que l'utilisateur ressent dans ses propres capacités sont cruciales pour façonner leur relation avec l'IA. Des modèles fiables et des utilisateurs confiants prennent généralement de meilleures décisions ensemble.
Facteurs liés au modèle
L'IA explicable a conduit à de nombreuses études sur comment différents types d'explications influencent la compréhension et la Confiance des utilisateurs. Certaines études suggèrent que fournir des prévisions claires et des estimations d'incertitude peut aider les utilisateurs à se sentir plus en sécurité quant à la fiabilité du modèle. Ces estimations sont simples à communiquer et peuvent être très utiles.
Facteurs liés à l'utilisateur
La confiance en soi des utilisateurs peut fortement impacter leur interaction avec l'IA. Des études passées indiquent que quand les gens se sentent plus capables, ils sont moins enclins à faire confiance aux systèmes automatisés. Cependant, en ce qui concerne la prise de décisions conjointes, l'effet de la confiance en soi n'a pas été suffisamment étudié.
L'étude
Cette étude examine comment la confiance des utilisateurs et le soutien du modèle affectent la collaboration entre humains et IA. Elle vise à découvrir comment différents types d'assistance du modèle influencent la précision et la confiance.
Questions de recherche
Les chercheurs se demandent :
- Comment la confiance de l'utilisateur impacte-t-elle la précision des prévisions en utilisant l'IA ?
- Les estimations d'incertitude et les explications des prévisions du modèle fonctionnent-elles mieux ensemble ?
- Quels sont les effets des différents types d'informations sur la dépendance et la compréhension des utilisateurs ?
- Comment la confiance en soi influence-t-elle le comportement des utilisateurs dans la prise de décisions ?
Conception expérimentale
Des participants ont été recrutés pour une étude en ligne où ils prédisaient des salaires basés sur diverses caractéristiques personnelles. Ils ont reçu différentes formes d'assistance du modèle tout au long de la tâche pour voir comment cela influençait leur précision et leur compréhension.
Détails de la tâche
La tâche consistait à prédire si le salaire d'un individu était au-dessus ou en dessous d'un certain montant selon des caractéristiques comme l'âge, l'éducation et la profession. Le modèle fournissait des prévisions avec des degrés d'incertitude et des explications variables.
Le rôle de l'assistance du modèle
Les participants ont été divisés en groupes, chaque groupe recevant différents types d'assistance du modèle :
- Prédiction seule : Les participants voyaient seulement la prédiction du modèle.
- Confiance locale : Les participants voyaient la prédiction du modèle avec son niveau de confiance.
- Confiance combinée : Les participants recevaient à la fois la prédiction et des informations supplémentaires sur la performance globale du modèle.
- Explications : Les participants recevaient des explications détaillées des prévisions du modèle.
Résultats
L'étude a montré que quand les utilisateurs avaient peu de confiance mais recevaient des prévisions à haute confiance du modèle, leur performance s'améliorait significativement.
Aperçus de performance
Les participants qui ont reçu des prévisions avec des informations de confiance étaient plus précis que ceux qui ne voyaient que les prévisions du modèle. Cela suggère que simplement savoir à quel point le modèle est sûr peut aider les utilisateurs à prendre de meilleures décisions.
Compréhension du modèle
Les participants ayant reçu des explications ont mieux compris les prévisions du modèle. Les explications les ont aidés à saisir comment le modèle arrivait à ses décisions, suggérant que les explications renforcent la compréhension et la confiance envers le modèle.
L'impact de la confiance en soi
L'étude a mis en avant comment la confiance en soi peut influencer la dépendance à l'IA. Quand les utilisateurs manquaient de confiance, ils étaient plus susceptibles de faire confiance et de suivre les prévisions du modèle. Cependant, les utilisateurs confiants avaient tendance à se fier davantage à leur propre jugement, ce qui pouvait impacter l'efficacité de la collaboration.
L'effet de la confiance et de la dépendance
La confiance est une partie essentielle du travail avec l'IA. Cette étude a exploré comment la dépendance au modèle était corrélée au niveau de confiance des participants dans les prévisions du modèle. Fait intéressant, la dépendance ne se traduisait pas toujours par de la confiance.
Problèmes de mesure de la confiance
Les méthodes utilisées pour mesurer la confiance reposaient souvent sur l'accord avec les prévisions du modèle ou sur le fait que les utilisateurs modifiaient leurs prévisions pour s'aligner sur le modèle. Ces mesures pourraient ne pas refléter fidèlement la vraie confiance, car les participants pouvaient être d'accord sans réellement faire confiance au modèle.
Conclusion
Cette étude éclaire comment combiner les estimations d'incertitude et les explications peut avoir un impact significatif sur la prise de décision humaine en collaboration avec l'IA. Elle montre que même si les modèles peuvent être fiables, la confiance en soi des gens et leur compréhension du fonctionnement du modèle sont clés pour réussir les interactions.
Directions futures
Les recherches futures devraient se concentrer sur comment différents types d'informations peuvent améliorer la collaboration entre humains et IA. Il est également important d'explorer si les gens peuvent poser des questions ou interagir avec les modèles de manière plus dynamique, car cela pourrait mener à de meilleurs résultats dans des situations à enjeux élevés.
Titre: Why not both? Complementing explanations with uncertainty, and the role of self-confidence in Human-AI collaboration
Résumé: AI and ML models have already found many applications in critical domains, such as healthcare and criminal justice. However, fully automating such high-stakes applications can raise ethical or fairness concerns. Instead, in such cases, humans should be assisted by automated systems so that the two parties reach a joint decision, stemming out of their interaction. In this work we conduct an empirical study to identify how uncertainty estimates and model explanations affect users' reliance, understanding, and trust towards a model, looking for potential benefits of bringing the two together. Moreover, we seek to assess how users' behaviour is affected by their own self-confidence in their abilities to perform a certain task, while we also discuss how the latter may distort the outcome of an analysis based on agreement and switching percentages.
Auteurs: Ioannis Papantonis, Vaishak Belle
Dernière mise à jour: 2023-04-27 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2304.14130
Source PDF: https://arxiv.org/pdf/2304.14130
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.