Simple Science

La science de pointe expliquée simplement

# Informatique# Interaction homme-machine

Naviguer la confiance dans l'IA pour les décisions de santé

Examiner comment l'incertitude de l'IA impacte la prise de décision en santé.

― 8 min lire


Confiance de l'IA dansConfiance de l'IA dansles décisions de santéchoix médicaux.Impact de l'incertitude de l'IA sur les
Table des matières

Le taf de la collaboration humain-AI devient de plus en plus important, surtout dans des domaines comme la santé. Un truc clé de ce partenariat, c'est combien les gens comptent sur l'IA pour avoir du soutien. C'est super important d'avoir le bon équilibre où les humains utilisent l'IA quand elle est fiable mais prennent quand même leurs propres Décisions quand il le faut. Cet article examine comment montrer l'Incertitude dans les prédictions de l'IA peut influencer les décisions des utilisateurs. Il regarde aussi le rôle des décisions initiales des utilisateurs et des démographies dans la prise de décision assistée par l'IA.

L'Importance d'une Confiance Appropriée

Pour que les humains et l'IA bossent bien ensemble, les utilisateurs doivent savoir à quel point faire confiance aux conseils de l’IA. Si les utilisateurs dépendent trop de l'IA, leurs performances peuvent en pâtir, surtout si l'IA fait des erreurs. Pour améliorer le travail d'équipe entre les humains et l'IA, c'est crucial de comprendre comment guider les utilisateurs dans leur dépendance à l'IA.

Des recherches ont montré que les utilisateurs ont souvent du mal à savoir quand faire confiance à l’IA. Dans plusieurs études, les gens se sont fiés à l'IA plus qu'à leur propre jugement, ce qui a conduit à de mauvais résultats dans certains cas. Ce problème peut être encore plus grave dans des situations à enjeux élevés comme la Prise de décisions médicales. Par exemple, si un utilisateur a trop confiance en l’IA pour diagnostiquer un cancer de la peau, ça peut conduire à des conséquences néfastes.

Présenter l'Incertitude dans les Prédictions de l'IA

Un moyen d'aider les utilisateurs à gérer leur dépendance à l'IA, c'est de présenter l'incertitude du modèle. Quand l’IA fait une prédiction, montrer à quel point elle est certaine de cette prédiction peut guider les utilisateurs dans leur décision d'accepter ou de remettre en question le conseil de l’IA. Cette étude examine comment différentes manières de fournir ces infos d'incertitude peuvent influencer les comportements de dépendance des utilisateurs.

Il y a plusieurs méthodes pour présenter l'incertitude de l'IA. Une méthode courante est de montrer un pourcentage de confiance à côté de la prédiction de l’IA. Par exemple, si une IA dit qu'une lésion cutanée est cancéreuse avec 90% de confiance, ça peut donner au utilisateur un contexte pour sa prise de décision. Cependant, montrer simplement des pourcentages de confiance peut ne pas toujours être efficace.

Certains chercheurs suggèrent d'utiliser des présentations basées sur la fréquence. Au lieu de dire "90% de confiance", les utilisateurs pourraient voir quelque chose comme "Dans 100 cas similaires, 90 se sont révélés cancéreux." Cette approche de fréquence peut souvent être plus facile à interpréter pour les utilisateurs et peut conduire à une dépendance plus appropriée à l'IA.

L'Impact des Décisions Initiales des Utilisateurs

Les décisions que les utilisateurs prennent avant de voir les suggestions de l’IA jouent aussi un rôle important. Ces choix initiaux peuvent biaiser à quel point ils se fient à l’IA. Par exemple, si un utilisateur pense qu'une lésion cutanée est bénigne en se basant sur son propre jugement, il pourrait être moins enclin à faire confiance à une IA disant le contraire, peu importe le niveau de confiance de l’IA.

Dans notre recherche, on a trouvé que les utilisateurs qui étaient au départ incertains sur leurs décisions étaient plus ouverts à changer leur réponse finale après avoir vu la recommandation de l’IA. À l'inverse, les utilisateurs qui étaient très sûrs de leur évaluation initiale étaient moins susceptibles de changer d'avis, même lorsque la prédiction de l’IA était fortement en désaccord.

Cette tendance montre à quel point il est important de considérer les processus de pensée initiaux des utilisateurs dans la conception des systèmes d’IA. Savoir comment la première décision d'un utilisateur peut influencer sa confiance en l’IA peut aider à améliorer le travail d'équipe global entre humains et IA.

Démographies des Utilisateurs

Les arrière-plans des utilisateurs, comme leur âge et leur familiarité avec les statistiques, influencent aussi comment ils interagissent avec l'IA. Les utilisateurs plus jeunes ou ceux qui connaissent moins les statistiques pourraient avoir du mal à interpréter les niveaux de confiance de l’IA. Ils pourraient aussi être plus enclins à trop se fier à l’IA parce qu'ils se sentent moins sûrs de leur propre jugement.

D'un autre côté, les utilisateurs plus âgés ou ceux qui ont plus d'expérience en statistiques pourraient être plus sceptiques envers l’IA. Comprendre ces facteurs démographiques peut aider les concepteurs à créer des systèmes d’IA plus efficaces adaptés à différents groupes d'utilisateurs.

Contexte de l'Étude

Pour explorer ces idées, une étude a été menée sur le dépistage du cancer de la peau. Les participants devaient évaluer des images de lésions cutanées et donner leur avis tout en recevant de l'assistance de l’IA. Le but était de voir comment différentes façons de présenter l'incertitude de l’IA influenceraient la prise de décision.

Les participants ont été divisés en groupes pour recevoir différents types d'informations d'incertitude : certains n'ont reçu aucune information d'incertitude, tandis que d'autres ont reçu la confiance sous forme de pourcentage ou de fréquence. Après ça, leurs décisions et niveaux de confiance ont été enregistrés pour comprendre leur dépendance à l’IA.

Résultats et Discussion

Les résultats ont montré que simplement utiliser des pourcentages de confiance n'améliorait pas significativement la prise de décision des utilisateurs comparé à ne fournir aucune information d'incertitude. Beaucoup d'utilisateurs ont eu du mal à interpréter ces chiffres de confiance, entraînant des malentendus sur à quel point ils devraient se fier à l’IA.

En revanche, les présentations basées sur la fréquence semblaient améliorer la compréhension des utilisateurs sur les prédictions de l’IA. Les utilisateurs qui ont reçu des informations d'incertitude sous forme de fréquence étaient plus susceptibles d'ajuster leur dépendance à l’IA en fonction de la confiance que l’IA exprimait.

L'étude a aussi mis en avant l'impact des décisions initiales. Les utilisateurs avec une faible confiance initiale étaient plus adaptables aux suggestions de l’IA, tandis que les utilisateurs avec une confiance initiale plus élevée restaient souvent fermement attachés à leurs évaluations initiales, même lorsque l’IA était en désaccord.

Les facteurs démographiques se sont aussi révélés comme des influences significatives. Les participants plus jeunes et ceux qui avaient moins de familiarité avec les statistiques avaient tendance à se fier davantage à l'IA, tandis que les utilisateurs plus âgés et ceux plus informés sur les statistiques étaient plus critiques envers les suggestions de l’IA.

Concevoir pour une Collaboration Efficace

Étant donné les résultats, il devient clair que concevoir des systèmes d’IA nécessite une compréhension nuancée de comment les utilisateurs interprètent l'information et prennent des décisions. Présenter efficacement l'incertitude de l’IA peut aider les utilisateurs à mieux naviguer leur dépendance à l’IA.

Adapter les présentations de l’IA en fonction des démographies des utilisateurs et des décisions initiales peut mener à une collaboration humain-IA plus efficace. Par exemple, les utilisateurs plus jeunes ou moins expérimentés pourraient davantage bénéficier des présentations par fréquence, tandis que les utilisateurs plus âgés ou plus informés pourraient avoir besoin de contexte supplémentaire pour se sentir à l'aise avec les suggestions de l’IA.

Directions Futures

Pour les travaux futurs, les chercheurs devraient continuer à explorer comment différents groupes d'utilisateurs interagissent avec l’IA et comment leurs facteurs démographiques influencent cette interaction. L'objectif est de créer des systèmes d’IA plus personnalisés qui s'adaptent aux besoins des utilisateurs, améliorant ainsi leurs capacités de prise de décision.

De plus, étudier d'autres formes de soutien aux utilisateurs, comme des explications sur les prédictions de l’IA et former les utilisateurs pour améliorer leur compréhension de l’IA, pourrait être bénéfique. En offrant une approche complète pour comprendre l’IA, on peut cultiver une meilleure confiance et dépendance.

Conclusion

L'étude illustre comment présenter l'incertitude dans les prédictions de l’IA affecte la dépendance et la prise de décision des utilisateurs. Elle montre que les présentations par fréquence peuvent améliorer la compréhension, tandis que les décisions initiales des utilisateurs et les démographies ont un impact significatif sur le comportement de confiance et de dépendance. Ces idées aident à informer la conception de meilleurs systèmes d’IA pour la collaboration humaine, surtout dans des domaines à enjeux élevés comme la santé. En prenant en compte les arrière-plans des utilisateurs et en adaptant les présentations de l’IA en conséquence, on peut améliorer l'efficacité globale du travail d'équipe humain-IA.

Source originale

Titre: Designing for Appropriate Reliance: The Roles of AI Uncertainty Presentation, Initial User Decision, and User Demographics in AI-Assisted Decision-Making

Résumé: Appropriate reliance is critical to achieving synergistic human-AI collaboration. For instance, when users over-rely on AI assistance, their human-AI team performance is bounded by the model's capability. This work studies how the presentation of model uncertainty may steer users' decision-making toward fostering appropriate reliance. Our results demonstrate that showing the calibrated model uncertainty alone is inadequate. Rather, calibrating model uncertainty and presenting it in a frequency format allow users to adjust their reliance accordingly and help reduce the effect of confirmation bias on their decisions. Furthermore, the critical nature of our skin cancer screening task skews participants' judgment, causing their reliance to vary depending on their initial decision. Additionally, step-wise multiple regression analyses revealed how user demographics such as age and familiarity with probability and statistics influence human-AI collaborative decision-making. We discuss the potential for model uncertainty presentation, initial user decision, and user demographics to be incorporated in designing personalized AI aids for appropriate reliance.

Auteurs: Shiye Cao, Anqi Liu, Chien-Ming Huang

Dernière mise à jour: 2024-01-15 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2401.05612

Source PDF: https://arxiv.org/pdf/2401.05612

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires