Navigare la fiducia nell'IA nelle decisioni sanitarie
Esaminare come l'incertezza dell'IA influisce sulle decisioni nella sanità.
― 7 leggere min
Indice
- L'importanza di una dipendenza appropriata
- Presentazione dell'incertezza nelle previsioni dell'AI
- L'impatto delle decisioni iniziali degli utenti
- Demografia degli utenti
- Contesto dello studio
- Risultati e discussione
- Progettazione per una collaborazione efficace
- Direzioni future
- Conclusione
- Fonte originale
- Link di riferimento
Il lavoro di collaborazione tra umani e AI sta diventando sempre più importante, soprattutto in settori come la salute. Un aspetto chiave di questa partnership è quanto le persone dipendano dall'AI per ricevere supporto. È essenziale trovare il giusto equilibrio dove gli umani usano l'AI quando è affidabile, ma prendono comunque le proprie Decisioni quando serve. Questo articolo esplora come mostrare l'Incertezza nelle previsioni dell'AI possa influenzare il modo in cui gli utenti prendono decisioni. Analizza anche il ruolo delle decisioni iniziali degli utenti e delle loro caratteristiche demografiche nella decisione assistita dall'AI.
L'importanza di una dipendenza appropriata
Per far funzionare bene umani e AI insieme, gli utenti devono sapere quanto fidarsi dei consigli dell'AI. Se gli utenti dipendono troppo dall'AI, le loro performance possono risentirne, soprattutto se l'AI commette errori. Per migliorare il lavoro di squadra tra umani e AI, è fondamentale capire come guidare gli utenti nella loro dipendenza dall'AI.
La ricerca ha dimostrato che gli utenti spesso fanno fatica a capire quando fidarsi dell'AI. In molti studi, le persone si sono fidate di più dell'AI che del loro giudizio, portando a risultati scarsi in alcuni casi. Questo problema può essere particolarmente grave in scenari ad alto rischio come le decisioni mediche. Per esempio, se un utente si fida eccessivamente dell'AI nella diagnosi del cancro della pelle, può portare a conseguenze dannose.
Presentazione dell'incertezza nelle previsioni dell'AI
Un modo per aiutare gli utenti a gestire la loro dipendenza dall'AI è attraverso la presentazione dell'incertezza del modello. Quando un'AI fornisce una previsione, mostrare quanto è certa di quella previsione può guidare gli utenti a decidere se accettare o mettere in discussione il consiglio dell'AI. Questo studio esamina come diversi modi di presentare queste informazioni sull'incertezza possano influenzare i comportamenti di dipendenza degli utenti.
Ci sono vari metodi per presentare l'incertezza dell'AI. Un metodo comune è mostrare una percentuale di fiducia accanto alla previsione dell'AI. Ad esempio, se un'AI dice che una lesione cutanea è cancerosa con il 90% di fiducia, questo può dare all'utente un contesto per le loro decisioni. Tuttavia, semplicemente mostrare percentuali di fiducia potrebbe non essere sempre efficace.
Alcuni ricercatori suggeriscono di usare presentazioni basate sulla frequenza. Invece di dire "90% di fiducia," gli utenti potrebbero vedere qualcosa come "In 100 casi simili, 90 si sono rivelati cancerosi." Questo approccio basato sulla frequenza può spesso essere più facile per gli utenti da interpretare e potrebbe portare a una dipendenza più appropriata dall'AI.
L'impatto delle decisioni iniziali degli utenti
Le decisioni che gli utenti prendono prima di vedere le raccomandazioni dell'AI giocano anche un ruolo significativo. Queste scelte iniziali possono influenzare quanto si fidano dell'AI. Per esempio, se un utente crede che una lesione cutanea sia benigna sulla base della propria valutazione, potrebbe essere meno propenso a fidarsi di un'AI che dice il contrario, indipendentemente dal livello di fiducia dell'AI.
Nella nostra ricerca, abbiamo scoperto che gli utenti che erano inizialmente incerti sulle loro decisioni erano più aperti a cambiare la loro risposta finale dopo aver visto la raccomandazione dell'AI. Al contrario, gli utenti che erano molto sicuri della loro valutazione iniziale erano meno propensi a cambiare idea, anche quando la previsione dell'AI era in forte disaccordo.
Questa tendenza dimostra quanto sia importante considerare i processi di pensiero iniziali degli utenti nella progettazione dei sistemi AI. Sapere come la prima decisione di un utente possa influenzare la loro fiducia nell'AI può aiutare a migliorare il lavoro di squadra complessivo tra umani e AI.
Demografia degli utenti
Le origini degli utenti, come la loro età e la familiarità con le statistiche, influenzano anche come interagiscono con l'AI. Gli utenti più giovani o quelli con meno conoscenza delle statistiche potrebbero fare fatica a interpretare i livelli di fiducia dell'AI. Potrebbero anche essere più inclini a fidarsi eccessivamente dell'AI perché si sentono meno sicuri nel loro giudizio.
D'altra parte, gli utenti più anziani o quelli con più esperienza nelle statistiche potrebbero essere più scettici nei confronti dell'AI. Comprendere questi fattori demografici può aiutare i progettisti a creare sistemi AI più efficaci su misura per diversi gruppi di utenti.
Contesto dello studio
Per indagare queste idee, è stato condotto uno studio focalizzato sullo screening per il cancro della pelle. Ai partecipanti è stato chiesto di valutare immagini di lesioni cutanee e fornire le loro opinioni mentre ricevevano assistenza dall'AI. L'obiettivo era vedere come diversi modi di mostrare l'incertezza dell'AI avrebbero influenzato la presa di decisione.
I partecipanti sono stati divisi in gruppi per ricevere diversi tipi di informazioni sull'incertezza: alcuni non hanno ricevuto informazioni sull'incertezza, mentre altri hanno ricevuto la fiducia sotto forma di percentuale o in forma di frequenza. Dopo, le loro decisioni e i livelli di fiducia sono stati registrati per capire la loro dipendenza dall'AI.
Risultati e discussione
I risultati hanno mostrato che semplicemente usare percentuali di fiducia non ha migliorato significativamente la presa di decisione degli utenti rispetto a fornire nessuna informazione sull'incertezza. Molti utenti hanno fatto fatica a interpretare questi numeri di fiducia, portando a malintesi su quanto dovessero fidarsi dell'AI.
Al contrario, le presentazioni basate sulla frequenza sembravano migliorare la comprensione degli utenti delle previsioni dell'AI. Gli utenti che hanno ricevuto informazioni sull'incertezza in formato frequenza erano più inclini ad aggiustare la loro dipendenza dall'AI in base alla fiducia espressa dall'AI.
Lo studio ha anche evidenziato l'impatto delle decisioni iniziali. Gli utenti con bassa fiducia iniziale erano più adattabili alle suggerimenti dell'AI, mentre gli utenti con alta fiducia iniziale tendevano a mantenere fermamente le loro valutazioni originali, anche quando l'AI non era d'accordo.
I fattori demografici sono emersi anche come influenze significative. I partecipanti più giovani e quelli con meno familiarità con le statistiche tendevano a fidarsi di più dell'AI, mentre gli utenti più anziani e quelli più esperti in statistiche erano più critici nei confronti dei suggerimenti dell'AI.
Progettazione per una collaborazione efficace
Date queste scoperte, è chiaro che progettare sistemi AI richiede una comprensione sfumata di come gli utenti interpretano le informazioni e prendono decisioni. Presentare l'incertezza dell'AI in modo efficace può dare potere agli utenti per gestire meglio la loro dipendenza dall'AI.
Adattare le presentazioni dell'AI in base alle caratteristiche demografiche degli utenti e alle decisioni iniziali può portare a una collaborazione uomo-AI più efficace. Ad esempio, gli utenti più giovani o meno esperti potrebbero trarre maggior beneficio dalle presentazioni basate sulla frequenza, mentre gli utenti più anziani o più esperti potrebbero aver bisogno di un contesto aggiuntivo per sentirsi a loro agio con i suggerimenti dell'AI.
Direzioni future
Per lavori futuri, i ricercatori dovrebbero continuare a esplorare come diversi gruppi di utenti interagiscono con l'AI e come i loro fattori demografici influenzano questa interazione. L'obiettivo è creare sistemi AI più personalizzati che si adattino alle esigenze degli utenti, migliorando le loro capacità decisionali.
Inoltre, indagare altre forme di supporto per gli utenti, come spiegazioni sulle previsioni dell'AI e formazione per migliorare la loro comprensione dell'AI, potrebbe essere utile. Fornendo un approccio completo alla comprensione dell'AI, si può coltivare una migliore fiducia e dipendenza.
Conclusione
Lo studio illustra come la presentazione dell'incertezza nelle previsioni dell'AI influenzi la dipendenza e la presa di decisione degli utenti. Mostra che le presentazioni basate sulla frequenza possono migliorare la comprensione, mentre le decisioni iniziali degli utenti e le loro caratteristiche demografiche influenzano significativamente il comportamento di fiducia e dipendenza. Queste intuizioni aiutano a informare la progettazione di sistemi AI migliori per la collaborazione umana, soprattutto in settori critici come la salute. Considerando le origini degli utenti e adattando di conseguenza le presentazioni dell'AI, possiamo migliorare l'efficacia complessiva del lavoro di squadra tra umani e AI.
Titolo: Designing for Appropriate Reliance: The Roles of AI Uncertainty Presentation, Initial User Decision, and User Demographics in AI-Assisted Decision-Making
Estratto: Appropriate reliance is critical to achieving synergistic human-AI collaboration. For instance, when users over-rely on AI assistance, their human-AI team performance is bounded by the model's capability. This work studies how the presentation of model uncertainty may steer users' decision-making toward fostering appropriate reliance. Our results demonstrate that showing the calibrated model uncertainty alone is inadequate. Rather, calibrating model uncertainty and presenting it in a frequency format allow users to adjust their reliance accordingly and help reduce the effect of confirmation bias on their decisions. Furthermore, the critical nature of our skin cancer screening task skews participants' judgment, causing their reliance to vary depending on their initial decision. Additionally, step-wise multiple regression analyses revealed how user demographics such as age and familiarity with probability and statistics influence human-AI collaborative decision-making. We discuss the potential for model uncertainty presentation, initial user decision, and user demographics to be incorporated in designing personalized AI aids for appropriate reliance.
Autori: Shiye Cao, Anqi Liu, Chien-Ming Huang
Ultimo aggiornamento: 2024-01-15 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2401.05612
Fonte PDF: https://arxiv.org/pdf/2401.05612
Licenza: https://creativecommons.org/licenses/by/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.