Navigieren von Vertrauen in KI bei Gesundheitsentscheidungen
Untersuchung, wie die Unsicherheit von KI die Entscheidungsfindung im Gesundheitswesen beeinflusst.
― 7 min Lesedauer
Inhaltsverzeichnis
Die Zusammenarbeit zwischen Menschen und KI wird immer wichtiger, besonders in Bereichen wie dem Gesundheitswesen. Ein zentraler Aspekt dieser Partnerschaft ist, wie sehr die Leute auf KI angewiesen sind. Es ist entscheidend, das richtige Gleichgewicht zu finden, damit Menschen KI nutzen, wenn sie zuverlässig ist, aber trotzdem ihre eigenen Entscheidungen treffen, wenn es nötig ist. Dieser Artikel schaut sich an, wie die Anzeige von Unsicherheit in KI-Vorhersagen die Entscheidungsfindung der Nutzer beeinflussen kann. Ausserdem wird die Rolle der anfänglichen Entscheidungen der Nutzer und der demografischen Daten der Nutzer bei KI-unterstützten Entscheidungen untersucht.
Die Bedeutung angemessener Abhängigkeit
Damit Menschen und KI gut zusammenarbeiten, müssen die Nutzer wissen, wie sehr sie den Ratschlägen der KI Vertrauen können. Wenn Nutzer zu sehr auf KI angewiesen sind, kann ihre Leistung darunter leiden, besonders wenn die KI Fehler macht. Um die Zusammenarbeit zwischen Menschen und KI zu verbessern, ist es entscheidend zu verstehen, wie man Nutzer in ihrer Abhängigkeit von KI lenken kann.
Forschung hat gezeigt, dass Nutzer oft Schwierigkeiten haben, zu wissen, wann sie der KI vertrauen sollen. In vielen Studien haben Leute mehr auf KI vertraut als auf ihr eigenes Urteil, was in einigen Fällen zu schlechten Ergebnissen führte. Dieses Problem kann besonders ernst sein in kritischen Situationen wie der medizinischen Entscheidungsfindung. Zum Beispiel, wenn ein Nutzer der KI beim Diagnostizieren von Hautkrebs übermässig vertraut, kann das schädliche Folgen haben.
Unsicherheit in KI-Vorhersagen darstellen
Eine Möglichkeit, Nutzern zu helfen, ihre Abhängigkeit von KI zu managen, ist die Darstellung von Modellunsicherheit. Wenn eine KI eine Vorhersage trifft, kann das Zeigen, wie sicher sie bei dieser Vorhersage ist, den Nutzern helfen zu entscheiden, ob sie den Ratschlägen der KI folgen oder sie in Frage stellen. Diese Studie untersucht, wie unterschiedliche Arten der Präsentation dieser Unsicherheitsinformationen das Verhalten der Nutzer beeinflussen können.
Es gibt verschiedene Methoden, um die Unsicherheit von KI darzustellen. Eine gängige Methode ist, einen Prozentwert für das Vertrauen neben der Vorhersage der KI anzuzeigen. Wenn die KI zum Beispiel sagt, dass eine Hautläsion mit 90%iger Sicherheit krebsartig ist, gibt das dem Nutzer Kontext für seine Entscheidungsfindung. Allerdings kann das blosse Anzeigen von Vertrauensprozenten nicht immer effektiv sein.
Einige Forscher schlagen vor, frequenzbasierte Darstellungen zu verwenden. Statt zu sagen "90% sicher", könnten die Nutzer etwas sehen wie "In 100 ähnlichen Fällen waren 90 krebsartig." Dieser Frequenzansatz kann oft einfacher für die Nutzer zu interpretieren sein und zu einer angemesseneren Abhängigkeit von KI führen.
Der Einfluss anfänglicher Nutzerentscheidungen
Die Entscheidungen, die Nutzer treffen, bevor sie die Vorschläge der KI sehen, spielen ebenfalls eine grosse Rolle. Diese anfänglichen Entscheidungen können beeinflussen, wie sehr sie sich auf die KI verlassen. Wenn ein Nutzer zum Beispiel glaubt, dass eine Hautläsion gutartig ist, basierend auf seiner eigenen Einschätzung, wird er vielleicht weniger bereit sein, einer KI zu vertrauen, die das Gegenteil sagt, egal wie sicher die KI ist.
In unserer Forschung haben wir herausgefunden, dass Nutzer, die anfangs unsicher über ihre Entscheidungen waren, offener dafür waren, ihre endgültige Antwort zu ändern, nachdem sie die Empfehlung der KI gesehen hatten. Im Gegensatz dazu waren Nutzer, die sehr zuversichtlich in ihrer anfänglichen Einschätzung waren, weniger bereit, ihre Meinung zu ändern, selbst wenn die Vorhersage der KI stark widersprach.
Diese Tendenz zeigt, wie wichtig es ist, die anfänglichen Denkprozesse der Nutzer bei der Gestaltung von KI-Systemen zu berücksichtigen. Zu wissen, wie die erste Entscheidung eines Nutzers dessen Vertrauen in die KI beeinflussen kann, kann helfen, die Zusammenarbeit zwischen Menschen und KI zu verbessern.
Nutzerdemografie
Die Hintergründe der Nutzer, wie Alter und Vertrautheit mit Statistiken, beeinflussen ebenfalls, wie sie mit KI interagieren. Jüngere Nutzer oder solche mit weniger Wissen über Statistiken könnten Schwierigkeiten haben, die Vertrauensniveaus von KI zu interpretieren. Sie neigen möglicherweise auch eher dazu, übermässig auf KI zu vertrauen, weil sie sich weniger sicher in ihrem eigenen Urteil fühlen.
Auf der anderen Seite könnten ältere Nutzer oder jene mit mehr Erfahrung in Statistiken skeptischer gegenüber KI sein. Das Verständnis dieser demografischen Faktoren kann Designern helfen, effektivere KI-Systeme zu schaffen, die auf verschiedene Nutzergruppen abgestimmt sind.
Studienkontext
Um diese Ideen zu untersuchen, wurde eine Studie zum Thema Hautkrebscreening durchgeführt. Die Teilnehmer wurden gebeten, Bilder von Hautläsionen zu bewerten und ihre Meinungen abzugeben, während sie KI-Unterstützung erhielten. Das Ziel war herauszufinden, wie verschiedene Arten der Darstellung von KI-Unsicherheit die Entscheidungsfindung beeinflussen würden.
Die Teilnehmer wurden in Gruppen aufgeteilt, um unterschiedliche Arten von Unsicherheitsinformationen zu erhalten: einige erhielten keine Unsicherheitsinformationen, während andere das Vertrauen als Prozentsatz oder in Frequenzform erhielten. Danach wurden ihre Entscheidungen und Vertrauensniveaus aufgezeichnet, um ihr Vertrauen in die KI zu verstehen.
Ergebnisse und Diskussion
Die Ergebnisse zeigten, dass die blosse Verwendung von Vertrauensprozenten die Entscheidungsfindung der Nutzer im Vergleich zur Bereitstellung von keinen Unsicherheitsinformationen nicht signifikant verbesserte. Viele Nutzer hatten Schwierigkeiten, diese Vertrauenszahlen zu interpretieren, was zu Missverständnissen darüber führte, wie sehr sie sich auf die KI verlassen sollten.
Im Gegensatz dazu schienen frequenzbasierte Darstellungen das Verständnis der Nutzer für die Vorhersagen der KI zu verbessern. Nutzer, die Unsicherheitsinformationen im Frequenzformat erhielten, waren eher bereit, ihre Abhängigkeit von der KI basierend auf dem Vertrauen, das die KI ausdrückte, anzupassen.
Die Studie hob auch den Einfluss anfänglicher Entscheidungen hervor. Nutzer mit niedrigem anfänglichen Vertrauen waren anpassungsfähiger gegenüber den Vorschlägen der KI, während Nutzer mit höherem anfänglichen Vertrauen oft fest an ihren ursprünglichen Bewertungen festhielten, selbst wenn die KI widersprach.
Demografische Faktoren erwiesen sich ebenfalls als bedeutende Einflussgrössen. Jüngere Teilnehmer und solche mit weniger Vertrautheit mit Statistiken neigten dazu, mehr auf die KI zu vertrauen, während ältere Nutzer und solche, die besser in Statistiken informiert waren, kritischer gegenüber den Vorschlägen der KI waren.
Gestaltung für effektive Zusammenarbeit
Angesichts der Ergebnisse wird klar, dass die Gestaltung von KI-Systemen ein nuanciertes Verständnis davon erfordert, wie Nutzer Informationen interpretieren und Entscheidungen treffen. Die effektive Präsentation von KI-Unsicherheit kann die Nutzer dazu befähigen, besser mit ihrer Abhängigkeit von KI umzugehen.
Durch das Anpassen von KI-Präsentationen basierend auf den demografischen Daten der Nutzer und ihren anfänglichen Entscheidungen kann eine effektivere Zusammenarbeit zwischen Mensch und KI erreicht werden. Zum Beispiel könnten jüngere oder weniger erfahrene Nutzer mehr von Frequenzpräsentationen profitieren, während ältere oder besser informierte Nutzer zusätzlichen Kontext benötigen, um sich mit den Vorschlägen der KI wohl zu fühlen.
Zukünftige Richtungen
Für zukünftige Arbeiten sollten Forscher weiterhin untersuchen, wie verschiedene Nutzergruppen mit KI interagieren und wie ihre demografischen Faktoren diese Interaktion beeinflussen. Das Ziel ist, personalisierte KI-Systeme zu schaffen, die sich an die Bedürfnisse der Nutzer anpassen und deren Entscheidungsfähigkeiten verbessern.
Zusätzlich könnte die Untersuchung anderer Formen der Nutzerunterstützung, wie Erklärungen zu KI-Vorhersagen und Schulungen der Nutzer zur Verbesserung ihres Verständnisses von KI, von Vorteil sein. Durch einen umfassenden Ansatz zur Verständnis von KI kann ein besseres Vertrauen und eine bessere Abhängigkeit aufgebaut werden.
Fazit
Die Studie zeigt, wie die Darstellung von Unsicherheit in KI-Vorhersagen das Vertrauen der Nutzer und die Entscheidungsfindung beeinflusst. Sie zeigt, dass Frequenzdarstellungen das Verständnis verbessern können, während anfängliche Nutzerentscheidungen und demografische Daten das Vertrauen und das Abhängigkeitsverhalten erheblich beeinflussen. Diese Erkenntnisse helfen, bessere KI-Systeme für die menschliche Zusammenarbeit zu gestalten, insbesondere in kritischen Bereichen wie dem Gesundheitswesen. Indem wir die Hintergründe der Nutzer berücksichtigen und die KI-Präsentationen entsprechend anpassen, können wir die Gesamteffektivität der Zusammenarbeit zwischen Mensch und KI verbessern.
Titel: Designing for Appropriate Reliance: The Roles of AI Uncertainty Presentation, Initial User Decision, and User Demographics in AI-Assisted Decision-Making
Zusammenfassung: Appropriate reliance is critical to achieving synergistic human-AI collaboration. For instance, when users over-rely on AI assistance, their human-AI team performance is bounded by the model's capability. This work studies how the presentation of model uncertainty may steer users' decision-making toward fostering appropriate reliance. Our results demonstrate that showing the calibrated model uncertainty alone is inadequate. Rather, calibrating model uncertainty and presenting it in a frequency format allow users to adjust their reliance accordingly and help reduce the effect of confirmation bias on their decisions. Furthermore, the critical nature of our skin cancer screening task skews participants' judgment, causing their reliance to vary depending on their initial decision. Additionally, step-wise multiple regression analyses revealed how user demographics such as age and familiarity with probability and statistics influence human-AI collaborative decision-making. We discuss the potential for model uncertainty presentation, initial user decision, and user demographics to be incorporated in designing personalized AI aids for appropriate reliance.
Autoren: Shiye Cao, Anqi Liu, Chien-Ming Huang
Letzte Aktualisierung: 2024-01-15 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2401.05612
Quell-PDF: https://arxiv.org/pdf/2401.05612
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.