Simple Science

Scienza all'avanguardia spiegata semplicemente

# Scienze della salute# Dermatologia

Capire l'IA in Dermatologia: La Necessità di Chiarezza

Uno sguardo al processo decisionale dell'IA in dermatologia e le sue implicazioni per la cura dei pazienti.

― 6 leggere min


AI in Dermatologia:AI in Dermatologia:Problemi di Fiduciapazienti.dell'AI per garantire la sicurezza deiEsaminare il processo decisionale
Indice

Negli ultimi anni, l'uso di strumenti AI nella sanità, specialmente in dermatologia, è cresciuto rapidamente. Questi sistemi AI possono analizzare immagini mediche, spesso con l'obiettivo di rilevare condizioni della pelle come il melanoma, una forma seria di cancro della pelle. Tuttavia, ci sono lacune significative nella nostra conoscenza su come questi sistemi AI prendono le loro decisioni. Questa mancanza di chiarezza solleva preoccupazioni sulla loro affidabilità e sicurezza per la cura dei pazienti.

La sfida della decisione dell'AI

I dispositivi AI medici spesso usano algoritmi complessi chiamati reti neurali, che apprendono da grandi quantità di dati. Anche se questi sistemi possono fornire risultati impressionanti, il loro funzionamento interno non è spesso ben compreso. Questa opacità significa che anche i professionisti della salute, i regolatori e gli sviluppatori di questi dispositivi AI potrebbero non afferrare appieno come questi sistemi arrivano alle loro conclusioni. Comprendere come l'AI prende decisioni è fondamentale, poiché potrebbe aiutare a prevenire errori e migliorare i risultati per i pazienti.

Limiti attuali

Fino ad oggi, ci sono stati tentativi di far luce su come funzionano i sistemi AI in medicina. Tuttavia, questi sforzi hanno generalmente fornito solo informazioni limitate. Molte tecniche esistenti si concentrano su se l'AI sta analizzando le aree corrette dell'immagine, ma non offrono una visione completa del ragionamento del sistema. Questa mancanza di comprensione globale può portare a trascurare difetti critici nella logica decisionale dei dispositivi AI.

Focus sull'AI in dermatologia

Il campo della dermatologia fornisce un caso studio unico per indagare il ragionamento dell'AI medica. I dispositivi AI dermatologici hanno riportato un'alta precisione nel rilevare diverse condizioni della pelle. Alcuni di questi dispositivi hanno persino ottenuto approvazione per l'uso in contesti medici. Tuttavia, presentano anche rischi specifici, in particolare quando utilizzati direttamente dai pazienti senza la guida di professionisti sanitari. Fattori come il Pregiudizio sul tono della pelle e la vasta varietà di immagini scattate dai consumatori possono influenzare l'affidabilità di questi sistemi AI.

Problemi chiave con le tecniche di analisi AI attuali

La maggior parte dei metodi di analisi attuali, come le mappe di salienza, evidenziano aree in un'immagine che influenzano la decisione dell'AI. Tuttavia, queste tecniche potrebbero non essere sufficienti per le applicazioni dermatologiche, dove spesso sono richiesti concetti dermatologici più sfumati. Spiegare la previsione di un'AI implica una profonda comprensione sia della tecnologia che della dermatologia stessa, il che può portare a sfide nell'interpretare i risultati.

Approccio proposto

Per affrontare questi problemi, è stato sviluppato un nuovo metodo per esaminare i processi di ragionamento dei modelli di AI dermatologici. Questo approccio combina l'analisi dell'AI con le intuizioni di esperti di dermatologia. Generando immagini controfattuali - foto che sono state modificate per analizzare come cambiano le previsioni dell'AI - i ricercatori possono identificare quali fattori influenzano le decisioni dell'AI.

Come funzionano le immagini controfattuali

Le immagini controfattuali servono a illustrare quali cambiamenti a una lesione cutanea potrebbero portare l'AI a fare una previsione diversa. Ad esempio, se un'AI prevede che una lesione cutanea sia maligna, i ricercatori possono alterare specifiche Caratteristiche di quell'immagine (come la pigmentazione o la texture) per vedere se l'AI la prevede come benigna. Questo aiuta a comprendere gli attributi che l'AI considera significativi.

Analisi dei controfattuali con input esperti

In questo studio, sono stati analizzati numerosi modelli di AI dermatologici per ottenere migliori intuizioni sui loro processi di ragionamento. Esperti di dermatologia hanno analizzato le immagini controfattuali generate da questi modelli. Confrontando i risultati su molte immagini e coinvolgendo più esperti, l'analisi mirava a ridurre il pregiudizio e fornire una comprensione più robusta.

Risultati chiave dalla valutazione dell'AI in dermatologia

Le performance dei dispositivi AI dermatologici variavano significativamente. Alcuni modelli performavano bene su specifici set di dati, mentre altri faticavano, specialmente con immagini che non corrispondevano ai loro dati di addestramento. Questa incoerenza evidenzia la diversità dei processi di ragionamento interni tra diversi dispositivi AI.

Importanza della pigmentazione e di altre caratteristiche

Un'osservazione costante è stata l'importanza della pigmentazione nelle lesioni. I modelli AI spesso interpretavano una pigmentazione più scura come un segno di maggiore probabilità di malignità. Alcuni dispositivi si basavano anche su altre caratteristiche dermatologiche, come schemi di pigmento atipici o il numero di colori presenti in una lesione. Questi risultati si allineano con le intuizioni degli dermatologi umani, che considerano anch'essi queste caratteristiche nella valutazione delle condizioni della pelle.

Fattori diversi che influenzano le previsioni dell'AI

Oltre alle caratteristiche delle lesioni, attributi di sfondo come la texture e il colore della pelle influenzavano le previsioni dell'AI. Ad esempio, la presenza di capelli o di diversi toni di pelle potrebbe portare a previsioni variabili a seconda del modello specifico utilizzato. Queste intuizioni suggeriscono che mentre alcune caratteristiche sono clinicamente rilevanti, altre potrebbero non avere una chiara significatività clinica.

La necessità di una valutazione rigorosa

Lo studio ha evidenziato la necessità di un esame rigoroso dei dispositivi AI dermatologici. Comprendendo come questi sistemi operano, gli sviluppatori possono migliorare i loro modelli e garantire che siano sicuri per l'uso clinico. È essenziale identificare potenziali pregiudizi e carenze, in particolare riguardo a come diversi toni di pelle potrebbero influenzare le previsioni.

Imparare dagli errori dell'AI

La ricerca ha anche esaminato casi in cui i dispositivi AI hanno fatto previsioni errate. In molte istanze, gli attributi che hanno portato a errori erano simili a quelli che i dermatologi umani avrebbero considerato. Questo solleva la questione se gli errori dell'AI siano sempre irragionevoli o se riflettano le complessità coinvolte nella diagnosi delle condizioni della pelle.

Conclusione: Costruire fiducia nell'AI medica

In definitiva, questa esplorazione dei processi di ragionamento dei dispositivi AI dermatologici offre preziose intuizioni per migliorare la loro affidabilità. Colmando il divario tra la tecnologia dell'AI e la pratica clinica, possiamo promuovere una comprensione più profonda di come funzionano questi sistemi. Questa comprensione sarà critica per garantire che gli strumenti AI siano utilizzati in modo sicuro ed efficace nella cura dei pazienti, specialmente man mano che diventeranno più integrati nelle pratiche mediche.

Direzioni future

Man mano che l'AI continua a evolversi nel campo della sanità, è necessaria ulteriore ricerca per esplorare a fondo le sue implicazioni. Sviluppando framework che combinano analisi tecnica con conoscenze mediche esperte, possiamo meglio valutare e migliorare le performance dell'AI in dermatologia e in altre specialità mediche.

Fonte originale

Titolo: Dissection of medical AI reasoning processes via physician and generative-AI collaboration

Estratto: Despite the proliferation and clinical deployment of artificial intelligence (AI)-based medical software devices, most remain black boxes that are uninterpretable to key stakeholders including patients, physicians, and even the developers of the devices. Here, we present a general model auditing framework that combines insights from medical experts with a highly expressive form of explainable AI that leverages generative models, to understand the reasoning processes of AI devices. We then apply this framework to generate the first thorough, medically interpretable picture of the reasoning processes of machine-learning-based medical image AI. In our synergistic framework, a generative model first renders "counterfactual" medical images, which in essence visually represent the reasoning process of a medical AI device, and then physicians translate these counterfactual images to medically meaningful features. As our use case, we audit five high-profile AI devices in dermatology, an area of particular interest since dermatology AI devices are beginning to achieve deployment globally. We reveal how dermatology AI devices rely both on features used by human dermatologists, such as lesional pigmentation patterns, as well as multiple, previously unreported, potentially undesirable features, such as background skin texture and image color balance. Our study also sets a precedent for the rigorous application of explainable AI to understand AI in any specialized domain and provides a means for practitioners, clinicians, and regulators to uncloak AIs powerful but previously enigmatic reasoning processes in a medically understandable way.

Autori: Su-In Lee, A. J. DeGrave, Z. R. Cai, J. D. Janizek, R. Daneshjou

Ultimo aggiornamento: 2023-05-16 00:00:00

Lingua: English

URL di origine: https://www.medrxiv.org/content/10.1101/2023.05.12.23289878

Fonte PDF: https://www.medrxiv.org/content/10.1101/2023.05.12.23289878.full.pdf

Licenza: https://creativecommons.org/licenses/by-nc/4.0/

Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.

Si ringrazia medrxiv per l'utilizzo della sua interoperabilità ad accesso aperto.

Altro dagli autori

Articoli simili