Simple Science

Scienza all'avanguardia spiegata semplicemente

# Informatica# Visione artificiale e riconoscimento di modelli

Nuovo metodo rivela i pregiudizi nei modelli di imaging medico

Un nuovo approccio identifica i bias nella segmentazione delle immagini mediche senza bisogno di etichette specifiche.

― 6 leggere min


Rilevazione deiRilevazione deipregiudizi nell'imagingmediconei modelli di imaging medico.Un metodo per individuare i pregiudizi
Indice

Studi recenti hanno mostrato che i modelli di deep learning usati per comprendere le immagini mediche possono avere dei Pregiudizi contro certi gruppi di persone. Questi gruppi sono spesso definiti da caratteristiche come sesso o etnia. Per questo motivo, è importante controllare se questi modelli siano equi. Verificare la loro equità di solito richiede informazioni specifiche sulle immagini, che non è sempre facile ottenere, soprattutto quando si passa dalla creazione dei modelli all'uso in situazioni reali. Questo articolo presenta un nuovo metodo mirato a identificare i pregiudizi nella Segmentazione delle immagini mediche senza necessitare di informazioni dettagliate precedenti.

Il metodo descritto aiuta a scoprire se ci sono pregiudizi in un modello utilizzando un approccio diverso noto come accuratezza di classificazione inversa. Questo approccio aiuta a prevedere quanto bene sta funzionando un modello, anche quando non ci sono etichette specifiche disponibili. I test effettuati sia in scenari controllati che nel mondo reale dimostrano quanto sia efficace questo metodo nel rivelare problemi di equità nella segmentazione delle immagini mediche.

L'importanza dell'equità nell'imaging medico

I sistemi di machine learning possono mostrare pregiudizi basati su vari fattori come razza e genere. Questo problema è particolarmente critico quando si tratta di compiti di imaging medico, come diagnosticare malattie o segmentare strutture anatomiche nel corpo. Pertanto, è fondamentale valutare questi modelli secondo metriche di equità per garantire che funzionino altrettanto bene tra diversi gruppi di persone.

Un modo comune per identificare problemi di equità nei modelli è attraverso un framework standard di equità di gruppo, che di solito richiede due informazioni essenziali: dettagli demografici delle immagini analizzate e le etichette corrette per ciò che quelle immagini mostrano. Purtroppo, in molti casi, queste informazioni non sono disponibili. Ad esempio, le immagini mediche spesso non forniscono i dettagli necessari a causa delle normative sulla privacy. Inoltre, ottenere etichette scritte da esperti per molte immagini può richiedere molto tempo e denaro, rendendo difficile raccogliere abbastanza dati. Inoltre, potremmo voler controllare l'equità di un modello già in uso su un nuovo gruppo di persone senza avere le etichette corrette.

Per affrontare queste sfide, è stato creato questo nuovo metodo di scoperta di pregiudizi non supervisionata (UBD) specificamente per la segmentazione delle immagini mediche. Permette di identificare pregiudizi senza necessitare delle etichette specifiche o delle informazioni demografiche sui dati.

Come funziona la scoperta di pregiudizi non supervisionata?

Il termine UBD significa trovare pregiudizi nascosti in un modello senza fare affidamento su dati etichettati o informazioni demografiche. Ci sono due scenari principali in cui applicare questo metodo. Nel primo scenario, un modello può avere accesso a etichette corrette ma non alle informazioni demografiche per suddividere i risultati in diversi gruppi. Il secondo scenario, che è più rilevante per il nostro scopo, prevede avere attributi demografici disponibili ma nessuna etichetta corretta per la popolazione target.

Questo articolo si concentra principalmente sul secondo scenario, dove l'obiettivo è rilevare pregiudizi in situazioni senza etichette adeguate, in particolare nella segmentazione delle immagini mediche. Considerando che l'equità può cambiare passando a diversi gruppi di pazienti nell'assistenza sanitaria, è cruciale imparare a prevedere le preoccupazioni sull'equità in nuove popolazioni dove la distribuzione dei dati può cambiare, soprattutto senza avere le etichette necessarie.

Ricerca correlata

La segmentazione anatomica, o identificazione delle diverse parti del corpo nelle immagini mediche, è un compito chiave nell'analisi delle immagini mediche. Ha molte applicazioni, tra cui monitorare la salute dei pazienti e pianificare trattamenti. Esistono già molti metodi per misurare le Prestazioni della segmentazione quando le etichette corrette non sono disponibili, principalmente per il controllo qualità automatico.

Alcune tecniche utilizzano l'incertezza prevista per valutare la qualità dell'output, assumendo che le previsioni altamente incerte siano più propense a essere errate. Tuttavia, l'efficacia di questi metodi dipende fortemente da quanto bene il modello stima l'incertezza. Altri metodi comportano l'addestramento di reti neurali separate per prevedere la qualità della segmentazione, che richiede anche ulteriore addestramento e non è sempre pratico.

Il nuovo metodo UBD si basa sull'approccio dell'accuratezza di classificazione inversa. Questo metodo utilizza un'immagine di test e la sua segmentazione prevista come stima della qualità. Un classificatore viene quindi valutato utilizzando un database di immagini con segmentazioni conosciute. Le performance di questo classificatore servono come indicazione della qualità della segmentazione prevista.

I contributi dello studio

Questo nuovo studio è il primo del suo genere a esaminare la scoperta di pregiudizi non supervisionata nella segmentazione delle immagini mediche. Implementando un approccio di deep learning basato sull'accuratezza di classificazione inversa, mostra potenziale nel rivelare pregiudizi nei modelli di segmentazione. Il metodo UBD è stato testato specificamente su immagini di radiografie toraciche, evidenziando pregiudizi legati al sesso quando non erano disponibili maschere di segmentazione dettagliate. Questo è significativo perché dimostra il potenziale di monitorare l'equità nelle impostazioni mediche del mondo reale.

Metodologia della scoperta di pregiudizi non supervisionata

Il metodo UBD valuta i modelli analizzando le differenze nelle performance tra i gruppi demografici. Le misure di performance vengono prese utilizzando un coefficiente che varia da -1 a 1. Un valore più vicino a zero indica un modello equo, dove entrambi i gruppi performano altrettanto bene. Senza le etichette di segmentazione corrette per la popolazione target, lo studio utilizza queste misure di performance per stimare i divari nell'efficacia del modello tra i diversi gruppi demografici.

Per gli esperimenti, i ricercatori hanno esaminato la capacità di segmentare i polmoni e i cuori nelle immagini a raggi X analizzando il sesso come caratteristica protetta. Hanno utilizzato vari dataset, consentendo una valutazione completa del metodo UBD proposto.

Risultati e scoperte degli esperimenti

Per verificare l'efficacia del nuovo metodo, i ricercatori hanno condotto esperimenti sia sintetici che reali. Gli esperimenti sintetici hanno permesso test controllati, rendendo facile manipolare le performance del modello in base al sesso. In questo scenario, è stato stabilito che i pazienti maschi o femmine avrebbero ricevuto risultati di segmentazione migliori, fornendo intuizioni sui pregiudizi del modello.

I risultati hanno dimostrato una chiara correlazione tra i pregiudizi stimati e le performance effettive, indicando che il metodo UBD è uno strumento valido per identificare pregiudizi nascosti.

Negli esperimenti realistici, i modelli sono stati addestrati specificamente su sottoinsiemi di genere di un dataset di addestramento. Nonostante i noti problemi riguardanti i disallineamenti dei dati, è emerso che i modelli performavano costantemente meglio sui pazienti femminili, indipendentemente dai dati di addestramento utilizzati. I divari di performance stimati mostrano una forte correlazione con i divari di performance effettivi, confermando l'affidabilità del metodo UBD.

Conclusione

Con l'aumento della popolarità dei metodi automatizzati per l'imaging medico, la responsabilità di garantire che i modelli non favoriscano gruppi specifici diventa sempre più urgente. Il metodo UBD, come discusso, offre un approccio nuovo per identificare potenziali pregiudizi quando le informazioni di verità di base non sono disponibili.

Lo studio illustra che anche in contesti in cui è difficile ottenere annotazioni dettagliate, è possibile anticipare efficacemente i problemi di equità. In generale, questo nuovo metodo promette di garantire che i sistemi di segmentazione delle immagini mediche possano operare equamente tra vari gruppi demografici.

Fonte originale

Titolo: Unsupervised bias discovery in medical image segmentation

Estratto: It has recently been shown that deep learning models for anatomical segmentation in medical images can exhibit biases against certain sub-populations defined in terms of protected attributes like sex or ethnicity. In this context, auditing fairness of deep segmentation models becomes crucial. However, such audit process generally requires access to ground-truth segmentation masks for the target population, which may not always be available, especially when going from development to deployment. Here we propose a new method to anticipate model biases in biomedical image segmentation in the absence of ground-truth annotations. Our unsupervised bias discovery method leverages the reverse classification accuracy framework to estimate segmentation quality. Through numerical experiments in synthetic and realistic scenarios we show how our method is able to successfully anticipate fairness issues in the absence of ground-truth labels, constituting a novel and valuable tool in this field.

Autori: Nicolás Gaggion, Rodrigo Echeveste, Lucas Mansilla, Diego H. Milone, Enzo Ferrante

Ultimo aggiornamento: 2023-09-01 00:00:00

Lingua: English

URL di origine: https://arxiv.org/abs/2309.00451

Fonte PDF: https://arxiv.org/pdf/2309.00451

Licenza: https://creativecommons.org/licenses/by/4.0/

Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.

Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.

Altro dagli autori

Articoli simili