Migliorare la segmentazione delle immagini mediche con dati limitati
Un nuovo metodo migliora la segmentazione delle immagini mediche usando l'apprendimento semi-supervisionato.
― 5 leggere min
Indice
La Segmentazione delle immagini mediche è un passo fondamentale per diagnosticare malattie e pianificare trattamenti. Però, ottenere abbastanza dati etichettati per questo compito può essere davvero complicato, visto che raccogliere queste immagini è costoso e richiede tempo. Poiché i dati non etichettati sono spesso più disponibili, l'Apprendimento semi-supervisionato (SSL) è emerso come un metodo che sfrutta sia i dati etichettati limitati che un numero maggiore di immagini non etichettate.
I metodi SSL di solito si concentrano sull'uso delle abbondanti immagini non etichettate per migliorare l'apprendimento dopo aver compreso alcune informazioni di base dai pochi dati etichettati. Tuttavia, molti metodi esistenti spesso non riescono a imparare in modo efficace dai dati etichettati limitati. Per affrontare questo problema, i recenti sviluppi nell'uso di modelli di segmentazione generali, come il Segment Anything Model (SAM), offrono una soluzione potenziale utilizzando meno dati etichettati per adattarsi a nuovi compiti.
Panoramica del Segment Anything Model (SAM)
Il Segment Anything Model è uno strumento potente che ha dimostrato una grande adattabilità in vari compiti. Impara da ampi dataset naturali, rendendolo capace di trasferire le sue conoscenze a nuovi compiti con solo un piccolo quantitativo di dati etichettati aggiuntivi. Tuttavia, molti approcci che utilizzano SAM per la segmentazione delle immagini mediche si concentrano principalmente sull'addestrarlo completamente con una grande quantità di dati etichettati. Questo non è il modo migliore di sfruttare le sue capacità, specialmente quando la quantità di dati etichettati è limitata.
Alcuni recenti tentativi hanno cercato di usare SAM in un contesto semi-supervisionato, ma spesso trattano SAM come un elemento separato per generare etichette pseudo per le immagini mediche. Questo può portare a problemi di performance a causa delle differenze tra immagini naturali e mediche.
Metodo Proposto
Per migliorare come SAM possa essere utilizzato per la segmentazione delle immagini mediche con dati etichettati limitati, proponiamo un nuovo metodo che chiamiamo Cross Prompting Consistency with Segment Anything Model (CPC-SAM). Il nostro approccio sfrutta il design unico dei prompt di SAM e crea un sistema in cui due rami interagiscono per guidare l'apprendimento. Così facendo, impara in modo efficiente sia dai dati etichettati limitati che dalla grande quantità di dati non etichettati.
Strategia di Cross Prompting
Il cuore del nostro metodo risiede nella strategia di cross prompting, che coinvolge due rami del modello. Ogni ramo genera prompt per l'altro basandosi sulle loro uscite. L’idea di base è che quando un ramo fornisce un'uscita senza prompt, il secondo ramo può usare quell'uscita per creare prompt che guideranno il primo ramo. Questo prompting bidirezionale permette un apprendimento più efficace.
Tuttavia, poiché i dati non etichettati possono portare a prompt rumorosi, abbiamo bisogno di un modo per garantire che le uscite siano comunque affidabili. Per affrontare questo, abbiamo incorporato una strategia di regolarizzazione della coerenza dei prompt. Questo significa che vogliamo assicurarci che le uscite di SAM rimangano coerenti anche quando utilizziamo prompt diversi, minimizzando la sensibilità di SAM a dove sono posizionati i prompt.
Valutazione Sperimentale
Per convalidare il nostro metodo, abbiamo testato CPC-SAM su due dataset pubblici di immagini mediche: uno per il cancro al seno e un altro per le strutture cardiache. Abbiamo scoperto che il nostro approccio ha superato gli attuali metodi semi-supervisionati di ultima generazione, raggiungendo miglioramenti significativi nell'accuratezza della segmentazione.
Dettagli del Dataset
- Dataset sul Cancro al Seno: Questo dataset consiste in immagini ecografiche utilizzate per identificare tumori benigni e maligni.
- Dataset sulle Strutture Cardiache: Questo dataset include scansioni MRI del cuore, focalizzandosi su diverse aree che necessitano di essere segmentate con precisione.
Nei nostri test, abbiamo utilizzato solo un numero ridotto di immagini etichettate e ci siamo basati pesantemente su quelle non etichettate per dimostrare quanto bene possa funzionare il nostro metodo anche con poche informazioni iniziali.
Risultati
I risultati hanno mostrato che il nostro metodo ha ottenuto oltre il 9% di miglioramento nel Coefficiente di Dice nella segmentazione per il cancro al seno, dimostrando anche una performance superiore nel dataset cardiaco. Questo conferma che CPC-SAM può utilizzare efficacemente i dati non etichettati per migliorare il processo di apprendimento.
Vantaggi del Metodo Proposto
I punti di forza chiave del nostro approccio possono essere riassunti come segue:
Utilizzo Efficace di Dati Etichettati Limitati: Sfruttando le capacità di SAM, possiamo ottenere buoni risultati di apprendimento anche con un piccolo dataset iniziale etichettato.
Apprendimento Bidirezionale: La strategia di cross prompting consente al modello di affinare continuamente la propria comprensione utilizzando le uscite di entrambi i rami per informarsi reciprocamente.
Stabilità attraverso la Regolarizzazione: La regolarizzazione della coerenza dei prompt aiuta a garantire che le uscite rimangano affidabili, affrontando il potenziale rumore introdotto dai prompt dei dati non etichettati.
Performance Robusta: Il nostro metodo mostra miglioramenti costanti rispetto a vari metodi esistenti, soprattutto quando i dati etichettati sono scarsi.
Conclusione e Lavori Futuri
In conclusione, il nostro framework CPC-SAM collega efficacemente il divario tra l'uso di dati etichettati limitati e abbondanti dati non etichettati nei compiti di segmentazione delle immagini mediche. Dimostra che con le giuste strategie, anche piccoli dataset etichettati possono portare a modelli robusti che funzionano bene su compiti complessi.
Guardando al futuro, abbiamo in programma di esplorare ulteriori strategie per selezionare prompt che porteranno a uscite ancora più affidabili. Vogliamo anche indagare sull'uso di altri tipi di prompt o diverse modalità per migliorare ulteriormente i risultati della segmentazione. La nostra ricerca in corso continuerà a concentrarsi su come rendere l'apprendimento semi-supervisionato più efficiente ed efficace nel campo dell'imaging medico.
Titolo: Cross Prompting Consistency with Segment Anything Model for Semi-supervised Medical Image Segmentation
Estratto: Semi-supervised learning (SSL) has achieved notable progress in medical image segmentation. To achieve effective SSL, a model needs to be able to efficiently learn from limited labeled data and effectively exploiting knowledge from abundant unlabeled data. Recent developments in visual foundation models, such as the Segment Anything Model (SAM), have demonstrated remarkable adaptability with improved sample efficiency. To harness the power of foundation models for application in SSL, we propose a cross prompting consistency method with segment anything model (CPC-SAM) for semi-supervised medical image segmentation. Our method employs SAM's unique prompt design and innovates a cross-prompting strategy within a dual-branch framework to automatically generate prompts and supervisions across two decoder branches, enabling effectively learning from both scarce labeled and valuable unlabeled data. We further design a novel prompt consistency regularization, to reduce the prompt position sensitivity and to enhance the output invariance under different prompts. We validate our method on two medical image segmentation tasks. The extensive experiments with different labeled-data ratios and modalities demonstrate the superiority of our proposed method over the state-of-the-art SSL methods, with more than 9% Dice improvement on the breast cancer segmentation task.
Autori: Juzheng Miao, Cheng Chen, Keli Zhang, Jie Chuai, Quanzheng Li, Pheng-Ann Heng
Ultimo aggiornamento: 2024-07-07 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2407.05416
Fonte PDF: https://arxiv.org/pdf/2407.05416
Licenza: https://creativecommons.org/licenses/by/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.