Simple Science

Scienza all'avanguardia spiegata semplicemente

# Ingegneria elettrica e scienze dei sistemi# Visione artificiale e riconoscimento di modelli# Intelligenza artificiale# Apprendimento automatico# Elaborazione di immagini e video

Avanzamenti nell'imaging della prostata con MicroSegNet

Il nuovo modello migliora la segmentazione della prostata nelle immagini di micro-ecografia.

― 6 leggere min


MicroSegNet RivoluzionaMicroSegNet Rivoluzional'Imaging della Prostataalla prostata.l'accuratezza della diagnosi del cancroLa segmentazione automatizzata migliora
Indice

L'ecografia micro (micro-US) è una tecnica avanzata di imaging medico che funziona a una frequenza di 29 MHz. Questo offre una visione molto più chiara della prostata rispetto ai metodi di ecografia tradizionali, fornendo una risoluzione 3-4 volte superiore. La micro-US può diagnosticare il cancro alla prostata con un'accuratezza simile alla risonanza magnetica, ma è più economica.

La segmentazione accurata della prostata è fondamentale per misurare il suo volume, diagnosticare il cancro, effettuare biopsie e pianificare il trattamento. Tuttavia, segmentare la prostata nelle immagini di micro-US può essere piuttosto complicato. Artefatti e bordi poco chiari tra prostata, vescica e uretra rendono spesso difficile questo compito.

Per affrontare questi problemi, è stato sviluppato un nuovo modello chiamato MicroSegNet. Questo modello utilizza un approccio di annotazione multi-scala e un'architettura transformer nota come UNet. MicroSegNet è progettato specificamente per migliorare la segmentazione della prostata nelle immagini di micro-US. Durante l'addestramento, il modello presta più attenzione alle aree difficili, che sono definite come regioni in cui diversi annotatori non concordano sui confini.

La parte innovativa di MicroSegNet è il suo metodo di addestramento. Utilizza una nuova funzione di perdita chiamata entropia incrociata binaria guidata da annotazione (AG-BCE). Questa funzione dà più importanza agli errori commessi nelle regioni difficili, mentre gli errori meno importanti nelle regioni facili ricevono un peso inferiore. Questo approccio mira ad aiutare il modello a imparare in modo più efficace nelle aree problematiche.

L'addestramento di MicroSegNet è stato condotto utilizzando immagini di 55 pazienti, con le sue prestazioni valutate su immagini di altri 20 pazienti. Il modello ha ottenuto risultati impressionanti, con un Coefficiente di Dice di 0.942, che indica un'alta accuratezza nella segmentazione, insieme a una distanza di Hausdorff di 2.11 mm. Questa prestazione ha superato quella di diversi altri metodi di segmentazione ben noti e ha superato il lavoro di annotatori umani con livelli di esperienza variabili.

Il cancro alla prostata è il cancro più comune diagnosticato negli uomini negli Stati Uniti. Si stima che nel 2022 ci siano stati circa 268.490 nuovi casi e circa 34.500 morti direttamente a causa della malattia. La diagnosi precoce è cruciale, poiché può migliorare drasticamente le possibilità di sopravvivenza.

Attualmente, vengono eseguite circa 1 milione di biopsie alla prostata guidate da ecografia transrettale (TRUS) ogni anno negli Stati Uniti. A causa delle limitazioni delle immagini TRUS, molte raccomandazioni suggeriscono di combinare biopsie mirate e biopsie sistematiche. Sfortunatamente, solo circa il 12% dei campioni di biopsia rivela cancro significativo, portando a complicazioni inutili come emorragie e infezioni.

L'ecografia micro è emersa come un'alternativa promettente. La sua risoluzione più alta può fornire dettagli migliori in tempo reale, evitando errori di fusione delle immagini che possono verificarsi con combinazioni di risonanza magnetica e ecografia. Tuttavia, interpretare le immagini di micro-US è complicato, il che ha rallentato la sua adozione. L'obiettivo dell'apprendimento automatico in questo contesto è assistere nell'identificazione automatica della capsula prostatica. Fare ciò consentirebbe confronti più facili con altri metodi diagnostici e porterebbe a una migliore stadiazione del cancro.

La segmentazione della prostata nelle immagini di micro-US affronta sfide cognitive. Prima di tutto, i professionisti medici sono abituati a vedere le immagini in certe orientazioni, mentre la micro-US fornisce immagini in angoli diversi. Secondo, le sovrapposizioni tra prostata, vescica e strutture circostanti rendono spesso difficile identificare la prostata. Infine, malattie come la calcificazione prostatica possono introdurre artefatti nelle immagini, complicando ulteriormente la rilevazione.

Di conseguenza, l'identificazione delle posizioni dei campioni di biopsia prostatica spesso si affida a metodi più complessi piuttosto che relazionarla direttamente alla capsula prostatica. Questo processo di segmentazione manuale è lento e non pratico per casi ad alto volume. A causa della qualità dell'immagine migliorata offerta dalla micro-US, molti specialisti preferiscono ancora la risonanza magnetica per la pianificazione del trattamento, poiché può produrre una mappa 3D completa delle sedi tumorali.

MicroSegNet è stato sviluppato come soluzione a queste sfide, essendo il primo approccio di deep learning specificamente per la segmentazione della prostata nelle immagini di micro-US. Il modello si basa su un'architettura robusta chiamata TransUNet, che include un meccanismo di autoattenzione per migliorare la rilevazione dei confini.

Una caratteristica unica di MicroSegNet è la sua supervisione profonda multi-scala. Questa tecnica cattura informazioni a scale diverse, consentendo al modello di raccogliere sia informazioni contestuali ampie che dettagliate sulle immagini. Inoltre, la sua funzione di perdita AG-BCE si concentra sull'addestramento del modello in modo più rigoroso nelle aree difficili da segmentare.

Per ulteriormente migliorare le prestazioni del modello, i ricercatori hanno utilizzato annotazioni sia da annotatori esperti che meno esperti. Il contributo dei non esperti è prezioso perché è più facile da raccogliere e aggiunge diversità ai dati di addestramento. Le aree in cui le annotazioni esperte e quelle dei non esperti non concordano sono trattate come regioni difficili, mentre le aree di accordo sono considerate facili.

Il set di addestramento consisteva in 2.060 immagini di micro-US dai 55 pazienti iniziali, mentre un set separato di 758 immagini è stato utilizzato per la valutazione. Sono stati confrontati tre diversi modelli di segmentazione: il UNet standard, TransUNet e un modello specializzato chiamato Dilated Residual UNet (DRUNet). L'addestramento è stato eseguito per 10 epoche, con impostazioni mantenute uniformi in tutti i test per garantire coerenza.

Le metriche di valutazione includevano il coefficiente di Dice, che misura la sovrapposizione tra le segmentazioni previste e quelle reali della prostata. Un coefficiente di Dice più alto indica migliori prestazioni. Inoltre, è stata utilizzata la distanza di Hausdorff per misurare le massime discrepanze di confine, concentrandosi sul 95° percentile delle distanze per ignorare piccoli outlier.

I risultati hanno mostrato che MicroSegNet ha superato tutti i modelli concorrenti sia nelle misurazioni del coefficiente di Dice sia in quelle della distanza di Hausdorff. L'aggiunta della supervisione multi-scala e della perdita AG-BCE ha contribuito significativamente a questo miglioramento.

Rispetto agli annotatori umani, che spaziavano da uno studente di master a un urologo esperto, MicroSegNet ha comunque fornito risultati superiori. Questo suggerisce il potenziale del modello come strumento di supporto per i professionisti medici durante le biopsie e per migliorare gli sforzi di rilevamento del cancro.

È stato anche condotto uno studio di ablatore per testare come pesi diversi per le regioni difficili e facili impattassero l'efficacia del modello. I risultati hanno indicato che aumentare il peso sulle regioni difficili migliorava le prestazioni, ma solo fino a un certo punto. Un'eccessiva attenzione alle regioni difficili ha portato eventualmente a una diminuzione delle prestazioni complessive del modello nelle segmentazioni più facili.

L'ecografia micro ha dimostrato di essere un metodo promettente per l'imaging del cancro alla prostata, offrendo feedback in tempo reale a un costo inferiore rispetto ai metodi tradizionali. Tuttavia, una limitazione è la difficoltà nel produrre immagini 3D a causa del modo in cui questi scan sono formattati. L'incapacità di orientare correttamente i dati di imaging ha reso difficile confrontare i risultati tra diversi diagnostici o tracciare accuratamente le posizioni dei campioni di biopsia.

In conclusione, l'introduzione di MicroSegNet segna un passo avanti nella segmentazione automatizzata della prostata utilizzando immagini di ecografia micro. L'integrazione della funzione di perdita AG-BCE, che sfrutta le annotazioni dei non esperti, rappresenta un contributo significativo per migliorare la segmentazione nelle aree difficili. Con ulteriori ricerche e accesso aperto al dataset creato, c'è grande potenziale per ulteriori progressi in questo campo.

Fonte originale

Titolo: MicroSegNet: A Deep Learning Approach for Prostate Segmentation on Micro-Ultrasound Images

Estratto: Micro-ultrasound (micro-US) is a novel 29-MHz ultrasound technique that provides 3-4 times higher resolution than traditional ultrasound, potentially enabling low-cost, accurate diagnosis of prostate cancer. Accurate prostate segmentation is crucial for prostate volume measurement, cancer diagnosis, prostate biopsy, and treatment planning. However, prostate segmentation on micro-US is challenging due to artifacts and indistinct borders between the prostate, bladder, and urethra in the midline. This paper presents MicroSegNet, a multi-scale annotation-guided transformer UNet model designed specifically to tackle these challenges. During the training process, MicroSegNet focuses more on regions that are hard to segment (hard regions), characterized by discrepancies between expert and non-expert annotations. We achieve this by proposing an annotation-guided binary cross entropy (AG-BCE) loss that assigns a larger weight to prediction errors in hard regions and a lower weight to prediction errors in easy regions. The AG-BCE loss was seamlessly integrated into the training process through the utilization of multi-scale deep supervision, enabling MicroSegNet to capture global contextual dependencies and local information at various scales. We trained our model using micro-US images from 55 patients, followed by evaluation on 20 patients. Our MicroSegNet model achieved a Dice coefficient of 0.939 and a Hausdorff distance of 2.02 mm, outperforming several state-of-the-art segmentation methods, as well as three human annotators with different experience levels. Our code is publicly available at https://github.com/mirthAI/MicroSegNet and our dataset is publicly available at https://zenodo.org/records/10475293.

Autori: Hongxu Jiang, Muhammad Imran, Preethika Muralidharan, Anjali Patel, Jake Pensa, Muxuan Liang, Tarik Benidir, Joseph R. Grajo, Jason P. Joseph, Russell Terry, John Michael DiBianco, Li-Ming Su, Yuyin Zhou, Wayne G. Brisbane, Wei Shao

Ultimo aggiornamento: 2024-01-25 00:00:00

Lingua: English

URL di origine: https://arxiv.org/abs/2305.19956

Fonte PDF: https://arxiv.org/pdf/2305.19956

Licenza: https://creativecommons.org/licenses/by-nc-sa/4.0/

Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.

Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.

Altro dagli autori

Articoli simili