Evoluzioni nella Imaging Medica: Vantaggi dell'Auto-Formazione e dell'Apprendimento Attivo
Combinare il self-training e l'active learning migliora l'efficienza nell'analisi delle immagini mediche.
― 6 leggere min
Indice
Il deep learning ha avuto un grande impatto in tanti settori, specialmente nelle immagini mediche. Un compito chiave è segmentare le strutture anatomiche nelle scansioni di macchine come la MRI e la CT. Queste scansioni mostrano immagini dettagliate dell'interno del corpo, che aiutano i medici a diagnosticare e curare i pazienti. Tuttavia, segmentare queste immagini di solito richiede molto tempo e competenza, perché gli esseri umani devono etichettare le immagini con attenzione.
Il problema principale è che ottenere abbastanza dati etichettati è difficile. L'etichettatura è spesso lenta e la qualità può variare tra persone diverse. Per affrontare questo problema, i ricercatori hanno sviluppato metodi che riducono la necessità di dati etichettati pur dando buoni risultati. Due tecniche popolari si chiamano self-training e active learning. Questi metodi possono aiutare a usare i dati non etichettati in modo più efficiente.
Self-Training
Il self-training è un modo per un modello di migliorare se stesso usando le proprie previsioni. L'idea è semplice: il modello fa previsioni su dati non etichettati e poi impara da quelle previsioni. In questo modo, anche senza un umano che etichetti ogni singola immagine, il modello può comunque migliorare col tempo.
Nel self-training, un modello (il maestro) genera etichette per i dati, e un altro modello (lo studente) impara da quelle etichette. Lo studente continua a perfezionare le sue previsioni in base all'output del maestro. Questo processo continua finché le previsioni del modello non sono abbastanza buone.
Active Learning
L'active learning è un approccio diverso. Qui, l'obiettivo è trovare i casi più utili da etichettare. Invece di etichettare tutto, il modello seleziona i casi di cui non è sicuro o che potrebbero fornire il massimo apprendimento. Questo viene fatto spesso guardando l'incertezza nelle previsioni del modello. Se il modello è incerto su un caso, è più probabile che scelga quel caso per l'etichettatura umana.
L’active learning mira a rendere il processo di etichettatura più efficiente concentrandosi sui casi che aiuteranno di più il modello a imparare. Così facendo, i ricercatori possono ridurre la quantità di etichettatura necessaria pur ottenendo risultati di alta qualità.
Combinare Self-Training e Active Learning
I ricercatori hanno iniziato a guardare alla combinazione di self-training e active learning. L'idea è che usando entrambi i metodi insieme, possono sfruttare i punti di forza di ciascuno. Il self-training può aiutare a perfezionare le previsioni col tempo, mentre l'active learning può focalizzare gli sforzi di etichettatura sui casi più informativi.
Questo approccio combinato può essere particolarmente utile nelle immagini mediche, dove ottenere dati etichettati può essere piuttosto difficile. Usando il self-training, un modello può imparare dalle proprie previsioni, e utilizzando l'active learning, può chiedere etichette sui casi più incerti.
Test-Time Augmentation
Una tecnica chiamata test-time augmentation (TTA) può anche migliorare le capacità sia del self-training che dell'active learning. Il TTA implica l'applicazione di diverse trasformazioni ai dati durante l'inferenza per migliorare le previsioni del modello. Ad esempio, un modello potrebbe guardare un'immagine da più angolazioni o regolare luminosità e contrasto. Questo aiuta il modello a fare previsioni più robuste e accurate.
Nel contesto della combinazione di self-training e active learning, il TTA può fornire ulteriori spunti. Può aiutare a stimare la qualità delle previsioni e anche generare etichette più morbide che possono aiutare il self-training.
Il Framework
Il framework proposto consiste in diversi passaggi per integrare efficacemente active learning e self-training.
Passo 1: Addestramento Iniziale
Innanzitutto, viene addestrato un modello maestro su un piccolo dataset con etichette esistenti. Questo modello sarà responsabile della generazione di pseudo-etichettature per i dati non etichettati.
Passo 2: Test-Time Augmentation
Poi, si applica il TTA al modello maestro per generare varie versioni aumentate dei dati non etichettati. Questo dà al modello una visione più ricca dei dati e aiuta a stimare la qualità delle previsioni.
Stima della Qualità
Passo 3:Le previsioni dei dati aumentati vengono utilizzate per calcolare un punteggio di qualità attesa per ciascun caso. I casi con punteggi bassi vengono segnalati per annotazione, mentre i casi ad alto punteggio possono fornire etichette morbide utili per il self-training.
Annotazione Umana
Passo 4:Gli esperti umani vengono poi chiesti di etichettare i casi selezionati a bassa qualità. Questa annotazione mirata assicura che i casi più incerti vengano affrontati, migliorando la qualità complessiva dei dati di addestramento.
Passo 5: Addestramento
Infine, il modello viene riaddestrato usando i casi annotati insieme alle etichette morbide derivate dal processo di self-training. Questo crea un modello più robusto che beneficia sia dei dati etichettati che di quelli non etichettati.
Risultati Sperimentali
Per valutare questo framework, i ricercatori hanno usato scansioni MRI fetali, che sono immagini di feti non ancora nati. Hanno condotto esperimenti per vedere quanto bene il loro metodo funzionasse nella segmentazione del corpo fetale e della placenta.
Nel primo esperimento, hanno applicato solo il self-training al compito di segmentazione. I risultati hanno mostrato che il modello poteva migliorare le sue performance, specialmente quando usava il metodo di self-training. Ha superato i modelli che usavano solo metodi di addestramento tradizionali.
Nel secondo esperimento, i ricercatori hanno aggiunto l'active learning al mix. Hanno confrontato diversi approcci per selezionare scansioni per annotazione. I migliori risultati sono venuti quando hanno combinato active learning con self-training, mostrando un miglioramento nella performance di segmentazione.
Il terzo esperimento ha esaminato specificamente la variabilità dei dati per il compito di segmentazione della placenta. Qui, hanno scoperto che mentre il self-training migliorava alcuni aspetti della segmentazione, l'approccio combinato non portava sempre a risultati migliori. In alcuni casi, aggiungere il self-training poteva introdurre rumore nelle previsioni, il che impattava negativamente le performance.
Implicazioni per l'Imaging Medico
I risultati di questi studi suggeriscono che l'approccio combinato di self-training e active learning può ridurre significativamente la necessità di grandi dataset etichettati mantenendo o migliorando le performance nei compiti di segmentazione delle immagini mediche.
Concentrandosi sui casi più informativi per l'etichettatura e usando il self-training per perfezionare le previsioni, il framework può sfruttare in modo efficiente sia i dati etichettati che quelli non etichettati. Questo è particolarmente importante nell'imaging medico, dove le annotazioni da esperti sono costose e richiedono tempo.
Conclusione
In sintesi, unire self-training e active learning con test-time augmentation può fornire una soluzione potente alla sfida della scarsità di dati etichettati nell'imaging medico. Questo framework consente processi di annotazione efficienti e migliora le performance del modello.
La ricerca indica che mentre ci sono benefici nel combinare questi metodi, è essenziale considerare attentamente la variabilità e la qualità dei dati. L'esplorazione continua di questo approccio combinato potrebbe portare a risultati ancora migliori e rendere l'analisi delle immagini mediche più accessibile e accurata in futuro.
Titolo: Test-time augmentation-based active learning and self-training for label-efficient segmentation
Estratto: Deep learning techniques depend on large datasets whose annotation is time-consuming. To reduce annotation burden, the self-training (ST) and active-learning (AL) methods have been developed as well as methods that combine them in an iterative fashion. However, it remains unclear when each method is the most useful, and when it is advantageous to combine them. In this paper, we propose a new method that combines ST with AL using Test-Time Augmentations (TTA). First, TTA is performed on an initial teacher network. Then, cases for annotation are selected based on the lowest estimated Dice score. Cases with high estimated scores are used as soft pseudo-labels for ST. The selected annotated cases are trained with existing annotated cases and ST cases with border slices annotations. We demonstrate the method on MRI fetal body and placenta segmentation tasks with different data variability characteristics. Our results indicate that ST is highly effective for both tasks, boosting performance for in-distribution (ID) and out-of-distribution (OOD) data. However, while self-training improved the performance of single-sequence fetal body segmentation when combined with AL, it slightly deteriorated performance of multi-sequence placenta segmentation on ID data. AL was helpful for the high variability placenta data, but did not improve upon random selection for the single-sequence body data. For fetal body segmentation sequence transfer, combining AL with ST following ST iteration yielded a Dice of 0.961 with only 6 original scans and 2 new sequence scans. Results using only 15 high-variability placenta cases were similar to those using 50 cases. Code is available at: https://github.com/Bella31/TTA-quality-estimation-ST-AL
Autori: Bella Specktor-Fadida, Anna Levchakov, Dana Schonberger, Liat Ben-Sira, Dafna Ben-Bashat, Leo Joskowicz
Ultimo aggiornamento: 2023-08-21 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2308.10727
Fonte PDF: https://arxiv.org/pdf/2308.10727
Licenza: https://creativecommons.org/licenses/by-sa/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.