Simple Science

Scienza all'avanguardia spiegata semplicemente

# La biologia# Bioinformatica

Avanzamenti dell'IA nell'imaging medico per la classificazione dei tumori

L'IA migliora l'accuratezza della classificazione dei tumori usando scansioni MRI e tecniche di transfer learning.

― 7 leggere min


ScopertaScopertanell'individuazione deitumori con l'IAtumori nelle risonanze magnetiche.l'accuratezza nella classificazione deiModelli di IA avanzati migliorano
Indice

Negli ultimi anni, l'intelligenza artificiale (IA) ha fatto passi da gigante in diversi campi, Incluso quello medico. Una delle aree in cui l'IA è stata particolarmente utile è nell'analisi delle immagini mediche, come le risonanze magnetiche. Le reti neurali convoluzionali (CNN) sono un tipo di tecnologia IA che può essere addestrata a riconoscere e classificare diversi oggetti nelle immagini. Queste reti lavorano imparando caratteristiche importanti da un gran numero di immagini, permettendo loro di identificare caratteristiche simili in nuove immagini.

Le CNN possono anche usare un metodo chiamato trasferimento di apprendimento. Questa tecnica permette di adattare un modello addestrato per un compito a un altro compito correlato, utilizzando comunque ciò che ha imparato in precedenza. Questo è particolarmente utile quando il nuovo compito è sufficientemente simile da poter beneficiare della formazione originale. Per esempio, la Classificazione dei Tumori basata sulle immagini è una sfida e può trarre vantaggio dall'utilizzo delle conoscenze acquisite da altri compiti di riconoscimento delle immagini.

Rilevamento di Animali Camuffati e Classificazione dei Tumori

Anche se i compiti di rilevamento di animali camuffati e classificazione dei tumori possono sembrare diversi, c'è una somiglianza nel modo in cui riconoscono i modelli. Un animale nascosto nel suo ambiente è come un tumore che si mescola con il tessuto sano. Le abilità apprese nell'identificare animali nascosti possono migliorare la capacità di classificare i tumori nelle immagini mediche. Una CNN addestrata per riconoscere animali camuffati può trasferire quell'abilità per rilevare e classificare meglio i tumori.

Comprendere gli Spazi delle Caratteristiche nelle Reti Neurali

È fondamentale notare che semplicemente guardando quanto bene una CNN performa non rivela come elabora le informazioni. Dopo l'addestramento, possiamo osservare come le diverse parti della rete rispondono a varie immagini. Questo si fa creando spazi delle caratteristiche, che mostrano come la rete rappresenta e organizza le diverse immagini relative tra loro.

In uno spazio delle caratteristiche, le immagini simili sono più vicine, mentre le immagini diverse sono più distanti. Questa organizzazione può offrire spunti su quanto bene la rete può generalizzare da ciò che ha imparato. Più una rete è precisa, meglio può classificare le immagini basandosi sulle caratteristiche apprese.

Creazione di Dataset per l'Addestramento

Per addestrare le CNN per rilevare tumori cerebrali, abbiamo usato vari tipi di Immagini MRI. I dataset includevano immagini di tumori come astrocitomi e oligodendrogliomi, insieme a immagini cerebrali normali. Molte di queste scansioni sono state ottenute da database pubblici, e ulteriori immagini cerebrali normali sono state fornite da un centro sanitario. Tutti i dati sono stati raccolti in conformità con le normative sulla privacy, assicurando che le informazioni personali non venissero rivelate.

Il dataset finale conteneva un totale di 264 scansioni MRI utilizzabili, inclusi 73 astrocitomi, 44 oligodendrogliomi e 120 immagini cerebrali normali. Abbiamo anche utilizzato dataset esistenti da progetti precedenti che si concentravano sul rilevamento di animali camuffati, contenenti quasi 3.000 immagini divise in diverse categorie.

Addestramento delle Reti Neurali

In questo progetto, abbiamo utilizzato una specifica CNN nota come AlexNet, composta da 25 strati. Questa rete è già stata addestrata su un grande dataset di oltre un milione di immagini in varie categorie. Abbiamo adattato le nostre CNN, chiamate T1Net e T2Net, per classificare i tumori cerebrali utilizzando i dati MRI raccolti.

Le immagini sono state ridimensionate per soddisfare i requisiti di input della rete, e abbiamo assicurato che le immagini degli stessi pazienti non venissero mescolate tra i set di addestramento e test. Questo è stato fatto per garantire che i nostri risultati fossero affidabili.

In aggiunta alle reti originali, abbiamo creato anche due nuove reti, ExpT1Net e ExpT2Net. Queste nuove reti hanno utilizzato le conoscenze acquisite dalle reti di rilevamento di animali camuffati per migliorare le prestazioni nel compito di classificazione dei tumori.

Riduzione della Dimensione e Visualizzazione

Per analizzare ulteriormente quanto bene le reti stavano performando, abbiamo impiegato un metodo chiamato Analisi dei Componenti Principali (PCA). Questa tecnica aiuta a semplificare e visualizzare i valori di attivazione delle reti, permettendoci di rappresentarli in uno spazio tridimensionale. Ogni punto in questo spazio rappresenta come la rete ha riconosciuto e classificato una specifica immagine.

Abbiamo anche utilizzato una tecnica chiamata DeepDreamImage (DDI) per creare rappresentazioni visive di ciò che le reti hanno appreso su diverse categorie di immagini. Questo metodo migliora i modelli riconosciuti dalla rete, permettendoci di visualizzare il suo stato interno.

Mappe di Sensibilità delle Immagini

Per determinare quali caratteristiche erano cruciali per le reti neurali nel prendere decisioni, abbiamo generato mappe di sensibilità delle immagini. Queste mappe evidenziano le aree più importanti di un'immagine su cui la rete si concentra quando la classifica.

Per entrambe le reti originali e quelle addestrate tramite trasferimento di apprendimento, le mappe di sensibilità hanno mostrato che le reti si concentravano in particolare sui tumori e sul tessuto circostante. Questo approccio è simile a come i medici analizzano le scansioni MRI per identificare i tumori, esaminando non solo i tumori stessi, ma anche le aree circostanti coinvolte.

Prestazioni delle Reti Neurali

Le prestazioni delle reti T1Net e T2Net hanno mostrato buoni risultati nella classificazione dei gliomi. T1Net ha raggiunto un'accuratezza media dell'85,99%, mentre T2Net è arrivata leggermente più bassa all'83,85%. Entrambe le reti hanno performato eccezionalmente bene sulle immagini cerebrali normali, con errori minimi, evidenziando la loro capacità di distinguere tra tessuto canceroso e sano.

Tuttavia, le reti hanno affrontato più sfide nella classificazione di diversi tipi di gliomi. Ad esempio, T1Net ha identificato gli astrocitomi meglio con un'accuratezza del 95,46% ma ha avuto difficoltà con gli oligoastrocytomi, segnando solo il 12,50%. D'altra parte, T2Net ha performato meglio con gli oligoastrocytomi con il 93,33%, ma meno efficacemente sugli astrocitomi, con solo il 74,42% di accuratezza.

Dopo aver impiegato il trasferimento di apprendimento, entrambe le reti ExpT1Net ed ExpT2Net hanno mostrato miglioramenti nelle prestazioni. ExpT2Net ha mostrato il più significativo incremento di accuratezza, raggiungendo un notevole 92,20%, mentre ExpT1Net ha mostrato un miglioramento meno drammatico.

Confronto degli Spazi delle Caratteristiche

Dopo il trasferimento di apprendimento, gli spazi delle caratteristiche delle nuove reti addestrate hanno mostrato cambiamenti evidenti. La distribuzione delle immagini cerebrali normali è rimasta distinta dalle categorie di gliomi, ma è apparsa una separazione più chiara all'interno dei gruppi di gliomi. Questo cambiamento indicava che le reti erano diventate migliori nel distinguere tra i tipi di tumori dopo aver trasferito conoscenze dalla rete di rilevamento della camuffamento.

Intuizioni dall'Analisi DeepDreamImage

L'analisi utilizzando DeepDreamImage ha fornito ulteriori spunti su come le reti riconoscevano diverse categorie di tumori. Le immagini generate da ExpT1Net ed ExpT2Net erano più distinte e definite rispetto alle loro controparti precedenti. Sono state in grado di illustrare forme specifiche associate a ciascun tipo di tumore, illustrando una maggiore capacità di classificare le immagini con precisione.

Limitazioni dello Studio

Questo studio ha incontrato alcune limitazioni. Il disequilibrio nel dataset potrebbe aver influenzato le prestazioni delle reti, in particolare in specifiche categorie di tumori. Inoltre, le variazioni nel formato delle immagini MRI da diverse fonti potrebbero aver anche influenzato i risultati della classificazione.

Conclusione

In sintesi, le reti neurali convoluzionali sono state addestrate con successo per rilevare e classificare i gliomi utilizzando scansioni MRI. Il trasferimento di apprendimento da reti precedentemente addestrate si è rivelato un metodo benefico, in particolare per le immagini pesate T2, dove è stato osservato un significativo miglioramento nell'accuratezza. I modelli hanno dimostrato una capacità di generalizzazione migliorata, consentendo loro di identificare e classificare meglio i tumori.

Questi risultati significano il potenziale di utilizzare tecniche IA avanzate nell'imaging medico, e i modelli sviluppati sono disponibili per ulteriori esplorazioni e possibili usi clinici nel rilevamento e classificazione dei gliomi.

Fonte originale

Titolo: Deep Learning and Transfer Learning for Brain Tumor Detection and Classification

Estratto: Convolutional neural networks (CNNs) are powerful tools that can be trained on image classification tasks and share many structural and functional similarities with biological visual systems and mechanisms of learning. In addition to serving as a model of biological systems, CNNs possess the convenient feature of transfer learning where a network trained on one task may be repurposed for training on another, potentially unrelated, task. In this retrospective study of public domain MRI data, we investigate the ability of neural network models to be trained on brain cancer imaging data while introducing a unique camouflage animal detection transfer learning step as a means of enhancing the networks tumor detection ability. Training on glioma and normal brain MRI data, post-contrast T1-weighted and T2-weighted, we demonstrate the potential success of this training strategy for improving neural network classification accuracy. Qualitative metrics such as feature space and DeepDreamImage analysis of the internal states of trained models were also employed, which show improved generalization ability by the models following camouflage animal transfer learning. Image sensitivity functions further this investigation by allowing us to visualize the most salient image regions from a networks perspective while learning. Such methods demonstrate that the networks not only look at the tumor itself when deciding, but also at the impact on the surrounding tissue in terms of compressions and midline shifts. These results suggest an approach to brain tumor MRIs that is comparatively similar to that of trained radiologists while also exhibiting a high sensitivity to subtle structural changes resulting from the presence of a tumor. These findings present an opportunity for further research and potential use in a clinical setting.

Autori: Arash Yazdanbakhsh, F. Rustom, P. Parva, H. Ogmen

Ultimo aggiornamento: 2024-06-28 00:00:00

Lingua: English

URL di origine: https://www.biorxiv.org/content/10.1101/2023.04.10.536226

Fonte PDF: https://www.biorxiv.org/content/10.1101/2023.04.10.536226.full.pdf

Licenza: https://creativecommons.org/licenses/by-nc/4.0/

Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.

Si ringrazia biorxiv per l'utilizzo della sua interoperabilità ad accesso aperto.

Articoli simili