Avanzare nella diagnosi del cancro al seno con il deep learning
Questo studio usa il deep learning e il transfer learning per il punteggio HER2 nel cancro al seno.
Rawan S. Abdulsadig, Bryan M. Williams, Nikolay Burlutskiy
― 6 leggere min
Indice
Quando i dottori pensano che un paziente possa avere il cancro al seno, guardano i campioni di tessuto sotto un microscopio. Questi campioni di solito vengono colorati per rendere le cellule più facili da vedere. Due metodi di colorazione comuni sono l'Eematossilina e Eosina (H E) e l'Immunoistochimica (IHC). L'IHC è particolarmente importante perché aiuta i dottori a capire se un paziente può ricevere trattamenti mirati. C'è grande interesse nell'usare computer e deep learning per leggere automaticamente queste immagini, così i dottori possono passare meno tempo a scrutare dettagli minuscoli.
Il problema, però, è che insegnare ai computer a guardare immagini mediche non è così semplice come sembra. Per addestrare un modello di computer in modo efficace, abbiamo bisogno di molte immagini etichettate. Qui entra in gioco il trasferimento dell'apprendimento. Questo metodo ci consente di usare ciò che il computer ha imparato da un set di immagini per aiutarlo a capire un altro set.
Cos'è il Trasferimento dell'Apprendimento?
Immagina di cercare di insegnare a un bambino a riconoscere diversi frutti. Se il bambino sa già com'è una mela, può usare quella conoscenza per imparare più rapidamente a riconoscere una pesca. Allo stesso modo, il trasferimento dell'apprendimento usa la conoscenza da un'area (come le immagini IHC) per aiutare con un'altra (come le immagini H E). Questo approccio può far risparmiare tempo, specialmente quando si lavora con dati medici, che possono essere rari e difficili da trovare.
Perché il Multiple-Instance Learning?
A volte, non abbiamo note dettagliate (o etichette) per ogni immagine. Qui entra in gioco il multiple-instance learning (MIL). Pensa a una caccia al tesoro. Se hai un sacchetto pieno di oggetti, finché sai che almeno un oggetto nel sacchetto è quello che stai cercando, puoi supporre che il sacchetto potrebbe essere utile. Allo stesso modo, con il MIL, se almeno un'area è etichettata positivamente, l'intero gruppo di aree può essere trattato come positivo. Questo rende più facile lavorare con immagini di cui non abbiamo ogni dettaglio.
Lo Studio
In questo studio, volevamo vedere come il trasferimento dell'apprendimento potesse aiutare i modelli di deep learning a valutare l'HER2, un marcatore cruciale per il cancro al seno. Abbiamo preso tre diversi tipi di immagini per la nostra ricerca:
- Immagini H E: Queste sono le immagini colorate usate per esaminare i tessuti.
- Immagini IHC: Queste immagini forniscono informazioni specifiche sull'HER2.
- Immagini non mediche: Pensa a immagini casuali, come gatti e paesaggi.
Abbiamo esaminato come i modelli addestrati su ciascuno di questi diversi tipi di immagini si sono comportati. Con un focus sul punteggio dell'HER2, abbiamo anche costruito un modello che può attirare l'attenzione su aree specifiche all'interno delle diapositive che sono importanti per la diagnosi.
La Metodologia
Abbiamo iniziato prendendo piccole parti, chiamate patch, dalle immagini a tutta diapositiva. Queste patch sono state prese sia dalle diapositive H E che da quelle IHC. Per rendere i nostri dati di addestramento più vari e robusti, abbiamo giocato con le patch, cambiando luminosità, colore e piccole rotazioni.
Usando un modello pre-addestrato, abbiamo trasformato queste patch in un formato che il nostro computer poteva capire, creando un nuovo strato per l'attenzione. Questo strato di attenzione aiuta il modello a concentrarsi sulle parti importanti delle immagini. Pensa a questo come a mettere un paio di occhiali che fanno risaltare i dettagli.
Andando al Sodo
Una volta che abbiamo sistemato tutto, abbiamo addestrato i nostri modelli. Abbiamo creato più sacchetti di patch, assicurandoci che nessun sacchetto venisse riutilizzato durante l'addestramento. Questo per assicurarci di coprire tutte le possibili variazioni delle patch.
Dopo l'addestramento, abbiamo diviso i nostri dati in due gruppi: uno per l'addestramento e uno per il test. Volevamo vedere quanto bene il nostro modello potesse funzionare su nuovi dati che non aveva mai visto prima. Questo è come cuocere una torta usando una ricetta per la prima volta e poi vedere come si comporta quando la servi ai tuoi amici.
Risultati
Abbiamo scoperto che quando usavamo patch dalle immagini H E per l'addestramento, il modello ha avuto performance migliori rispetto agli altri. Tuttavia, quando abbiamo usato patch dal dataset PatchCamelyon, ha superato gli altri in tutte le misure di successo.
Volevamo sapere quanto bene il nostro modello potesse prevedere i punteggi HER2 sulle immagini intere. Abbiamo usato un metodo simile a simulare un gioco più volte per avere una comprensione migliore del punteggio complessivo. Campionando e prevedendo ripetutamente, abbiamo migliorato l'accuratezza dei nostri risultati finali.
Non solo volevamo sapere come il modello avesse punteggiato, ma volevamo anche vedere dove stava guardando. Usando il meccanismo di attenzione, abbiamo potuto creare una mappa di calore che mostrava quali aree della diapositiva erano importanti per la previsione del modello. Era come avere una torcia sui punti che contavano di più.
Visualizzazione dei Risultati
Per mostrare i nostri risultati, abbiamo creato alcune mappe di calore basate sui dati. Queste mappe di calore evidenziavano aree che si sospettava fossero positive per HER2. Immagina una mappa del tesoro, ma invece dell'oro, mostra dove si nascondono i marcatori cancerogeni importanti nel tessuto.
Durante i test, abbiamo notato che aumentando il numero di patch campionate, il modello diventava più sicuro nelle sue previsioni. Più campioni portavano a risultati migliori, il che significa che se continuiamo a praticare, possiamo solo migliorare.
Conclusioni e Piani Futuri
In sintesi, abbiamo costruito con successo un modello per la valutazione automatica dell'HER2 usando immagini H E. Il trasferimento dell'apprendimento da H E a H E è stato più efficace rispetto all'uso di immagini IHC o non mediche. Questo studio mostra promesse per l'uso del MIL quando mancano annotazioni dettagliate.
Per quanto riguarda i piani futuri, c'è ancora lavoro da fare. Speriamo di perfezionare i nostri modelli ed esplorare più strategie per migliorare le loro performance. Se riusciamo a capire i migliori modi per usare le varie fonti di dati, potremmo sbloccare nuovi modi per migliorare l'analisi delle immagini mediche, una diapositiva alla volta.
Alla fine, anche se potremmo non essere in grado di trovare la cura per il cancro proprio ancora, siamo sicuramente sulla strada giusta per rendere la diagnosi molto più semplice, un pixel alla volta. Chi sapeva che aiutare i dottori potesse partire semplicemente da un sacchetto di patch e un pizzico di informatica?
Titolo: Leveraging Transfer Learning and Multiple Instance Learning for HER2 Automatic Scoring of H\&E Whole Slide Images
Estratto: Expression of human epidermal growth factor receptor 2 (HER2) is an important biomarker in breast cancer patients who can benefit from cost-effective automatic Hematoxylin and Eosin (H\&E) HER2 scoring. However, developing such scoring models requires large pixel-level annotated datasets. Transfer learning allows prior knowledge from different datasets to be reused while multiple-instance learning (MIL) allows the lack of detailed annotations to be mitigated. The aim of this work is to examine the potential of transfer learning on the performance of deep learning models pre-trained on (i) Immunohistochemistry (IHC) images, (ii) H\&E images and (iii) non-medical images. A MIL framework with an attention mechanism is developed using pre-trained models as patch-embedding models. It was found that embedding models pre-trained on H\&E images consistently outperformed the others, resulting in an average AUC-ROC value of $0.622$ across the 4 HER2 scores ($0.59-0.80$ per HER2 score). Furthermore, it was found that using multiple-instance learning with an attention layer not only allows for good classification results to be achieved, but it can also help with producing visual indication of HER2-positive areas in the H\&E slide image by utilising the patch-wise attention weights.
Autori: Rawan S. Abdulsadig, Bryan M. Williams, Nikolay Burlutskiy
Ultimo aggiornamento: 2024-11-05 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2411.05028
Fonte PDF: https://arxiv.org/pdf/2411.05028
Licenza: https://creativecommons.org/licenses/by/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.