Progressi nella rilevazione di artefatti per la patologia computazionale
Nuovo approccio migliora il rilevamento degli artefatti nella diagnosi del cancro, aumentando precisione ed efficienza.
― 7 leggere min
Indice
Il cancro si sviluppa negli organi quando cambiamenti genetici nelle cellule normali le trasformano in cellule tumorali. Questo cambiamento può avvenire a causa dell'esposizione regolare a sostanze nocive o ad altri fattori che possono causare il cancro. Diagnosticare il cancro in modo accurato e veloce è fondamentale per un trattamento efficace e per ridurre il numero di persone che muoiono per la malattia. Il cancro è una delle malattie più letali al mondo, con circa 29 milioni di morti previste entro il 2040.
Per identificare le cellule cancerose si usa comunemente l'istopatologia. Questo processo implica esaminare campioni di tessuto al microscopio su speciali vetrini. Tuttavia, questa ispezione manuale può essere lenta, soggettiva e variare tra diversi osservatori. Inoltre, con l'aumento dei casi di cancro e la carenza di patologi qualificati, ci sono notevoli sfide nella diagnosi e nel trattamento tempestivi, il che può influenzare negativamente le decisioni cliniche. Per migliorare la velocità e l'accuratezza, c'è bisogno di modernizzare il processo di diagnosi attraverso mezzi digitali.
La patologia digitale (DP) può affrontare queste sfide permettendo diagnosi più rapide e una condivisione più facile di opinioni da parte di esperti diversi. Negli ultimi anni, la ricerca e lo sviluppo nella patologia digitale sono cresciuti notevolmente, permettendo l'analisi di vetrini istologici digitalizzati, spesso chiamati immagini di vetrini interi (WSI).
Patologia Computazionale
Comprendere laI sistemi di patologia computazionale (CPATH) possono estrarre informazioni preziose dalle immagini di vetrini interi usando strumenti automatizzati alimentati da intelligenza artificiale (AI) e elaborazione delle immagini. Integrando CPATH con la patologia digitale, possiamo migliorare i metodi diagnostici e risparmiare tempo per i patologi. Tuttavia, possono sorgere problemi durante la preparazione dei vetrini, il che può creare Artefatti, ovvero aree nell'immagine che non forniscono dati utili. I patologi di solito ignorano questi artefatti durante le ispezioni manuali, ma possono interferire con le prestazioni dei sistemi automatizzati CPATH.
Per combattere questo problema, è fondamentale dotare i sistemi CPATH di un processo di rilevamento degli artefatti. Identificando e rimuovendo gli artefatti, possiamo assicurarci che solo il tessuto rilevante venga analizzato, portando a previsioni più affidabili e controllo di qualità nelle procedure di laboratorio.
Come Funziona CPATH
Le immagini di vetrini interi vengono suddivise in sezioni più piccole, o patch, per facilitare l'elaborazione dei modelli di Deep Learning. Queste patch vengono poi analizzate usando un mix di modelli esperti o modelli multiclass, che utilizzano strutture di deep learning avanzate per vari compiti di classificazione. Solo le patch contenenti tessuti rilevanti vengono utilizzate per ulteriori analisi. Alla fine, questo processo produce diversi risultati, come una mappa che mostra dove si trovano gli artefatti, un rapporto sulla qualità del campione di tessuto e un WSI raffinato privo di artefatti.
Recenti progressi nelle tecniche di deep learning hanno attirato l'attenzione nel campo di CPATH grazie alla loro capacità di identificare schemi complessi nei dati istologici. Le reti neurali convoluzionali profonde (DCNN) e i trasformatori di visione (ViT) sono strutture popolari utilizzate per differenziare i modelli di tessuto per vari tipi di cancro.
Mentre alcune ricerche mostrano che le DCNN funzionano bene con dataset più piccoli, altri sostengono che i ViT siano migliori per struttura e robustezza complessive. Tuttavia, entrambi i tipi di modelli possono affrontare sfide come l'overfitting, il che significa che il modello potrebbe funzionare male su nuovi dati, portando a previsioni errate. Per affrontare questo, i ricercatori possono utilizzare insiemi di modelli di deep learning, dove più modelli collaborano per migliorare l'accuratezza.
Un modello di mistura di esperti (MoE) può essere particolarmente utile in questo contesto. Combina modelli specializzati per compiti specifici, portando a una migliore prestazione complessiva. Nel nostro lavoro, ci concentriamo sulla creazione di un approccio efficace di rilevamento degli artefatti usando MoEs, bilanciando prestazioni e complessità.
Approccio Proposto per il Rilevamento degli Artefatti
In questo studio, introduciamo un approccio di deep learning basato su MoE per rilevare vari tipi di artefatti nelle immagini istologiche di vetrini interi. Creiamo più modelli attraverso MoE, dove ciascun modello è specializzato nel rilevamento di un tipo specifico di artefatto, come aree sfocate, tessuto piegato, bolle d'aria e altre caratteristiche diagnostiche irrilevanti.
I pipeline di deep learning che abbiamo sviluppato possono generare quattro risultati chiave:
- Una mappa di segmentazione degli artefatti.
- Un rapporto sugli artefatti per il controllo di qualità, categorizzato in sei classi (cinque tipi di artefatti e una categoria priva di artefatti).
- Una maschera priva di artefatti che evidenzia aree di potenziale rilevanza diagnostica.
- Un WSI raffinato per ulteriori analisi computazionali.
Materiale Dati
Dati di Formazione e Sviluppo
Per i nostri esperimenti, abbiamo utilizzato campioni di tessuto da pazienti con cancro alla vescica. I vetrini sono stati colorati per evidenziare caratteristiche specifiche e scansionati per creare immagini ad alta risoluzione. Una persona addestrata ha annotato queste immagini per identificare la presenza di vari artefatti e ha contrassegnato le aree prive di artefatti. Questo dataset serve come base per addestrare e validare i nostri modelli di deep learning.
Dati di Validazione Esterna
Per valutare quanto bene i nostri modelli si generalizzino a diversi tipi di dati, abbiamo utilizzato diversi dataset esterni. Questi dataset includevano immagini di cancro alla vescica ad alto rischio e campioni da pazienti con cancro al seno e della pelle. I dataset esterni sono stati raccolti da vari ospedali e rappresentano una gamma di tipi di tessuto e procedure di colorazione.
Metodologia
Il nostro processo di rilevamento degli artefatti segue due fasi principali:
- Addestriamo modelli per classificare le patch delle immagini in base a se contengono artefatti.
- Utilizziamo questi modelli addestrati per creare un MoE per fare previsioni e eseguire post-elaborazione.
La prima fase comporta la suddivisione delle immagini di vetrini interi in patch e l'applicazione di varie architetture di deep learning per l'addestramento. Abbiamo utilizzato sia DCNN che ViT come estrattori di funzionalità. Nella seconda fase, abbiamo integrato le previsioni patch-wise usando un meccanismo di gating per combinare gli output dei modelli addestrati.
Per ottimizzare la sensibilità del nostro rilevamento degli artefatti, abbiamo applicato una soglia probabilistica, permettendoci di aumentare l'accuratezza nell'identificare aree prive di artefatti. Questo processo in due fasi culmina nella generazione di previsioni riguardanti la presenza di artefatti nel WSI.
Risultati Sperimentali
Per valutare le prestazioni dei nostri pipeline di deep learning, abbiamo condotto vari test sui dati di addestramento, validazione e esterni.
Prestazioni di Validazione
I nostri risultati mostrano che i modelli basati su MoE hanno superato i modelli multiclass tradizionali nel rilevamento di patch prive di artefatti. I pipeline MoE hanno efficacemente ridotto i falsi negativi mantenendo un'elevata sensibilità nella classificazione del tessuto rilevante. Anche se entrambi i modelli mostrano vantaggi, i modelli MoE si sono dimostrati superiori nel rilevamento degli artefatti, sebbene con richieste computazionali più elevate.
Test di Generalizzazione e Robustezza
Per testare quanto bene i nostri modelli funzionano con dati non visti, li abbiamo valutati su dataset esterni. Anche se i modelli MoE hanno subito una certa riduzione della sensibilità nel trattare questi diversi tipi di tessuti, sono stati comunque in grado di mantenere un alto livello di specificità. Questo significa che hanno identificato correttamente la maggior parte degli artefatti reali presenti nelle immagini esterne, indicando una buona generalizzabilità.
Valutazione Qualitativa
Gli esperti hanno valutato le mappe di segmentazione prodotte dai nostri modelli, esaminando quanto bene gli artefatti sono stati rilevati e quanto efficacemente erano preservate le regioni prive di artefatti. Anche se il feedback generale è stato positivo, casi di misclassificazione hanno dimostrato che ci sono ancora aree di miglioramento. Questa valutazione qualitativa rafforza la necessità di una revisione esperta oltre alle misure quantitative per valutare accuratamente le prestazioni del modello.
Conclusione e Direzioni Future
In sintesi, abbiamo sviluppato pipeline innovative di deep learning capaci di affinare le immagini di vetrini interi attraverso un processo completo di rilevamento degli artefatti. L'approccio MoE cattura le sfumature di varie morfologie degli artefatti e combina in modo efficace le previsioni da diversi modelli. Attraverso test rigorosi, abbiamo stabilito che il modello MoE che utilizza DCNN supera i modelli multiclass in termini di prestazioni, nonostante richieda più risorse di calcolo.
Il lavoro presentato qui getta le basi per migliorare i sistemi di patologia computazionale, dotandoli della capacità di filtrare il rumore e migliorare i processi diagnostici. Andando avanti, puntiamo ad ampliare i nostri dataset di addestramento incorporando campioni da più coorti e implementando strategie adattive per ottimizzare le prestazioni del modello in base a specifici tipi di cancro. In questo modo, speriamo di affinare ulteriormente l'efficacia delle pipeline di elaborazione degli artefatti e la loro applicabilità nei contesti clinici.
Titolo: Equipping Computational Pathology Systems with Artifact Processing Pipelines: A Showcase for Computation and Performance Trade-offs
Estratto: BackgroundHistopathology is a gold standard for cancer diagnosis. It involves extracting tissue specimens from suspicious areas to prepare a glass slide for a microscopic examination. However, histological tissue processing procedures result in the introduction of artifacts, which are ultimately transferred to the digitized version of glass slides, known as whole slide images (WSIs). Artifacts are diagnostically irrelevant areas and may result in wrong predictions from deep learning (DL) algorithms. Therefore, detecting and excluding artifacts in the computational pathology (CPATH) system is essential for reliable automated diagnosis. MethodsIn this paper, we propose a mixture of experts (MoE) scheme for detecting five notable artifacts, including damaged tissue, blur, folded tissue, air bubbles, and histologically irrelevant blood from WSIs. First, we train independent binary DL models as experts to capture particular artifact morphology. Then, we ensemble their predictions using a fusion mechanism. We apply probabilistic thresholding over the final probability distribution to improve the sensitivity of the MoE. We developed four DL pipelines to evaluate computational and performance trade-offs. These include two MoEs and two multiclass models of state-of-the-art deep convolutional neural networks (DCNNs) and vision transformers (ViTs). These DL pipelines are quantitatively and qualitatively evaluated on external and out-of-distribution (OoD) data to assess generalizability and robustness for artifact detection application. ResultsWe extensively evaluated the proposed MoE and multiclass models. DCNNs-based MoE and ViTs-based MoE schemes outperformed simpler multiclass models and were tested on datasets from different hospitals and cancer types, where MoE using (MobiletNet) DCNNs yielded the best results. The proposed MoE yields 86.15 % F1 and 97.93% sensitivity scores on unseen data, retaining less computational cost for inference than MoE using ViTs. This best performance of MoEs comes with relatively higher computational trade-offs than multiclass models. Furthermore, we apply post-processing to create an artifact segmentation mask, a potential artifact-free RoI map, a quality report, and an artifact-refined WSI for further computational analysis. During the qualitative evaluation, pathologists assessed the predictive performance of MoEs over OoD WSIs. They rated artifact detection and artifact-free area preservation, where the highest agreement translated to the Cohen kappa of 0.82, indicating substantial agreement for the overall diagnostic usability of the DCNN-based MoE scheme. ConclusionsThe proposed artifact detection pipeline will not only ensure reliable CPATH predictions but may also provide quality control. In this work, the best-performing pipeline for artifact detection is MoE with DCNNs. Our detailed experiments show that there is always a trade-off between performance and computational complexity, and no straightforward DL solution equally suits all types of data and applications. The code and dataset for training and development can be found online at Github and Zenodo, respectively.
Autori: Neel Kanwal, F. Khoraminia, U. Kiraz, A. Mosquera-Zamudio, C. Monteagudo, E. A. M. Janssen, T. C. M. Zuiverloon, C. Rong, K. Engan
Ultimo aggiornamento: 2024-03-13 00:00:00
Lingua: English
URL di origine: https://www.medrxiv.org/content/10.1101/2024.03.11.24304119
Fonte PDF: https://www.medrxiv.org/content/10.1101/2024.03.11.24304119.full.pdf
Licenza: https://creativecommons.org/licenses/by-nc/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia medrxiv per l'utilizzo della sua interoperabilità ad accesso aperto.