Avances en la detección de artefactos para la patología computacional
Nuevo enfoque mejora la detección de artefactos en diagnósticos de cáncer, aumentando la precisión y eficiencia.
― 8 minilectura
Tabla de contenidos
- Comprendiendo la Patología Computacional
- Cómo Funciona CPATH
- Enfoque Propuesto para la Detección de Artefactos
- Materiales de Datos
- Datos de Entrenamiento y Desarrollo
- Datos de Validación Externa
- Metodología
- Resultados Experimentales
- Rendimiento de Validación
- Pruebas de Generalización y Robustez
- Evaluación Cualitativa
- Conclusión y Direcciones Futuras
- Fuente original
El cáncer surge en los órganos cuando los cambios genéticos en células normales las transforman en células tumorales. Este cambio puede ocurrir por la exposición regular a sustancias dañinas u otros factores que pueden causar cáncer. Diagnosticar el cáncer de manera precisa y rápida es esencial para un tratamiento efectivo y para reducir el número de personas que mueren por esta enfermedad. El cáncer es una de las enfermedades más letales a nivel mundial, con un estimado de 29 millones de muertes esperadas para 2040.
La histopatología se usa comúnmente para identificar células cancerosas. Este proceso implica examinar muestras de tejido bajo un microscopio en diapositivas de vidrio especiales. Sin embargo, esta inspección manual puede ser lenta, subjetiva y puede variar entre diferentes observadores. Además, con el creciente número de casos de cáncer y la escasez de patólogos capacitados, hay importantes desafíos en el diagnóstico y tratamiento a tiempo, lo que puede afectar la toma de decisiones clínicas. Para mejorar la velocidad y precisión, se necesita modernizar el proceso de diagnóstico mediante medios digitales.
La patología digital (DP) puede ayudar a enfrentar estos desafíos al permitir diagnósticos más rápidos y un intercambio más fácil de opiniones entre diferentes expertos. En los últimos años, la investigación y desarrollo en patología digital han crecido sustancialmente, permitiendo el análisis de diapositivas histológicas digitalizadas, a menudo referidas como Imágenes de diapositivas completas (WSIs).
Patología Computacional
Comprendiendo laLos sistemas de patología computacional (CPATH) pueden extraer información valiosa de las imágenes de diapositivas completas usando herramientas automatizadas impulsadas por inteligencia artificial (IA) y procesamiento de imágenes. Al integrar CPATH con patología digital, podemos mejorar los métodos de diagnóstico y ahorrar tiempo a los patólogos. Sin embargo, surgen problemas durante la preparación de las diapositivas, lo que puede crear Artefactos, áreas en la imagen que no aportan datos útiles. Los patólogos generalmente ignoran estos artefactos durante las inspecciones manuales, pero pueden interferir con el rendimiento de los sistemas CPATH automatizados.
Para combatir este problema, es crucial equipar a los sistemas CPATH con un proceso de detección de artefactos. Al identificar y eliminar los artefactos, podemos asegurarnos de que solo se analice tejido relevante, lo que lleva a predicciones más confiables y control de calidad en los procedimientos de laboratorio.
Cómo Funciona CPATH
Las imágenes de diapositivas completas se dividen en secciones más pequeñas, o parches, para facilitar el procesamiento con modelos de Aprendizaje Profundo. Estos parches luego se analizan utilizando una combinación de modelos expertos o modelos multicategoría, que usan estructuras avanzadas de aprendizaje profundo para diversas tareas de clasificación. Solo se utilizan los parches que contienen tejido relevante para un análisis posterior. En última instancia, este proceso arroja diferentes resultados, como un mapa que muestra dónde están los artefactos, un informe sobre la calidad de la muestra de tejido y un WSI refinado que está libre de artefactos.
El reciente progreso con técnicas de aprendizaje profundo ha llamado la atención en el campo de CPATH debido a su capacidad para identificar patrones complejos en los datos histológicos. Las redes neuronales convolucionales profundas (DCNNs) y los transformers de visión (ViTs) son estructuras populares que se utilizan para diferenciar patrones de tejido para varios tipos de cáncer.
Aunque algunas investigaciones muestran que las DCNNs funcionan bien con conjuntos de datos más pequeños, otros argumentan que los ViTs son mejores en términos de estructura general y robustez. Sin embargo, ambos tipos de modelos pueden enfrentar desafíos como el sobreajuste, lo que significa que el modelo puede tener un rendimiento deficiente en nuevos datos, resultando en predicciones incorrectas. Para abordar esto, los investigadores pueden usar conjuntos de modelos de aprendizaje profundo, donde múltiples modelos trabajan juntos para mejorar la precisión.
Un modelo de Mezcla de Expertos (MoE) puede ser particularmente útil en este contexto. Combina modelos especializados para tareas específicas, lo que lleva a un mejor rendimiento general. En nuestro trabajo, nos enfocamos en construir un enfoque efectivo de detección de artefactos utilizando MoEs, equilibrando rendimiento y complejidad.
Enfoque Propuesto para la Detección de Artefactos
En este estudio, introducimos un enfoque de aprendizaje profundo basado en MoE para detectar varios tipos de artefactos en imágenes histológicas de diapositivas completas. Creamos múltiples modelos a través de MoE, donde cada modelo se especializa en detectar un tipo específico de artefacto, como áreas borrosas, tejido arrugado, burbujas de aire y otras características irrelevantes para el diagnóstico.
Las canalizaciones de aprendizaje profundo que desarrollamos pueden generar cuatro resultados clave:
- Un mapa de segmentación de artefactos.
- Un informe sobre artefactos para control de calidad, categorizado en seis clases (cinco tipos de artefactos y una categoría libre de artefactos).
- Una máscara libre de artefactos que resalta áreas de potencial relevancia diagnóstica.
- Un WSI refinado para análisis computacional adicional.
Materiales de Datos
Datos de Entrenamiento y Desarrollo
Para nuestros experimentos, usamos muestras de tejido de pacientes con cáncer de vejiga. Las diapositivas fueron teñidas para resaltar características específicas y escaneadas para crear imágenes de alta resolución. Una persona capacitada anotó estas imágenes para identificar la presencia de varios artefactos y marcó áreas libres de artefactos. Este conjunto de datos sirve como base para entrenar y validar nuestros modelos de aprendizaje profundo.
Datos de Validación Externa
Para evaluar qué tan bien generalizan nuestros modelos a diferentes tipos de datos, utilizamos varios conjuntos de datos externos. Estos conjuntos incluían imágenes de cáncer de vejiga de alto riesgo y muestras de pacientes con cáncer de mama y piel. Los conjuntos de datos externos fueron recolectados de diferentes hospitales y representan una variedad de tipos de tejido y procedimientos de tinción.
Metodología
Nuestro proceso de detección de artefactos sigue dos pasos principales:
- Entrenamos modelos para clasificar parches de imagen según si contienen artefactos.
- Usamos estos modelos entrenados para crear un MoE para hacer predicciones y realizar procesamiento posterior.
El primer paso implica dividir las imágenes de diapositivas completas en parches y aplicar diversas arquitecturas de aprendizaje profundo para el entrenamiento. Utilizamos tanto DCNNs como ViTs como extractores de características. En el segundo paso, integramos las predicciones de los parches usando un mecanismo de activación para combinar las salidas de los modelos entrenados.
Para optimizar la sensibilidad de nuestra detección de artefactos, aplicamos un umbral probabilístico, lo que nos permite aumentar la precisión en la identificación de regiones libres de artefactos. Este proceso en dos pasos culmina en la generación de predicciones sobre la presencia de artefactos en el WSI.
Resultados Experimentales
Para evaluar el rendimiento de nuestras canalizaciones de aprendizaje profundo, realizamos varias pruebas en los conjuntos de datos de entrenamiento, validación y externos.
Rendimiento de Validación
Nuestros hallazgos muestran que los modelos basados en MoE superaron a los modelos multicategoría tradicionales en la detección de parches libres de artefactos. Las canalizaciones MoE minimizaron efectivamente los falsos negativos mientras mantenían una alta sensibilidad en la clasificación del tejido relevante. Si bien ambos modelos muestran ventajas, los modelos MoE demostraron ser superiores en la detección de artefactos, aunque con mayores demandas computacionales.
Pruebas de Generalización y Robustez
Para probar qué tan bien funcionan nuestros modelos en datos no vistos, los evaluamos en conjuntos de datos externos. Aunque los modelos MoE experimentaron cierta reducción en la sensibilidad al tratar con estos diferentes tipos de tejidos, todavía pudieron mantener un alto nivel de especificidad. Esto significa que identificaron correctamente la mayoría de los artefactos reales presentes en las imágenes externas, lo que indica una buena capacidad de generalización.
Evaluación Cualitativa
Expertos evaluaron los mapas de segmentación producidos por nuestros modelos, observando qué tan bien se detectaron los artefactos y qué tan efectivamente se preservaron las regiones libres de artefactos. Aunque la retroalimentación general fue positiva, algunas instancias de clasificación incorrecta demostraron que todavía hay áreas para mejorar. Esta evaluación cualitativa refuerza la necesidad de una revisión experta además de medidas cuantitativas para evaluar con precisión el rendimiento del modelo.
Conclusión y Direcciones Futuras
En resumen, desarrollamos canalizaciones innovadoras de aprendizaje profundo capaces de refinar imágenes de diapositivas completas a través de un exhaustivo proceso de detección de artefactos. El enfoque MoE captura las sutilezas de varias morfologías de artefactos y combina efectivamente las predicciones de diferentes modelos. A través de pruebas rigurosas, establecimos que el modelo MoE que utiliza DCNNs supera a los modelos multicategoría en rendimiento, a pesar de requerir más recursos computacionales.
El trabajo presentado aquí sienta las bases para mejorar los sistemas de patología computacional, equipándolos con la capacidad de filtrar el ruido y mejorar los procesos de diagnóstico. En el futuro, esperamos ampliar nuestros conjuntos de datos de entrenamiento incorporando muestras de múltiples cohortes e implementando estrategias adaptativas para optimizar el rendimiento del modelo según tipos específicos de cáncer. Al hacerlo, esperamos refinar aún más la eficacia de las canalizaciones de procesamiento de artefactos y su aplicabilidad en entornos clínicos.
Título: Equipping Computational Pathology Systems with Artifact Processing Pipelines: A Showcase for Computation and Performance Trade-offs
Resumen: BackgroundHistopathology is a gold standard for cancer diagnosis. It involves extracting tissue specimens from suspicious areas to prepare a glass slide for a microscopic examination. However, histological tissue processing procedures result in the introduction of artifacts, which are ultimately transferred to the digitized version of glass slides, known as whole slide images (WSIs). Artifacts are diagnostically irrelevant areas and may result in wrong predictions from deep learning (DL) algorithms. Therefore, detecting and excluding artifacts in the computational pathology (CPATH) system is essential for reliable automated diagnosis. MethodsIn this paper, we propose a mixture of experts (MoE) scheme for detecting five notable artifacts, including damaged tissue, blur, folded tissue, air bubbles, and histologically irrelevant blood from WSIs. First, we train independent binary DL models as experts to capture particular artifact morphology. Then, we ensemble their predictions using a fusion mechanism. We apply probabilistic thresholding over the final probability distribution to improve the sensitivity of the MoE. We developed four DL pipelines to evaluate computational and performance trade-offs. These include two MoEs and two multiclass models of state-of-the-art deep convolutional neural networks (DCNNs) and vision transformers (ViTs). These DL pipelines are quantitatively and qualitatively evaluated on external and out-of-distribution (OoD) data to assess generalizability and robustness for artifact detection application. ResultsWe extensively evaluated the proposed MoE and multiclass models. DCNNs-based MoE and ViTs-based MoE schemes outperformed simpler multiclass models and were tested on datasets from different hospitals and cancer types, where MoE using (MobiletNet) DCNNs yielded the best results. The proposed MoE yields 86.15 % F1 and 97.93% sensitivity scores on unseen data, retaining less computational cost for inference than MoE using ViTs. This best performance of MoEs comes with relatively higher computational trade-offs than multiclass models. Furthermore, we apply post-processing to create an artifact segmentation mask, a potential artifact-free RoI map, a quality report, and an artifact-refined WSI for further computational analysis. During the qualitative evaluation, pathologists assessed the predictive performance of MoEs over OoD WSIs. They rated artifact detection and artifact-free area preservation, where the highest agreement translated to the Cohen kappa of 0.82, indicating substantial agreement for the overall diagnostic usability of the DCNN-based MoE scheme. ConclusionsThe proposed artifact detection pipeline will not only ensure reliable CPATH predictions but may also provide quality control. In this work, the best-performing pipeline for artifact detection is MoE with DCNNs. Our detailed experiments show that there is always a trade-off between performance and computational complexity, and no straightforward DL solution equally suits all types of data and applications. The code and dataset for training and development can be found online at Github and Zenodo, respectively.
Autores: Neel Kanwal, F. Khoraminia, U. Kiraz, A. Mosquera-Zamudio, C. Monteagudo, E. A. M. Janssen, T. C. M. Zuiverloon, C. Rong, K. Engan
Última actualización: 2024-03-13 00:00:00
Idioma: English
Fuente URL: https://www.medrxiv.org/content/10.1101/2024.03.11.24304119
Fuente PDF: https://www.medrxiv.org/content/10.1101/2024.03.11.24304119.full.pdf
Licencia: https://creativecommons.org/licenses/by-nc/4.0/
Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.
Gracias a medrxiv por el uso de su interoperabilidad de acceso abierto.