Avances en la imágen de próstata con MicroSegNet
Nuevo modelo mejora la segmentación de la próstata en imágenes de micro-ultrasonido.
― 8 minilectura
Tabla de contenidos
El Micro-ultrasonido (micro-US) es una técnica avanzada de imagen médica que opera a una frecuencia de 29 MHz. Esto ofrece una vista mucho más clara de la próstata en comparación con los métodos de ultrasonido tradicionales, proporcionando de 3 a 4 veces más resolución. El micro-US puede diagnosticar cáncer de próstata con una precisión similar a la de la resonancia magnética (RM), pero es más asequible.
La segmentación precisa de la próstata es vital para medir su volumen, diagnosticar cáncer, realizar biopsias y planificar tratamientos. Sin embargo, segmentar la próstata en imágenes de micro-US puede ser bastante complicado. Los artefactos y los bordes poco claros entre la próstata, la vejiga y la uretra a menudo hacen que esta tarea sea difícil.
Para abordar estos problemas, se desarrolló un nuevo modelo llamado MicroSegNet. Este modelo utiliza un enfoque de anotación multiescala y una arquitectura de transformador conocida como UNet. MicroSegNet está diseñado específicamente para mejorar la segmentación de la próstata en imágenes de micro-US. Durante el entrenamiento, el modelo presta más atención a las áreas difíciles, que se definen como regiones donde diferentes anotadores no están de acuerdo en los límites.
Lo innovador de MicroSegNet es su método de entrenamiento. Emplea una nueva función de pérdida llamada entropía cruzada binaria guiada por anotaciones (AG-BCE). Esta función otorga más importancia a los errores cometidos en áreas difíciles, mientras que los errores menos importantes en áreas fáciles reciben un menor peso. Este enfoque busca ayudar al modelo a aprender de manera más efectiva en áreas desafiantes.
El entrenamiento de MicroSegNet se llevó a cabo utilizando imágenes de 55 pacientes, con su rendimiento evaluado en imágenes de otros 20 pacientes. El modelo obtuvo resultados impresionantes, logrando un Coeficiente de Dice de 0.942, lo que indica una alta precisión en la segmentación, junto con una distancia de Hausdorff de 2.11 mm. Este rendimiento superó al de varios otros métodos de segmentación bien conocidos y superó el trabajo de anotadores humanos con diferentes niveles de experiencia.
El cáncer de próstata es el cáncer más común diagnosticado en hombres en Estados Unidos. Se estima que en 2022 hubo alrededor de 268,490 nuevos casos y aproximadamente 34,500 muertes como resultado directo de la enfermedad. La detección temprana es crucial, ya que puede mejorar drásticamente las posibilidades de supervivencia.
Actualmente, se realizan alrededor de 1 millón de biopsias prostáticas guiadas por ultrasonido transrectal (TRUS) cada año en Estados Unidos. Debido a las limitaciones de la imagen TRUS, muchas recomendaciones sugieren combinar biopsias dirigidas y biopsias sistemáticas. Desafortunadamente, solo alrededor del 12% de las muestras de biopsia terminan revelando cáncer significativo, lo que conduce a complicaciones innecesarias como sangrado e infecciones.
El micro-ultrasonido ha surgido como una alternativa prometedora. Su mayor resolución puede proporcionar un mejor detalle en tiempo real, evitando errores de fusión de imágenes que pueden ocurrir con combinaciones de RM y ultrasonido. Sin embargo, interpretar imágenes de micro-US es complicado, lo que ha ralentizado su adopción. El objetivo del aprendizaje automático en este contexto es ayudar a identificar automáticamente la cápsula prostática. Hacerlo permitiría comparaciones más fáciles con otros métodos diagnósticos y conduciría a una mejor estadificación del cáncer.
La segmentación de la próstata en imágenes de micro-US enfrenta desafíos cognitivos. Primero, los profesionales de la salud están acostumbrados a ver imágenes en ciertas orientaciones, mientras que el micro-US proporciona imágenes en diferentes ángulos. Segundo, las superposiciones entre la próstata, la vejiga y las estructuras circundantes a menudo dificultan la identificación de la próstata. Por último, enfermedades como la calcificación prostática pueden introducir artefactos en las imágenes, complicando aún más la detección.
Como resultado, la identificación de las ubicaciones de las muestras de biopsia prostática a menudo depende de métodos más complejos en lugar de relacionarlo directamente con la cápsula prostática. Este proceso de segmentación manual es lento y no es práctico para casos de alto volumen. Debido a la mejor calidad de imagen que ofrece el micro-US, muchos especialistas aún prefieren la RM para la planificación del tratamiento, ya que puede producir un mapa 3D completo de las ubicaciones del cáncer.
MicroSegNet se desarrolló como una solución a estos desafíos, siendo el primer enfoque de aprendizaje profundo específicamente para la segmentación de la próstata en imágenes de micro-US. El modelo se basa en una arquitectura sólida llamada TransUNet, que incluye un mecanismo de auto-atención para una mejor detección de bordes.
Una característica única de MicroSegNet es su supervisión profunda multiescala. Esta técnica captura información en diferentes escalas, lo que permite al modelo obtener información contextual amplia y detallada sobre las imágenes. Además, su función de pérdida AG-BCE se centra en entrenar al modelo de manera más rigurosa en áreas difíciles de segmentar.
Para mejorar aún más el rendimiento del modelo, los investigadores utilizaron anotaciones de anotadores tanto expertos como menos experimentados. La entrada de no expertos es valiosa porque es más fácil de reunir y agrega diversidad a los datos de entrenamiento. Las áreas donde las anotaciones del experto y del no experto no coinciden se tratan como regiones difíciles, mientras que las áreas de acuerdo se consideran fáciles.
El conjunto de entrenamiento consistió en 2,060 imágenes de micro-US de los 55 pacientes iniciales, mientras que un conjunto separado de 758 imágenes se utilizó para la evaluación. Se compararon tres modelos de segmentación diferentes: el UNet estándar, TransUNet y un modelo especializado llamado UNet Residual Dilatado (DRUNet). El entrenamiento pasó por 10 épocas, manteniendo configuraciones uniformes en todas las pruebas para garantizar consistencia.
Las métricas de evaluación incluyeron el coeficiente de Dice, que mide la superposición entre las segmentaciones de próstata predichas y reales. Un coeficiente de Dice más alto indica un mejor rendimiento. Además, se utilizó la distancia de Hausdorff para medir las discrepancias máximas en los límites, centrándose en el percentil 95 de las distancias para ignorar pequeños atípicos.
Los resultados mostraron que MicroSegNet superó a todos los modelos competidores tanto en las mediciones del coeficiente de Dice como en la distancia de Hausdorff. La adición de la supervisión multiescala y la función de pérdida AG-BCE contribuyó significativamente a esta mejora.
Cuando se comparó con anotadores humanos, desde un estudiante de máster hasta un urólogo experimentado, MicroSegNet aún ofreció resultados superiores. Esto sugiere el potencial del modelo como herramienta para ayudar a los profesionales médicos durante las biopsias y mejorar los esfuerzos de detección de cáncer.
También se realizó un estudio de ablación para probar cómo diferentes pesos para regiones difíciles y fáciles impactaron en la efectividad del modelo. Los hallazgos indicaron que aumentar el peso en las regiones difíciles mejoró el rendimiento, pero solo hasta cierto punto. Un enfoque excesivo en las regiones difíciles eventualmente condujo a una disminución en el rendimiento general del modelo en segmentos más fáciles.
El micro-ultrasonido ha demostrado ser un método prometedor para la imagenología del cáncer de próstata, ofreciendo retroalimentación en tiempo real a un costo menor en comparación con los métodos tradicionales. Sin embargo, una limitación es el desafío de producir imágenes 3D debido a la forma en que se formatean estas exploraciones. La imposibilidad de orientar correctamente los datos de imagen ha dificultado comparar resultados en distintos diagnósticos o rastrear con precisión las ubicaciones de las muestras de biopsia.
En conclusión, la introducción de MicroSegNet marca un avance en la segmentación automatizada de la próstata utilizando imágenes de micro-ultrasonido. La integración de la función de pérdida AG-BCE, que aprovecha las anotaciones de no expertos, es una contribución significativa a la mejora de la segmentación en áreas complicadas. Con más investigación y acceso abierto al conjunto de datos creado, hay un gran potencial para avances adicionales en este campo.
Título: MicroSegNet: A Deep Learning Approach for Prostate Segmentation on Micro-Ultrasound Images
Resumen: Micro-ultrasound (micro-US) is a novel 29-MHz ultrasound technique that provides 3-4 times higher resolution than traditional ultrasound, potentially enabling low-cost, accurate diagnosis of prostate cancer. Accurate prostate segmentation is crucial for prostate volume measurement, cancer diagnosis, prostate biopsy, and treatment planning. However, prostate segmentation on micro-US is challenging due to artifacts and indistinct borders between the prostate, bladder, and urethra in the midline. This paper presents MicroSegNet, a multi-scale annotation-guided transformer UNet model designed specifically to tackle these challenges. During the training process, MicroSegNet focuses more on regions that are hard to segment (hard regions), characterized by discrepancies between expert and non-expert annotations. We achieve this by proposing an annotation-guided binary cross entropy (AG-BCE) loss that assigns a larger weight to prediction errors in hard regions and a lower weight to prediction errors in easy regions. The AG-BCE loss was seamlessly integrated into the training process through the utilization of multi-scale deep supervision, enabling MicroSegNet to capture global contextual dependencies and local information at various scales. We trained our model using micro-US images from 55 patients, followed by evaluation on 20 patients. Our MicroSegNet model achieved a Dice coefficient of 0.939 and a Hausdorff distance of 2.02 mm, outperforming several state-of-the-art segmentation methods, as well as three human annotators with different experience levels. Our code is publicly available at https://github.com/mirthAI/MicroSegNet and our dataset is publicly available at https://zenodo.org/records/10475293.
Autores: Hongxu Jiang, Muhammad Imran, Preethika Muralidharan, Anjali Patel, Jake Pensa, Muxuan Liang, Tarik Benidir, Joseph R. Grajo, Jason P. Joseph, Russell Terry, John Michael DiBianco, Li-Ming Su, Yuyin Zhou, Wayne G. Brisbane, Wei Shao
Última actualización: 2024-01-25 00:00:00
Idioma: English
Fuente URL: https://arxiv.org/abs/2305.19956
Fuente PDF: https://arxiv.org/pdf/2305.19956
Licencia: https://creativecommons.org/licenses/by-nc-sa/4.0/
Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.
Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.