Abordando el sesgo de estilo de etiqueta en la segmentación de imágenes
La investigación revela métodos para mejorar la precisión del modelo en la segmentación de imágenes al considerar los estilos de etiquetas.
― 8 minilectura
Tabla de contenidos
- Tipos de Incertidumbre
- El Impacto de los Estilos de Etiquetado
- El Desafío de los Estilos de Etiquetado Mixtos
- Resumen del Método
- Conjuntos de Datos Utilizados para el Entrenamiento
- Procedimiento de Entrenamiento
- Resultados y Desempeño
- Implicaciones para la Investigación Futura
- Conclusión
- Fuente original
- Enlaces de referencia
La Segmentación de imágenes es una tarea clave en la visión por computadora y el procesamiento de imágenes biomédicas. Implica dividir una imagen en partes que son más fáciles de analizar. Un desafío significativo en este área es lidiar con la incertidumbre en las segmentaciones. Esta incertidumbre surge de diferentes factores, incluyendo las variaciones en cómo diferentes personas anotan o etiquetan imágenes. Cada anotador podría ver los límites de manera diferente, lo que lleva a diferentes segmentaciones del mismo objeto. Al entrenar modelos para predecir segmentaciones, es esencial tener en cuenta esta incertidumbre.
Tipos de Incertidumbre
Cuando se trata de incertidumbre en la segmentación de imágenes, hay dos tipos principales a considerar: incertidumbre aleatoria y epistemológica.
Incertidumbre aleatoria se ocupa de la variabilidad inherente en los datos mismos. Esto significa que incluso si todos los anotadores siguen las mismas pautas, sus resultados aún pueden diferir debido a juicios personales o confusión sobre la imagen.
Incertidumbre epistemológica gira en torno a las limitaciones del modelo. Este tipo de incertidumbre se debe principalmente a datos de entrenamiento insuficientes. Si un modelo no ha aprendido lo suficiente a partir de los datos disponibles, no hará predicciones precisas.
Para un entrenamiento efectivo del modelo, es importante que la variabilidad en las anotaciones refleje diferencias reales en los datos. A menudo, esta variabilidad se ve afectada por cómo se generan las anotaciones. Diferentes herramientas o instrucciones pueden resultar en diferencias sistemáticas en las anotaciones, complicando aún más la incertidumbre.
El Impacto de los Estilos de Etiquetado
El estilo de etiquetado se refiere a la forma en que los anotadores eligen describir el mismo objeto. Por ejemplo, un anotador puede proporcionar un contorno detallado de un tumor, mientras que otro puede marcar un área más amplia que incluye el tumor pero carece de precisión. Estas diferencias en estilo pueden llevar a sesgos en el modelo al entrenar con conjuntos de datos mixtos.
En situaciones del mundo real, especialmente en imágenes médicas, los conjuntos de datos pueden contener una mezcla de anotaciones detalladas de alta calidad y etiquetas generalizadas de menor calidad. No siempre está claro si incluir estas anotaciones menos detalladas mejorará el entrenamiento del modelo o si causará más confusión.
Las anotaciones débiles proporcionan datos menos precisos sobre los límites, pero aún contienen información útil sobre la presencia y ubicación aproximada de un objeto. Hay potencial para que los modelos aprendan de estas etiquetas más débiles, pero el desafío radica en interpretar correctamente su importancia.
El Desafío de los Estilos de Etiquetado Mixtos
Los modelos actuales para segmentar imágenes a menudo no diferencian entre variaciones en los estilos de etiquetado y variaciones en los datos. Como resultado, estos modelos corren el riesgo de volverse sesgados por las diferencias en el etiquetado.
Cuando estos modelos se exponen a estilos de etiquetado mixtos durante el entrenamiento, pueden tender a sobrersegmentar, lo que significa que identifican áreas más grandes de lo previsto. Este problema surge particularmente cuando el modelo se basa en anotaciones de menor calidad.
Para abordar el sesgo del modelo causado por las diferencias en los estilos de etiquetado, una propuesta es crear un nuevo enfoque de entrenamiento que tenga en cuenta estos estilos durante el proceso de aprendizaje. Hay una necesidad de modificar los modelos de segmentación existentes para manejar mejor los estilos de etiquetado mixtos.
Resumen del Método
Para abordar el problema del sesgo en los estilos de etiquetado, se ha introducido un nuevo objetivo de modelado. Esto implica condicionar los modelos en los diversos estilos de etiquetado presentes en los datos de entrenamiento. Al hacer esto, el modelo puede potencialmente hacer coincidir mejor el proceso de aprendizaje con las anotaciones reales proporcionadas.
Se adaptan dos tipos principales de modelos para este propósito: el U-net Probabilístico y las Redes de Segmentación Estocástica. Ambos modelos se pueden ajustar para incluir los estilos de etiquetado directamente.
U-net Probabilístico Condicionado
El U-net Probabilístico combina una arquitectura U-net con un método para estimar distribuciones de segmentaciones. El objetivo es codificar variaciones plausibles en las segmentaciones mientras se consideran los diferentes estilos de etiquetado. El modelo aprende a ajustar sus predicciones según los diferentes estilos de etiquetado, lo que mejora su desempeño en situaciones de incertidumbre.
Redes de Segmentación Estocástica Condicionadas
Las Redes de Segmentación Estocástica ofrecen otro enfoque para lidiar con la incertidumbre en la segmentación. Este modelo evalúa mapas de características a partir de un marco de segmentación determinista e introduce una forma de estimar una distribución de resultados basada en las características que aprende. Al incluir el estilo de etiquetado como un factor en el proceso de entrenamiento, el modelo puede crear segmentaciones más precisas que reflejen mejor las anotaciones de expertos.
Conjuntos de Datos Utilizados para el Entrenamiento
Para probar estos modelos condicionados recientemente, se seleccionaron dos conjuntos de datos específicos. El primero es un subconjunto del conjunto de datos ISIC19, que se centra en lesiones de piel. Este conjunto incluye anotaciones marcadas utilizando diferentes técnicas de etiquetado, que van desde límites detallados hasta contornos generales.
El segundo conjunto de datos se basa en un video de seguimiento celular que contiene imágenes de células anotadas por múltiples investigadores. Al igual que el primer conjunto, incluye anotaciones en diferentes estilos, lo que permite una evaluación integral de qué tan bien los modelos manejan diversos estilos de etiquetado durante el proceso de aprendizaje.
Procedimiento de Entrenamiento
Los modelos se entrenan usando el optimizador Adam, una opción popular para ajustar modelos de aprendizaje profundo. Durante el entrenamiento, se minimiza una combinación de pérdidas. El desafío radica en asegurarse de que tanto las predicciones de segmentación como los estilos de etiquetado se tengan en cuenta de manera apropiada. Esto se logra a través de una serie de épocas de entrenamiento, con el número de imágenes y anotaciones utilizadas para entrenar los modelos regulado cuidadosamente.
Resultados y Desempeño
El desempeño de los modelos condicionados recientemente se evaluó contra modelos estándar que no consideraban los estilos de etiquetado en su entrenamiento. Se utilizaron varias métricas para evaluar su efectividad, incluyendo:
- Intersección sobre Unión (IoU): Una medida de qué tan bien las segmentaciones predichas coinciden con las anotaciones de verdad.
- Área Bajo la Curva del Característica Operativa del Receptor (AUROC): Esta métrica evalúa la capacidad del modelo para clasificar correctamente los píxeles según la probabilidad de ser parte de la segmentación objetivo.
Los resultados mostraron que los modelos condicionados superaron a sus contrapartes estándar en varios escenarios. Demostraron un mejor ajuste a la distribución de los anotadores y redujeron el sesgo en las predicciones. Esto sugiere que son más efectivos para manejar la variabilidad introducida por diferentes estilos de etiquetado.
Sesgo de Sobrersegmentación
Uno de los principales objetivos de la investigación era abordar el problema de la sobrersegmentación en modelos estándar. Los resultados indicaron que los modelos condicionados mitigaron con éxito este sesgo. Mientras que los modelos estándar entrenados en estilos mixtos tendían a sobrersegmentar, los modelos más nuevos pudieron producir segmentaciones que coincidían con las anotaciones de alta calidad.
Implicaciones para la Investigación Futura
Los hallazgos de esta investigación brindan información importante sobre cómo mejorar la forma en que los modelos aprenden de los diversos estilos de anotación. Al condicionar por estilo de etiquetado, los modelos pueden aprovechar mejor todas las anotaciones disponibles, lo que lleva a una mayor precisión en la segmentación.
La investigación futura podría explorar conjuntos de datos aún más extensos o incorporar una mayor variedad de estilos de etiquetado. También hay potencial para probar estos enfoques en diferentes dominios fuera de la imagen médica, donde los estilos de anotadores variados podrían crear desafíos similares.
Conclusión
En resumen, la investigación demuestra la importancia de tener en cuenta las variaciones en los estilos de etiquetado en las tareas de segmentación de imágenes. Al condicionar los modelos de segmentación en estos estilos, es posible lograr un mejor rendimiento y reducir el sesgo en las predicciones. Este trabajo tiene implicaciones significativas para el desarrollo de modelos de aprendizaje automático en varios campos, especialmente en áreas donde la segmentación precisa es vital para un análisis posterior.
Incorporar estilos de anotación mixtos en el entrenamiento del modelo permite un aprendizaje más robusto y mejora la capacidad de los modelos para funcionar con datos del mundo real. Esto prepara a estos modelos para enfrentar los desafíos que plantean los conjuntos de datos diversos encontrados en la práctica.
Título: That Label's Got Style: Handling Label Style Bias for Uncertain Image Segmentation
Resumen: Segmentation uncertainty models predict a distribution over plausible segmentations for a given input, which they learn from the annotator variation in the training set. However, in practice these annotations can differ systematically in the way they are generated, for example through the use of different labeling tools. This results in datasets that contain both data variability and differing label styles. In this paper, we demonstrate that applying state-of-the-art segmentation uncertainty models on such datasets can lead to model bias caused by the different label styles. We present an updated modelling objective conditioning on labeling style for aleatoric uncertainty estimation, and modify two state-of-the-art-architectures for segmentation uncertainty accordingly. We show with extensive experiments that this method reduces label style bias, while improving segmentation performance, increasing the applicability of segmentation uncertainty models in the wild. We curate two datasets, with annotations in different label styles, which we will make publicly available along with our code upon publication.
Autores: Kilian Zepf, Eike Petersen, Jes Frellsen, Aasa Feragen
Última actualización: 2023-03-28 00:00:00
Idioma: English
Fuente URL: https://arxiv.org/abs/2303.15850
Fuente PDF: https://arxiv.org/pdf/2303.15850
Licencia: https://creativecommons.org/licenses/by/4.0/
Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.
Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.