Simple Science

Ciencia de vanguardia explicada de forma sencilla

# Informática# Visión por Computador y Reconocimiento de Patrones

Evaluando la Segmentación de Instancias: Una Nueva Métrica

Se presenta un enfoque nuevo para métricas de evaluación de segmentación de instancias.

― 6 minilectura


Métricas de SegmentaciónMétricas de Segmentaciónde Instancias Reformadasevaluación de la segmentación.Presentamos sortedAP para una mejor
Tabla de contenidos

La segmentación de instancias es un campo de la visión por computadora que no solo implica identificar objetos en imágenes, sino también delinear sus límites exactos. Esto es especialmente importante en aplicaciones como coches autónomos, imágenes médicas y agricultura. Evaluar qué tan bien funcionan estos métodos de segmentación es crucial, pero las Métricas de Evaluación actuales no consideran todos los aspectos importantes de esta tarea.

Importancia de las Métricas de Evaluación

Las métricas de evaluación son herramientas que se utilizan para medir qué tan precisos son los métodos de segmentación. Por lo general, evalúan aspectos como cuántos objetos se pasaron por alto (falsos negativos), cuántos fueron identificados incorrectamente (falsos positivos) y cuán inexacta fue la segmentación en sí. Sin embargo, muchas de las métricas más comunes pasan por alto propiedades vitales como Sensibilidad, Continuidad e IGUALDAD.

Sensibilidad

Una buena métrica de evaluación debería reaccionar a todo tipo de errores. Si hay un error en la segmentación, la puntuación debería bajar continuamente. Esto significa que todos los errores deberían ser considerados, y la puntuación debería reflejar con precisión la calidad de la segmentación proporcionada.

Continuidad

Una métrica debería mostrar un cambio suave y constante en la puntuación a medida que cambia la calidad de la segmentación. Cuando las segmentaciones son solo un poco diferentes, la puntuación también debería cambiar gradualmente en lugar de saltar inesperadamente. Esta consistencia ayuda a evaluar correctamente qué tan buena o mala es la segmentación.

Igualdad

Una métrica ideal trata a todos los objetos de manera justa, sin importar su tamaño. Por ejemplo, si se pierde un objeto pequeño, esto debería afectar la puntuación tanto como perder un objeto más grande. Un sistema de puntuación justo asegura que ningún objeto específico sea favorecido o penalizado injustamente debido a su tamaño.

Problemas con las Métricas Actuales

La mayoría de las métricas existentes, incluso las más aceptadas, no cumplen adecuadamente con estas propiedades. Por ejemplo, la métrica de Precisión Promedio Media (mAP) tiende a mostrar una falta de sensibilidad a cambios menores. Esto significa que pequeñas variaciones en la segmentación pueden pasar desapercibidas en la puntuación. Las métricas basadas en coincidencias, como la Precisión Promedio (AP), pueden ver sus puntuaciones cambiar repentinamente en función de ciertos umbrales, lo que lleva a confusión sobre el rendimiento real.

Solución Propuesta: SortedAP

Para superar estas limitaciones, se ha propuesto una nueva métrica llamada Precisión Promedio Ordenada (sortedAP). Esta métrica está diseñada para disminuir de manera constante a medida que la calidad de la segmentación empeora, proporcionando una evaluación clara y consistente del rendimiento. Funciona analizando todos los escenarios potenciales donde la calidad de la segmentación puede cambiar, en lugar de depender de umbrales fijos.

Cómo Funciona SortedAP

SortedAP calcula los puntos precisos en los que la puntuación de calidad cae a medida que cambia la segmentación. Al identificar estos puntos en lugar de usar solo umbrales fijos, sortedAP asegura que cualquier pequeño cambio en la calidad de la segmentación se refleje en la puntuación general. Esto permite una evaluación mucho más sensible y receptiva del rendimiento de la segmentación.

Tipos de Métricas de Evaluación

Métricas Basadas en Superposición

Un tipo común de métrica se basa en medir la superposición entre dos máscaras. El coeficiente de Dice y la Intersección sobre Unión (IoU) se utilizan a menudo para comparar qué tan similares son dos segmentaciones. Ambas métricas dependen del área donde dos máscaras se intersectan y cómo se compara esto con el área total cubierta.

Métricas Basadas en Coincidencias

Otra categoría son las métricas basadas en coincidencias que se centran en la detección de objetos en varios umbrales de calidad. Estas métricas clasifican los objetos en verdaderos positivos, falsos positivos y falsos negativos según qué tan bien se ajustan a la verdad de terreno. Sin embargo, un inconveniente es que pueden aplicar umbrales rígidos que pueden llevar a cambios abruptos en la puntuación.

Deficiencias de las Métricas Existentes

Métricas comunes como mAP luchan en varios escenarios. Pueden pasar por alto imperfecciones en la segmentación y mostrar picos repentinos en la puntuación ligados a umbrales específicos. Esto puede resultar en evaluaciones engañosas. Por ejemplo, si una segmentación tiene problemas menores que no son lo suficientemente significativos para cambiar el umbral, la puntuación de la métrica puede seguir siendo la misma a pesar de que la calidad real esté empeorando.

Validación Experimental

Se han llevado a cabo experimentos para probar la efectividad de diferentes métricas, incluyendo sortedAP. Se han creado varios escenarios para introducir errores de manera sistemática y observar cómo responde cada métrica. Estas pruebas involucraron agregar o quitar objetos gradualmente, alterar la calidad de la segmentación y observar la respuesta de las métricas.

Errores Incrementales

En un experimento, se introdujeron errores de manera incremental agregando o eliminando objetos. Los resultados mostraron que, mientras sortedAP reflejaba consistentemente estos cambios graduales, otras métricas como AJI y SBD dieron puntuaciones más erráticas que no se correlacionaron bien con los cambios reales en la segmentación.

Erosión de Objetos y Eliminación de Píxeles

Otro experimento involucró erosión, donde la calidad de la segmentación de un objeto se redujo gradualmente. Nuevamente, sortedAP mantuvo un descenso suave y constante, mientras que otras métricas mostraron mesetas o saltos erráticos, fallando en representar con precisión la calidad cambiante de la segmentación.

Conclusión

El mundo de la segmentación de instancias está creciendo rápidamente, y la necesidad de métricas de evaluación efectivas es más crucial que nunca. Las métricas actuales tienen varias limitaciones, sobre todo en términos de sensibilidad, continuidad e igualdad. La propuesta de Precisión Promedio Ordenada (sortedAP) ofrece una solución que aborda estos problemas y proporciona una forma más consistente y clara de evaluar la calidad de la segmentación. Al emplear sortedAP, investigadores y desarrolladores pueden obtener mejores ideas sobre la efectividad de sus métodos de segmentación, llevando a aplicaciones más robustas en varios campos.

Fuente original

Título: SortedAP: Rethinking evaluation metrics for instance segmentation

Resumen: Designing metrics for evaluating instance segmentation revolves around comprehensively considering object detection and segmentation accuracy. However, other important properties, such as sensitivity, continuity, and equality, are overlooked in the current study. In this paper, we reveal that most existing metrics have a limited resolution of segmentation quality. They are only conditionally sensitive to the change of masks or false predictions. For certain metrics, the score can change drastically in a narrow range which could provide a misleading indication of the quality gap between results. Therefore, we propose a new metric called sortedAP, which strictly decreases with both object- and pixel-level imperfections and has an uninterrupted penalization scale over the entire domain. We provide the evaluation toolkit and experiment code at https://www.github.com/looooongChen/sortedAP.

Autores: Long Chen, Yuli Wu, Johannes Stegmaier, Dorit Merhof

Última actualización: 2023-09-09 00:00:00

Idioma: English

Fuente URL: https://arxiv.org/abs/2309.04887

Fuente PDF: https://arxiv.org/pdf/2309.04887

Licencia: https://creativecommons.org/licenses/by/4.0/

Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.

Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.

Más de autores

Artículos similares