Simple Science

La science de pointe expliquée simplement

# Informatique# Vision par ordinateur et reconnaissance des formes

Évaluation de la segmentation d'instances : Une nouvelle métrique

Une nouvelle approche pour les métriques d'évaluation de la segmentation d'instance est présentée.

― 6 min lire


Métriques de segmentationMétriques de segmentationd'instance réforméessegmentation.meilleure évaluation de laPrésentation de sortedAP pour une
Table des matières

La segmentation d'instance, c'est un domaine de la vision par ordinateur qui ne se contente pas d'identifier des objets dans des images, mais qui trace aussi leurs contours exacts. C'est super important dans des applis comme les voitures autonomes, l'imagerie médicale et l'agriculture. Évaluer à quel point ces méthodes de segmentation fonctionnent, c'est essentiel, mais les Métriques d'évaluation actuelles ne prennent pas vraiment en compte tous les aspects importants de cette tâche.

Importance des métriques d'évaluation

Les métriques d'évaluation sont des outils qui mesurent la précision des méthodes de segmentation. En général, elles regardent des trucs comme combien d'objets ont été ratés (faux négatifs), combien ont été mal identifiés (faux positifs), et à quel point la segmentation était inexacte. Mais plein de métriques courantes négligent des propriétés vitales comme la Sensibilité, la Continuité et l'ÉGALITÉ.

Sensibilité

Une bonne métrique d'évaluation devrait réagir à chaque type d'erreur. S'il y a une erreur dans la segmentation, le score devrait descendre de manière continue. Ça veut dire que toutes les erreurs doivent être prises en compte et que le score doit vraiment refléter la qualité de la segmentation fournie.

Continuité

Une métrique doit montrer un changement fluide et régulier dans le score quand la qualité de la segmentation change. Quand les segmentations sont juste légèrement différentes, le score devrait aussi changer progressivement au lieu de sauter de manière inattendue. Cette cohérence aide à évaluer correctement si la segmentation est bonne ou mauvaise.

Égalité

Une métrique idéale traite tous les objets de manière équitable, peu importe leur taille. Par exemple, si un petit objet est raté, ça devrait impacter le score autant que rater un objet plus grand. Un système de scoring juste s'assure qu'aucun objet spécifique ne soit défavorisé ou avantagé à cause de sa taille.

Problèmes avec les métriques actuelles

La plupart des métriques existantes, même celles largement acceptées, ne répondent pas bien à ces propriétés. Par exemple, la métrique de précision moyenne (mAP) a tendance à manquer de sensibilité aux petits changements. Ça veut dire que des petites variations dans la segmentation peuvent passer inaperçues dans le score. Les métriques basées sur la correspondance, comme la précision moyenne (AP), peuvent voir leurs scores changer soudainement en fonction de certains seuils, ce qui entraîne de la confusion sur la performance réelle.

Solution proposée : SortedAP

Pour surmonter ces lacunes, une nouvelle métrique appelée précision moyenne triée (sortedAP) a été proposée. Cette métrique est conçue pour diminuer régulièrement à mesure que la qualité de la segmentation se dégrade, offrant une évaluation claire et cohérente de la performance. Elle fonctionne en analysant tous les scénarios possibles où la qualité de la segmentation peut changer, plutôt que de se fier à des seuils fixes.

Comment fonctionne SortedAP

SortedAP calcule les points précis où le score de qualité chute à mesure que la segmentation change. En identifiant ces points plutôt qu'en utilisant juste des seuils fixes, sortedAP s'assure que les petits changements dans la qualité de la segmentation se reflètent dans le score global. Ça permet une évaluation beaucoup plus sensible et réactive de la performance de la segmentation.

Types de métriques d'évaluation

Métriques basées sur le recouvrement

Un type courant de métrique est basé sur la mesure du recouvrement entre deux masques. Le coefficient de Dice et l'Intersection sur l'Union (IoU) sont souvent utilisés pour comparer à quel point deux segmentations sont similaires. Les deux métriques se basent sur la zone où deux masques se chevauchent et comment ça se compare à l'aire totale couverte.

Métriques basées sur la correspondance

Une autre catégorie est celle des métriques basées sur la correspondance qui se concentrent sur la détection d'objets à différents seuils de qualité. Ces métriques classifient les objets en vrais positifs, faux positifs et faux négatifs en fonction de leur correspondance avec la vérité de terrain. Un inconvénient, cependant, c'est qu'elles peuvent appliquer des seuils rigides qui peuvent entraîner des changements brusques de score.

Limites des métriques existantes

Des métriques courantes comme la mAP ont du mal dans diverses situations. Elles peuvent ignorer les imperfections de segmentation et montrer des pics soudains de score liés à des seuils spécifiques. Ça peut donner des évaluations trompeuses. Par exemple, si une segmentation a des petits problèmes qui ne sont pas significatifs pour changer le seuil, le score de la métrique peut rester le même malgré une dégradation réelle de la qualité.

Validation expérimentale

Des expériences ont été menées pour tester l'efficacité de différentes métriques, y compris sortedAP. Divers scénarios ont été créés pour introduire des erreurs systématiquement et observer comment chaque métrique réagit. Ces tests ont impliqué d'ajouter ou de retirer progressivement des objets, de modifier la qualité de la segmentation et d'observer la réponse des métriques.

Erreurs incrémentales

Dans une expérience, des erreurs ont été introduites progressivement en ajoutant ou en retirant des objets. Les résultats ont montré que pendant que sortedAP reflétait constamment ces changements progressifs, d'autres métriques comme AJI et SBD ont donné des scores plus erratiques qui ne corrélaient pas bien avec les changements réels dans la segmentation.

Érosion d'objet et suppression de pixel

Une autre expérience impliquait l'érosion, où la qualité de la segmentation d'un objet était progressivement réduite. Encore une fois, sortedAP a maintenu une baisse fluide et constante, tandis que d'autres métriques ont montré des plateaux ou des sauts erratiques, échouant à représenter avec précision la qualité changeante de la segmentation.

Conclusion

Le monde de la segmentation d'instance est en pleine expansion, et le besoin de métriques d'évaluation efficaces est plus crucial que jamais. Les métriques actuelles ont plusieurs limites, en particulier en termes de sensibilité, de continuité et d'égalité. La précision moyenne triée (sortedAP) proposée offre une solution qui aborde ces problèmes et fournit une manière plus cohérente et claire d'évaluer la qualité de la segmentation. En utilisant sortedAP, les chercheurs et les développeurs peuvent obtenir de meilleures informations sur l'efficacité de leurs méthodes de segmentation, menant à des applications plus robustes dans divers domaines.

Source originale

Titre: SortedAP: Rethinking evaluation metrics for instance segmentation

Résumé: Designing metrics for evaluating instance segmentation revolves around comprehensively considering object detection and segmentation accuracy. However, other important properties, such as sensitivity, continuity, and equality, are overlooked in the current study. In this paper, we reveal that most existing metrics have a limited resolution of segmentation quality. They are only conditionally sensitive to the change of masks or false predictions. For certain metrics, the score can change drastically in a narrow range which could provide a misleading indication of the quality gap between results. Therefore, we propose a new metric called sortedAP, which strictly decreases with both object- and pixel-level imperfections and has an uninterrupted penalization scale over the entire domain. We provide the evaluation toolkit and experiment code at https://www.github.com/looooongChen/sortedAP.

Auteurs: Long Chen, Yuli Wu, Johannes Stegmaier, Dorit Merhof

Dernière mise à jour: 2023-09-09 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2309.04887

Source PDF: https://arxiv.org/pdf/2309.04887

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires