Simple Science

La science de pointe expliquée simplement

# Informatique# Vision par ordinateur et reconnaissance des formes# Apprentissage automatique

S'attaquer au biais de style d'étiquette dans la segmentation d'image

Des recherches montrent des méthodes pour améliorer la précision des modèles en segmentation d'images en prenant en compte les styles de labels.

― 9 min lire


S'attaquer au biaisS'attaquer au biaisd'étiquetage dans lasegmentationaux variations de style d'annotation.segmentation d'images en s'attaquantAméliorer la précision de la
Table des matières

La segmentation d'image est une tâche clé en vision par ordinateur et en traitement d'images biomédicales. Ça consiste à diviser une image en parties plus faciles à analyser. Un gros défi dans ce domaine, c'est de gérer l'incertitude des Segmentations. Cette incertitude vient de différents facteurs, comme les variations dans la façon dont les gens annotent ou étiquettent les images. Chaque annotateur peut voir les limites différemment, ce qui mène à des segmentations différentes pour le même objet. Quand on entraîne des modèles pour prédire les segmentations, il est essentiel de prendre en compte cette incertitude.

Types d'incertitude

Concernant l'incertitude dans la segmentation d'image, il y a deux types principaux à considérer : l'Incertitude aléatoire et l'Incertitude épistémique.

  • L'incertitude aléatoire concerne la variabilité inhérente dans les données elles-mêmes. Ça veut dire que même si tous les annotateurs suivent les mêmes directives, leurs résultats peuvent quand même différer à cause de leur jugement personnel ou de la confusion sur l'image.

  • L'incertitude épistémique tourne autour des limitations du modèle. Ce type d'incertitude est surtout dû à un manque de données d'entraînement. Si un modèle n'a pas appris suffisamment à partir des données disponibles, il ne fera pas de prédictions précises.

Pour un entraînement efficace des modèles, c'est important que la variabilité dans les annotations reflète de vraies différences dans les données. Souvent, cette variabilité est influencée par la façon dont les annotations sont générées. Différents outils ou instructions peuvent entraîner des différences systématiques dans les annotations, compliquant encore plus l'incertitude.

L'impact des styles d'étiquetage

Le style d'étiquetage fait référence à la manière dont les annotateurs choisissent de décrire le même objet. Par exemple, un annotateur peut fournir un contour détaillé d'une tumeur, tandis qu'un autre peut marquer une zone plus large qui inclut la tumeur, mais sans précision. Ces différences de style peuvent mener à un biais dans le modèle lors de l'entraînement sur des ensembles de données mixtes.

Dans des scénarios réels, surtout en imagerie médicale, les jeux de données peuvent contenir un mélange d'annotations de haute qualité, détaillées et d'étiquettes de qualité inférieure, généralisées. Ce n'est pas toujours clair si l'inclusion de ces annotations moins détaillées va améliorer l'entraînement du modèle ou si ça va causer encore plus de confusion.

Les annotations faibles fournissent des données moins précises sur les limites, mais elles contiennent quand même des informations utiles sur la présence et l'emplacement approximatif d'un objet. Il y a un potentiel pour que les modèles apprennent de ces étiquettes plus faibles, mais le défi est de bien interpréter leur signification.

Le défi des styles d'étiquetage mixtes

Les modèles actuels pour segmenter des images ne différencient souvent pas entre les variations dans les styles d'étiquetage et les variations dans les données. Par conséquent, ces modèles risquent d'être biaisés par les différences dans l'étiquetage.

Quand ces modèles sont exposés à des styles d'étiquetage mixtes lors de l'entraînement, ils peuvent avoir tendance à sur-segmenter, ce qui signifie qu'ils identifient des zones plus grandes que prévu. Ce problème apparaît particulièrement lorsque le modèle s'appuie sur des annotations de moindre qualité.

Pour lutter contre le biais du modèle causé par les différences dans les styles d'étiquetage, une proposition est de créer une nouvelle approche d'entraînement qui prend ces styles en compte pendant le processus d'apprentissage. Il est nécessaire de modifier les modèles de segmentation existants pour mieux gérer les styles d'étiquetage mixtes.

Vue d'ensemble des méthodes

Pour traiter le problème du biais des styles d'étiquetage, un nouvel objectif de modélisation a été introduit. Cela implique de conditionner les modèles sur les différents styles d'étiquetage présents dans les données d'entraînement. En faisant cela, le modèle peut potentiellement mieux faire correspondre le processus d'apprentissage aux annotations réelles fournies.

Deux types principaux de modèles sont adaptés à cet effet : le U-net probabiliste et les Réseaux de Segmentation Stochastiques. Ces deux modèles peuvent être ajustés pour tenir compte des styles d'étiquetage directement.

U-net Probabiliste Conditionné

Le U-net probabiliste combine une architecture U-net avec une méthode d'estimation des distributions de segmentations. L'objectif est d'encoder des variations plausibles dans les segmentations tout en tenant compte des styles d'étiquetage variés. Le modèle apprend à ajuster ses prédictions en fonction des différents styles d'étiquetage, ce qui améliore sa performance dans des situations d'incertitude.

Réseaux de Segmentation Stochastiques Conditionnés

Les Réseaux de Segmentation Stochastiques offrent une autre approche pour traiter l'incertitude dans la segmentation. Ce modèle évalue des cartes de caractéristiques à partir d'un cadre de segmentation déterministe et introduit un moyen d'estimer une distribution des résultats basée sur les caractéristiques qu'il apprend. En incluant le style d'étiquetage comme facteur dans le processus d'entraînement, le modèle peut créer des segmentations plus précises qui reflètent mieux les annotations d'experts.

Jeux de données utilisés pour l'entraînement

Pour tester ces nouveaux modèles conditionnés, deux ensembles de données spécifiques ont été sélectionnés. Le premier est un sous-ensemble du dataset ISIC19, qui se concentre sur les lésions cutanées. Cet ensemble de données inclut des annotations marquées en utilisant différentes techniques d'étiquetage, allant des contours détaillés aux ébauches grossières.

Le second ensemble de données est basé sur une vidéo de suivi de cellules contenant des images de cellules annotées par plusieurs chercheurs. Comme le premier ensemble, il inclut des annotations dans différents styles, permettant une évaluation complète de la manière dont les modèles gèrent les divers styles d'étiquetage pendant le processus d'apprentissage.

Procédure d'entraînement

Les modèles sont entraînés en utilisant l'optimiseur Adam, un choix populaire pour ajuster les modèles d'apprentissage profond. Pendant l'entraînement, une combinaison de pertes est minimisée. Le défi est de s'assurer que les prédictions de segmentation et les styles d'étiquetage sont pris en compte de manière appropriée. Cela se fait à travers une série d'époques d'entraînement, avec le nombre d'images et d'annotations utilisées pour entraîner les modèles étant soigneusement régulé.

Résultats et performance

La performance des nouveaux modèles conditionnés a été évaluée par rapport aux modèles standards qui ne tenaient pas compte des styles d'étiquetage lors de leur entraînement. Divers métriques ont été utilisées pour évaluer leur efficacité, y compris :

  • Intersection sur Union (IoU) : Une mesure de la qualité de l’adéquation des segmentations prédites avec les annotations réelles.
  • Aire Sous la Courbe de Caractéristiques de Fonctionnement (AUROC) : Cette métrique évalue la capacité du modèle à classer correctement les pixels en fonction de la probabilité d'appartenir à la segment cible.

Les résultats ont montré que les modèles conditionnés surpassaient leurs homologues standards dans divers scénarios. Ils ont démontré un meilleur ajustement à la distribution des annotateurs et ont réduit le biais dans les prédictions. Cela suggère qu'ils sont plus efficaces pour gérer la variabilité introduite par les différents styles d'étiquetage.

Biais de sur-segmentation

Un des principaux objectifs de la recherche était de traiter la question du sur-segmentation dans les modèles standards. Les résultats ont indiqué que les modèles conditionnés ont réussi à atténuer ce biais. Tandis que les modèles standards entraînés sur des styles mixtes avaient tendance à sur-segmenter, les nouveaux modèles étaient mieux capables de produire des segmentations qui correspondaient aux annotations de haute qualité.

Implications pour la recherche future

Les résultats de cette recherche fournissent des insights importants pour améliorer la façon dont les modèles apprennent des styles d'annotation variés. En conditionnant sur le style d'étiquette, les modèles peuvent mieux utiliser toutes les annotations disponibles, menant à une meilleure précision de segmentation.

La recherche future pourrait explorer des ensembles de données encore plus vastes ou incorporer une plus grande variété de styles d'étiquetage. Il y a aussi un potentiel pour tester ces approches dans différents domaines en dehors de l'imagerie médicale, où des styles d'annotateur variés pourraient créer des défis similaires.

Conclusion

En résumé, la recherche démontre l'importance de prendre en compte les variations de style d'étiquetage dans les tâches de segmentation d'image. En conditionnant les modèles de segmentation sur ces styles, il est possible d'obtenir de meilleures performances et de réduire le biais dans les prédictions. Ce travail a des implications significatives pour le développement de modèles d'apprentissage automatique dans divers domaines, surtout dans les domaines où une segmentation précise est vitale pour une analyse ultérieure.

Incorporer des styles d'annotation mixtes dans l'entraînement des modèles permet un apprentissage plus robuste et améliore la capacité des modèles à fonctionner avec des données du monde réel. Cela prépare ces modèles à faire face aux défis posés par les ensembles de données variés rencontrés dans la pratique.

Source originale

Titre: That Label's Got Style: Handling Label Style Bias for Uncertain Image Segmentation

Résumé: Segmentation uncertainty models predict a distribution over plausible segmentations for a given input, which they learn from the annotator variation in the training set. However, in practice these annotations can differ systematically in the way they are generated, for example through the use of different labeling tools. This results in datasets that contain both data variability and differing label styles. In this paper, we demonstrate that applying state-of-the-art segmentation uncertainty models on such datasets can lead to model bias caused by the different label styles. We present an updated modelling objective conditioning on labeling style for aleatoric uncertainty estimation, and modify two state-of-the-art-architectures for segmentation uncertainty accordingly. We show with extensive experiments that this method reduces label style bias, while improving segmentation performance, increasing the applicability of segmentation uncertainty models in the wild. We curate two datasets, with annotations in different label styles, which we will make publicly available along with our code upon publication.

Auteurs: Kilian Zepf, Eike Petersen, Jes Frellsen, Aasa Feragen

Dernière mise à jour: 2023-03-28 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2303.15850

Source PDF: https://arxiv.org/pdf/2303.15850

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires