Simple Science

La science de pointe expliquée simplement

# Informatique# Vision par ordinateur et reconnaissance des formes

MoDATTS : Une nouvelle approche pour la segmentation d'images médicales

MoDATTS améliore la segmentation des tumeurs en utilisant moins d'images étiquetées.

― 5 min lire


Faire avancer laFaire avancer lasegmentation d'imagesmédicalesdans la détection des tumeurs.MoDATTS réduit les besoins de labeling
Table des matières

La segmentation d'images médicales, c'est le processus qui consiste à identifier et tracer des zones spécifiques dans des images médicales, comme des tumeurs dans des IRM ou des scans CT. C'est super important pour poser des diagnostics et traiter diverses conditions de santé, surtout le cancer. Les méthodes traditionnelles de segmentation dépendent souvent de l'avis d'experts, ce qui peut être long et sujet à des erreurs humaines. Du coup, il y a un gros intérêt pour des techniques automatisées pour améliorer ce processus.

Défis en imagerie médicale

Un gros défi en imagerie médicale, c'est la variabilité de la qualité et des types d'images. Les différentes modalités d'imagerie, comme les IRM et les scans CT, peuvent produire des images qui se ressemblent pas du tout, même pour la même condition. Cette variabilité complique le travail des modèles automatisés pour fonctionner efficacement sur différents types d'images. De plus, obtenir des données étiquetées de haute qualité-des images marquées par des experts indiquant où se trouvent les tumeurs ou d'autres structures importantes-est souvent difficile et coûteux. Ça crée un fossé entre le besoin de solutions automatisées et la disponibilité de données pour entraîner ces solutions.

Introduction d'une nouvelle approche : MoDATTS

Une nouvelle méthode appelée MoDATTS a été développée pour s'attaquer à ces problèmes. MoDATTS signifie Modality Domain Adaptation Transformer-based pipeline for Tumor Segmentation. Cette méthode utilise l'Apprentissage semi-supervisé, ce qui veut dire qu'elle peut apprendre à partir de données étiquetées et non étiquetées. L'idée clé est d'entraîner un modèle sur un type d'image (la modalité source) puis de l'appliquer à un autre type d'image (la modalité cible) sans avoir besoin d'une étiquette extensive pour le deuxième type.

Comment ça marche MoDATTS

MoDATTS fonctionne en plusieurs étapes. D'abord, il génère des images synthétiques pour la modalité cible à partir des images de la modalité source en utilisant une technique appelée Traduction d'image. Ça veut dire qu'il prend des images d'un type de scan et les transforme en images ressemblant à un autre type de scan.

Une fois qu'on a ces images synthétiques, l'étape suivante est d'entraîner un Modèle de segmentation en utilisant à la fois les images synthétiques et les images originales cibles disponibles. Le but, c'est que le modèle apprenne à identifier et tracer les tumeurs efficacement dans ce nouveau type d'image.

Une particularité de MoDATTS, c'est son attention sur les tumeurs pendant la traduction. Ça aide à s'assurer que les détails importants sur les tumeurs sont préservés dans les images synthétiques, ce qui conduit à de meilleurs résultats d'entraînement.

L'avantage de l'auto-formation

MoDATTS intègre aussi un mécanisme d'auto-formation. Une fois le modèle initialement entraîné, il peut encore améliorer ses performances en générant de nouvelles étiquettes basées sur ses propres prédictions. Ça se fait en laissant le modèle prédire des segmentations sur les images non étiquetées et ensuite en utilisant ces prédictions comme données d'entraînement supplémentaires. Ce processus permet au modèle de continuer à progresser et à s'adapter plus efficacement aux caractéristiques de la modalité cible.

Tâches de segmentation cross-modalité

Pour démontrer son efficacité, MoDATTS a été testé sur deux tâches principales : la segmentation des tumeurs cérébrales et la segmentation du schwannome vestibulaire. Dans ces tests, il a obtenu des résultats impressionnants par rapport à d'autres méthodes existantes. Le modèle a pu maintenir une grande précision même quand seule une petite fraction des données de la modalité cible était annotée, soulignant son potentiel à réduire la charge de l'annotation manuelle requise en imagerie médicale.

L'importance de l'efficacité des données

Un des grands avantages de MoDATTS, c'est sa capacité à fonctionner avec peu de données étiquetées. Dans les milieux médicaux, le temps et les ressources pour obtenir des annotations d'experts peuvent être limités. MoDATTS aide à cela en atteignant des niveaux de performance quasi-supervisée avec seulement un petit pourcentage des données cibles annotées. Par exemple, le modèle pourrait viser 99 % de la performance d'un modèle entièrement supervisé avec juste 20 % des images de la modalité cible étiquetées.

Élargir les applications

Les techniques utilisées dans MoDATTS pourraient aussi s'appliquer à divers contextes d'imagerie médicale. Même si le focus principal a été sur les IRM pour les tumeurs cérébrales, le cadre peut être adapté pour fonctionner avec d'autres types d'imageries et de conditions. Les futures recherches pourraient impliquer d'étendre son utilisation à différents types de scans, comme les images CT, et même explorer des applications cross-maladies. Cette flexibilité ouvre des opportunités pour des diagnostics améliorés et une meilleure planification des traitements sur une gamme plus large de conditions médicales.

Conclusion

MoDATTS représente une avancée significative dans le domaine de la segmentation d'images médicales. En s'adaptant efficacement à de nouvelles modalités d'image avec moins de besoin de données étiquetées étendues, ça montre une direction prometteuse pour les futurs développements en imagerie médicale automatisée. La capacité à maintenir une grande précision tout en minimisant la charge d'annotation pourrait mener à des diagnostics plus rapides et fiables, ce qui bénéficierait finalement aux patients et aux prestataires de soins de santé.

Source originale

Titre: Image-level supervision and self-training for transformer-based cross-modality tumor segmentation

Résumé: Deep neural networks are commonly used for automated medical image segmentation, but models will frequently struggle to generalize well across different imaging modalities. This issue is particularly problematic due to the limited availability of annotated data, making it difficult to deploy these models on a larger scale. To overcome these challenges, we propose a new semi-supervised training strategy called MoDATTS. Our approach is designed for accurate cross-modality 3D tumor segmentation on unpaired bi-modal datasets. An image-to-image translation strategy between imaging modalities is used to produce annotated pseudo-target volumes and improve generalization to the unannotated target modality. We also use powerful vision transformer architectures and introduce an iterative self-training procedure to further close the domain gap between modalities. MoDATTS additionally allows the possibility to extend the training to unannotated target data by exploiting image-level labels with an unsupervised objective that encourages the model to perform 3D diseased-to-healthy translation by disentangling tumors from the background. The proposed model achieves superior performance compared to other methods from participating teams in the CrossMoDA 2022 challenge, as evidenced by its reported top Dice score of 0.87+/-0.04 for the VS segmentation. MoDATTS also yields consistent improvements in Dice scores over baselines on a cross-modality brain tumor segmentation task composed of four different contrasts from the BraTS 2020 challenge dataset, where 95% of a target supervised model performance is reached. We report that 99% and 100% of this maximum performance can be attained if 20% and 50% of the target data is additionally annotated, which further demonstrates that MoDATTS can be leveraged to reduce the annotation burden.

Auteurs: Malo de Boisredon, Eugene Vorontsov, William Trung Le, Samuel Kadoury

Dernière mise à jour: 2023-09-17 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2309.09246

Source PDF: https://arxiv.org/pdf/2309.09246

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Articles similaires