Simple Science

La science de pointe expliquée simplement

# Génie électrique et science des systèmes# Traitement de l'image et de la vidéo# Vision par ordinateur et reconnaissance des formes

Automatiser le contour des organes dans le traitement du cancer du col de l'utérus

Une nouvelle méthode améliore le contour des organes automatiques en utilisant des scanners CT divers.

― 7 min lire


Avancées de l'IA dans leAvancées de l'IA dans letraitement du cancerl'utérus.organes pour le cancer du col deLe modèle d'IA améliore le contour des
Table des matières

Le traitement du cancer du col de l'utérus implique souvent des radiations, ce qui peut endommager les organes environnants. Pour réduire ce risque, les médecins doivent délimiter ces zones sensibles, appelées Organes à risque (OAR), sur les images médicales. Traditionnellement, ce processus est lent et demande pas mal de travail manuel. Automatiser cette tâche avec l'apprentissage profond pourrait faire gagner du temps et améliorer les soins aux patients. Cet article parle d'une nouvelle approche utilisant des données médicales existantes pour entraîner un modèle informatique capable de marquer automatiquement ces organes sur des IRM.

Le Problème

Délimiter automatiquement les OAR dans le traitement du cancer du col de l'utérus est un vrai défi. Les médecins se basent généralement sur un ensemble de données détaillé contenant des images et des contours précis de ces organes. Cependant, obtenir un dataset suffisamment grand avec des images parfaitement annotées est compliqué, surtout dans le domaine médical. Beaucoup d'études se concentrent sur de petits datasets, qui ne représentent peut-être pas les variations réelles des images. Ce manque de diversité dans les données peut conduire à des modèles qui ne fonctionnent pas bien en pratique.

Une Nouvelle Approche

Pour traiter ces problèmes, des chercheurs ont voulu utiliser un grand ensemble d'IRM de patients traités pour d'autres cancers abdominaux. Bien que ces IRM n'aient pas d'annotations complètes pour tous les OAR, elles peuvent quand même fournir des infos précieuses pour entraîner un modèle d'apprentissage profond. L'idée était de trouver une manière d'utiliser ces datasets imparfaits efficacement.

Nettoyage des Données

Avant d’utiliser les données, les chercheurs ont nettoyé tout ça. Les IRM variaient énormément à cause des différences dans leur collecte au fil des ans. Certaines IRM avaient des zones non pertinentes qui pouvaient embrouiller le modèle pendant l'entraînement. En analysant les données, ils ont établi des limites spécifiques pour s'assurer que seules les parties pertinentes des IRM étaient utilisées. Ce processus de nettoyage a aidé à améliorer la qualité et la cohérence du dataset.

Apprentissage semi-supervisé

Les chercheurs ont utilisé une méthode appelée apprentissage semi-supervisé, où un modèle est entraîné avec des données étiquetées et non étiquetées. Ils ont mis en place un système "professeur-élève", où le modèle professeur apprend d'abord à partir d'un petit nombre d'IRM entièrement annotées. Ensuite, il prédit les contours pour le plus grand dataset qui a des annotations manquantes. Le modèle élève est entraîné à l'aide de ces prédictions, ce qui lui permet d'apprendre à partir d'un plus large éventail d'exemples.

En plus, le modèle prenait aussi en compte l'incertitude de ses prédictions. Ça veut dire qu'il pouvait reconnaître quand il n'était pas trop sûr de ses contours. En se concentrant sur de meilleures prédictions, le modèle pouvait éviter de faire des erreurs basées sur des données incertaines.

Entraîner le Modèle

Les chercheurs ont formé leur modèle en utilisant une structure d'apprentissage profond populaire appelée 3D U-Net. Ce setup leur a permis de traiter des images médicales 3D complexes de manière efficace. Ils ont utilisé différentes techniques d'entraînement, comme le recadrage des images pour se concentrer sur les zones pertinentes et appliquer divers ajustements pour rendre le modèle plus robuste face aux variations des données.

Métriques de Performance

L'efficacité du modèle a été évaluée à l'aide de métriques de performance spécifiques. Par exemple, le Coefficient de Dice mesure à quel point les contours prévus correspondent aux contours réels. D'autres métriques incluent la distance de Hausdorff, qui indique à quel point les contours prévus peuvent s'écarter des vrais. Les résultats ont montré que la méthode proposée améliorait significativement la capacité du modèle à délimiter correctement les organes.

Résultats

Les résultats expérimentaux étaient prometteurs. Le modèle entraîné sur le plus grand dataset nettoyé montrait de meilleures performances que les modèles utilisant des petits datasets entièrement annotés. En particulier, cela améliorait des métriques comme le coefficient de Dice, ce qui indique une plus grande précision dans la délimitation des organes. De plus, les contours produits par le modèle étaient cliniquement acceptables, ce qui suggère qu'ils pouvaient être utilisés dans de vraies situations.

Comparaison avec les Méthodes Existantes

Comparé à d'autres méthodes dans le domaine, cette nouvelle approche a mieux performé pour certains organes tout en étant au même niveau pour d'autres. Bien qu’elle ait légèrement moins bien performé pour un organe, les résultats globaux indiquaient qu'utiliser un grand dataset peut mener à des améliorations significatives dans la segmentation automatique pour la planification du traitement.

Acceptabilité Clinique

Pour s'assurer que le modèle pouvait produire des contours cliniquement acceptables, les chercheurs ont sollicité des retours de professionnels de la santé. Ils ont montré à des oncologues expérimentés à la fois les contours créés manuellement et ceux générés automatiquement. Les médecins ont évalué les contours avec un système de notation, où des notes plus basses indicaient une meilleure qualité. Les retours ont révélé que tous les contours générés automatiquement étaient acceptables, soit tels quels soit avec de légers ajustements.

Une variabilité entre observateurs a été notée, car différents médecins pourraient noter les mêmes contours différemment. Néanmoins, l'approche automatique a montré un grand potentiel pour fournir des avis précieux aux cliniciens lors de la planification des traitements.

Limites et Travaux Futurs

Bien que la recherche ait produit des résultats encourageants, il y avait des limites. L'étude s'est basée sur une seule exécution pour tester les composants du modèle, ce qui pouvait introduire des variations dans les résultats. De plus, explorer d'autres architectures d'apprentissage profond pourrait offrir d'autres perspectives pour améliorer les performances du modèle.

Les directions futures de la recherche incluent l'expansion de la méthode pour délimiter automatiquement d'autres organes importants dans le traitement du cancer du col de l'utérus, comme le sigmoïde et le canal anal. Un autre domaine critique est la collecte de données provenant de plusieurs hôpitaux pour réduire les biais potentiels dans les prédictions et améliorer la robustesse du modèle.

Conclusion

En résumé, cette approche montre qu'utiliser un grand dataset clinique de scans CT peut mener au développement réussi d'un modèle d'apprentissage profond pour la segmentation automatique des organes dans le traitement du cancer du col de l'utérus. La capacité à générer des contours cliniquement acceptables sans avoir besoin d'un dataset soigneusement sélectionné est un pas en avant majeur dans l'imagerie médicale. Ce progrès permet non seulement de gagner du temps pour les cliniciens, mais aussi d'améliorer les soins aux patients en assurant une planification de traitements plus précise. La recherche pave la voie à de futures avancées en segmentation automatique, bénéficiant finalement aux patients soumis à un traitement pour le cancer du col de l'utérus.

Source originale

Titre: Clinically Acceptable Segmentation of Organs at Risk in Cervical Cancer Radiation Treatment from Clinically Available Annotations

Résumé: Deep learning models benefit from training with a large dataset (labeled or unlabeled). Following this motivation, we present an approach to learn a deep learning model for the automatic segmentation of Organs at Risk (OARs) in cervical cancer radiation treatment from a large clinically available dataset of Computed Tomography (CT) scans containing data inhomogeneity, label noise, and missing annotations. We employ simple heuristics for automatic data cleaning to minimize data inhomogeneity and label noise. Further, we develop a semi-supervised learning approach utilizing a teacher-student setup, annotation imputation, and uncertainty-guided training to learn in presence of missing annotations. Our experimental results show that learning from a large dataset with our approach yields a significant improvement in the test performance despite missing annotations in the data. Further, the contours generated from the segmentation masks predicted by our model are found to be equally clinically acceptable as manually generated contours.

Auteurs: Monika Grewal, Dustin van Weersel, Henrike Westerveld, Peter A. N. Bosman, Tanja Alderliesten

Dernière mise à jour: 2023-02-21 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2302.10661

Source PDF: https://arxiv.org/pdf/2302.10661

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires