Simple Science

La science de pointe expliquée simplement

# Génie électrique et science des systèmes# Traitement de l'image et de la vidéo# Vision par ordinateur et reconnaissance des formes

Avancées dans les techniques d'imagerie automatique du cancer

Des chercheurs améliorent la segmentation des tumeurs dans les images TEP/CT en utilisant des méthodes automatisées.

Hamza Kalisch, Fabian Hörst, Ken Herrmann, Jens Kleesiek, Constantin Seibold

― 7 min lire


Techniques automatiséesTechniques automatiséesen imagerie du cancertumeurs.précision de la segmentation desLa recherche améliore la vitesse et la
Table des matières

Dans le domaine du traitement du cancer, les médecins s'appuient sur des techniques d'imagerie spéciales pour avoir une image claire des tumeurs. Une combinaison de techniques est la Tomographie par Émission de Positons (PET) et la Tomographie Computée (CT). Ces techniques permettent aux médecins de voir à la fois la structure des tumeurs et leur activité dans le corps. Cependant, identifier et délimiter les tumeurs sur ces images peut être compliqué et prendre beaucoup de temps. La segmentation manuelle de ces zones est un travail qui peut demander beaucoup d'efforts et varier d'un médecin à l'autre.

Pour remédier à ce problème, les chercheurs se tournent vers des méthodes automatisées. Ces techniques automatisées utilisent l'apprentissage profond pour accélérer le processus de segmentation. Le défi autoPET III a été mis en place pour améliorer ces méthodes automatiques d'identification des lésions tumorales dans les images PET/CT provenant de différentes sources et utilisant divers traceurs. C'est important car cela fournit aux médecins des informations meilleures et plus fiables pour prendre des décisions de traitement.

Contexte

L'imagerie PET/CT est cruciale pour évaluer le cancer. Les scans PET mettent en évidence les zones du corps qui sont actives, tandis que les scans CT offrent une vue détaillée des structures. Les traceurs utilisés dans ces scans, comme le Fluorodésoxyglucose (FDG) et l'Antigène de Membrane Spécifique de la Prostate (PSMA), jouent un rôle clé. Le FDG aide à détecter divers cancers en montrant l'activité métabolique, tandis que le PSMA est particulièrement utile pour détecter le cancer de la prostate.

Malgré les avantages de ces techniques, la segmentation manuelle des lésions peut être inconstante et lente. L'automatisation est nécessaire pour améliorer la précision et l'efficacité de ce processus. Le défi autoPET III vise à développer des méthodes de segmentation automatiques capables de travailler avec plusieurs traceurs et dans des contextes cliniques divers.

Aperçu du défi

Le défi autoPET III s'appuie sur des expériences antérieures, en utilisant cette fois un ensemble de données plus large. Il comprend des images provenant de différents centres cliniques et présente deux traceurs : le FDG et le PSMA. Les chercheurs ont créé un modèle pour identifier quel traceur est utilisé en fonction du scan PET. Ils ont formé des modèles séparés pour chaque traceur tout en utilisant des informations anatomiques pour améliorer la performance globale de la segmentation.

L'objectif est de segmenter avec précision les lésions tout en surmontant les différences dans les conditions des patients, les schémas de prise des traceurs et les protocoles d'imagerie. Le résultat final de ces efforts est une approche plus robuste et généralisable pour segmenter les lésions tumorales dans les scans PET/CT.

Méthodes utilisées

Pour relever le défi de la segmentation, les chercheurs ont utilisé une série d'étapes :

Développement du classificateur

La première étape a consisté à créer un classificateur capable d'identifier le traceur en fonction de motifs d'imagerie spécifiques observés dans les scans PET. Ils ont pris des Projections d'Intensité Maximale (MIP) des scans pour faciliter ce processus. En simplifiant les données image, les chercheurs ont pu réduire le temps nécessaire au système pour traiter les images.

Segmentation des lésions

Ensuite, les chercheurs ont utilisé un cadre d'apprentissage profond appelé nnU-Net pour segmenter les lésions. Ce cadre a été formé pour reconnaître les structures anatomiques normales en conjonction avec les lésions. Ils ont extrait 117 étiquettes anatomiques différentes des données CT et incorporé ces informations dans le processus de formation. Ce faisant, les modèles ont pu apprendre les schémas d'absorption des tissus normaux et anormaux.

Différentes approches ont été testées, comme l'utilisation d'étiquettes anatomiques comme inputs supplémentaires et l'ajustement de l'importance de ces étiquettes dans le processus de formation. Cela a aidé les modèles à devenir plus précis lors de l'identification des lésions dans les images PET/CT.

Ensembles de données

Les ensembles de données utilisés pour former et tester les modèles sont :

  • Ensemble de données FDG : Cela consiste en 1 014 études PET/CT du corps entier de patients atteints de divers types de cancer, tels que le mélanome et le cancer du poumon.

  • Ensemble de données PSMA : Cela comprend 597 études PET/CT du corps entier de patients masculins spécifiquement diagnostiqués avec un cancer de la prostate.

La structure de l'ensemble de données a permis une meilleure comparaison et formation des modèles, améliorant leur capacité à classifier et segmenter en fonction du traceur utilisé.

Métriques d'évaluation

Les chercheurs ont utilisé quelques métriques critiques pour évaluer la performance de leurs modèles :

  1. Score de Dice : Cela indique à quel point les segments prédits correspondent aux zones tumorales réelles.

  2. Volume de Faux Positifs (FPV) : Cela mesure le volume des zones que le modèle a incorrectement identifiées comme lésions.

  3. Volume de Faux Négatifs (FNV) : Cela mesure combien de lésions réelles ont été manquées par le modèle.

L'objectif était d'atteindre des scores de Dice élevés tout en maintenant les FPV et FNV à un niveau bas.

Résultats

Les résultats finaux ont montré que l'utilisation de l'approche combinée de classification des traceurs et d'informations anatomiques a considérablement amélioré la précision de la segmentation des lésions.

Pour l'ensemble de données FDG, le modèle final a atteint un score de Dice de 76,90 %. Pour l'ensemble de données PSMA, le score était de 61,33 %. Ces scores reflètent une amélioration notable par rapport aux modèles de base précédents. Non seulement les modèles finaux ont mieux performé dans l'identification des lésions, mais ils ont également maintenu des volumes d'erreurs plus faibles en termes de faux positifs et de faux négatifs.

Discussion

L'utilisation de modèles séparés pour le FDG et le PSMA était essentielle pour obtenir de meilleures performances. Les schémas d'absorption distincts de ces traceurs peuvent compliquer la tâche de segmentation, mais le module de classification développé a aidé à résoudre cela. Avec le type de traceur connu lors des évaluations cliniques, le défi de s'appuyer sur un seul modèle peut être évité.

Une limitation de la recherche est que l'efficacité du modèle dépend d'une classification précise du traceur. Si la classification échoue, la segmentation en pâtira probablement aussi. Cependant, ce problème est moins significatif dans les contextes cliniques réels.

Dans les applications pratiques, la méthode de segmentation automatisée peut faire gagner un temps considérable aux médecins et améliorer la précision des diagnostics de cancer. Cela peut conduire à des options de traitement plus personnalisées et efficaces pour les patients.

Conclusion

Pour résumer, le travail réalisé pour le défi autoPET III représente une avancée significative dans le domaine de l'imagerie médicale pour le diagnostic du cancer. En utilisant des techniques automatisées, y compris l'apprentissage profond et des informations anatomiques, les chercheurs ont créé des modèles qui identifient et segmentent efficacement les lésions dans les images PET/CT. Ces avancées tiennent des promesses pour améliorer les soins du cancer, permettant des diagnostics plus rapides et plus précis qui peuvent aider à adapter les plans de traitement pour chaque patient.

Source originale

Titre: Autopet III challenge: Incorporating anatomical knowledge into nnUNet for lesion segmentation in PET/CT

Résumé: Lesion segmentation in PET/CT imaging is essential for precise tumor characterization, which supports personalized treatment planning and enhances diagnostic precision in oncology. However, accurate manual segmentation of lesions is time-consuming and prone to inter-observer variability. Given the rising demand and clinical use of PET/CT, automated segmentation methods, particularly deep-learning-based approaches, have become increasingly more relevant. The autoPET III Challenge focuses on advancing automated segmentation of tumor lesions in PET/CT images in a multitracer multicenter setting, addressing the clinical need for quantitative, robust, and generalizable solutions. Building on previous challenges, the third iteration of the autoPET challenge introduces a more diverse dataset featuring two different tracers (FDG and PSMA) from two clinical centers. To this extent, we developed a classifier that identifies the tracer of the given PET/CT based on the Maximum Intensity Projection of the PET scan. We trained two individual nnUNet-ensembles for each tracer where anatomical labels are included as a multi-label task to enhance the model's performance. Our final submission achieves cross-validation Dice scores of 76.90% and 61.33% for the publicly available FDG and PSMA datasets, respectively. The code is available at https://github.com/hakal104/autoPETIII/ .

Auteurs: Hamza Kalisch, Fabian Hörst, Ken Herrmann, Jens Kleesiek, Constantin Seibold

Dernière mise à jour: 2024-09-18 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2409.12155

Source PDF: https://arxiv.org/pdf/2409.12155

Licence: https://creativecommons.org/licenses/by-nc-sa/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Vision par ordinateur et reconnaissance des formesDonnées synthétiques pour la reconnaissance de la douleur dans les vidéos

Une nouvelle approche utilise des données synthétiques pour améliorer la reconnaissance de la douleur dans les vidéos.

Jonas Nasimzada, Jens Kleesiek, Ken Herrmann

― 7 min lire

Articles similaires