Améliorer les scans CT du cancer du poumon avec l'apprentissage automatique
Une étude montre comment un modèle d'apprentissage profond améliore l'imagerie du cancer du poumon.
― 6 min lire
Table des matières
Le cancer du poumon est une des principales causes de décès dans le monde. En 2020, il y avait plus de 2,2 millions de nouveaux cas. Beaucoup de patients sont diagnostiqués quand la maladie a déjà avancé, donc la détection précoce est super importante. Faire des dépistages réguliers peut aider à repérer le cancer du poumon tôt, ce qui augmente les chances de survie.
La tomodensitométrie par rayons X (CT) est souvent utilisée pour détecter les nodules pulmonaires. Mais, ce méthode implique une exposition aux radiations, donc faut équilibrer le niveau de radiation et la qualité des images. Utiliser moins de vues dans un scan CT peut réduire la dose de radiation, mais souvent ça doit se faire au détriment de la qualité de l'image à cause des artefacts. Les artefacts sont des éléments non désirés qui peuvent masquer des détails importants dans les images.
Pour régler ce problème, des techniques d'apprentissage automatique sont explorées. En particulier, un type de modèle d'apprentissage profond appelé U-Net est utilisé pour améliorer la qualité des images. Ce modèle peut aider à corriger les artefacts de traînée créés en utilisant moins de vues de projection. Une variante connue sous le nom de dual-frame U-Net est en cours de test pour voir si elle peut donner de meilleurs résultats.
Cette étude se concentre sur l'amélioration de la qualité des scans CT du cancer du poumon obtenus avec moins de vues. L'objectif est de voir à quel point le dual-frame U-Net peut restaurer la qualité de l'image et maintenir la confiance des médecins pour diagnostiquer les nodules pulmonaires.
Méthodes Utilisées dans l'Étude
Les Images CT de 41 sujets ont été rassemblées pour cette étude. Il y avait 34 patients avec un cancer du poumon et 7 qui étaient en bonne santé. Ces images ont été traitées pour créer un total de 2048 vues, qui servaient d'image complète. Six sous-ensembles d'images avec moins de vues ont été créés en utilisant différents niveaux de sous-échantillonnage. Ces sous-ensembles comprenaient 16, 32, 64, 128, 256 et 512 vues.
Un modèle dual-frame U-Net a été entraîné en utilisant ces images. Le modèle était conçu pour prendre des images à vue rare (celles avec moins de vues) et améliorer leur qualité. Après l'entraînement, le modèle a été testé sur des images de 19 sujets, s'assurant qu'il pouvait améliorer la qualité des images de manière fiable.
Des Radiologues ont ensuite été invités à examiner les images. Ils ont regardé à la fois les images originales à vue rare et les images améliorées par le modèle U-Net. Les médecins ont évalué la qualité et la confiance de leurs diagnostics en se basant sur une échelle définie.
Résultats de l'Étude
Les résultats de l'étude ont montré que l'utilisation du dual-frame U-Net a considérablement amélioré la confiance des radiologues dans leurs diagnostics. Par exemple, en comparant les images avec 64 vues, la Sensibilité (capacité à identifier correctement les nodules) était très élevée à 0,94. Cela suggère que la qualité des images était suffisante pour détecter les nodules pulmonaires de manière fiable.
La qualité globale des images s'est améliorée à mesure que le nombre de vues augmentait. Les images traitées avec le U-Net ont montré des notations de qualité plus élevées de la part des radiologues comparées aux images originales à vue rare. Cela a confirmé que le U-Net était efficace pour réduire les artefacts présents dans les images.
Cependant, en regardant des métriques spécifiques, le Coefficient de Similarité de Dice (DSC)-qui mesure le chevauchement entre les segmentations de nodule des radiologues-n'a montré aucune différence significative entre les images originales et les images traitées. Cela indique que même si la qualité globale et la confiance ont été améliorées, la précision dans le marquage des nodules n'a pas montré d'amélioration claire.
Les radiologues ont rapporté que, surtout avec les images traitées à partir de 64 vues ou moins, ils se sentaient beaucoup plus confiants dans le diagnostic des nodules pulmonaires comparé à l'utilisation des images non traitées. C'est une découverte importante puisque plus de confiance peut mener à des décisions plus rapides et potentiellement à de meilleurs résultats pour les patients.
Importance des Résultats
Ces résultats ont des implications significatives pour le dépistage du cancer du poumon. Avec la capacité de réduire le nombre de vues de projection de 2048 à 64 tout en fournissant des images diagnostiquement fiables, cette méthode pourrait aider à réduire l'exposition aux radiations pour les patients.
Les radiologues ressentent souvent de la fatigue en évaluant des images de moindre qualité, ce qui pourrait conduire à des diagnostics manqués. En utilisant le dual-frame U-Net pour améliorer les images à vue rare, les radiologues pourraient travailler avec plus d'efficacité. Cela rend le processus de dépistage non seulement plus sûr pour les patients, mais aide aussi les médecins à accroître leur confiance dans les diagnostics précis.
Limitations de l'Étude
Malgré les résultats positifs, il y a certaines limitations à cette étude. Dans des environnements cliniques réels, les radiologues regardent généralement des ensembles complets d'images plutôt que des coupes individuelles. L'étude des lecteurs s'est concentrée sur des images uniques, ce qui pourrait ne pas représenter pleinement le processus de diagnostic typique. Regarder une série d'images pourrait offrir une image plus claire et potentiellement améliorer la précision.
De plus, les images à vue rare ont été créées dans des conditions simplifiées. Ces conditions ne reflètent pas complètement les complexités des environnements cliniques réels, donc les résultats pourraient varier dans un cadre réel.
Conclusion
En résumé, cette étude a montré qu'utiliser un dual-frame U-Net peut améliorer significativement la qualité des images CT du cancer du poumon obtenues à partir de moins de vues. La capacité de maintenir l'exactitude diagnostique tout en réduisant l'exposition aux radiations est un avancement crucial pour les dépistages du cancer du poumon.
Les résultats suggèrent que le modèle peut aider à rationaliser le processus de dépistage, permettant aux radiologues de travailler plus efficacement et avec plus de confiance. Alors que l'apprentissage automatique continue de se développer, de telles approches pourraient ouvrir la voie à des méthodes de détection du cancer plus sûres et plus efficaces à l'avenir.
Les résultats prometteurs de cette étude soulignent le potentiel d'utiliser des technologies avancées dans l'imagerie médicale, ce qui pourrait conduire à de meilleurs soins pour les patients dans l'ensemble. En réduisant le nombre de vues de projection nécessaires pour un diagnostic de qualité, il pourrait devenir possible de réaliser plus de dépistages sans compromettre la sécurité des patients. Cette approche pourrait être une étape clé vers l'amélioration de la détection précoce et des résultats de traitement pour les patients atteints de cancer du poumon.
Titre: Improving image quality of sparse-view lung tumor CT images with U-Net
Résumé: Background: We aimed at improving image quality (IQ) of sparse-view computed tomography (CT) images using a U-Net for lung metastasis detection and determining the best tradeoff between number of views, IQ, and diagnostic confidence. Methods: CT images from 41 subjects aged 62.8 $\pm$ 10.6 years (mean $\pm$ standard deviation), 23 men, 34 with lung metastasis, 7 healthy, were retrospectively selected (2016-2018) and forward projected onto 2,048-view sinograms. Six corresponding sparse-view CT data subsets at varying levels of undersampling were reconstructed from sinograms using filtered backprojection with 16, 32, 64, 128, 256, and 512 views. A dual-frame U-Net was trained and evaluated for each subsampling level on 8,658 images from 22 diseased subjects. A representative image per scan was selected from 19 subjects (12 diseased, 7 healthy) for a single-blinded multireader study. These slices, for all levels of subsampling, with and without U-Net postprocessing, were presented to three readers. IQ and diagnostic confidence were ranked using predefined scales. Subjective nodule segmentation was evaluated using sensitivity and Dice similarity coefficient (DSC); clustered Wilcoxon signed-rank test was used. Results: The 64-projection sparse-view images resulted in 0.89 sensitivity and 0.81 DSC, while their counterparts, postprocessed with the U-Net, had improved metrics (0.94 sensitivity and 0.85 DSC) (p = 0.400). Fewer views led to insufficient IQ for diagnosis. For increased views, no substantial discrepancies were noted between sparse-view and postprocessed images. Conclusions: Projection views can be reduced from 2,048 to 64 while maintaining IQ and the confidence of the radiologists on a satisfactory level.
Auteurs: Annika Ries, Tina Dorosti, Johannes Thalhammer, Daniel Sasse, Andreas Sauter, Felix Meurer, Ashley Benne, Tobias Lasser, Franz Pfeiffer, Florian Schaff, Daniela Pfeiffer
Dernière mise à jour: 2024-02-14 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2307.15506
Source PDF: https://arxiv.org/pdf/2307.15506
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.
Liens de référence
- https://www.who.int/news-
- https://www.wcrf.org/cancer-trends/lung-cancer-statistics/
- https://www.krebsdaten.de/Krebs/DE/Content/Publikationen/Krebs
- https://www.cancer.org/cancer/lung-cancer.html
- https://www.krebsgesellschaft.de/onko-internetportal/basis-informationen-krebs/krebsarten/lungenkrebs.html
- https://www.nhs.uk/conditions/lung-cancer/
- https://www.fda.gov/radiation-emitting-products/medical-x-ray-imaging/what-are-radiation-risks-ct
- https://arxiv.org/abs/1611.06391
- https://luna16.grand-challenge.org
- https://keras.io
- https://www.tensorflow.org/
- https://doi.org/10.1214/aoms/1177730491