Faire avancer le diagnostic du cancer avec des images de diapositives entières
Une nouvelle méthode améliore le diagnostic du cancer grâce à des images de diapositives complètes et des techniques d'apprentissage avancées.
― 7 min lire
Table des matières
Le diagnostic du cancer repose actuellement sur l'examen d'échantillons de tissus sous un microscope. Les pros de la santé, appelés pathologistes, analysent ces échantillons pour déterminer la présence et la gravité du cancer. Récemment, les images de diapositives complètes (WSIs) ont émergé comme un outil puissant dans ce processus. Ces images sont des versions numériques à haute résolution des diapositives de tissus qui peuvent contenir beaucoup d'infos pour l'analyse. Cependant, utiliser efficacement les WSIs pose quelques défis.
Défis dans l'utilisation des WSIs
Taille des WSIs : Une seule WSI peut contenir des milliards de pixels. Cette quantité d'infos peut rendre difficile le traitement avec des méthodes d'apprentissage profond classiques comme les réseaux de neurones convolutifs (CNNs).
Manque d'annotations : Pour former des modèles d'apprentissage profond, il faut de grands ensembles de données annotées. Malheureusement, dans le domaine médical, obtenir ces annotations demande beaucoup de travail et coûte cher, ce qui limite leur disponibilité.
Perte de données importantes : Réduire la taille des WSIs (down-sampling) pour les rendre gérables peut faire disparaître des infos cruciales pour détecter le cancer.
Approche proposée
Pour relever ces défis, une nouvelle méthode basée sur l'Apprentissage auto-supervisé et la représentation par graphes a été développée. Cette approche met l'accent sur le contexte dans le tissu, comme les caractéristiques autour des tumeurs, qui peuvent fournir des infos précieuses pour le diagnostic du cancer.
Technique d'apprentissage en deux étapes
Représentation par graphes : La WSI entière est vue comme un graphe, où chaque nœud correspond à un petit patch de l'image. Cette représentation aide à capturer les relations entre différentes zones dans la WSI.
Apprentissage auto-supervisé (SSL) : Cette technique permet au modèle d'apprendre à partir de données non annotées. Comme les WSIs manquent souvent d'annotations suffisantes, le SSL est un moyen efficace d'extraire des représentations significatives des données.
Méthodologie
Segmentation : La première étape consiste à diviser la WSI en patches pertinents, en filtrant l'arrière-plan qui n'apporte rien au diagnostic.
Génération de patches : Chaque patch fait 256x256 pixels. L'apprentissage auto-supervisé est appliqué à ces patches pour générer des caractéristiques qui les décrivent efficacement.
Apprentissage du graphe : Une fois les patches formés, ils sont organisés en format graphe. Chaque patch est un nœud, et leurs relations sont représentées par des arêtes.
Réseaux de neurones graphiques (GNNs) : Le graphe est ensuite analysé à l'aide d'un réseau de neurones graphiques, ce qui aide à apprendre de la structure de la WSI. Cela permet au réseau d'incorporer le contexte de chaque patch, le rendant plus conscient des tissus environnants.
Importance du contexte
Comprendre non seulement les patches cancéreux mais aussi leur contexte est crucial pour un diagnostic précis. Les tissus peuvent se propager ou interagir, ce qui rend le contexte important pour apprendre à partir des images. Le GNN exploite les connexions entre les patches pour améliorer la compréhension du processus de classification du cancer.
Sources de données
Ensemble de données sur le cancer de la prostate
L'étude a utilisé des données provenant de biopsies de prostate, qui ont été classées selon un système reconnu appelé score de Gleason. L'objectif était de classifier les WSIs en différentes catégories de notation basées sur ce score.
Ensemble de données sur le cancer du rein
Un autre ensemble de données était axé sur le cancer du rein, en particulier le carcinome rénal à cellules claires (RCC), qui est le type de cancer du rein le plus courant. Cet ensemble de données comprenait aussi des WSIs montrant différents sous-types de cancer.
Formation du modèle
Formation par apprentissage auto-supervisé : Les patches ont été soumis à une formation auto-supervisée pour les préparer à une analyse plus approfondie. Cette formation aide le modèle à apprendre des caractéristiques utiles sans avoir besoin de beaucoup de données étiquetées.
Formation du réseau de graphes : Après avoir généré les graphes à partir des patches, le GNN a été formé en utilisant les caractéristiques obtenues grâce à l'apprentissage auto-supervisé. Ce stade visait à affiner la compréhension des tissus cancéreux.
Évaluation du modèle
L'efficacité du modèle a été évaluée à l'aide d'une métrique appelée score Kappa, qui mesure l'accord entre les résultats prévus et réels. Ce score donne un aperçu de la performance du modèle à travers les ensembles de données.
Résultats et performances
La méthode proposé a été comparée à plusieurs approches existantes, comme les techniques d'apprentissage multi-instance (MIL). Les résultats ont montré que le nouveau modèle surpasse significativement les méthodes traditionnelles pour les deux ensembles de données.
Résultats pour le cancer de la prostate
Dans des tests utilisant des WSIs de biopsies de prostate, le modèle a atteint un score Kappa de 0,899, montrant une forte performance dans la classification précise du cancer.
Résultats pour le cancer du rein
De même, pour les WSIs de cancer du rein, le modèle a atteint un score Kappa de 0,939. Ces résultats indiquent que l'approche proposée, qui combine SSL et GCN, est efficace pour le diagnostic du cancer.
Avantages de la méthode proposée
Réduction du besoin d'annotations : La méthode réduit considérablement la dépendance aux annotations étendues puisqu'elle utilise l'apprentissage auto-supervisé.
Apprentissage conscient du contexte : En utilisant une structure de graphe, le modèle intègre les relations entre différentes zones, ce qui est crucial pour l'évaluation du cancer.
Utilisation complète des WSIs : L'approche permet une utilisation complète des WSIs dans leur plus haute résolution, garantissant qu'aucune info critique ne soit perdue.
Applicabilité générale : Bien que l'accent ait été mis sur les cancers de la prostate et du rein, la méthodologie peut être adaptée à d'autres tâches d'imagerie médicale, augmentant ainsi son utilité dans le domaine.
Travaux futurs
Le succès de cette méthode ouvre de nouvelles voies pour la recherche. Les directions futures pourraient inclure :
Tests sur des ensembles de données plus larges : Appliquer l'approche à d'autres types de cancer ou à d'autres modalités d'imagerie médicale pourrait valider son efficacité dans divers contextes.
Amélioration des techniques de SSL : Renforcer les méthodes d'apprentissage auto-supervisé pourrait conduire à une extraction et une représentation des caractéristiques encore meilleures.
Intégration dans les workflows cliniques : Mettre cette technologie en œuvre dans les environnements cliniques aidera à combler le fossé entre la recherche et les applications pratiques.
Affinement de l'apprentissage par graphe : Explorer des techniques avancées d'apprentissage par graphe pourrait améliorer la compréhension des modèles et le traitement des relations complexes au sein des WSIs.
Conclusion
L'étude présente une nouvelle méthodologie pour le diagnostic du cancer en utilisant des images de diapositives complètes grâce à l'apprentissage auto-supervisé et aux réseaux neuronaux graphiques. En mettant l'accent sur l'apprentissage conscient du contexte et en réduisant le besoin d'ensembles de données annotées, cette approche a le potentiel d'améliorer la précision diagnostique en pathologie. Les résultats positifs des ensembles de données sur le cancer de la prostate et du rein soulignent son potentiel en tant qu'outil puissant pour améliorer le diagnostic du cancer dans les pratiques médicales.
Titre: Context-Aware Self-Supervised Learning of Whole Slide Images
Résumé: Presenting whole slide images (WSIs) as graph will enable a more efficient and accurate learning framework for cancer diagnosis. Due to the fact that a single WSI consists of billions of pixels and there is a lack of vast annotated datasets required for computational pathology, the problem of learning from WSIs using typical deep learning approaches such as convolutional neural network (CNN) is challenging. Additionally, WSIs down-sampling may lead to the loss of data that is essential for cancer detection. A novel two-stage learning technique is presented in this work. Since context, such as topological features in the tumor surroundings, may hold important information for cancer grading and diagnosis, a graph representation capturing all dependencies among regions in the WSI is very intuitive. Graph convolutional network (GCN) is deployed to include context from the tumor and adjacent tissues, and self-supervised learning is used to enhance training through unlabeled data. More specifically, the entire slide is presented as a graph, where the nodes correspond to the patches from the WSI. The proposed framework is then tested using WSIs from prostate and kidney cancers. To assess the performance improvement through self-supervised mechanism, the proposed context-aware model is tested with and without use of pre-trained self-supervised layer. The overall model is also compared with multi-instance learning (MIL) based and other existing approaches.
Auteurs: Milan Aryal, Nasim Yahyasoltani
Dernière mise à jour: 2023-06-07 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2306.04763
Source PDF: https://arxiv.org/pdf/2306.04763
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.
Liens de référence
- https://www.ctan.org/pkg/graphicx
- https://www.ctan.org/pkg/epslatex
- https://www.tug.org/applications/pdftex
- https://www.ctan.org/pkg/amsmath
- https://www.ctan.org/pkg/subfig
- https://www.ctan.org/pkg/url
- https://www.cancer.gov/tcga
- https://mirror.ctan.org/biblio/bibtex/contrib/doc/
- https://www.michaelshell.org/tex/ieeetran/bibtex/