Simple Science

La science de pointe expliquée simplement

# Informatique# Vision par ordinateur et reconnaissance des formes

Améliorer le diagnostic du cancer avec des images de diapositives complètes

Une nouvelle méthode améliore la classification des images de cancer pour de meilleures décisions de santé.

― 6 min lire


Avancée de l'analyseAvancée de l'analysed'images du cancergrâce aux images numériques.précision dans le diagnostic du cancerDe nouvelles techniques améliorent la
Table des matières

Les images de lames entières (WSI) sont super importantes pour étudier des maladies comme le cancer. Ce sont de grosses photos numériques d'échantillons de tissus qui aident les médecins à prendre des décisions de santé cruciales. Analyser ces images avec des méthodes d'apprentissage profond a amélioré notre façon de diagnostiquer et de comprendre les maladies. Mais, il y a encore des défis pour classifier ces images à cause de leur taille. Généralement, les WSI sont découpées en plus petits morceaux appelés patches, pour faciliter le traitement.

Annoter ces patches peut être vraiment fastidieux et prendre beaucoup de temps. Ça rend difficile l'utilisation des méthodes d'apprentissage supervisé traditionnelles qui nécessitent des données étiquetées. Pour s'attaquer à ce problème, une technique appelée apprentissage par multiples instances (MIL) est devenue populaire. Dans cette méthode, une WSI est vue comme un sac composé de plusieurs patches, où le sac est positif si au moins un patch est positif, et négatif seulement si tous les patches sont négatifs.

Le Défi du Changement de Domaine

Dans l'analyse des WSI en utilisant MIL, les chercheurs utilisent souvent des modèles pré-entraînés sur de gros ensembles de données, comme ImageNet. Ces modèles sont super pour les images naturelles mais ne fonctionnent pas bien sur les images d'histopathologie car les deux types d'images sont très différents. Les méthodes existantes négligent souvent ces différences, ce qui entraîne de mauvaises performances.

Certains chercheurs ont essayé d'utiliser des techniques d'entraînement auto-supervisées pour améliorer la capacité de l'extracteur de caractéristiques à comprendre les images d'histopathologie. Cependant, ces méthodes n'exploitent peut-être pas pleinement les labels de sacs, ce qui peut limiter leur efficacité. Une autre approche courante est de peaufiner le modèle pré-entraîné en utilisant seulement quelques patches, mais cela peut entraîner un surajustement puisqu'il n'y a pas de labels au niveau des patches disponibles.

Notre Approche

Pour relever ces défis, nous avons développé une méthode simple mais efficace qui utilise une invite visuelle pour aider le modèle pré-entraîné à mieux comprendre les différences entre les images naturelles et d'histopathologie. Notre méthode permet au modèle d'apprendre des infos spécifiques pertinentes pour les images pathologiques sans avoir besoin de beaucoup de données de patches étiquetées.

On fait ça en sélectionnant des patches représentatifs de la WSI pour peaufiner le modèle. Au lieu d'utiliser tous les patches, on ne se sert que de ceux qui sont les plus importants. Ça rend tout le processus d'entraînement plus efficace tout en améliorant la capacité du modèle à classifier les WSI de manière précise.

Aperçu de la Méthode

Notre approche comprend trois étapes principales :

  1. Entraînement du Modèle : On commence par utiliser un modèle pré-entraîné pour extraire des caractéristiques de tous les patches dans une WSI. Ces caractéristiques sont ensuite utilisées pour entraîner le classificateur MIL.

  2. Sélection de Patches Représentatifs : Ensuite, on analyse quels patches sont les plus pertinents en fonction de leurs scores d'attention. On sélectionne alors un nombre plus restreint de patches qui représentent le mieux la WSI.

  3. Peaufinage avec Une Invite : Pour finir, on introduit un composant d'invite pour adapter le modèle aux particularités des images d'histopathologie. Le modèle est entraîné en utilisant les patches représentatifs sélectionnés tout en gardant l'extracteur de caractéristiques original figé.

Évaluation de Notre Méthode

On a testé notre méthode sur deux ensembles de données bien connus : Camelyon16 et TCGA-NSCLC. Ces ensembles de données contiennent beaucoup de WSI qui ont été étiquetées pour la présence ou l'absence de cancer. On a comparé notre méthode aux approches traditionnelles et on a trouvé que notre méthode performait systématiquement mieux.

Notre invite visuelle a aidé le modèle à s'adapter aux images d'histopathologie, permettant d'obtenir de meilleurs résultats de classification. On a aussi remarqué qu'utiliser seulement un nombre limité de patches pour le peaufinage menait à un processus plus efficace, nécessitant moins de puissance de calcul tout en atteignant une grande précision.

Aperçus de Nos Expériences

Au cours de nos expériences, on a découvert plusieurs points importants :

  1. Efficacité des Patches Représentatifs : En sélectionnant seulement les patches les plus pertinents pour l'entraînement, on a pu maintenir une haute performance tout en réduisant la quantité de données à traiter. Cette approche a également réduit le risque de surajustement, qui est un problème courant dans l'entraînement de modèles.

  2. Importance du Cadre d'Apprentissage par Invite : Notre utilisation d'invites visuelles a permis au modèle d'apprendre efficacement des connaissances existantes qu'il a acquises lors du pré-entraînement, l'aidant à s'adapter à la nouvelle tâche de classification des images d'histopathologie.

  3. Besoins Computationnels Réduits : En se concentrant sur moins de patches et en utilisant un classificateur léger, on a réussi à diminuer les ressources computationnelles nécessaires sans compromettre la précision.

Dernières Pensées

Notre méthode montre des résultats prometteurs dans l'analyse et la classification des WSI. En utilisant des patches représentatifs et des invites visuelles, on a développé une approche qui permet de combler le fossé entre les images naturelles et celles d'histopathologie.

Ce travail souligne l'importance d'adapter les modèles existants à des tâches spécifiques dans le domaine médical, où les enjeux sont incroyablement élevés. On croit que notre approche ouvrira la voie à de futures avancées dans l'analyse des images médicales, menant à de meilleurs résultats pour les patients à l'avenir.

L'efficacité et l'efficience de notre méthode proposée peuvent aider les pathologistes à poser des diagnostics plus rapides et plus précis. À mesure qu'on continue à peaufiner et à développer cette approche, on a hâte de voir comment elle pourra être intégrée dans la pratique clinique quotidienne.

En partageant nos résultats et méthodologies avec la communauté de recherche au sens large, on espère encourager la collaboration et l'innovation dans le domaine de l'analyse d'images médicales. Ensemble, on peut s'attaquer aux défis qui subsistent et repousser les limites de ce qui est possible en matière de diagnostic et de compréhension des maladies.

Source originale

Titre: Exploring Visual Prompts for Whole Slide Image Classification with Multiple Instance Learning

Résumé: Multiple instance learning (MIL) has emerged as a popular method for classifying histopathology whole slide images (WSIs). However, existing approaches typically rely on pre-trained models from large natural image datasets, such as ImageNet, to generate instance features, which can be sub-optimal due to the significant differences between natural images and histopathology images that lead to a domain shift. In this paper, we present a novel, simple yet effective method for learning domain-specific knowledge transformation from pre-trained models to histopathology images. Our approach entails using a prompt component to assist the pre-trained model in discerning differences between the pre-trained dataset and the target histopathology dataset, resulting in improved performance of MIL models. We validate our method on two publicly available datasets, Camelyon16 and TCGA-NSCLC. Extensive experimental results demonstrate the significant performance improvement of our method for different MIL models and backbones. Upon publication of this paper, we will release the source code for our method.

Auteurs: Yi Lin, Zhongchen Zhao, Zhengjie ZHU, Lisheng Wang, Kwang-Ting Cheng, Hao Chen

Dernière mise à jour: 2023-03-23 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2303.13122

Source PDF: https://arxiv.org/pdf/2303.13122

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires