Avancées dans l'apprentissage par transfert pour l'imagerie médicale
Le transfert d'apprentissage tronqué améliore l'efficacité dans les tâches de classification d'images médicales.
― 7 min lire
Table des matières
L'apprentissage par transfert, c'est une méthode utilisée dans la classification des images médicales quand on a pas assez de données pour entraîner un modèle. Dans ce cas, on utilise souvent un modèle de deep learning déjà entraîné sur un gros dataset, comme des images générales, et on l'ajuste pour une tâche médicale spécifique. L'idée principale, c'est de prendre les connaissances du premier entraînement et de les appliquer à un nouveau problème.
Dans l'imagerie médicale, les réseaux neuronaux convolutifs profonds (DCNN) sont couramment employés. Ces réseaux, quand ils sont pré-entraînés sur des gros datasets, peuvent aider à identifier rapidement des maladies dans des images médicales même si on a peu d'images à disposition. Les couches de ces réseaux apprennent à identifier différentes caractéristiques, commençant par des formes simples et des textures dans les couches inférieures jusqu'à des motifs plus complexes dans les couches supérieures. Mais, dans l'imagerie médicale, il semble que les caractéristiques simples soient plus importantes que les complexes.
Problème avec les méthodes actuelles
Le truc habituel en apprentissage par transfert, c'est d'utiliser toutes les couches du modèle pré-entraîné. Mais ça peut pas toujours être la meilleure approche pour les images médicales, où des textures et des formes simples sont souvent plus pertinentes pour le diagnostic que les motifs complexes appris dans les couches supérieures. Les techniques existantes gardent soit toutes les couches figées, soit les ajustent uniformément, ce qui ne prend pas en compte que différents niveaux de caractéristiques peuvent être nécessaires pour certaines tâches.
Certains chercheurs suggèrent de traiter différemment les couches du haut et du bas pendant l'entraînement. Par exemple, geler les couches du bas (les laisser inchangées) tout en ajustant seulement les couches du haut, ou réduire les couches du haut avant l'entraînement. Mais ces stratégies n'expliquent pas clairement pourquoi les couches du haut sont gardées alors que le focus pourrait être sur celles du bas qui sont plus pertinentes pour l'imagerie médicale.
Pour régler ça, une nouvelle méthode appelée Apprentissage par Transfert Truncaté (TTL) est proposée. Cette méthode suggère de supprimer complètement les couches du haut après avoir déterminé où couper et de n'utiliser que les couches du bas restantes pour l'entraînement. C'est basé sur l'idée que dans beaucoup de tâches d'imagerie médicale, des caractéristiques de bas niveau suffisent pour une bonne performance.
Contributions clés
Inefficacité de l'apprentissage par transfert complet : Les expériences ont montré qu'utiliser toutes les couches du modèle pré-entraîné mène souvent à de mauvaises performances dans la classification des images médicales. Les résultats soutiennent l'idée que se concentrer sur des couches spécifiques peut donner de meilleurs résultats.
Apprentissage par Transfert Truncaté (TTL) : TTL a montré qu'elle produisait des modèles plus petits mais efficaces. Cette méthode a surpassé d'autres stratégies d'apprentissage par transfert variées et a entraîné moins de charge computationnelle et des prévisions plus rapides, c'est donc un plus pour des tâches impliquant des images médicales complexes comme les scans CT et IRM.
Analyse de la transférabilité des caractéristiques : Une technique appelée Analyse de Corrélation Canonique par Vecteurs Singuliers (SVCCA) a été utilisée pour évaluer comment bien les caractéristiques des modèles pré-entraînés pouvaient être transférées. Cette analyse a mis en avant l'importance des caractéristiques de bas et moyen niveaux dans l'imagerie médicale, ce qui peut aider à optimiser la performance du modèle.
Contexte
L'apprentissage par transfert a pris de l'ampleur dans l'imagerie médicale après que les modèles de deep learning ont prouvé leur efficacité pour des tâches de reconnaissance d'images générales. Beaucoup d'études ont utilisé des modèles pré-entraînés comme extracteurs de caractéristiques pour des tâches médicales. Les couches du bas de ces modèles apprennent généralement des caractéristiques de base, tandis que les couches du haut sont destinées à des tâches spécifiques. Cependant, ça peut ne pas s'appliquer aux images médicales, qui sont souvent très différentes des images naturelles.
En pratique, les stratégies communes pour l'apprentissage par transfert incluent de geler les poids de certaines couches ou d'ajuster toutes les couches, mais la seconde option peut mener à des performances sous-optimales dans des contextes médicaux. D'autres stratégies comme le finetuning couche par couche ajustent sélectivement seulement certaines couches en fonction d'une tâche donnée.
Nouvelle approche : TTL
TTL prend une route différente en se concentrant uniquement sur les couches du bas des modèles pré-entraînés. Ça veut dire qu'après avoir sélectionné un point approprié pour couper les couches du haut, le modèle est réentraîné en utilisant seulement les parties restantes. L'objectif principal est de créer un modèle plus efficace qui s'aligne mieux avec les caractéristiques nécessaires pour l'imagerie médicale.
Le point clé du TTL, c'est de trouver le meilleur point de coupure. Ça se fait à travers une stratégie de recherche en deux étapes. D'abord, une recherche grossière est effectuée pour déterminer les points de coupure possibles basés sur les blocs du modèle, puis une recherche plus détaillée est conduite autour de ces points pour choisir le meilleur.
Applications pratiques
TTL a été testé sur diverses tâches, montrant son efficacité sur différents défis d'imagerie médicale. Dans un cas, des rayons X thoraciques ont été analysés pour la détection de la COVID-19. Les résultats ont montré que TTL non seulement améliorait la précision mais réduisait aussi la taille du modèle et les exigences computationnelles, rendant le tout plus rapide et efficace.
D'autres tâches examinées incluent la classification des figures mitotiques dans les cellules, qui sont importantes pour comprendre la croissance tumorale, et la détection d'embolie pulmonaire dans des images CT. Chaque tâche a révélé que l'utilisation de l'approche TTL menait généralement à de meilleures performances comparées aux méthodes traditionnelles, soulignant l'importance des caractéristiques de bas à moyen niveaux.
Dans la segmentation des zones pulmonaires dans les rayons X thoraciques, TTL a aussi surpassé les méthodes d'apprentissage par transfert complet, atteignant une meilleure précision tout en réduisant à la fois la taille du modèle et le temps de traitement.
Conclusion
Cette étude complète sur l'apprentissage par transfert dans la classification des images médicales met en avant le potentiel de TTL comme une approche efficace. En se concentrant sur l'importance des caractéristiques de bas niveau, TTL peut simplifier les modèles tout en maintenant ou améliorant la performance sur diverses tâches d'imagerie médicale. Les résultats encouragent l'utilisation de cette méthode pour développer des modèles plus efficaces dans le diagnostic médical, ce qui peut finalement mener à un meilleur soin des patients et une analyse plus rapide des résultats d'imagerie médicale.
Titre: Rethinking Transfer Learning for Medical Image Classification
Résumé: Transfer learning (TL) from pretrained deep models is a standard practice in modern medical image classification (MIC). However, what levels of features to be reused are problem-dependent, and uniformly finetuning all layers of pretrained models may be suboptimal. This insight has partly motivated the recent differential TL strategies, such as TransFusion (TF) and layer-wise finetuning (LWFT), which treat the layers in the pretrained models differentially. In this paper, we add one more strategy into this family, called TruncatedTL, which reuses and finetunes appropriate bottom layers and directly discards the remaining layers. This yields not only superior MIC performance but also compact models for efficient inference, compared to other differential TL methods. Our code is available at: https://github.com/sun-umn/TTL.
Auteurs: Ju Sun, L. Peng, H. Liang, G. Luo, T. Li
Dernière mise à jour: 2023-12-16 00:00:00
Langue: English
Source URL: https://www.medrxiv.org/content/10.1101/2022.11.26.22282782
Source PDF: https://www.medrxiv.org/content/10.1101/2022.11.26.22282782.full.pdf
Licence: https://creativecommons.org/licenses/by-nc/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à medrxiv pour l'utilisation de son interopérabilité en libre accès.