Avanços em Aprendizado por Transferência para Imagens Médicas
Transfer Learning truncado melhora a eficiência em tarefas de classificação de imagens médicas.
― 6 min ler
Índice
Transfer learning é um método usado na classificação de imagens médicas quando não tem dados suficientes pra treinar. Essa abordagem geralmente envolve usar um modelo de deep learning que já foi treinado em um grande conjunto de dados, como imagens gerais, e depois ajustá-lo pra uma tarefa médica específica. A ideia principal é aproveitar o conhecimento adquirido no treinamento original e aplicar isso a um novo problema diferente.
Na imagem médica, Redes Neurais Convolucionais Profundas (DCNNs) são comumente usadas. Essas redes, quando pré-treinadas em grandes conjuntos de dados, podem ajudar a identificar doenças em imagens médicas rapidamente, mesmo que tenha poucas imagens médicas disponíveis. As camadas dessas redes aprendem a identificar várias características, começando de formas e texturas simples nas camadas mais baixas até padrões mais complexos nas camadas mais altas. Mas, em imagem médica, parece que as características mais simples podem ser mais importantes do que as complexas.
Problema com os Métodos Atuais
O método usual em transfer learning é usar todas as camadas do modelo pré-treinado. Porém, isso pode não ser sempre a melhor abordagem pra imagens médicas, onde texturas e formas mais simples podem ser mais relevantes pra diagnóstico do que os padrões complexos aprendidos nas camadas superiores. As técnicas existentes ou mantém todas as camadas fixas ou as ajustam de forma uniforme, sem considerar que níveis diferentes de características podem ser necessários pra tarefas específicas.
Alguns pesquisadores sugerem tratar as camadas superiores e inferiores de forma diferente durante o treinamento. Por exemplo, congelar as camadas inferiores (mantendo-as inalteradas) enquanto ajustam apenas as camadas superiores, ou reduzir as camadas superiores antes do treinamento. Mas essas estratégias não explicam claramente por que as camadas superiores são mantidas quando o foco poderia estar nas inferiores que são mais relevantes pra imagem médica.
Pra resolver isso, foi proposto um novo método chamado Truncated Transfer Learning (TTL). Esse método sugere remover completamente as camadas superiores após determinar onde cortar e usar apenas as camadas inferiores restantes para treinar. Isso se baseia na compreensão de que em muitas tarefas de imagem médica, características de nível inferior são suficientes pra um bom desempenho.
Contribuições Principais
Ineficácia do Transfer Learning Completo: Experimentos mostraram que usar todas as camadas do modelo pré-treinado muitas vezes leva a um desempenho ruim na classificação de imagens médicas. Os achados apoiam a ideia de que focar em camadas específicas pode trazer resultados melhores.
Truncated Transfer Learning (TTL): O TTL mostrou produzir modelos menores, mas eficazes. Esse método superou outras estratégias variadas de transfer learning e resultou em menos Carga Computacional e previsões mais rápidas, tornando-se vantajoso pra tarefas envolvendo imagens médicas complexas como exames de CT e MRI.
Análise da Transferibilidade de Características: Uma técnica chamada Singular Vector Canonical Correlation Analysis (SVCCA) foi usada pra avaliar quão bem as características dos modelos pré-treinados poderiam ser transferidas. Essa análise destacou a importância das características de baixo e médio nível em imagem médica, o que pode ajudar a otimizar o desempenho do modelo.
Contexto
Transfer learning ficou popular em imagem médica depois que modelos de deep learning se mostraram eficazes pra tarefas gerais de reconhecimento de imagem. Muitos estudos usaram modelos pré-treinados como extratores de características pra tarefas médicas. As camadas inferiores desses modelos geralmente aprendem características básicas, enquanto as camadas superiores são destinadas a tarefas específicas. Mas isso pode não se aplicar a imagens médicas, que muitas vezes são bem diferentes de imagens naturais.
Na prática, estratégias comuns pra transfer learning incluem congelar os pesos de certas camadas ou ajustar todas as camadas, mas esta última pode levar a um desempenho subótimo em contextos médicos. Existem também estratégias como finetuning camada a camada que ajustam seletivamente apenas certas camadas baseado em uma tarefa específica.
Nova Abordagem: TTL
TTL toma um caminho diferente focando apenas nas camadas inferiores dos modelos pré-treinados. Isso significa que depois de escolher um ponto apropriado pra cortar as camadas superiores, o modelo é treinado novamente usando apenas as partes restantes. O objetivo principal é criar um modelo mais eficiente que se alinha melhor com as características necessárias pra imagens médicas.
A parte chave do TTL é encontrar o melhor ponto de corte. Isso é feito através de uma estratégia de busca em duas etapas. Primeiro, uma busca grosseira é realizada pra determinar possíveis pontos de corte com base nos blocos do modelo, e depois uma busca mais detalhada é conduzida em torno desses pontos pra escolher o melhor.
Aplicações Práticas
O TTL foi testado em várias tarefas, demonstrando sua eficácia em diferentes desafios de imagem médica. Em um caso, raios-X do tórax foram analisados pra detecção de COVID-19. Os resultados mostraram que o TTL não só melhorou a precisão, mas também reduziu o tamanho do modelo e as demandas computacionais, tornando-o mais rápido e eficiente.
Outras tarefas examinadas incluíram classificar figuras mitóticas em células, que são importantes pra entender o crescimento de tumores, e detectar embolia pulmonar em imagens de CT. Cada tarefa revelou que usar a abordagem TTL geralmente levou a um desempenho melhor em comparação com métodos tradicionais, enfatizando a importância das características de baixo a médio nível.
Na segmentação de áreas pulmonares em raios-X do tórax, o TTL também superou métodos de transfer learning completo, alcançando melhor precisão enquanto reduzia tanto o tamanho do modelo quanto o tempo de processamento.
Conclusão
Esse estudo abrangente sobre transfer learning na classificação de imagens médicas destaca o potencial do TTL como uma abordagem eficaz. Ao focar na importância das características de nível inferior, o TTL pode simplificar modelos enquanto mantém ou melhora o desempenho em várias tarefas de imagem médica. As descobertas incentivam o uso desse método pra desenvolver modelos mais eficientes em diagnósticos médicos, o que pode levar a um melhor cuidado ao paciente e uma análise mais rápida dos resultados de imagem médica.
Título: Rethinking Transfer Learning for Medical Image Classification
Resumo: Transfer learning (TL) from pretrained deep models is a standard practice in modern medical image classification (MIC). However, what levels of features to be reused are problem-dependent, and uniformly finetuning all layers of pretrained models may be suboptimal. This insight has partly motivated the recent differential TL strategies, such as TransFusion (TF) and layer-wise finetuning (LWFT), which treat the layers in the pretrained models differentially. In this paper, we add one more strategy into this family, called TruncatedTL, which reuses and finetunes appropriate bottom layers and directly discards the remaining layers. This yields not only superior MIC performance but also compact models for efficient inference, compared to other differential TL methods. Our code is available at: https://github.com/sun-umn/TTL.
Autores: Ju Sun, L. Peng, H. Liang, G. Luo, T. Li
Última atualização: 2023-12-16 00:00:00
Idioma: English
Fonte URL: https://www.medrxiv.org/content/10.1101/2022.11.26.22282782
Fonte PDF: https://www.medrxiv.org/content/10.1101/2022.11.26.22282782.full.pdf
Licença: https://creativecommons.org/licenses/by-nc/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao medrxiv pela utilização da sua interoperabilidade de acesso aberto.