Avanços de IA em Imagem Médica para Classificação de Tumores
A IA melhora a precisão da classificação de tumores usando exames de MRI e técnicas de aprendizado por transferência.
― 7 min ler
Índice
- Detecção de Animais Camuflados e Classificação de Tumores
- Entendendo Espaços de Características em Redes Neurais
- Construindo Conjuntos de Dados para Treinamento
- Treinando as Redes Neurais
- Redução de Dimensionalidade e Visualização
- Mapas de Sensibilidade de Imagem
- Desempenho das Redes Neurais
- Comparando Espaços de Características
- Insights da Análise DeepDreamImage
- Limitações do Estudo
- Conclusão
- Fonte original
- Ligações de referência
Nos últimos anos, a inteligência artificial (IA) deu grandes passos em várias áreas, incluindo a medicina. Uma das áreas onde a IA tem sido especialmente útil é na análise de imagens médicas, como exames de ressonância magnética (MRI). Redes neurais convolucionais (CNNs) são um tipo de tecnologia de IA que pode ser treinada para reconhecer e classificar objetos diferentes em imagens. Essas redes funcionam aprendendo características importantes de um monte de imagens, permitindo que identifiquem características parecidas em novas imagens.
As CNNs também podem usar um método chamado aprendizado por transferência. Essa técnica permite que um modelo treinado para uma tarefa seja adaptado para outra tarefa relacionada, usando o que aprendeu antes. Isso é super vantajoso quando a nova tarefa é parecida o suficiente para que o treinamento original ajude na nova classificação. Um exemplo disso é a Classificação de Tumores baseada em imagens, que é complicada e pode se beneficiar do conhecimento adquirido em outras tarefas de reconhecimento de imagens.
Detecção de Animais Camuflados e Classificação de Tumores
Embora as tarefas de detectar animais camuflados e classificar tumores pareçam diferentes, existe uma semelhança na forma como eles reconhecem padrões. Um animal escondido no seu ambiente é como um tumor se misturando com tecido saudável. As habilidades aprendidas para identificar animais ocultos podem ajudar a melhorar a capacidade de classificar tumores em imagens médicas. Uma CNN treinada para reconhecer animais camuflados pode transferir essa habilidade para detectar e classificar tumores melhor.
Entendendo Espaços de Características em Redes Neurais
É importante perceber que só olhar para o quão bem uma CNN se sai não revela como ela processa as informações. Depois do treinamento, podemos observar como diferentes partes da rede reagem a várias imagens. Isso é feito criando espaços de características, que mostram como a rede representa e organiza diferentes imagens em relação umas às outras.
Em um espaço de características, imagens que são parecidas ficam mais próximas, enquanto imagens diferentes ficam mais distantes. Essa organização pode dar insights sobre quão bem a rede consegue generalizar a partir do que aprendeu. Quanto mais precisa uma rede for, melhor ela consegue classificar imagens com base nas características aprendidas.
Construindo Conjuntos de Dados para Treinamento
Para treinar as CNNs para detectar tumores no cérebro, usamos vários tipos de imagens de MRI. Os conjuntos de dados incluíram imagens de tumores como astrocitomas e oligodendrogliomas, além de imagens normais do cérebro. Muitas dessas imagens foram obtidas de bancos de dados públicos, e imagens adicionais normais foram fornecidas por um centro de saúde. Todos os dados foram coletados em conformidade com as regulamentações de privacidade, garantindo que informações pessoais não fossem reveladas.
O conjunto de dados final continha um total de 264 exames de MRI utilizáveis, incluindo 73 astrocitomas, 44 oligodendrogliomas e 120 imagens normais do cérebro. Também usamos conjuntos de dados existentes de projetos anteriores que se concentraram na detecção de animais camuflados, que continham quase 3.000 imagens divididas em diferentes categorias.
Treinando as Redes Neurais
Neste projeto, utilizamos uma CNN específica chamada AlexNet, que consiste em 25 camadas. Essa rede já foi treinada em um grande conjunto de dados com mais de um milhão de imagens de várias categorias. Ajustamos nossas CNNs, chamadas T1Net e T2Net, para classificar tumores cerebrais usando os dados de MRI que coletamos.
As imagens foram redimensionadas para atender aos requisitos de entrada da rede, e garantimos que imagens dos mesmos pacientes não se misturassem entre os conjuntos de treinamento e teste. Isso foi feito para garantir que nossos resultados fossem confiáveis.
Além das redes originais, também criamos duas novas redes, ExpT1Net e ExpT2Net. Essas novas redes usaram o conhecimento adquirido das redes de detecção de animais camuflados para melhorar o desempenho na tarefa de classificação de tumores.
Redução de Dimensionalidade e Visualização
Para analisar melhor como as redes estavam se saindo, usamos um método chamado Análise de Componentes Principais (PCA). Essa técnica ajuda a simplificar e visualizar os valores de ativação das redes, permitindo que os representemos em um espaço tridimensional. Cada ponto nesse espaço representa como a rede reconheceu e classificou uma imagem específica.
Também usamos uma técnica chamada DeepDreamImage (DDI) para criar representações visuais do que as redes aprenderam sobre diferentes categorias de imagens. Esse método realça padrões reconhecidos pela rede, permitindo visualizar seu estado interno.
Mapas de Sensibilidade de Imagem
Para determinar quais características eram cruciais para as redes neurais ao tomar decisões, geramos mapas de sensibilidade de imagem. Esses mapas destacam as áreas mais importantes de uma imagem que a rede foca ao classificá-la.
Para as redes originais e para aquelas treinadas por transferência de aprendizado, os mapas de sensibilidade mostraram que as redes focaram especialmente nos tumores e no tecido ao redor. Essa abordagem é semelhante a como médicos analisam exames de MRI para identificar tumores, examinando não apenas os tumores em si, mas também as áreas afetadas ao redor.
Desempenho das Redes Neurais
O desempenho das redes T1Net e T2Net mostrou bons resultados na classificação de gliomas. T1Net alcançou uma precisão média de 85,99%, e T2Net ficou um pouco abaixo com 83,85%. Ambas as redes se saíram excepcionalmente bem em imagens normais do cérebro, com erros mínimos, destacando sua habilidade de distinguir entre tecido canceroso e saudável.
No entanto, as redes enfrentaram mais desafios na classificação de diferentes tipos de gliomas. Por exemplo, T1Net identificou astrocitomas melhor, com 95,46% de precisão, mas teve dificuldade com oligoastrocytomas, marcando apenas 12,50%. Por outro lado, T2Net foi melhor com oligoastrocytomas, com 93,33%, mas teve um desempenho menos eficaz com astrocitomas, com apenas 74,42% de precisão.
Depois de usar o aprendizado por transferência, tanto ExpT1Net quanto ExpT2Net mostraram desempenho melhorado. ExpT2Net teve o aumento mais significativo na precisão, alcançando impressionantes 92,20%, enquanto ExpT1Net mostrou uma melhora menos dramática.
Comparando Espaços de Características
Após o aprendizado por transferência, os espaços de características das redes recém-treinadas exibiram mudanças notáveis. A distribuição de imagens normais do cérebro permaneceu distinta das categorias de gliomas, mas uma separação mais clara apareceu dentro dos grupos de gliomas. Essa mudança indicou que as redes se tornaram melhores em distinguir entre tipos de tumores após transferir conhecimento da rede de detecção de camuflagem.
Insights da Análise DeepDreamImage
A análise usando DeepDreamImage forneceu insights adicionais sobre como as redes reconheceram diferentes categorias de tumores. As imagens geradas por ExpT1Net e ExpT2Net eram mais distintas e definidas em comparação com suas versões anteriores. Elas conseguiram ilustrar formas específicas associadas a cada tipo de tumor, mostrando uma habilidade aprimorada para classificar imagens com precisão.
Limitações do Estudo
Este estudo encontrou algumas limitações. O desequilíbrio no conjunto de dados pode ter influenciado o desempenho das redes, principalmente em categorias específicas de tumores. Além disso, variações na formatação das imagens de MRI de diferentes fontes também podem ter afetado os resultados da classificação.
Conclusão
Resumindo, as redes neurais convolucionais foram treinadas com sucesso para detectar e classificar gliomas usando exames de MRI. O aprendizado por transferência de redes previamente treinadas mostrou ser um método benéfico, especialmente para imagens ponderadas em T2, onde foi observada uma melhora significativa na precisão. Os modelos mostraram capacidade de generalização aprimorada, permitindo identificar e classificar tumores melhor.
Essas descobertas significam o potencial de usar técnicas avançadas de IA em imagens médicas, e os modelos desenvolvidos estão disponíveis para mais exploração e possível uso clínico na detecção e classificação de gliomas.
Título: Deep Learning and Transfer Learning for Brain Tumor Detection and Classification
Resumo: Convolutional neural networks (CNNs) are powerful tools that can be trained on image classification tasks and share many structural and functional similarities with biological visual systems and mechanisms of learning. In addition to serving as a model of biological systems, CNNs possess the convenient feature of transfer learning where a network trained on one task may be repurposed for training on another, potentially unrelated, task. In this retrospective study of public domain MRI data, we investigate the ability of neural network models to be trained on brain cancer imaging data while introducing a unique camouflage animal detection transfer learning step as a means of enhancing the networks tumor detection ability. Training on glioma and normal brain MRI data, post-contrast T1-weighted and T2-weighted, we demonstrate the potential success of this training strategy for improving neural network classification accuracy. Qualitative metrics such as feature space and DeepDreamImage analysis of the internal states of trained models were also employed, which show improved generalization ability by the models following camouflage animal transfer learning. Image sensitivity functions further this investigation by allowing us to visualize the most salient image regions from a networks perspective while learning. Such methods demonstrate that the networks not only look at the tumor itself when deciding, but also at the impact on the surrounding tissue in terms of compressions and midline shifts. These results suggest an approach to brain tumor MRIs that is comparatively similar to that of trained radiologists while also exhibiting a high sensitivity to subtle structural changes resulting from the presence of a tumor. These findings present an opportunity for further research and potential use in a clinical setting.
Autores: Arash Yazdanbakhsh, F. Rustom, P. Parva, H. Ogmen
Última atualização: 2024-06-28 00:00:00
Idioma: English
Fonte URL: https://www.biorxiv.org/content/10.1101/2023.04.10.536226
Fonte PDF: https://www.biorxiv.org/content/10.1101/2023.04.10.536226.full.pdf
Licença: https://creativecommons.org/licenses/by-nc/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao biorxiv pela utilização da sua interoperabilidade de acesso aberto.