Simple Science

Ciência de ponta explicada de forma simples

# Biologia Quantitativa# Visão computacional e reconhecimento de padrões# Inteligência Artificial# Métodos Quantitativos

Avançando o Diagnóstico do Câncer de Mama com Aprendizado Profundo

Este estudo usa aprendizado profundo e aprendizado por transferência para pontuação de HER2 no câncer de mama.

Rawan S. Abdulsadig, Bryan M. Williams, Nikolay Burlutskiy

― 6 min ler


Deep Learning paraDeep Learning paraClassificação de HER2de mama com modelos eficazes.Automatizando o diagnóstico de câncer
Índice

Quando os médicos acham que um paciente pode ter câncer de mama, eles olham amostras de tecido sob um microscópio. Essas amostras geralmente são manchadas para facilitar a visualização das células. Dois métodos de coloração comuns são Hematoxilina e Eosina (H E) e Imuno-histoquímica (IHC). A IHC é especialmente importante porque ajuda os médicos a determinar se um paciente pode receber tratamentos direcionados. Tem muita gente interessada em usar computadores e aprendizado profundo para ler essas lâminas automaticamente, assim os médicos podem gastar menos tempo olhando para detalhes minúsculos.

O problema, no entanto, é que ensinar computadores a olhar para imagens médicas não é tão simples quanto parece. Para treinar um modelo de computador de forma eficaz, precisamos de muitas imagens rotuladas. É aí que entra o aprendizado por transferência. Esse método nos permite usar o que o computador aprendeu de um conjunto de imagens para ajudar a entender outro conjunto.

O que é Aprendizado por Transferência?

Imagina que você está tentando ensinar uma criança a reconhecer diferentes frutas. Se a criança já sabe como é uma maçã, ela pode usar esse conhecimento para aprender como é um pêssego mais rápido. Da mesma forma, o aprendizado por transferência usa o conhecimento de uma área (como imagens de IHC) para ajudar com outra (como imagens de H E). Essa abordagem pode economizar tempo, principalmente ao trabalhar com dados médicos, que podem ser raros e difíceis de encontrar.

Por que Aprendizado de Múltiplas Instâncias?

Às vezes, não temos anotações detalhadas (ou rótulos) para cada imagem. É aí que entra o aprendizado de múltiplas instâncias (MIL). Pense nisso como uma caça ao tesouro. Se você tem um saco cheio de itens, enquanto souber que pelo menos um item no saco é o que você está procurando, pode chutar que o saco pode ser útil. Da mesma forma, com o MIL, se pelo menos um pedaço estiver rotulado positivamente, todo o grupo de pedaços pode ser tratado como positivo. Isso torna mais fácil trabalhar com imagens onde não temos todos os detalhes.

O Estudo

Neste estudo, queríamos ver como o aprendizado por transferência poderia ajudar modelos de aprendizado profundo a pontuar o HER2, um marcador crucial para câncer de mama. Pegamos três tipos diferentes de imagens para nossa pesquisa:

  1. Imagens H E: Essas são as imagens manchadas usadas para examinar tecidos.
  2. Imagens IHC: Essas imagens fornecem informações específicas sobre o HER2.
  3. Imagens não médicas: Pense em fotos aleatórias, como gatos e paisagens.

Examinamos como os modelos treinados em cada um desses tipos diferentes de imagens se comportaram. Com foco na pontuação do HER2, também construímos um modelo que pode chamar a atenção para áreas específicas dentro das lâminas que são importantes para o diagnóstico.

A Metodologia

Começamos pegando pedacinhos pequenos, chamados de patches, das imagens de toda a lâmina. Esses patches foram retirados tanto de lâminas manchadas de H E quanto de IHC. Para tornar nossos dados de treinamento mais variados e robustos, mexemos com os patches, mudando seu brilho, cor e pequenas rotações.

Usando um modelo pré-treinado, transformamos esses patches em um formato que nosso computador pudesse entender, criando uma nova camada de atenção. Essa camada de atenção ajuda o modelo a focar nas partes importantes das imagens. Pense nisso como colocar um par de óculos que realçam os detalhes.

Indo direto ao ponto

Depois que tudo foi configurado, treinamos nossos modelos. Criamos vários sacos de patches, garantindo que nenhum saco fosse reutilizado durante o treinamento. Isso foi para garantir que estávamos cobrindo todas as variações possíveis dos patches.

Após o treinamento, dividimos nossos dados em dois grupos: um para treinamento e outro para teste. Queríamos ver como nosso modelo poderia se sair com dados novos que ele não tinha visto antes. É como assar um bolo usando uma receita pela primeira vez e depois ver como ele fica quando você serve para seus amigos.

Resultados

Descobrimos que quando usamos patches de imagens H E para treinamento, o modelo teve um desempenho melhor em geral em comparação com os outros. No entanto, quando usamos patches do conjunto de dados PatchCamelyon, ele se destacou em todas as medidas de sucesso.

Queríamos saber quão bem nosso modelo poderia prever as pontuações do HER2 em lâminas inteiras. Usamos um método semelhante a simular um jogo várias vezes para entender melhor a pontuação geral. Ao amostrar e prever repetidamente, melhoramos a precisão de nossos resultados finais.

Não só queríamos saber como o modelo pontuou, mas também queríamos ver onde ele estava olhando. Usando o mecanismo de atenção, pudemos criar um mapa de calor mostrando quais áreas da lâmina eram importantes para a previsão do modelo. Era como ter uma lanterna nos pontos que mais importavam.

Visualizando os Resultados

Para mostrar nossas descobertas, criamos alguns mapas de calor com base nos dados. Esses mapas de calor destacavam áreas que eram suspeitas de serem positivas para HER2. Imagine um mapa do tesouro, mas em vez de ouro, ele mostra onde os marcadores de câncer importantes estão escondidos no tecido.

Durante os testes, notamos que à medida que aumentávamos o número de patches amostrados, o modelo se tornava mais confiante em suas previsões. Mais amostras levaram a melhores resultados, o que significa que se continuarmos praticando, só vamos melhorar.

Conclusões e Planos Futuros

Em resumo, conseguimos construir um modelo para pontuação automática do HER2 usando imagens H E. O aprendizado por transferência de H E para H E foi mais eficaz do que usar IHC ou imagens não médicas. Este estudo mostra promessas para usar MIL quando anotações detalhadas estão faltando.

Quanto aos planos futuros, ainda há trabalho a ser feito. Esperamos aprimorar nossos modelos e explorar mais estratégias para melhorar seu desempenho. Se conseguirmos descobrir as melhores maneiras de usar as várias fontes de dados, poderíamos desbloquear novas formas de melhorar a análise de imagens médicas, uma lâmina de cada vez.

No final, embora não possamos encontrar a cura para o câncer ainda, estamos definitivamente no caminho certo para facilitar o diagnóstico, pixel por pixel. Quem diria que ajudar os médicos poderia começar com apenas um saco de patches e uma pitada de ciência da computação?

Fonte original

Título: Leveraging Transfer Learning and Multiple Instance Learning for HER2 Automatic Scoring of H\&E Whole Slide Images

Resumo: Expression of human epidermal growth factor receptor 2 (HER2) is an important biomarker in breast cancer patients who can benefit from cost-effective automatic Hematoxylin and Eosin (H\&E) HER2 scoring. However, developing such scoring models requires large pixel-level annotated datasets. Transfer learning allows prior knowledge from different datasets to be reused while multiple-instance learning (MIL) allows the lack of detailed annotations to be mitigated. The aim of this work is to examine the potential of transfer learning on the performance of deep learning models pre-trained on (i) Immunohistochemistry (IHC) images, (ii) H\&E images and (iii) non-medical images. A MIL framework with an attention mechanism is developed using pre-trained models as patch-embedding models. It was found that embedding models pre-trained on H\&E images consistently outperformed the others, resulting in an average AUC-ROC value of $0.622$ across the 4 HER2 scores ($0.59-0.80$ per HER2 score). Furthermore, it was found that using multiple-instance learning with an attention layer not only allows for good classification results to be achieved, but it can also help with producing visual indication of HER2-positive areas in the H\&E slide image by utilising the patch-wise attention weights.

Autores: Rawan S. Abdulsadig, Bryan M. Williams, Nikolay Burlutskiy

Última atualização: 2024-11-05 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2411.05028

Fonte PDF: https://arxiv.org/pdf/2411.05028

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes