Avançando a Detecção de Tumores com nnUNet em Imagens Médicas
Novas técnicas melhoram a precisão na identificação de tumores a partir de exames de PET-CT.
― 7 min ler
Nos últimos anos, a imagem médica ficou super essencial pra ajudar os médicos a encontrarem e acompanharem cânceres. Uma das técnicas de imagem mais comuns é a combinação de um exame especial chamado Tomografia por Emissão de Pósitrons com Fluorodeoxiglucose (FDG-PET) com Tomografia Computadorizada (CT). Essa combinação ajuda a identificar tumores e monitorar como eles estão mudando com o tempo. Mas, marcar esses tumores manualmente nas imagens leva um tempão e pode variar de médico pra médico, tornando tudo menos confiável.
Pra lidar com esses Desafios, os pesquisadores têm investido em métodos automatizados que podem ajudar a identificar tumores com mais precisão. Infelizmente, esses sistemas automatizados costumam misturar as coisas e acabam identificando áreas saudáveis do corpo como tumores, principalmente quando encontram tipos variados de tumores. Esse papo vai focar em usar uma ferramenta específica chamada NnUNet pra segmentar tumores em tomografias PET-CT de corpo inteiro. O objetivo é descobrir as melhores maneiras de treinar e processar esses modelos pra ter mais precisão.
Nesse estudo, um modelo conseguiu uma pontuação de Dice de 69%, que mede quão bem as previsões do modelo se alinham com as áreas reais dos tumores. Além disso, o volume de tumores identificados incorretamente foi relativamente baixo, em 5,78 mL. Esse modelo faz parte do desafio Autopet 2023, onde os pesquisadores querem melhorar a detecção de tumores na imagem médica.
As tomografias PET usam uma substância radioativa similar à glicose pra mostrar áreas com alto consumo de açúcar no corpo. Essas áreas podem indicar a presença de tumores, já que células cancerígenas costumam consumir mais glicose do que células normais. Enquanto isso, as tomografias CT oferecem imagens detalhadas da estrutura do corpo, ajudando os médicos a diferenciar tecido canceroso do saudável. A detecção e medição precisas de tumores são vitais pra um diagnóstico eficaz e acompanhamento da progressão da doença. A Segmentação manual não só leva um tempão, mas também pode gerar resultados inconsistentes, já que médicos diferentes podem interpretar as imagens de maneiras diferentes.
Os pesquisadores descobriram que usar algoritmos de aprendizado profundo, como redes neurais convolucionais, pode resultar em uma segmentação eficaz de tumores. Mas segmentar tumores em tomografias PET-CT de corpo inteiro ainda é complicado devido às complexidades de combinar dados de diferentes métodos de imagem e à grande variedade de formas e tamanhos de tumores.
No desafio do ano passado, alguns modelos tiveram sucesso alto, com o melhor modelo registrando uma pontuação de Dice de 0,79. No entanto, esses modelos frequentemente enfrentaram dificuldades quando as imagens eram tiradas de hospitais diferentes. O desafio deste ano, chamado Autopet-ii, tem como objetivo melhorar a capacidade dos modelos de trabalhar com vários protocolos de imagem e locais. A tarefa fica mais difícil devido a mudanças na qualidade e clareza das imagens, que podem ocorrer por conta de diferentes máquinas usadas ou níveis variados de ruído nas imagens. Além disso, não há muitos conjuntos de dados disponíveis publicamente pra treinar esses modelos, o que torna tudo mais desafiador.
Pra ajudar nisso, os organizadores forneceram um grande conjunto de dados com tomografias PET-CT de corpo inteiro de pacientes, alguns com tumores e outros sem. Esse conjunto de dados é crucial pra desenvolver modelos melhores que consigam lidar com diferentes tipos de imagens.
Esse estudo foca no nnUNet, uma ferramenta feita pra segmentação semântica, que se adapta automaticamente a diferentes conjuntos de dados. Ela teve um bom desempenho em várias tarefas de imagem médica, mostrando seu potencial pra esse projeto. O objetivo era identificar maneiras diferentes de melhorar as previsões finais através de técnicas de pós-processamento.
O desafio ofereceu um conjunto de dados com 1016 tomografias PET-CT de corpo inteiro pareadas com máscaras criadas por dois radiologistas. Essas imagens vieram de dois hospitais acadêmicos que usaram máquinas específicas de imagem. Dos 900 pacientes, metade tinha câncer, enquanto a outra metade estava livre da doença. Além disso, um conjunto de teste oculto de imagens foi usado pra avaliar melhor o desempenho do modelo.
Um dos modelos testados combinou essas tomografias com outras de um desafio separado focado em câncer de cabeça e pescoço. A ideia era fornecer uma variedade maior de imagens pra treinamento, o que poderia ajudar o modelo a ser mais adaptável e robusto.
Antes do treinamento, os arquivos DICOM, que contêm os dados do exame, foram ajustados pra combinar com a resolução das imagens. As imagens PET e CT passaram por processos pra garantir qualidade consistente. As imagens foram então combinadas em imagens 3D de dois canais pra treinamento do modelo. A maior parte dos dados foi usada pra treinamento, enquanto uma parte menor foi reservada pra testes.
O modelo nnUNet foi treinado em um computador de alto desempenho por várias rodadas pra checar a consistência dos resultados. Em cada sessão de treinamento, foi feita uma atenção especial pra garantir que o modelo visse um equilíbrio de imagens com e sem tumores. Isso ajudou o modelo a aprender a identificar melhor os tumores.
Durante o treinamento, várias técnicas foram aplicadas pra aumentar a capacidade do modelo de reconhecer tumores. Isso incluiu ajustes aleatórios nas imagens pra simular condições diferentes, permitindo que o modelo aprendesse com um conjunto mais amplo de exemplos. Depois que a fase de treinamento foi concluída, diferentes métodos foram testados pra refinar as previsões, como remover pequenas áreas de tumores previstos que poderiam ter sido rotuladas incorretamente.
Pra avaliar o desempenho, os modelos foram testados contra imagens reservadas. Os resultados foram analisados usando métricas que mediam a precisão na segmentação de tumores e o volume de áreas falsamente identificadas. Mesmo que o modelo apresentasse uma boa pontuação de Dice, ainda gerava um número significativo de falsos positivos e negativos.
Um dos modelos que teve o melhor desempenho durante os testes foi enviado pro desafio. Porém, ainda tem muito a investigar pra melhorias futuras. O modelo, embora eficaz, gerou um número considerável de previsões imprecisas. Combinar vários modelos ou usar diferentes entradas, como somente imagens PET ou somente CT, pode ajudar a melhorar os resultados. Desafios anteriores mostraram que métodos de ensemble tendem a oferecer um desempenho melhor do que modelos únicos.
Outra rota a explorar é o desenvolvimento de um modelo end-to-end que minimize as ocorrências de pequenos falsos positivos, reduzindo a necessidade de ajustes posteriores. Ajustar os métodos de pontuação usados durante o treinamento do modelo também poderia ajudar a direcionar questões específicas de forma mais eficaz, especialmente com previsões menores.
Além disso, entender quão confiante o modelo está em suas previsões pode ser útil, principalmente ao lidar com imagens de diferentes fontes. Com isso, poderia ser mais fácil confiar nos resultados e aplicá-los em situações reais.
Esse trabalho mostra a flexibilidade e o sucesso do modelo nnUNet, que teve um bom desempenho com ajustes mínimos. Os insights desse desafio são valiosos pra avançar métodos confiáveis de segmentação de tumores na imagem médica, o que pode beneficiar muito o atendimento ao paciente.
A pesquisa foi apoiada por diversas bolsas e programas focados em práticas responsáveis na pesquisa científica. Também houve reconhecimento das imagens abertas de PET-CT disponibilizadas pra esse estudo, destacando o espírito colaborativo da comunidade científica em busca de melhores soluções de saúde.
Título: Autopet Challenge 2023: nnUNet-based whole-body 3D PET-CT Tumour Segmentation
Resumo: Fluorodeoxyglucose Positron Emission Tomography (FDG-PET) combined with Computed Tomography (CT) scans are critical in oncology to the identification of solid tumours and the monitoring of their progression. However, precise and consistent lesion segmentation remains challenging, as manual segmentation is time-consuming and subject to intra- and inter-observer variability. Despite their promise, automated segmentation methods often struggle with false positive segmentation of regions of healthy metabolic activity, particularly when presented with such a complex range of tumours across the whole body. In this paper, we explore the application of the nnUNet to tumour segmentation of whole-body PET-CT scans and conduct different experiments on optimal training and post-processing strategies. Our best model obtains a Dice score of 69\% and a false negative and false positive volume of 6.27 and 5.78 mL respectively, on our internal test set. This model is submitted as part of the autoPET 2023 challenge. Our code is available at: https://github.com/anissa218/autopet\_nnunet
Autores: Anissa Alloula, Daniel R McGowan, Bartłomiej W. Papież
Última atualização: 2024-10-25 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2309.13675
Fonte PDF: https://arxiv.org/pdf/2309.13675
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.