Análise Automatizada da Composição Corporal em Pacientes com Câncer
Uma nova ferramenta acelera a avaliação da composição corporal usando tomografias.
― 6 min ler
A avaliação da composição corporal tá se tornando comum na saúde, especialmente na pesquisa sobre câncer. Usando Tomografias computadorizadas abdominais, os médicos conseguem medir diferentes tipos de tecido no corpo. Um lugar importante pra focar é a área em volta da terceira vértebra lombar (L3). Analisando essa área e levando em conta a altura da pessoa, os profissionais de saúde conseguem estimar a quantidade de músculo esquelético, gordura visceral e gordura subcutânea que a pessoa tem. Essas informações são cruciais pois podem prever quanto tempo os pacientes, especialmente os com câncer, podem viver. Estudos mostram que ter baixa Massa Muscular e gordura pode estar ligado a taxas de sobrevivência mais curtas.
Cada pessoa tem uma composição corporal diferente. Fatores como idade, sexo, raça e tipo de corpo também influenciam essa variação. Essas diferenças não estão relacionadas a nenhuma doença, mas podem complicar a compreensão da composição corporal em pacientes com doenças. Por isso, os pesquisadores precisam coletar dados de um grupo grande de pessoas pra considerar essas diferenças.
Medir manualmente as partes do corpo olhando as tomografias é demorado e exige bastante habilidade. Pra facilitar isso, métodos automáticos são necessários pra analisar grandes grupos de pacientes. Uma rede neural de aprendizado profundo (DLNN) pode ajudar nessa tarefa automatizando a Segmentação, que é o processo de dividir os dados da imagem em partes úteis.
No entanto, desenvolver uma DLNN confiável não é simples. As tomografias podem variar por várias razões, incluindo a posição do paciente, a qualidade da imagem e diferenças anatômicas individuais. Pesquisas mostraram que muitos estudos que desenvolveram métodos de aprendizado profundo usaram grupos pequenos de pacientes, o que pode limitar a confiabilidade deles. Pra uma DLNN funcionar bem, ela precisa ser treinada em uma ampla variedade de dados de diferentes fontes, incluindo vários tipos de tomógrafos e configurações.
Em pesquisas anteriores, uma DLNN foi testada com dados de um grupo específico de pacientes, o que trouxe desafios por causa das diferenças de posicionamento e qualidade das imagens. Mesmo assim, a DLNN teve um desempenho bom apesar desses problemas. Agora, é necessário uma validação mais ampla e variada pra garantir a qualidade da DLNN pra uso prático nos hospitais.
Num estudo recente, os pesquisadores coletaram informações de mais de 3.187 pacientes que precisavam de cirurgia abdominal. Esses pacientes vieram de 32 centros médicos diferentes. Os dados foram coletados com aprovação ética, garantindo a privacidade dos participantes. O foco eram tomografias de pacientes com câncer colorretal, ovariano e pancreático de vários hospitais.
Os pesquisadores também tinham um grupo separado de 2.535 imagens de tomografia pra testar a DLNN. Esse grupo incluía pacientes diagnosticados com câncer colorretal ou pancreático. Eles garantiram que as imagens fossem coletadas de forma uniforme, seguindo diretrizes éticas adequadas.
Pra analisar as imagens, processos padronizados foram seguidos. Os pesquisadores usaram software que permite uma segmentação consistente com base em faixas específicas de densidade de tecido. Isso garantiu que as áreas medidas para músculo e gordura fossem precisas e pudessem ser comparadas de forma confiável entre especialistas humanos e a DLNN.
A DLNN foi baseada em uma arquitetura U-Net, que é comumente usada pra segmentação de imagem médica. Os pesquisadores fizeram algumas mudanças pra adaptar às dimensões das imagens de tomografia que estavam trabalhando. Eles também projetaram a DLNN pra funcionar em etapas. O primeiro passo identificou a região abdominal nas tomografias, excluindo partes indesejadas como braços ou dispositivos médicos. O segundo passo foi especificamente pra identificar músculo e gordura dentro da região abdominal.
Durante o treinamento da DLNN, as imagens foram ajustadas pra garantir que o modelo aprendesse efetivamente a partir dos dados processados. Técnicas foram usadas pra manter um conjunto de dados equilibrado, e o treinamento foi conduzido com cuidado pra evitar viés.
O desempenho da DLNN melhorou significativamente devido à qualidade dos dados de treinamento e métodos utilizados. O modelo conseguiu processar as imagens rapidamente, completando a análise de uma única tomografia em cerca de dois segundos. Em contraste, um pesquisador clínico treinado poderia levar vários minutos pra fazer a mesma tarefa. Essa eficiência pode economizar muito tempo na avaliação de vários pacientes.
Ao comparar os resultados da DLNN com as medições manuais feitas por especialistas humanos, a concordância foi geralmente alta. As métricas usadas indicaram que a DLNN produziu resultados muito semelhantes aos alcançados por anotadores humanos, mostrando que pode ser uma ferramenta confiável pra analisar a composição corporal.
Os pesquisadores também verificaram quão consistentes eram os resultados da DLNN ao longo do tempo. Eles descobriram que as medições de tomografias repetidas eram estáveis, indicando que a ferramenta poderia acompanhar efetivamente as mudanças na composição corporal do mesmo paciente ao longo de vários intervalos de tempo.
Essa pesquisa tem implicações significativas para a prática clínica. Usando ferramentas automatizadas pra avaliação da composição corporal, os profissionais de saúde podem obter insights mais rápidos sobre a saúde dos pacientes, especialmente no cuidado do câncer. Isso pode ajudar a identificar pacientes que podem estar em maior risco devido à baixa massa muscular ou mudanças na composição corporal durante o tratamento.
Além disso, ferramentas de segmentação automatizadas como a desenvolvida neste estudo poderiam permitir que os profissionais de saúde coletassem uma grande quantidade de dados. Esses dados podem ser cruciais pra pesquisa e pra desenvolver diretrizes clínicas pra gerenciar diferentes tipos de câncer de forma eficaz. Elas também podem ajudar a criar planos de tratamento mais precisos com base nas necessidades individuais dos pacientes.
O desafio contínuo é integrar a análise automatizada da composição corporal na prática clínica do dia a dia. A ferramenta desenvolvida é projetada pra trabalhar facilmente com os sistemas existentes. Assim que for implementada, pode mudar a forma como a composição corporal é avaliada nos hospitais, levando a uma melhor compreensão e tratamento dos pacientes.
A ferramenta também abre portas pra pesquisadores estudarem grupos maiores de pacientes sem o fardo da segmentação manual demorada. Essa capacidade de trabalhar com grandes conjuntos de dados significa que os achados poderiam ser mais abrangentes e aplicáveis a uma gama mais ampla de pacientes.
Em conclusão, a análise automatizada da composição corporal usando DLNNs promete melhorar o cuidado e a pesquisa do câncer. A habilidade de analisar tomografias rapidamente e de forma confiável pode aprimorar a avaliação de riscos, decisões de tratamento e monitoramento de pacientes ao longo do tempo. À medida que o campo avança, ferramentas como essa podem revolucionar a forma como a composição corporal é entendida e gerenciada em ambientes clínicos, levando a melhores resultados para os pacientes.
Título: Validation of a deep learning model for automatic segmentation of skeletal muscle and adipose tissue on L3 abdominal CT images
Resumo: BackgroundBody composition assessment using abdominal computed tomography (CT) images is increasingly applied in clinical and translational research. Manual segmentation of body compartments on L3 CT images is time-consuming and requires significant expertise. Robust high-throughput automated segmentation is key to assess large patient cohorts and ultimately, to support implementation into routine clinical practice. By training a deep learning neural network (DLNN) with several large trial cohorts and performing external validation on a large independent cohort, we aim to demonstrate the robust performance of our automatic body composition segmentation tool for future use in patients. MethodsL3 CT images and expert-drawn segmentations of skeletal muscle, visceral adipose tissue, and subcutaneous adipose tissue of patients undergoing abdominal surgery were pooled (n = 3,187) to train a DLNN. The trained DLNN was then externally validated in a cohort with L3 CT images of patients with abdominal cancer (n = 2,535). Geometric agreement between automatic and manual segmentations was evaluated by computing two-dimensional Dice Similarity (DS). Agreement between manual and automatic annotations were quantitatively evaluated in the test set using Lins Concordance Correlation Coefficient (CCC) and Bland-Altmans Limits of Agreement (LoA). ResultsThe DLNN showed rapid improvement within the first 10,000 training steps and stopped improving after 38,000 steps. There was a strong concordance between automatic and manual segmentations with median DS for skeletal muscle, visceral adipose tissue, and subcutaneous adipose tissue of 0.97 (interquartile range, IQR: 0.95-0.98), 0.98 (IQR: 0.95-0.98), and 0.95 (IQR: 0.92-0.97), respectively. Concordance correlations were excellent: skeletal muscle 0.964 (0.959-0.968), visceral adipose tissue 0.998 (0.998-0.998), and subcutaneous adipose tissue 0.992 (0.991-0.993). Bland-Altman metrics (relative to approximate median values in parentheses) indicated only small and clinically insignificant systematic offsets : 0.23 HU (0.5%), 1.26 cm2.m-2 (2.8%), -1.02 cm2.m-2 (1.7%), and 3.24 cm2.m-2 (4.6%) for skeletal muscle average radiodensity, skeletal muscle index, visceral adipose tissue index, and subcutaneous adipose tissue index, respectively. Assuming the decision thresholds by Martin et al. for sarcopenia and low muscle radiation attenuation, results for sensitivity (0.99 and 0.98 respectively), specificity (0.87 and 0.98 respectively), and overall accuracy (0.93) were all excellent. ConclusionWe developed and validated a deep learning model for automated analysis of body composition of patients with cancer. Due to the design of the DLNN, it can be easily implemented in various clinical infrastructures and used by other research groups to assess cancer patient cohorts or develop new models in other fields.
Autores: David P.J. van Dijk, L. F. Volmer, R. Brecheisen, R. D. Dolan, A. S. Bryce, D. K. Chang, D. C. McMillan, J. H. M. B. Stoot, M. A. West, S. S. Rensen, A. Dekker, L. Y. Wee, S. W. M. Olde Damink, Body Composition Collaborative
Última atualização: 2024-01-22 00:00:00
Idioma: English
Fonte URL: https://www.medrxiv.org/content/10.1101/2023.04.23.23288981
Fonte PDF: https://www.medrxiv.org/content/10.1101/2023.04.23.23288981.full.pdf
Licença: https://creativecommons.org/licenses/by-nc/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao medrxiv pela utilização da sua interoperabilidade de acesso aberto.