Simple Science

Ciência de ponta explicada de forma simples

# Ciências da saúde# Radiologia e diagnostica per immagini

Avaliação da Qualidade de Exames de Ressonância Magnética do Cérebro: Um Novo Modelo

Este estudo avalia ferramentas automatizadas de qualidade para exames de ressonância magnética do cérebro em conjuntos de dados clínicos.

― 8 min ler


Novo Classificador paraNovo Classificador paraAvaliação de Qualidade deRessonância Magnéticamagnética do cérebro.da qualidade de exames de ressonânciaFerramenta inovadora melhora avaliação
Índice

Grandes conjuntos de dados de MRI do cérebro são importantes para estudar o cérebro e entender diferentes condições. Com mais pesquisadores compartilhando seus dados, ficou mais fácil combinar informações de vários estudos. Isso permite que os cientistas analisem grupos maiores, o que pode levar a resultados mais confiáveis.

Na área de envelhecimento e demência, vários conjuntos clínicos estão disponíveis, como aqueles de iniciativas focadas na doença de Alzheimer. Ao reunir dados de Neuroimagem de populações clínicas, os pesquisadores podem aumentar o tamanho das amostras e desenvolver melhores métodos para identificar marcadores cerebrais ligados a doenças. No entanto, trabalhar com grandes conjuntos de dados pode ser desafiador devido a fatores como artefatos de movimento e outras questões de saúde.

O primeiro passo na análise de imagens do cérebro envolve verificar a qualidade das scans de MRI ponderadas em T1. Esse tipo de imagem ajuda os pesquisadores a olhar para as estruturas do cérebro e detectar anomalias. Tradicionalmente, as verificações de qualidade eram feitas inspecionando visualmente cada scan, o que não é prático para grandes conjuntos de dados. Scans de baixa qualidade podem distorcer os resultados, enquanto remover scans demais pode reduzir o tamanho da amostra.

Para resolver esses problemas, várias abordagens automatizadas foram desenvolvidas para avaliar a qualidade das scans de MRI ponderadas em T1. Alguns métodos analisam o fundo das imagens para procurar distorções e outros problemas, enquanto outros se concentram no primeiro plano ou nas áreas principais de interesse. Técnicas de aprendizado de máquina também foram usadas para treinar modelos que podem classificar scans como bons ou ruins com base em métricas de qualidade.

Apesar dos avanços, muitas ferramentas automatizadas foram projetadas usando dados de indivíduos saudáveis ou cenários específicos, limitando sua aplicabilidade a conjuntos de dados clínicos diversos. Estabelecer uma estrutura que funcione bem em várias populações e equipamentos de imagem é crucial para a verificação de qualidade em estudos clínicos.

Objetivos do Estudo

Neste estudo, nosso objetivo foi avaliar duas ferramentas de Controle de Qualidade automatizadas amplamente utilizadas: MRIQC e CAT12. O objetivo era avaliar a eficácia delas na análise de scans de MRI do cérebro de conjuntos de dados clínicos. O MRIQC é uma ferramenta de código aberto que fornece várias métricas para avaliar a qualidade da imagem, enquanto o CAT12 oferece classificações de qualidade baseadas em medidas específicas relacionadas à segmentação de tecidos. Comparamos os resultados dessas ferramentas com verificações de qualidade visuais realizadas em um grande conjunto de dados clínicos.

Além de comparar as ferramentas, desenvolvemos uma nova estrutura de classificação que combina medidas de qualidade de ambas as ferramentas, MRIQC e CAT12. Testando essa estrutura em diferentes conjuntos de dados, nosso objetivo era ver como ela poderia se generalizar para várias populações e tipos de scanner.

Conjuntos de Dados Usados

Analisamos imagens estruturais do cérebro ponderadas em T1 de quatro diferentes conjuntos de pesquisa clínica, totalizando 2.438 scans adquiridos em 39 scanners de três fabricantes: Siemens, Philips e GE. Cada conjunto de dados variou em termos de faixa etária e propósito:

  1. Oxford Brain Health Clinic (BHC): Incluiu 160 scans de pacientes com idades entre 65 a 101 anos.
  2. Oxford Parkinson’s Disease Centre (OPDC): Compreendeu 383 scans de indivíduos com idades entre 39 a 116 anos.
  3. Whitehall II Imaging Study: Consistiu em 775 scans de participantes com idades entre 60 a 85 anos.
  4. Alzheimer’s Disease Neuroimaging Initiative (ADNI): Incluiu 1.120 scans de indivíduos com idades entre 55 a 92 anos.

Todas as imagens foram organizadas e preparadas para análise, garantindo privacidade através da anonimização de detalhes pessoais.

Pipeline MRIQC

O pipeline MRIQC extrai métricas de qualidade da imagem de dados de MRI estruturais e funcionais. Ele usa várias ferramentas de software de neuroimagem e fornece um classificador pré-treinado para avaliar a qualidade dos scans. Cada imagem ponderada em T1 foi avaliada usando esse pipeline, gerando inúmeras métricas que descrevem aspectos como ruído e resolução da imagem.

Pipeline CAT12

O pipeline CAT12 é uma extensão de outra ferramenta de software. Ele oferece uma estrutura para avaliar a qualidade da imagem quantificando parâmetros relacionados ao ruído e à resolução. Cada imagem ponderada em T1 foi processada através deste pipeline, gerando classificações de qualidade baseadas nas características visuais das imagens.

Comparando Medidas de Qualidade

Para avaliar as medidas de qualidade de ambas as ferramentas, MRIQC e CAT12, analisamos as correlações entre as métricas geradas pelas duas ferramentas. Essa comparação nos permitiu determinar até que ponto elas fornecem informações sobrepostas ou únicas.

Também calculamos a porcentagem de scans que passaram pelo controle de qualidade comparando os resultados de inspeções visuais com aqueles do MRIQC e CAT12. Exploramos o acordo entre essas classificações usando um método estatístico.

Ajustando Limiares de Aceitação

Para refinar ainda mais nossa análise, exploramos como mudar os limiares de aceitação para cada ferramenta afetou os resultados. Ao aplicar limiares mais rigorosos ou mais flexíveis, reavaliamos as classificações de controle de qualidade e as comparamos com as avaliações visuais.

Classificador QC Proposto

Desenvolvemos um novo classificador que combina medidas de qualidade de ambas as ferramentas, MRIQC e CAT12. O classificador foi treinado em um conjunto de dados diverso, e seu desempenho foi testado em diferentes conjuntos de dados de teste. Essa abordagem visava ver como bem o classificador poderia se generalizar para várias populações e protocolos de imagem.

Desenvolvimento do Modelo

O modelo de dados combinado foi projetado para classificar scans como aceitáveis ou rejeitáveis com base em medidas de qualidade de ambas as ferramentas automatizadas. Usamos algoritmos de aprendizado de máquina para otimizar a classificação e melhorar o desempenho geral do modelo.

Para o treinamento, usamos uma divisão de 80% dos dados, garantindo representação de diferentes locais e grupos de participantes. Testamos três algoritmos de aprendizado de máquina e avaliamos seus resultados.

Avaliação do Modelo

O modelo final foi avaliado com base em sua precisão balanceada, levando em conta diferentes fatores, como grupos de diagnóstico, tipos de scanner e outras variáveis. Ao avaliar o desempenho do classificador, conseguimos tirar conclusões sobre sua aplicabilidade para conjuntos de dados clínicos.

Resultados

O classificador proposto demonstrou um desempenho forte em uma variedade de conjuntos de teste. Ele superou tanto o MRIQC quanto o CAT12 em vários cenários, mostrando seu potencial funcional em avaliação de qualidade.

Correlações de Medidas de Qualidade

Ao analisar as correlações entre medidas de qualidade das duas ferramentas, descobrimos que algumas medidas estavam significativamente relacionadas, enquanto outras forneciam informações únicas sobre a qualidade dos scans. Isso indicou que ambas as ferramentas poderiam se complementar quando usadas juntas.

Acordo com QC Visual

O acordo entre as classificações da ferramenta automatizada e as inspeções visuais variou entre os conjuntos de dados. Enquanto o MRIQC mostrou um melhor acordo geral com a QC visual, o CAT12 teve um bom desempenho em certos casos. Ajustar os limiares melhorou o acordo, mas revelou variabilidade entre diferentes cenários.

Discussão

Este estudo destaca a importância de um controle de qualidade robusto na análise de scans de cérebro ponderados em T1 de conjuntos de dados clínicos diversos. A combinação de ferramentas automatizadas poderia aumentar a confiabilidade das descobertas em estudos relacionados ao envelhecimento e doenças neurodegenerativas. Ao compartilhar o classificador desenvolvido e as métricas de qualidade através de portais públicos, queremos contribuir para esforços de pesquisa futuros em melhorar a avaliação da qualidade da imagem.

Limitações e Direções Futuras

Algumas limitações foram identificadas durante o estudo. Os conjuntos de dados usados foram altamente curados, o que pode ter levado a um desequilíbrio no número de scans aceitáveis e rejeitáveis. Pesquisas futuras podem focar em reunir amostras mais diversas em diferentes níveis de qualidade para melhorar o desempenho do classificador.

Além disso, o uso de imagens desfocadas pode influenciar as avaliações de qualidade, então uma exploração adicional de métodos alternativos para proteção da privacidade é recomendada. Novas abordagens para incluir recursos de controle de qualidade adicionais de uma gama mais ampla de ferramentas também podem fortalecer a estrutura de classificação.

Conclusão

Desenvolvemos um classificador robusto para a avaliação da qualidade de scans de MRI do cérebro ponderadas em T1, aproveitando dados de conjuntos clínicos variados. Integrando medidas de qualidade de ferramentas automatizadas estabelecidas como MRIQC e CAT12, demonstramos o potencial para melhorar o desempenho na identificação de scans utilizáveis. Os esforços contínuos para compartilhar descobertas e recursos apoiarão o avanço dos processos de controle de qualidade em estudos de neuroimagem.

Fonte original

Título: Automated quality control of T1-weighted brain MRI scans for clinical research: methods comparison and design of a quality prediction classifier

Resumo: IntroductionT1-weighted MRI is widely used in clinical neuroimaging for studying brain structure and its changes, including those related to neurodegenerative diseases, and as anatomical reference for analysing other modalities. Ensuring high-quality T1-weighted scans is vital as image quality affects reliability of outcome measures. However, visual inspection can be subjective and time-consuming, especially with large datasets. The effectiveness of automated quality control (QC) tools for clinical cohorts remains uncertain. In this study, we used T1w scans from elderly participants within ageing and clinical populations to test the accuracy of existing QC tools with respect to visual QC and to establish a new quality prediction framework for clinical research use. MethodsFour datasets acquired from multiple scanners and sites were used (N = 2438, 11 sites, 39 scanner manufacturer models, 3 field strengths - 1.5T, 3T, 2.9T, patients and controls, average age 71 {+/-} 8 years). All structural T1w scans were processed with two standard automated QC pipelines (MRIQC and CAT12). The agreement of the accept-reject ratings was compared between the automated pipelines and with visual QC. We then designed a quality prediction framework that combines the QC measures from the existing automated tools and is trained on clinical datasets. We tested the classifier performance using cross-validation on data from all sites together, also examining the performance across diagnostic groups. We then tested the generalisability of our approach when leaving one site out and explored how well our approach generalises to data from a different scanner manufacturer and/or field strength from those used for training. ResultsOur results show significant agreement between automated QC tools and visual QC (Kappa=0.30 with MRIQC predictions; Kappa=0.28 with CAT12s rating) when considering the entire dataset, but the agreement was highly variable across datasets. Our proposed robust undersampling boost (RUS) classifier achieved 87.7% balanced accuracy on the test data combined from different sites (with 86.6% and 88.3% balanced accuracy on scans from patients and controls respectively). This classifier was also found to be generalisable on different combinations of training and test datasets (leave-one-site-out = 78.2% average balanced accuracy; exploratory models = 77.7% average balanced accuracy). ConclusionWhile existing QC tools may not be robustly applicable to datasets comprised of older adults who have a higher rate of atrophy, they produce quality metrics that can be leveraged to train a more robust quality control classifiers for ageing and clinical cohorts.

Autores: Ludovica Griffanti, G. V. Bhalerao, G. Gillis, M. Dembele, S. Suri, K. Ebmeier, J. Klein, M. Hu, C. Mackay

Última atualização: 2024-04-15 00:00:00

Idioma: English

Fonte URL: https://www.medrxiv.org/content/10.1101/2024.04.12.24305603

Fonte PDF: https://www.medrxiv.org/content/10.1101/2024.04.12.24305603.full.pdf

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao medrxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes