Avanços no Diagnóstico de Retinopatia Diabética
A aprendizagem auto-supervisionada da IA melhora a detecção de retinopatia diabética com menos imagens rotuladas.
― 6 min ler
Índice
A retinopatia diabética é uma doença ocular causada pelo diabetes que pode levar à perda de visão. Ela afeta muita gente ao redor do mundo, e pra detectar costuma precisar de profissionais médicos treinados pra analisar imagens do olho. Isso é bem demorado e caro. Com os avanços da tecnologia, os pesquisadores estão usando inteligência artificial (IA) pra melhorar o processo de diagnóstico da retinopatia diabética. Mas tá faltando imagem médica rotulada, o que dificulta o treinamento eficaz dos sistemas de IA.
Aprendizado Autossupervisionado
Um método promissor pra lidar com a falta de dados rotulados é o aprendizado autossupervisionado. Essa abordagem permite que os modelos aprendam a partir de grandes quantidades de dados não rotulados. Em vez de precisar de muitos exemplos rotulados, o aprendizado autossupervisionado pode usar imagens que não foram anotadas. Isso significa que a IA pode aprender a identificar padrões e características nas imagens sem precisar de rótulos detalhados.
O processo começa usando um conjunto de dados primário com muitas fotos não rotuladas. Por exemplo, no nosso caso, as imagens de retinopatia diabética são retiradas de um conjunto de dados fonte. O modelo de IA aprende a criar diferentes versões de cada imagem através de várias técnicas, como virar ou ajustar cores. Algumas dessas versões são tratadas como pares positivos, enquanto outras vêm de imagens diferentes e são tratadas como pares negativos. Assim, o modelo consegue aprender representações eficazes com base nas relações entre as imagens.
Importância da Eficiência dos Rótulos
Uma das grandes vantagens de usar o aprendizado autossupervisionado no diagnóstico da retinopatia diabética é a eficiência dos rótulos. Muitos métodos tradicionais precisam de grandes quantidades de dados rotulados, que podem levar tempo e esforço pra coletar. Em contraste, essa nova abordagem consegue resultados legais usando só um número pequeno de imagens rotuladas, permitindo muitas mais aplicações em situações do mundo real. Isso é especialmente bom em áreas médicas onde dados rotulados são escassos.
Transferência de Conhecimento entre Domínios
Além disso, o modelo pode ser aplicado a diferentes Conjuntos de dados ou domínios. Isso é chamado de transferência de conhecimento entre domínios. Na nossa pesquisa, podemos usar um modelo que aprendeu com um conjunto de dados e aplicá-lo a outro conjunto com características diferentes. Por exemplo, um modelo treinado em um conjunto de imagens ainda pode classificar bem imagens de outra fonte.
Na prática, isso significa que se a gente conseguir treinar um modelo em um conjunto de imagens de retinopatia diabética, ele ainda pode funcionar direitinho com dados de outra fonte, que podem ter sido coletados com uma câmera diferente ou em um ambiente diferente. Isso é útil porque permite uma aplicação mais ampla das habilidades aprendidas sem precisar reunir uma quantidade enorme de novos dados rotulados toda vez.
Experimentos com Diferentes Conjuntos de Dados
Pra testar esse método, os pesquisadores realizaram experimentos usando quatro conjuntos de dados públicos diferentes: EyePACS, APTOS 2019, MESSIDOR-I, e Fundus Images. O EyePACS inclui muitas imagens de retina de alta qualidade que os médicos rotularam com base nas suas descobertas. O APTOS 2019 também contém imagens rotuladas pra severidade da retinopatia diabética. O conjunto de dados MESSIDOR-I foca em diferentes escalas de classificação para imagens de retinopatia. O Fundus Images fornece amostras de uma instituição médica no Paraguai.
Ao aplicar métodos autossupervisionados, os pesquisadores mostraram que o modelo conseguiu aprender a classificar imagens de retinopatia diabética de forma eficaz. Os resultados desses conjuntos de dados demonstraram que a abordagem de aprendizado autossupervisionado superou muitos métodos existentes.
Resultados
Nos experimentos, o modelo de IA atingiu altas taxas de Precisão. Por exemplo, ele alcançou mais de 99% de precisão usando só uma pequena fração das imagens disponíveis no conjunto de dados APTOS 2019. Nos experimentos com o conjunto MESSIDOR-I, a precisão foi em torno de 98%. Mesmo quando aplicado ao conjunto Fundus Images, o modelo produziu resultados sólidos, mostrando sua robustez em vários tipos de dados.
Os pesquisadores também avaliaram o modelo usando mapas de ativação de classe, que ajudam a visualizar quais partes de uma imagem contribuíram pra uma classificação particular. Essa técnica mostra que o modelo pode aprender características úteis e explicar suas previsões, o que é essencial em aplicações médicas.
Comparação com Abordagens Tradicionais
Em comparação com métodos tradicionais de aprendizado supervisionado, essa abordagem autossupervisionada tem vantagens claras. Muitos métodos existentes dependem muito de dados rotulados, que podem ser difíceis de obter na área médica. Isso pode resultar em um desempenho inferior devido à quantidade insuficiente de dados rotulados disponíveis pra treinar o modelo.
Por exemplo, métodos que antes tiveram taxas de precisão mais baixas em comparação com a nova abordagem precisavam depender de conjuntos de dados maiores, onde possíveis imprecisões poderiam influenciar seu desempenho. Em contraste, o novo método autossupervisionado permite que o modelo se adapte e tenha um bom desempenho com menos imagens rotuladas, garantindo uma aplicabilidade mais ampla em várias situações.
Direções Futuras
Olhando pra frente, há muitas possibilidades legais de aplicar aprendizado autossupervisionado na análise de imagens médicas. Os pesquisadores pretendem estender essa abordagem além da classificação da retinopatia diabética pra outras tarefas de imagem médica. Trabalhos futuros podem focar em tarefas como segmentação de imagem ou localização, onde identificar regiões específicas em uma imagem é essencial.
Além disso, os pesquisadores planejam investigar outros métodos de aprendizado de representação que não dependam de técnicas contrastivas. Isso poderia melhorar ainda mais o desempenho e a eficiência ao lidar com imagens de diferentes domínios.
Conclusão
Em resumo, o aprendizado autossupervisionado representa um grande avanço no campo da análise de imagens médicas. Reduzindo a necessidade de dados rotulados enquanto permite aplicações eficazes entre domínios, essa abordagem oferece um grande potencial pra melhorar como diagnosticamos e tratamos a retinopatia diabética e outras condições semelhantes. Os resultados são promissores, e conforme a tecnologia continua a se desenvolver, esses métodos podem aprimorar o cuidado com os pacientes enquanto diminuem a carga sobre os profissionais médicos.
Título: Learning Self-Supervised Representations for Label Efficient Cross-Domain Knowledge Transfer on Diabetic Retinopathy Fundus Images
Resumo: This work presents a novel label-efficient selfsupervised representation learning-based approach for classifying diabetic retinopathy (DR) images in cross-domain settings. Most of the existing DR image classification methods are based on supervised learning which requires a lot of time-consuming and expensive medical domain experts-annotated data for training. The proposed approach uses the prior learning from the source DR image dataset to classify images drawn from the target datasets. The image representations learned from the unlabeled source domain dataset through contrastive learning are used to classify DR images from the target domain dataset. Moreover, the proposed approach requires a few labeled images to perform successfully on DR image classification tasks in cross-domain settings. The proposed work experiments with four publicly available datasets: EyePACS, APTOS 2019, MESSIDOR-I, and Fundus Images for self-supervised representation learning-based DR image classification in cross-domain settings. The proposed method achieves state-of-the-art results on binary and multiclassification of DR images, even in cross-domain settings. The proposed method outperforms the existing DR image binary and multi-class classification methods proposed in the literature. The proposed method is also validated qualitatively using class activation maps, revealing that the method can learn explainable image representations. The source code and trained models are published on GitHub.
Autores: Ekta Gupta, Varun Gupta, Muskaan Chopra, Prakash Chandra Chhipa, Marcus Liwicki
Última atualização: 2023-04-20 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2304.11168
Fonte PDF: https://arxiv.org/pdf/2304.11168
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.
Ligações de referência
- https://github.com/prakashchhipa/Learning-Self-Supervised-Representations-for-Label-Efficient-Cross-Domain-Knowledge-Transfer-on-DRF
- https://www.kaggle.com/c/diabetic-retinopathy-detection/data
- https://www.kaggle.com/competitions/aptos2019-blindness-detection/data
- https://www.adcis.net/en/third-party/messidor
- https://doi.org/10.1016/j.dib.2021.107068