Simple Science

Ciência de ponta explicada de forma simples

# Ciências da saúde# Dermatologia

Melhorando a confiança em IA para dermatologia

O MONET aumenta a transparência na análise de imagens de IA para dermatologia.

― 6 min ler


IA confiável emIA confiável emDermatologiadoenças de pele.confiabilidade da IA na análise deO MONET aumenta a transparência e a
Índice

O uso de inteligência artificial (IA) na saúde, especialmente na medicina, tá crescendo rápido. Um segmento que é bem promissor é o uso da IA na análise de imagens médicas, como as que são usadas em dermatologia. Dermatologia lida com doenças e condições de pele, e as imagens médicas são cruciais para o diagnóstico e tratamento. Porém, os sistemas de IA que analisam essas imagens podem ser difíceis de confiar, porque costumam funcionar como "caixas pretas", o que dificulta entender por que tomam certas decisões. Este artigo fala sobre o desenvolvimento de um modelo chamado MoNet, que ajuda a tornar os sistemas de IA na medicina mais transparentes e confiáveis, usando linguagem e conceitos que os profissionais de saúde entendem.

A Necessidade de Transparência na IA Médica

Quando se usa Modelos de IA na saúde, especialmente para tarefas como diagnosticar doenças a partir de imagens, é vital garantir que esses modelos sejam transparentes. Transparência significa poder ver como as decisões são tomadas, entendendo os fatores que influenciam essas decisões. Se um modelo identifica incorretamente uma lesão de pele como cancerosa ou benigna, os pacientes podem sofrer devido a escolhas de tratamento erradas. Isso exige ter uma visão clara dos dados usados e de como o modelo interpreta esses dados.

Desafios com os Conjuntos de Dados Médicos Atuais

A maioria dos modelos de IA é treinada usando dados que foram rotulados por especialistas humanos. No entanto, na área médica, rotular imagens com descritores detalhados pode ser demorado e caro. Por exemplo, para construir um modelo que identifica cânceres de pele, não basta saber se uma lesão é cancerosa ou não. É útil entender características como "cor", "textura" e "forma" da lesão. Infelizmente, muitos conjuntos de dados existentes incluem apenas rótulos básicos como "maligno" ou "benigno", perdendo detalhes importantes.

Além disso, o processo de coleta de anotações complexas e ricas geralmente depende de dermatologistas e outros especialistas médicos. Isso pode levar a uma falta de dados suficientes para treinar modelos, limitando a eficácia dos sistemas de IA na saúde.

Apresentando o MONET

Para resolver esses desafios, o modelo MONET foi desenvolvido. MONET significa Recuperador de Conceitos Médicos. Diferente dos modelos tradicionais que exigem extensa rotulagem humana, o MONET é treinado usando uma grande quantidade de dados de texto e imagem de literatura e livros médicos. Isso permite que o MONET gere automaticamente conceitos significativos que descrevem o conteúdo das imagens médicas.

Como Funciona o MONET

Coleta de Dados

O MONET é treinado em um grande conjunto de dados de pares de imagens e textos coletados de recursos médicos, incluindo artigos e livros. Esses dados são usados para ensinar o modelo a relacionar imagens de lesões de pele com conceitos médicos relevantes.

Geração Automática de Conceitos

Depois do treinamento, o MONET pode pegar uma imagem de uma lesão de pele e gerar uma lista de conceitos relevantes que descrevem suas características. Por exemplo, ele pode identificar aspectos como "vermelhidão", "protuberância" ou "forma irregular". Esse processo permite que o modelo forneça insights que são compreensíveis para os profissionais de saúde.

Representação Visual

O MONET cria um espaço compartilhado onde tanto imagens quanto descrições de texto coexistem. Isso significa que, para qualquer imagem, o modelo pode determinar quão bem cada conceito se aplica medindo a distância entre a imagem e os termos descritivos nesse espaço compartilhado.

Aplicações do MONET em Dermatologia

O MONET tem várias aplicações práticas em dermatologia que aumentam a confiabilidade dos sistemas de IA.

Auditoria de Dados

Usando o MONET, os dermatologistas podem auditar grandes conjuntos de dados para encontrar Preconceitos ou erros nos dados antes de treinar modelos de IA. Por exemplo, se um conjunto de dados tem muitas imagens com características específicas que são majoritariamente benignas, enquanto outras são majoritariamente malignas, o MONET pode ajudar a destacar essas discrepâncias.

Auditoria de Modelos

Depois que um modelo de IA é treinado, o MONET pode ajudar a auditar seu desempenho. Se um modelo classifica erradamente certos tipos de imagens, o MONET pode identificar quais conceitos estavam presentes nessas imagens que levaram aos erros. Isso ajuda os pesquisadores a entender onde o modelo está errando, facilitando melhorias.

Construindo Modelos Interpretabéis

Uma das características mais legais do MONET é sua capacidade de contribuir para modelos inerentemente interpretáveis. Esses modelos permitem que os profissionais de saúde entendam exatamente quais características e conceitos estão influenciando as previsões do modelo. Essa transparência melhora a confiança e torna mais fácil para os prestadores de saúde usarem modelos de IA na prática clínica.

Benefícios do Uso do MONET

Entendimento Aprimorado

A principal vantagem de usar o MONET é a capacidade de gerar anotações detalhadas e significativas sem precisar de muito input humano. Isso permite um entendimento mais rico dos dados e melhora a qualidade dos modelos de IA desenvolvidos para uso médico.

Identificação de Preconceitos

O MONET pode identificar facilmente preconceitos em conjuntos de dados que podem levar a previsões não confiáveis. Por exemplo, se um modelo superestima a malignidade em imagens de uma fonte, mas subestima em outra, o MONET pode destacar esses problemas, levando a ajustes necessários.

Melhor Confiança

Com a capacidade de fornecer conceitos claros e fáceis de entender, o MONET torna os modelos de IA mais transparentes. Os clínicos podem ver quais características estão direcionando as decisões do modelo, melhorando a confiança e aceitação da IA em ambientes médicos.

Conclusão

O desenvolvimento do MONET representa um grande avanço na interseção da IA e dermatologia. Ao automatizar a geração de conceitos semânticos a partir de imagens médicas, o MONET não só aumenta a transparência dos sistemas de IA, mas também constrói confiança em sua confiabilidade. À medida que o uso de IA na saúde continua a crescer, ferramentas como o MONET serão vitais para garantir que essas tecnologias sejam eficazes, seguras e possam ser integradas na prática clínica. O futuro da IA médica é promissor, e o MONET mostra como podemos aproveitar o poder da IA mantendo o foco em insights compreensíveis para humanos.

Fonte original

Título: Fostering transparent medical image AI via an image-text foundation model grounded in medical literature

Resumo: Building trustworthy and transparent image-based medical AI systems requires the ability to interrogate data and models at all stages of the development pipeline: from training models to post-deployment monitoring. Ideally, the data and associated AI systems could be described using terms already familiar to physicians, but this requires medical datasets densely annotated with semantically meaningful concepts. Here, we present a foundation model approach, named MONET (Medical cONcept rETriever), which learns how to connect medical images with text and generates dense concept annotations to enable tasks in AI transparency from model auditing to model interpretation. Dermatology provides a demanding use case for the versatility of MONET, due to the heterogeneity in diseases, skin tones, and imaging modalities. We trained MONET on the basis of 105,550 dermatological images paired with natural language descriptions from a large collection of medical literature. MONET can accurately annotate concepts across dermatology images as verified by board-certified dermatologists, outperforming supervised models built on previously concept-annotated dermatology datasets. We demonstrate how MONET enables AI transparency across the entire AI development pipeline from dataset auditing to model auditing to building inherently interpretable models.

Autores: Su-In Lee, C. Kim, S. U. Gadgil, A. J. DeGrave, Z. R. Cai, R. Daneshjou

Última atualização: 2023-06-12 00:00:00

Idioma: English

Fonte URL: https://www.medrxiv.org/content/10.1101/2023.06.07.23291119

Fonte PDF: https://www.medrxiv.org/content/10.1101/2023.06.07.23291119.full.pdf

Licença: https://creativecommons.org/licenses/by-nc/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao medrxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes