Simple Science

Ciência de ponta explicada de forma simples

# Informática# Visão computacional e reconhecimento de padrões

Avanços na Detecção de Anomalias Não Supervisionada com LSGS

Novo método melhora a detecção de anomalias em imagens usando VQVAE e modelos transformers.

― 6 min ler


Método de Detecção deMétodo de Detecção deAnomalias de Pontade anomalias não supervisionada.A LSGS define novos padrões em detecção
Índice

A detecção de Anomalias não supervisionada é super útil em áreas como indústria e saúde. Ela ajuda a encontrar padrões estranhos nos dados sem precisar de muito esforço manual. Por exemplo, na saúde, pode acelerar o diagnóstico de doenças ao identificar automaticamente anomalias em imagens médicas. Recentemente, métodos de aprendizado profundo, especialmente autoencoders, mostraram ser promissores na detecção dessas anomalias. Ao aprender com dados normais, eles conseguem identificar áreas anômalas comparando a qualidade das reconstruções. Mas, às vezes, esses métodos falham, pois podem ser bons demais, reconstruindo anomalias como se fossem normais.

O Desafio

O principal problema com muitos métodos de detecção de anomalias é que eles dependem da habilidade do modelo de generalizar bem a partir de dados normais. Quando o modelo é bom demais nisso, ele pode reconstruir amostras anômalas com precisão, o que leva a detecções perdidas. Outras estratégias tentaram resolver isso, mas geralmente trazem seus próprios problemas, como gerar ruído em áreas normais ou ter dificuldade com anomalias estruturais.

Alguns métodos envolvem usar memória para ajudar o autoencoder a lembrar melhor os padrões normais. Embora eles funcionem bem para certos tipos de anomalias, costumam ter dificuldades quando lidam com estruturas de imagem complexas. Outras abordagens podem precisar de dados externos ou padrões conhecidos de anomalias, o que limita suas capacidades não supervisionadas.

Apresentando o LSGS

Para resolver esses problemas, foi desenvolvido um novo método chamado LSGS. Essa abordagem combina um autoencoder especial, conhecido como Autoencoder Variacional Quantizado por Vetores (VQVAE), e um modelo de Transformador que usa atenção global. O objetivo é aproveitar os pontos fortes dessas tecnologias para melhor detectar anomalias em imagens.

O Papel do VQVAE

O VQVAE se concentra em duas tarefas principais: extrair características importantes das imagens e reconstruí-las. Ao treinar apenas com imagens normais, ele forma um caderno de códigos que representa esses padrões padrão. Quando enfrenta imagens anômalas, o modelo verifica como consegue recriá-las. Se o erro de reconstrução for alto, isso indica uma anomalia.

Entendendo o Transformador

Enquanto o VQVAE é ótimo para gerenciar padrões locais, ele pode ter dificuldade com informações globais da imagem inteira. É aqui que entra o transformador. Usando um mecanismo de atenção global, o transformador consegue entender melhor o contexto total da imagem e identificar áreas que não se encaixam nos padrões esperados. Ele trabalha junto com o VQVAE, pegando os padrões codificados e refinando o processo de reconstrução.

Como o LSGS Funciona

O método LSGS começa treinando o VQVAE usando um conjunto de imagens normais. Uma vez que aprendeu os padrões usuais, ele agrega esses padrões em um caderno de códigos. O transformador é então treinado em sequências dessas codificações, ensinando-o a reconhecer distribuições e anomalias com base em conhecimentos prévios.

Quando uma nova imagem é processada, ela é codificada em sequências. O transformador analisa essas sequências e as ajusta, criando uma representação melhor do que a normal deveria parecer. Finalmente, o modelo reconstrói a imagem a partir desses padrões ajustados. Se a reconstrução mostrar uma desvio significativo da imagem de entrada, é provável que haja uma anomalia presente.

Benefícios do LSGS

O método LSGS traz algumas vantagens cruciais:

  1. Representação Melhorada do Caderno de Códigos: Usando um caderno de códigos novo que agrega padrões de forma eficaz, o VQVAE consegue capturar melhor a distribuição dos dados.

  2. Consciência do Contexto Global: A sensibilidade global do transformador permite que ele considere a estrutura inteira da imagem, melhorando a detecção de anomalias que podem abranger áreas maiores ou ter formas complexas.

  3. Aprendizado Auto-supervisionado: Com uma estratégia auto-supervisionada única, o transformador consegue aprender de forma eficiente sem precisar de grandes quantidades de dados rotulados.

  4. Maior Precisão na Detecção: Experimentos mostraram que esse método supera as técnicas existentes em vários contextos, incluindo conjuntos de dados médicos e industriais.

Testando a Abordagem

Para validar a eficácia do LSGS, testes foram realizados em dois conjuntos de dados bem conhecidos: BraTS2018, que se concentra em imagens de ressonância magnética do cérebro, e MVTec-AD, um conjunto de dados para análise de imagens industriais. Nos testes, o modelo foi treinado usando imagens sem anomalias e depois avaliado em outras que as continham.

Visão Geral do Conjunto de Dados

  • BraTS2018: Esse conjunto contém exames de ressonância magnética usados para identificar tecidos cerebrais anômalos. As imagens são processadas para ajudar a diagnosticar condições de forma mais eficiente.

  • MVTec-AD: É usado para avaliar modelos de visão computacional em ambientes industriais. Inclui várias categorias, cada uma com dados normais de treinamento e uma mistura de dados normais e anômalos para teste.

Detalhes de Implementação

Implementar o LSGS envolve definir parâmetros específicos para os modelos. Por exemplo, o encoder VQVAE reduz as imagens para um tamanho gerenciável para processamento eficiente. O transformador consiste em várias camadas de atenção para refinar sua compreensão dos dados.

Medindo o Sucesso

Para avaliar quão bem o método LSGS funciona, várias métricas são usadas, incluindo:

  • Pontuação de Precisão Média (AP): Mede a precisão das previsões do modelo.

  • Área Sob a Curva do Característica Operacional do Receptor (AUROC): Avalia a relação entre taxas de verdadeiros positivos e falsos positivos.

  • Coeficiente de Similaridade de Dice (Dice): Avalia a sobreposição entre anomalias previstas e reais.

Comparação com Métodos Existentes

O método LSGS foi comparado com outros métodos de detecção de anomalias baseados em reconstrução. Essas comparações mostram consistentemente que o LSGS obtém melhores resultados nos conjuntos de dados BraTS2018 e MVTec-AD. Isso destaca sua versatilidade e eficácia em diferentes contextos.

Entendendo os Componentes do Modelo

Para explorar melhor o método LSGS, vários componentes foram analisados:

  1. Caderno de Códigos Agregado: Essa representação refinada dos padrões de imagem permite uma melhor detecção de anomalias, garantindo um mapeamento mais preciso das imagens normais.

  2. Mecanismo de Atenção: Usar diferentes tipos de estruturas de atenção mostra o quanto isso é importante para melhorar a detecção de anomalias. O transformador de atenção completa superou outros que usaram atenção limitada.

Conclusão

O método LSGS representa um avanço significativo na detecção de anomalias não supervisionadas. Ao combinar um VQVAE sensível a locais com transformadores sensíveis a globais, essa abordagem identifica efetivamente anomalias em vários tipos de imagens. Os resultados experimentais confirmam sua capacidade de superar métodos existentes, tornando-se uma direção promissora para pesquisas futuras e aplicações em contextos industriais e médicos.

Fonte original

Título: Unsupervised Anomaly Detection with Local-Sensitive VQVAE and Global-Sensitive Transformers

Resumo: Unsupervised anomaly detection (UAD) has been widely implemented in industrial and medical applications, which reduces the cost of manual annotation and improves efficiency in disease diagnosis. Recently, deep auto-encoder with its variants has demonstrated its advantages in many UAD scenarios. Training on the normal data, these models are expected to locate anomalies by producing higher reconstruction error for the abnormal areas than the normal ones. However, this assumption does not always hold because of the uncontrollable generalization capability. To solve this problem, we present LSGS, a method that builds on Vector Quantised-Variational Autoencoder (VQVAE) with a novel aggregated codebook and transformers with global attention. In this work, the VQVAE focus on feature extraction and reconstruction of images, and the transformers fit the manifold and locate anomalies in the latent space. Then, leveraging the generated encoding sequences that conform to a normal distribution, we can reconstruct a more accurate image for locating the anomalies. Experiments on various datasets demonstrate the effectiveness of the proposed method.

Autores: Mingqing Wang, Jiawei Li, Zhenyang Li, Chengxiao Luo, Bin Chen, Shu-Tao Xia, Zhi Wang

Última atualização: 2023-03-29 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2303.17505

Fonte PDF: https://arxiv.org/pdf/2303.17505

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes