Simple Science

Ciência de ponta explicada de forma simples

# Informática# Aprendizagem de máquinas# Inteligência Artificial# Visão computacional e reconhecimento de padrões

Avanços em Aprendizado Semi-Supervisionado de Conjunto Aberto

ANEDL melhora a detecção de outliers em modelos de aprendizagem semi-supervisionada.

― 8 min ler


ANEDL: Uma Nova AbordagemANEDL: Uma Nova Abordagemsemi-supervisionado.modelos de aprendizadoMelhorando a detecção de outliers em
Índice

Nos últimos anos, o aprendizado de máquina avançou bastante, especialmente na área de Aprendizado semi-supervisionado. Essa abordagem combina uma quantidade pequena de dados rotulados com uma grande quantidade de dados não rotulados pra melhorar o processo de aprendizado. Mas os métodos tradicionais geralmente assumem que todos os dados vêm da mesma fonte, o que significa que cada pedaço de dado deve ter os mesmos rótulos. Essa suposição pode causar problemas quando novas categorias de dados aparecem que não estavam no conjunto de treinamento.

O Aprendizado Semi-Supervisionado de Conjunto Aberto é um método mais recente que resolve essa limitação. Em vez de focar apenas nos dados que se encaixam em categorias predefinidas, ele também reconhece que alguns dados podem estar fora dessas categorias. Isso traz mais flexibilidade ao lidar com dados do mundo real, que frequentemente incluem exemplos inesperados ou "outliers". Outliers se referem a dados que não se encaixam em nenhuma das categorias existentes.

Esse artigo fala sobre uma nova abordagem pra aprendizado semi-supervisionado de conjunto aberto chamada Aprendizado Profundo Evidencial Negativo Adaptativo (ANEDL). Esse método visa melhorar como os outliers são tratados enquanto ainda treina de forma eficaz com os dados disponíveis.

Aprendizado Semi-Supervisionado

O aprendizado semi-supervisionado é um método que tenta reduzir a necessidade de muitos dados rotulados. Rotular dados costuma ser demorado e caro. Usando uma mistura de dados rotulados e não rotulados, o aprendizado semi-supervisionado permite que os modelos aprendam com os dois tipos de dados. O principal objetivo aqui é usar melhor as informações disponíveis.

Existem duas estratégias principais no aprendizado semi-supervisionado: regularização de consistência e pseudo-rotulagem.

  • Regularização de Consistência: Essa abordagem diz que um modelo deve dar previsões similares quando apresentado com diferentes versões dos mesmos dados de entrada.
  • Pseudo-Rotulagem: Isso envolve atribuir rótulos a dados incertos com base na confiança do modelo em suas previsões. Uma vez rotulados, esses dados podem ser reintegrados ao processo de treinamento.

Embora essas estratégias tenham mostrado resultados promissores, geralmente funcionam bem apenas sob a suposição de que todos os dados não vistos compartilham o mesmo conjunto de rótulos. Não é sempre assim em aplicações do mundo real, onde novas classes de dados podem aparecer.

Aprendizado Semi-Supervisionado de Conjunto Aberto

O aprendizado semi-supervisionado de conjunto aberto busca superar as limitações do aprendizado semi-supervisionado tradicional. Nessa abordagem, tanto os conjuntos de dados rotulados quanto os não rotulados são usados para treinar modelos, mas também leva em conta que alguns dados não rotulados podem pertencer a categorias não vistas durante o treinamento.

Em cenários de conjunto aberto, a tarefa se torna dupla: detectar outliers indesejados e classificar corretamente os inliers, que são os dados esperados. O desafio está em como separar esses outliers dos inliers eficientemente, mantendo um alto desempenho de classificação.

Os métodos existentes geralmente envolvem dois componentes principais: um detector de outliers e um classificador. O detector de outliers visa identificar quais pontos de dados não pertencem às categorias esperadas, enquanto o classificador processa o restante dos dados. Técnicas comumente usadas no aprendizado de conjunto aberto tradicional envolvem classificadores binários que têm dificuldade em lidar com cenários mais complexos, onde os dados podem pertencer a várias classes.

A Necessidade de Melhorar a Detecção de Outliers

Embora muita pesquisa tenha sido feita na área de detecção de outliers dentro do aprendizado semi-supervisionado de conjunto aberto, ainda há limitações. Muitos métodos atuais dependem da classificação binária, que se mostra ineficiente quando aplicada a conjuntos de dados com várias classes. Os classificadores binários às vezes não conseguem identificar outliers com precisão, resultando em resultados de classificação ruins.

Além disso, os métodos existentes frequentemente não utilizam totalmente as informações contidas nos dados não rotulados. Muitas vezes, as pontuações de confiança geradas pelos modelos de detecção de outliers não são suficientes para melhorar o desempenho durante o treinamento. Em vez disso, precisa haver uma abordagem estruturada não apenas para identificar outliers, mas também para ajustar adequadamente o aprendizado do modelo com base nessas informações.

Introduzindo o Aprendizado Profundo Evidencial Negativo Adaptativo (ANEDL)

Pra enfrentar esses desafios, a nova estrutura ANEDL combina aprendizado profundo evidencial com otimização negativa adaptativa.

Aprendizado Profundo Evidencial (EDL)

O aprendizado profundo evidencial foca em como lidar com a incerteza nas previsões. Ao contrário dos métodos tradicionais, que podem fornecer apenas uma única probabilidade para uma classe específica, o EDL dá várias evidências para cada classe. Essa evidência pode ajudar a quantificar melhor diferentes tipos de incerteza associada às previsões.

No contexto do ANEDL, o EDL é usado como um detector de outliers para identificar incertezas nos dados. Ao medir a incerteza e classificar os pontos de dados de acordo, o ANEDL visa melhorar tanto a detecção de outliers quanto a classificação de inliers.

Otimização Negativa Adaptativa

A técnica de otimização negativa adaptativa é particularmente interessante. Ela funciona incentivando o modelo a produzir valores de evidência mais baixos para classes incertas. Isso é crucial ao identificar outliers, porque o modelo precisa entender quais classes podem ser enganosas ou incorretas.

Em vez de tratar todos os dados igualmente, a otimização negativa adaptativa leva em conta a incerteza ligada a cada classe e ajusta o processo de aprendizado do modelo de acordo. Ao enfatizar a importância das classes incertas, o modelo pode separar melhor os inliers dos outliers.

Visão Geral do Método

A estrutura proposta ANEDL consiste em três componentes essenciais:

  1. Uma Cabeça EDL: Essa parte é responsável por quantificar a incerteza, fornecendo valores de evidência para cada classe. Ela detecta outliers nos dados não rotulados.
  2. Uma Cabeça Softmax: Esse componente classifica amostras de inliers produzindo probabilidades de classe. Ele é responsável por prever a categoria mais provável para um determinado ponto de dado.
  3. Um Extrator de Recursos Compartilhados: Essa parte da estrutura serve como a espinha dorsal que fornece as características necessárias para tanto a cabeça EDL quanto a cabeça Softmax funcionarem de forma eficaz.

Juntos, esses componentes permitem que o ANEDL aproveite tanto as forças do aprendizado profundo evidencial quanto da abordagem de classificação Softmax.

Melhorando a Seleção de Inliers

Uma parte importante de qualquer sistema de aprendizado semi-supervisionado é como ele lida com a seleção de inliers a partir dos dados não rotulados. O ANEDL envolve um processo que utiliza a cabeça EDL para quantificar a incerteza e selecionar as amostras não rotuladas mais confiáveis para inclusão no processo de treinamento. O objetivo é identificar aquelas amostras que podem ser rotuladas com confiança e usadas pra treinar o modelo ainda mais.

Esse processo de seleção é crucial pra garantir que o modelo aprenda com os dados mais representativos, melhorando tanto a precisão do classificador quanto a robustez geral do sistema.

Detecção de Outliers Durante a Inferência

Durante a fase de teste, detectar outliers entre os dados de teste também é vital. Diferente da fase de treinamento, onde o EDL é usado pra ajudar a selecionar inliers, o foco muda durante a inferência pra classificar com precisão os dados que estão chegando.

As métricas de incerteza produzidas pela cabeça EDL ajudam a tomar melhores decisões sobre se um ponto de dado deve ser considerado um inlier ou um outlier. Essa camada adicional de quantificação de incerteza aumenta significativamente a habilidade do modelo de fazer classificações precisas.

Validação Experimental

Pra validar a eficácia da estrutura ANEDL, foram realizados experimentos extensivos em vários conjuntos de dados públicos. O objetivo era medir tanto a precisão de classificação dos inliers quanto a capacidade de detectar outliers.

Os experimentos mostraram que o ANEDL superou outros métodos de ponta em várias configurações, particularmente em situações com um número maior de classes. Esses resultados demonstraram que o ANEDL lidou de forma eficaz com as complexidades introduzidas pelos cenários de aprendizado semi-supervisionado de conjunto aberto.

Conclusão

O Aprendizado Profundo Evidencial Negativo Adaptativo é um passo promissor na área de aprendizado semi-supervisionado de conjunto aberto. Ao combinar eficientemente aprendizado profundo evidencial com otimização negativa adaptativa, ele fornece uma estrutura robusta pra enfrentar os desafios apresentados pelos outliers enquanto ainda mantém um alto desempenho de classificação.

O futuro pode trazer ainda mais melhorias à medida que mais pesquisas nessa área continuam. Ao explorarmos melhores maneiras de navegar pelas complexidades dos dados do mundo real, métodos como o ANEDL podem se tornar ferramentas essenciais no kit de ferramentas de aprendizado de máquina. A integração bem-sucedida da quantificação de incerteza com a detecção eficaz de outliers abre novas possibilidades para muitas aplicações, pavimentando o caminho pra modelos mais precisos e confiáveis em várias áreas de estudo.

Fonte original

Título: Adaptive Negative Evidential Deep Learning for Open-set Semi-supervised Learning

Resumo: Semi-supervised learning (SSL) methods assume that labeled data, unlabeled data and test data are from the same distribution. Open-set semi-supervised learning (Open-set SSL) considers a more practical scenario, where unlabeled data and test data contain new categories (outliers) not observed in labeled data (inliers). Most previous works focused on outlier detection via binary classifiers, which suffer from insufficient scalability and inability to distinguish different types of uncertainty. In this paper, we propose a novel framework, Adaptive Negative Evidential Deep Learning (ANEDL) to tackle these limitations. Concretely, we first introduce evidential deep learning (EDL) as an outlier detector to quantify different types of uncertainty, and design different uncertainty metrics for self-training and inference. Furthermore, we propose a novel adaptive negative optimization strategy, making EDL more tailored to the unlabeled dataset containing both inliers and outliers. As demonstrated empirically, our proposed method outperforms existing state-of-the-art methods across four datasets.

Autores: Yang Yu, Danruo Deng, Furui Liu, Yueming Jin, Qi Dou, Guangyong Chen, Pheng-Ann Heng

Última atualização: 2024-04-14 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2303.12091

Fonte PDF: https://arxiv.org/pdf/2303.12091

Licença: https://creativecommons.org/publicdomain/zero/1.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes