Melhorando a Detecção de Entradas Inesperadas em Aprendizado de Máquina
Este estudo melhora os métodos de detecção de OOD pra uma confiabilidade melhor do machine learning.
― 6 min ler
Índice
No mundo de hoje, sistemas de aprendizado de máquina são usados em várias aplicações, desde identificar objetos em imagens até fazer previsões. Mas esses sistemas podem ter dificuldade quando encontram dados que são diferentes do que foram treinados. Isso é conhecido como encontrar entradas fora da distribuição (OOD). Para deixar esses sistemas mais confiáveis, os pesquisadores estão desenvolvendo maneiras de detectar essas entradas incomuns.
A maioria dos estudos foca em reconhecer classes que não faziam parte dos dados de treinamento. Esse foco restrito é um problema porque na vida real, os sistemas enfrentam muitos tipos de dados inesperados. Neste trabalho, categorizamos diferentes tipos de mudanças de distribuição e avaliamos quão bem os métodos atuais conseguem detectá-las.
O Desafio das Entradas OOD
Quando modelos de aprendizado de máquina são treinados, geralmente trabalham com um conjunto de dados consistentes. Mas, uma vez implantados em ambientes reais, muitas vezes encontram amostras inesperadas. Isso pode gerar erros, que podem ser sérios em aplicações críticas onde a segurança é uma preocupação.
Os pesquisadores têm duas estratégias principais para melhorar o desempenho desses sistemas quando enfrentam entradas inesperadas. A primeira é aumentar a robustez dos modelos para que possam lidar melhor com essas mudanças. A segunda é a detecção de OOD, que tem como objetivo identificar quando a entrada é incomum e tomar as ações necessárias, como pedir ajuda humana.
Enquanto aumentar a robustez significa que o sistema continua funcionando bem, isso pode ser difícil de alcançar, especialmente quando não há uma resposta correta clara sobre o que o modelo deveria gerar. A maioria dos métodos de detecção de OOD tende a se concentrar em um tipo de entrada inesperada, geralmente apenas Classes Novas. Eles não levam em conta outros tipos de mudanças que podem ocorrer, o que limita sua utilidade em aplicações do mundo real.
Necessidade de Detecção OOD Diversificada
Muitos estudos anteriores sobre detecção OOD analisaram dados incomuns, mas não os classificaram como OOD. Mesmo que alguns estudos tenham tentado detectar múltiplos tipos de mudanças, eles ainda não oferecem variedade suficiente. Essa é uma limitação importante porque sistemas do mundo real encontram entradas que variam bastante em sua natureza.
Se os pesquisadores querem aumentar a confiabilidade de seus sistemas, precisam considerar uma gama mais diversificada de entradas inesperadas. Focar apenas em tipos específicos de mudanças torna os sistemas menos adaptáveis e pode levar a um desempenho ruim. Nosso objetivo é expandir a compreensão da detecção OOD e torná-la mais aplicável a cenários reais.
Introduzindo o Benchmark BROAD
Para abordar os problemas identificados, apresentamos um novo benchmark chamado BROAD, que significa Benchmarking Resilience Over Anomaly Diversity. Este benchmark categoriza cinco tipos distintos de mudanças de distribuição que podem ocorrer ao lidar com amostras OOD. As cinco categorias são: classes novas, Perturbações Adversariais, Imagens Sintéticas, Corrupções e entradas multiclasses.
Avaliaremos uma variedade de métodos de detecção OOD contra essas categorias para ver como eles se saem. Os resultados mostram que, enquanto muitos métodos conseguem detectar bem classes novas, eles frequentemente falham quando enfrentam outros tipos de mudanças.
Os Cinco Tipos de Mudanças de Distribuição
Classes Novas
Classes novas se referem a situações em que os dados incluem categorias que o modelo nunca viu antes. Este é o tipo mais comum de mudança estudado na detecção OOD. Por exemplo, se um modelo treinado para reconhecer cães e gatos encontra uma foto de um cavalo, ele vai ter dificuldade para classificar corretamente.
Perturbações Adversariais
Perturbações adversariais ocorrem quando as entradas são modificadas de maneiras sutis para enganar o modelo e fazê-lo fazer previsões incorretas. Esses tipos de entradas podem ser gerados usando métodos específicos voltados para criar cenários desafiadores para o modelo.
Imagens Sintéticas
Esta categoria inclui imagens geradas por algoritmos em vez de capturadas por métodos tradicionais. Com o aumento dos modelos generativos, a presença de imagens sintéticas está se tornando mais comum e pode causar confusão para modelos treinados em imagens reais.
Corrupções
Corrupções se referem a imagens que foram alteradas de várias maneiras que afetam sua qualidade. Por exemplo, borrões ou ruídos podem ser introduzidos para desafiar a capacidade do sistema de reconhecer e classificar essas imagens.
Entradas Multiclasses
Entradas multiclasses envolvem imagens que contêm elementos de duas ou mais classes. Por exemplo, uma imagem que apresenta tanto um cachorro quanto um gato pode confundir um modelo que foi treinado para distinguir entre os dois, já que ele não teria uma orientação clara sobre como classificar essa imagem.
Avaliando Métodos de Detecção
Na nossa pesquisa, focamos em métodos de detecção OOD que não precisam ser especificamente treinados em amostras OOD. Isso porque, no uso real, os sistemas geralmente não sabem quais entradas estranhas enfrentarão.
Testamos uma variedade de métodos de detecção contra o benchmark BROAD. Os resultados mostram que, enquanto alguns métodos vão bem em perturbações adversariais, eles podem ter dificuldades com entradas multiclasses. Essa inconsistência destaca uma lacuna significativa em como os métodos atuais conseguem lidar com a detecção OOD ampla.
Importância da Detecção OOD Ampla
Nossos achados enfatizam a necessidade de sistemas que consigam detectar uma variedade maior de entradas inesperadas. O foco atual em tipos específicos de mudanças não é suficiente para garantir um desempenho robusto.
A capacidade de detectar diferentes tipos de mudanças é crucial para aplicações onde a segurança é fundamental. Isso garante que o sistema possa responder adequadamente quando enfrentar entradas inesperadas e potencialmente prejudiciais.
Para alcançar isso, propomos um novo método de conjunto que utiliza um modelo generativo baseado em misturas gaussianas. Este método visa combinar as forças de pontuações de detecção existentes, resultando em um desempenho melhorado em vários tipos de mudanças de distribuição.
Conclusão
Em resumo, a confiabilidade dos sistemas de aprendizado de máquina em aplicações do mundo real depende da sua capacidade de detectar e gerenciar entradas OOD. As metodologias atuais frequentemente ficam aquém devido ao seu escopo limitado. Ao introduzir o benchmark BROAD e categorizar diferentes tipos de mudanças, esperamos abrir caminho para métodos de detecção mais robustos. Nossa abordagem de conjunto mostra potencial para melhorar o desempenho, indicando que pesquisas futuras devem se concentrar em estratégias de detecção OOD cada vez mais diversas e adaptáveis.
Com esses esforços, podemos melhorar a confiabilidade geral dos sistemas de aprendizado de máquina, garantindo que eles consigam lidar com a natureza imprevisível dos dados do mundo real. Isso é essencial para criar aplicações mais seguras e eficazes em várias áreas.
Título: Expecting The Unexpected: Towards Broad Out-Of-Distribution Detection
Resumo: Improving the reliability of deployed machine learning systems often involves developing methods to detect out-of-distribution (OOD) inputs. However, existing research often narrowly focuses on samples from classes that are absent from the training set, neglecting other types of plausible distribution shifts. This limitation reduces the applicability of these methods in real-world scenarios, where systems encounter a wide variety of anomalous inputs. In this study, we categorize five distinct types of distribution shifts and critically evaluate the performance of recent OOD detection methods on each of them. We publicly release our benchmark under the name BROAD (Benchmarking Resilience Over Anomaly Diversity). Our findings reveal that while these methods excel in detecting unknown classes, their performance is inconsistent when encountering other types of distribution shifts. In other words, they only reliably detect unexpected inputs that they have been specifically designed to expect. As a first step toward broad OOD detection, we learn a generative model of existing detection scores with a Gaussian mixture. By doing so, we present an ensemble approach that offers a more consistent and comprehensive solution for broad OOD detection, demonstrating superior performance compared to existing methods. Our code to download BROAD and reproduce our experiments is publicly available.
Autores: Charles Guille-Escuret, Pierre-André Noël, Ioannis Mitliagkas, David Vazquez, Joao Monteiro
Última atualização: 2024-12-09 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2308.11480
Fonte PDF: https://arxiv.org/pdf/2308.11480
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.
Ligações de referência
- https://doi.org/10.48550/arxiv.1506.03365
- https://doi.org/10.48550/arxiv.1911.11132
- https://doi.org/10.48550/arxiv.2105.01879,
- https://doi.org/10.48550/arxiv.1707.06642
- https://doi.org/10.48550/arxiv.1706.06083
- https://doi.org/10.48550/arxiv.1512.03385
- https://doi.org/10.48550/arxiv.2010.11929
- https://github.com/lukemelas/pytorch-pretrained-gans
- https://huggingface.co/stabilityai/stable-diffusion-2
- https://doi.org/10.48550/arxiv.2210.01742
- https://doi.org/10.48550/arxiv.2210.03150
- https://doi.org/10.48550/arxiv.2111.12797
- https://doi.org/10.48550/arxiv.2111.09805
- https://github.com/goodfeli/dlbook_notation
- https://github.com/ServiceNow/broad
- https://github.com/ServiceNow/broad-openood