Avanços na Aprendizagem com Aulas Aumentadas
Um novo método melhora os modelos de aprendizado de máquina pra lidar com classes desconhecidas durante os testes.
― 6 min ler
Índice
O aprendizado de máquina virou uma ferramenta chave pra resolver vários problemas do mundo real. A maioria das abordagens se baseia na ideia de que temos dados suficientes pra todas as classes durante o treinamento. Mas, em algumas situações, pode haver classes que a gente não vê na fase de treino, mas que aparecem na fase de teste. Esse cenário é conhecido como aprendizado com classes aumentadas (LAC).
O desafio no LAC é criar modelos que consigam lidar com essas classes aumentadas e ainda fazer previsões precisas. Um problema comum nessa área é como usar as relações entre classes conhecidas e as novas, desconhecidas que aparecem. Os pesquisadores sugeriram várias maneiras de enfrentar esse problema, mas muitas dessas soluções têm limitações.
Declaração do Problema
No LAC, a gente treina nosso modelo com dados rotulados, ou seja, sabemos a qual classe cada exemplo pertence. Mas, quando testamos nosso modelo, podemos encontrar exemplos de classes que não foram inclusas durante o treinamento. Isso complica a tarefa de previsão. Como não temos informações específicas sobre essas novas classes, geralmente tratamos elas como uma única classe.
Uma dificuldade chave no LAC é descobrir como aproveitar os dados das classes conhecidas pra entender e prever melhor as classes aumentadas. Já propuseram várias técnicas pra isso, como agrupamento e detecção de anomalias. Algumas abordagens usam modelos que aprendem bem as classes conhecidas, enquanto outras focam em mudar as fronteiras de decisão pra acomodar novos dados.
Estudos recentes mostraram que dá pra criar um estimador de risco imparcial (URE) usando dados não rotulados. Esse URE pode potencialmente ajudar a melhorar o desempenho quando se enfrenta classes aumentadas. Porém, trabalhos anteriores focaram principalmente em um tipo específico de função de perda, o que limita a flexibilidade ao lidar com diferentes conjuntos de dados.
Contribuições
Pra superar as limitações dos métodos existentes, a gente apresentou um estimador de risco imparcial generalizado capaz de trabalhar com várias funções de perda e ainda garantir Garantias Teóricas. Nossas contribuições incluem:
- Desenvolver um URE generalizado que suporta diferentes funções de perda, tornando-o mais adaptável a cenários diversos.
- Fornecer uma visão teórica de como esse URE pode minimizar erros nas previsões.
- Introduzir um novo termo de regularização pra lidar com problemas de risco empírico negativo que podem levar ao overfitting.
- Realizar experimentos extensivos que demonstram a eficácia do nosso método em vários conjuntos de dados e modelos.
Aprendizado com Classes Aumentadas
No LAC, os dados de treinamento consistem em exemplos que pertencem a classes conhecidas. Durante os testes, porém, a gente pode ver novas classes que não estavam no conjunto de dados de treinamento. Isso exige que os modelos se adaptem a essas classes desconhecidas enquanto mantêm a precisão nas classes conhecidas.
O desafio está em gerenciar a relação entre as classes conhecidas e as desconhecidas. Várias técnicas foram propostas. Algumas focam em definir fronteiras claras entre as classes conhecidas e desconhecidas, enquanto outras aproveitam dados não rotulados pra melhorar a classificação dessas novas classes.
Nossa abordagem usa um URE generalizado, que deve gerar resultados melhores do que os métodos anteriores. Isso porque não nos limita a funções de perda específicas e pode se adaptar aos dados que temos.
O Método Proposto
A gente apresenta um URE generalizado que aborda as limitações de estudos anteriores. Esse URE é flexível e pode acomodar diferentes funções de perda. Também oferecemos uma análise teórica que garante que o método é confiável e converge pro verdadeiro minimizador de risco.
Nosso método inclui uma regularização de penalidade de risco que combate o risco empírico negativo. Isso é crucial, já que muitas perdas comuns de classificação podem gerar valores negativos, levando ao overfitting. Ao adicionar uma penalidade pra riscos negativos, conseguimos estabilizar o processo de treinamento e manter a precisão do modelo.
Configuração Experimental
Pra validar nosso método, fizemos experimentos usando conjuntos de dados tanto pequenos quanto grandes. Selecionamos vários conjuntos de dados de fontes conhecidas, garantindo que eles variavam em características. Pra conjuntos menores, usamos modelos lineares simples, enquanto pra conjuntos maiores, usamos modelos mais complexos, como perceptrons multicamadas.
Nos nossos experimentos, analisamos como nosso método se saiu comparado a outras abordagens existentes. Isso incluiu avaliar a precisão, a pontuação Macro-F1 e a área sob a curva (AUC).
Resultados e Discussão
Os resultados dos nossos experimentos mostram que nosso método proposto supera outras abordagens em conjuntos de dados pequenos e grandes. Notamos métricas de desempenho melhoradas, particularmente em casos onde classes aumentadas apresentaram desafios.
Nossas descobertas sugerem que o URE generalizado não só oferece flexibilidade nas escolhas de funções de perda, mas também leva a um desempenho preditivo aprimorado. A regularização de penalidade de risco provou ser eficaz em lidar com problemas relacionados ao risco empírico negativo, tornando nosso modelo mais robusto durante o treinamento.
Análise Adicional
Decidimos analisar como a regularização de penalidade afetou o desempenho. Os resultados indicaram que nosso método de penalidade de risco superou significativamente funções de correção tradicionais como Unidade Linear Retificada (ReLU) e Valor Absoluto (ABS). Isso confirmou que nosso método mitigou efetivamente problemas relacionados a riscos negativos.
Além disso, examinamos como a proporção de classes conhecidas em relação às classes aumentadas influenciou o desempenho. Nossos resultados mostraram que estimar com precisão essa proporção também contribuiu pra resultados de classificação melhores.
Conclusão
Resumindo, exploramos o problema do aprendizado com classes aumentadas e propusemos um estimador de risco imparcial generalizado que acomoda várias funções de perda enquanto mantém rigor teórico. Também introduzimos um termo de regularização de penalidade de risco pra ajudar a mitigar o risco empírico negativo que comumente aparece em trabalhos similares.
Nossos experimentos extensivos confirmaram que nosso método é eficaz em diferentes cenários, demonstrando sua aplicabilidade em uma variedade de conjuntos de dados e tarefas de classificação. Trabalhos futuros podem focar em aprimorar técnicas de regularização e ajustar a abordagem para ambientes de aprendizado mais complexos.
Título: A Generalized Unbiased Risk Estimator for Learning with Augmented Classes
Resumo: In contrast to the standard learning paradigm where all classes can be observed in training data, learning with augmented classes (LAC) tackles the problem where augmented classes unobserved in the training data may emerge in the test phase. Previous research showed that given unlabeled data, an unbiased risk estimator (URE) can be derived, which can be minimized for LAC with theoretical guarantees. However, this URE is only restricted to the specific type of one-versus-rest loss functions for multi-class classification, making it not flexible enough when the loss needs to be changed with the dataset in practice. In this paper, we propose a generalized URE that can be equipped with arbitrary loss functions while maintaining the theoretical guarantees, given unlabeled data for LAC. To alleviate the issue of negative empirical risk commonly encountered by previous studies, we further propose a novel risk-penalty regularization term. Experiments demonstrate the effectiveness of our proposed method.
Autores: Senlin Shu, Shuo He, Haobo Wang, Hongxin Wei, Tao Xiang, Lei Feng
Última atualização: 2023-06-12 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2306.06894
Fonte PDF: https://arxiv.org/pdf/2306.06894
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.