Simple Science

Ciência de ponta explicada de forma simples

# Informática# Visão computacional e reconhecimento de padrões# Inteligência Artificial# Aprendizagem de máquinas

Abordando Erros de Rotulagem Humana em Aprendizado Contrastivo Supervisionado

Esse artigo fala sobre o impacto dos erros de rotulagem humana no SCL e uma nova solução.

― 8 min ler


Corrigindo Erros deCorrigindo Erros deRotulagem no SCLapesar dos erros de dados humanos.Novo método melhora o aprendizado
Índice

Em várias áreas de aprendizado de máquina, especialmente em visão computacional, a gente depende de dados rotulados pra treinar modelos. Os humanos rotulam esses dados, mas rolam erros, o que pode levar a rótulos errados. Embora seja bem conhecido que esses erros podem prejudicar o processo de aprendizado, não tem muito foco em como eles afetam um método específico chamado Aprendizado Contrastivo Supervisionado (SCL).

O SCL é uma técnica onde o modelo aprende a distinguir itens semelhantes e diferentes com base nos rótulos. Funciona aproximando itens semelhantes, de um jeito que ajuda o modelo a aprender representações melhores. O problema surge quando acontece rotulagem errada, já que isso pode confundir o modelo, principalmente quando se trata de distinguir o que é parecido e o que é diferente.

Esse artigo vai explorar como os erros de rotulação humana impactam o aprendizado contrastivo supervisionado e apresentar um novo método pra melhorar a performance do modelo na presença desses erros.

O Problema com Dados Rotulados por Humanos

Conjuntos de dados anotados por humanos, como os usados em classificação de imagens, geralmente têm rótulos que não estão completamente corretos. Por exemplo, um grande conjunto de dados pode ter cerca de 5% das suas imagens rotuladas erradas. Esse problema é mais complicado do que parece, porque o tipo de erros cometidos por humanos é diferente dos erros que podem ser introduzidos artificialmente.

Quando os humanos erram, eles tendem a agrupar erroneamente itens semelhantes sob o mesmo rótulo. Por exemplo, uma foto de um gato pode ser rotulada incorretamente como um cachorro só por causa da similaridade visual. Em contraste, erros sintéticos - os erros introduzidos intencionalmente pra testes - tendem a ser mais aleatórios e menos ligados à similaridade visual.

Entender como esses tipos de erros diferem é crucial. Quando se treina um modelo de aprendizado de máquina, a forma como os erros afetam seu aprendizado pode variar significativamente dependendo se os erros são feitos por humanos ou introduzidos artificialmente.

Aprendizado Contrastivo Explicado

Pra entender melhor o problema, é essencial pegar a visão de como o SCL funciona. O processo começa criando pares de itens que são semelhantes (pares positivos) e pares que são diferentes (pares negativos). O objetivo é fazer o modelo aprender que itens semelhantes devem estar próximos na compreensão do modelo, enquanto itens diferentes devem estar distantes.

Pra o SCL funcionar bem, os rótulos usados pra criar esses pares precisam ser precisos. Se o modelo recebe rótulos errados, isso pode levar a ele aprender as relações erradas entre os itens. Itens rotulados incorretamente podem ficar confusos, já que podem introduzir sinais falhos que enganam o processo de aprendizado.

O Impacto de Dados Rotulados Errados

No contexto do aprendizado contrastivo supervisionado, os efeitos de rotulagem errada podem ser severos. Pesquisas mostraram que quando o modelo é apresentado a dados rotulados errados, isso pode prejudicar significativamente sua capacidade de aprender de forma eficaz. A presença de imagens rotuladas erradas pode levar à criação de medidas de similaridade incorretas, alterando o que o modelo acredita ser semelhante ou diferente.

Estudos demonstraram que quase todos os sinais de aprendizado incorretos no SCL surgem de Amostras Positivas que estão rotuladas erradas. Isso significa que quando um modelo é treinado usando dados com erros humanos, a maior parte de suas dificuldades vem da confusão sobre o que deve ser considerado semelhante.

As técnicas tradicionais projetadas pra lidar com rótulos barulhentos muitas vezes focam em erros sintéticos e podem não funcionar bem com erros de rotulação humana. Os métodos podem até diminuir o tamanho geral do conjunto de dados de Treinamento, o que pode prejudicar ainda mais a performance. Isso destaca a necessidade de estratégias específicas que possam lidar efetivamente com os desafios únicos impostos pelos erros humanos na rotulagem.

Apresentando uma Nova Abordagem: SCL-RHE

Pra lidar com as falhas dos métodos existentes, um novo objetivo chamado SCL-RHE foi introduzido. Essa abordagem visa melhorar a robustez do aprendizado contrastivo supervisionado contra erros de rotulação humana. A ideia é projetar o processo de aprendizado de forma que ele possa lidar melhor com os desafios comuns impostos por exemplos rotulados errados do mundo real.

O SCL-RHE foca no conceito de 'verdadeiros positivos', que são itens que pertencem à mesma categoria latente e são semelhantes por natureza, mas podem estar mais distantes na compreensão do modelo. Ao garantir que esses itens recebam o peso adequado durante o treinamento, o SCL-RHE busca reduzir os efeitos prejudiciais dos dados rotulados incorretamente no processo de aprendizado.

Principais Características do SCL-RHE

  1. Menos Foco em Positivos Fáceis: O modelo é projetado pra dar menos atenção a positivos fáceis-pares que estão próximos no espaço de características e podem levar à confusão se rotulados errados. Ao depriorizar esses exemplos, o modelo pode aprender com situações mais desafiadoras que provavelmente vão melhorar sua performance.

  2. Mantendo Associações de Classe Verdadeiras: O SCL-RHE garante que amostras positivas correspondam à verdadeira categoria da amostra âncora. Isso significa que o processo de aprendizado recompensa o modelo por associar corretamente itens semelhantes enquanto minimiza o impacto dos erros no aprendizado.

  3. Eficiência no Treinamento: Diferente de outros métodos que requerem recursos computacionais adicionais, o SCL-RHE é projetado pra ser eficiente. Não introduz sobrecarga significativa, permitindo que seja aplicado efetivamente em cenários do mundo real.

Resultados e Descobertas

A introdução do SCL-RHE tem sido testada em vários conjuntos de dados e cenários. Em cada caso, o método mostrou melhorias consistentes na precisão do modelo quando comparado às abordagens tradicionais usadas no aprendizado contrastivo supervisionado.

Treinamento do Zero

Quando modelos são treinados do zero usando SCL-RHE, eles superam aqueles treinados com funções de perda padrão. Por exemplo, em uma comparação do SCL-RHE com a entropia cruzada tradicional e métodos SCL existentes, o SCL-RHE demonstrou um aumento substancial na precisão.

Performance em Aprendizado por Transferência

Além disso, o SCL-RHE tem sido eficaz em cenários de aprendizado por transferência. Quando modelos pré-treinados foram ajustados usando conjuntos de dados com erros de rotulação humana, o SCL-RHE consistentemente obteve a melhor precisão de classificação. Isso indica sua aplicabilidade e robustez em diferentes situações de aprendizado.

A Importância da Eficiência Computacional

Em aprendizado de máquina, a eficiência computacional é vital. Muitos métodos de mitigação de ruído adicionam etapas extras que podem desacelerar o treinamento e requerer mais recursos. O SCL-RHE, por outro lado, tem um impacto mínimo no tempo de treinamento, tornando-se uma escolha atraente pra desenvolvedores e pesquisadores que precisam de soluções eficientes.

Sua eficiência, combinada com sua capacidade de lidar com erros de rotulação humana, destaca o SCL-RHE em relação a outras técnicas que podem ter dificuldades em aplicações do mundo real onde a qualidade dos dados pode variar amplamente.

Conclusão

Os desafios apresentados pelos erros de rotulação humana no aprendizado contrastivo supervisionado são significativos. Métodos tradicionais muitas vezes falham em lidar com as características únicas desses erros, o que pode levar a modelos menos eficazes.

O SCL-RHE oferece um novo caminho pra melhorar o aprendizado na presença de dados rotulados errados. Ao focar em associações adequadas entre itens e lidar eficientemente com o barulho introduzido pelo erro humano, o SCL-RHE pode aumentar significativamente a performance do modelo em vários cenários.

À medida que o campo de aprendizado de máquina continua a crescer, a necessidade de soluções robustas que possam lidar com irregularidades nos dados do mundo real se tornará ainda mais crítica. Abordagens como o SCL-RHE pavimentam o caminho pra modelos mais confiáveis e eficazes, avançando em direção a uma melhor compreensão diante do erro humano.

A conscientização sobre o impacto dos erros de rotulação humana no aprendizado de máquina é apenas o começo. Mais pesquisas e aplicação de métodos projetados pra enfrentar esses erros certamente irão contribuir para os avanços na área, beneficiando várias áreas como classificação de imagens, detecção de objetos e mais.

Em resumo, o SCL-RHE se apresenta como uma solução promissora pra um problema complexo, ilustrando como focar em desafios específicos pode levar a resultados melhores no mundo em rápida evolução da inteligência artificial e aprendizado de máquina.

Fonte original

Título: Understanding and Mitigating Human-Labelling Errors in Supervised Contrastive Learning

Resumo: Human-annotated vision datasets inevitably contain a fraction of human mislabelled examples. While the detrimental effects of such mislabelling on supervised learning are well-researched, their influence on Supervised Contrastive Learning (SCL) remains largely unexplored. In this paper, we show that human-labelling errors not only differ significantly from synthetic label errors, but also pose unique challenges in SCL, different to those in traditional supervised learning methods. Specifically, our results indicate they adversely impact the learning process in the ~99% of cases when they occur as false positive samples. Existing noise-mitigating methods primarily focus on synthetic label errors and tackle the unrealistic setting of very high synthetic noise rates (40-80%), but they often underperform on common image datasets due to overfitting. To address this issue, we introduce a novel SCL objective with robustness to human-labelling errors, SCL-RHE. SCL-RHE is designed to mitigate the effects of real-world mislabelled examples, typically characterized by much lower noise rates (

Autores: Zijun Long, Lipeng Zhuang, George Killick, Richard McCreadie, Gerardo Aragon Camarasa, Paul Henderson

Última atualização: 2024-03-10 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2403.06289

Fonte PDF: https://arxiv.org/pdf/2403.06289

Licença: https://creativecommons.org/licenses/by-nc-sa/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes