Simple Science

Ciência de ponta explicada de forma simples

# Informática# Aprendizagem de máquinas# Interação Homem-Computador

Melhorando a Rotulação de Dados em Aprendizado Ativo

Dois métodos têm como objetivo melhorar a rotulagem de dados para obter resultados de classificação melhores.

― 7 min ler


Métodos de Rotulagem emMétodos de Rotulagem emAprendizado Ativodas anotações de dados.Novos algoritmos melhoram a qualidade
Índice

Métodos de classificação supervisionada ajudam a resolver vários problemas do dia a dia fazendo previsões com base em dados rotulados. A eficácia desses métodos depende muito da qualidade das etiquetas usadas durante o treinamento. No entanto, conseguir rótulos de boa qualidade pode ser desafiador e caro, o que dificulta a utilização eficaz desses algoritmos em situações reais.

Para lidar com esse problema, os pesquisadores costumam usar Aprendizado Ativo. Essa técnica foca em escolher as amostras de dados mais significativas para Rotulagem, maximizando assim a eficiência do processo de rotulagem. Porém, para o aprendizado ativo funcionar de forma ideal, os rótulos obtidos de Especialistas devem ser de alta qualidade e em quantidade suficiente. Em muitos casos, isso cria um dilema: devemos pedir para vários especialistas rotularem a mesma amostra para garantir a qualidade ou devemos focar em rotular mais amostras no total?

Este artigo discute a questão das anotações de baixa qualidade em configurações de aprendizado ativo. O objetivo é apresentar dois novos métodos para unificar diferentes anotações de especialistas enquanto utiliza dados não rotulados. Os métodos propostos são projetados para funcionar de forma eficaz mesmo quando as amostras são rotuladas por diferentes especialistas.

Os Desafios da Rotulagem de Dados

Algoritmos de aprendizado supervisionado desempenham um papel importante na construção de modelos preditivos para várias tarefas. No entanto, seu sucesso depende principalmente de ter um conjunto de dados bem rotulado durante o treinamento. Na vida real, muitas vezes começamos com nenhum rótulo ou apenas alguns, já que rotular dados exige um esforço humano significativo e recursos financeiros.

Para tornar o processo de rotulagem mais eficiente e acessível, técnicas de aprendizado ativo são amplamente implementadas. Algoritmos de aprendizado ativo selecionam as amostras mais valiosas de um grande conjunto de dados não rotulados, que são então enviados para especialistas para Anotação. Enquanto alguns rótulos podem ser gerados por métodos automatizados, muitas tarefas ainda dependem da entrada humana, especialmente em áreas como notificações de alertas de segurança.

Os anotadores humanos não são perfeitos, e suas anotações podem conter erros, o que afeta negativamente o desempenho dos modelos construídos com base nesses rótulos. A probabilidade de erros é influenciada pela complexidade da tarefa e pela experiência dos anotadores. Quando esses erros se acumulam, se torna necessário aplicar métodos de correção. Duas abordagens comuns incluem unificar anotações de vários especialistas ou identificar e filtrar rótulos incorretos.

A primeira abordagem aproveita o fato de que diferentes especialistas podem rotular com precisão algumas amostras. Esse método geralmente exige que múltiplos especialistas rotulem cada amostra, o que pode ser um desafio quando os recursos são limitados. A segunda abordagem busca encontrar e eliminar amostras rotuladas incorretamente, mas corre o risco de descartar rótulos precisos, o que pode levar a um modelo simplificado que perde informações vitais.

Métodos Propostos

Este artigo apresenta dois algoritmos que melhoram o processo de unificação de anotações: consenso inferido e consenso simulado. Ambos os algoritmos se baseiam em um método bem conhecido chamado Expectation-Maximization (EM) e visam aprimorar a rotulagem mesmo quando as amostras não têm múltiplas anotações de especialistas.

O consenso inferido usa anotações existentes de especialistas para prever rótulos para amostras não rotuladas. Basicamente, a ideia é supor como um especialista teria rotulado uma amostra que ele não anotou de fato. Para cada especialista, um modelo de aprendizado de máquina é criado usando as amostras que ele rotulou, que é então usado para estimar rótulos para todo o conjunto de dados.

O consenso simulado melhora a abordagem inferida treinando modelos de uma maneira que eles inferem rótulos apenas para amostras que não foram vistas pelo especialista original. Isso ajuda a criar um conjunto de rótulos mais confiável enquanto se acompanha a qualidade das contribuições de cada anotador.

Abordando Conjuntos de dados Desequilibrados

Ao usar algoritmos como o EM, é importante levar em conta como os rótulos das classes são atribuídos. Um limite comum para distinguir entre classes geralmente é definido em 0,5, mas isso pode ser problemático em casos de dados desequilibrados, onde uma classe é muito menos frequente que a outra.

Em situações onde a distribuição de classes é desconhecida, determinar um limite eficaz pode ser complicado. Este artigo propõe uma abordagem para calcular um limite com base nas probabilidades previstas para todas as amostras durante o treinamento. Ao fazer uma média das probabilidades para cada classe, podemos criar um ponto de corte mais informado, o que ajuda a melhorar o desempenho dos modelos em conjuntos de dados desequilibrados.

Configuração Experimental

Para avaliar a eficácia dos algoritmos propostos, foi criada uma configuração de teste que se assemelha a cenários reais de aprendizado ativo. Como é impraticável obter rótulos humanos apenas para experimentação, foi desenvolvido um método para gerar anotações usando conjuntos de dados públicos conhecidos.

O processo envolveu criar rótulos binários para um número definido de especialistas simulando seu comportamento de anotação. Conseguimos isso tirando de distribuições estatísticas para definir quão propenso um especialista era a rotular uma amostra dada, considerando suas taxas de precisão também.

Os experimentos foram conduzidos em quatro conjuntos de dados de pesquisa com características diferentes. Essa diversidade foi essencial para garantir a robustez dos métodos propostos em diferentes ambientes. Os pesquisadores seguiram um procedimento de teste repetitivo para cada conjunto de dados a fim de coletar resultados significativos e significância estatística.

Métricas de Avaliação

Três tipos de métricas de avaliação foram usadas para avaliar os métodos propostos:

  1. Métricas sobre a Qualidade da Anotação: Essas métricas avaliam a eficácia dos métodos em fornecer probabilidades precisas para cada amostra com base nas anotações recebidas dos especialistas.

  2. Estimativa da Qualidade do Especialista: Esta seção mede o quão bem os algoritmos conseguem avaliar a confiabilidade de cada especialista com base em suas anotações.

  3. Desempenho do Modelo de Aprendizado de Máquina: Por fim, a avaliação inclui métricas dos modelos de aprendizado de máquina treinados com os rótulos estimados, medindo o quão bem esses modelos se saem em conjuntos de dados de teste.

Resultados e Discussão

Os resultados demonstraram que o algoritmo de consenso simulado superou significativamente outras abordagens na maioria dos casos. Essa descoberta sugere que a introdução de anotações simuladas ajuda a alcançar melhor qualidade de rótulos e melhora a precisão dos modelos.

O estudo também revelou que a qualidade dos modelos treinados variou dependendo do conjunto de dados utilizado. Embora os métodos de consenso propostos tenham se saído bem em conjuntos de dados estruturados, sua vantagem diminuiu em cenários desequilibrados, onde a votação da maioria com o limite padrão teve um desempenho inesperadamente bom.

Conclusão

Em conclusão, este artigo aborda o desafio das anotações de dados de baixa qualidade em ambientes de aprendizado ativo. Ao introduzir dois novos métodos para unificar anotações, podemos melhorar o processo de rotulagem e aumentar o desempenho dos algoritmos de classificação. Esses métodos podem gerenciar conjuntos de dados desequilibrados de forma eficaz sem a necessidade de informações prévias sobre distribuições de classes.

As descobertas sugerem que usar simuladores para anotações de especialistas pode levar a uma melhor avaliação da qualidade e confiabilidade dos rótulos. Trabalhos futuros devem explorar ainda mais esses métodos em vários contextos e ampliar a pesquisa para entender a relação entre a qualidade dos rótulos e o desempenho dos modelos de aprendizado de máquina.

As implicações desta pesquisa se estendem a vários campos onde o aprendizado ativo é aplicado, indicando um caminho claro para melhorar os processos de rotulagem de dados em uma ampla gama de aplicações. Mais experimentação e validação ajudarão a solidificar os resultados apresentados e incentivarão a exploração contínua nessa área.

Fonte original

Título: Robust Assignment of Labels for Active Learning with Sparse and Noisy Annotations

Resumo: Supervised classification algorithms are used to solve a growing number of real-life problems around the globe. Their performance is strictly connected with the quality of labels used in training. Unfortunately, acquiring good-quality annotations for many tasks is infeasible or too expensive to be done in practice. To tackle this challenge, active learning algorithms are commonly employed to select only the most relevant data for labeling. However, this is possible only when the quality and quantity of labels acquired from experts are sufficient. Unfortunately, in many applications, a trade-off between annotating individual samples by multiple annotators to increase label quality vs. annotating new samples to increase the total number of labeled instances is necessary. In this paper, we address the issue of faulty data annotations in the context of active learning. In particular, we propose two novel annotation unification algorithms that utilize unlabeled parts of the sample space. The proposed methods require little to no intersection between samples annotated by different experts. Our experiments on four public datasets indicate the robustness and superiority of the proposed methods in both, the estimation of the annotator's reliability, and the assignment of actual labels, against the state-of-the-art algorithms and the simple majority voting.

Autores: Daniel Kałuża, Andrzej Janusz, Dominik Ślęzak

Última atualização: 2023-07-25 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2307.14380

Fonte PDF: https://arxiv.org/pdf/2307.14380

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Artigos semelhantes