Simple Science

Ciência de ponta explicada de forma simples

# Informática# Computação e linguagem

Melhorando o Desempenho do Modelo com Auto-Treinamento Adaptativo por Classe

Um método pra melhorar modelos de extração de relações usando rótulos de melhor qualidade.

― 6 min ler


Auto-TreinamentoAuto-TreinamentoAdaptativo por ClasseExplicadodo modelo.Um novo método pra melhorar a precisão
Índice

Em muitos campos, os dados usados para treinar modelos nem sempre são completos ou precisos. Isso é especialmente verdadeiro para tarefas como Extração de Relações, onde o objetivo é determinar as relações entre entidades em um texto. Muitas vezes, os dados usados para treinamento podem ter Rótulos faltando ou errados, o que pode prejudicar o desempenho do modelo. Uma abordagem comum para lidar com esse problema é o Auto-treinamento, onde um modelo é treinado com os dados disponíveis e depois usa esse modelo para gerar novos rótulos para os dados não rotulados.

O Desafio dos Dados Incompletos

Quando se trabalha com dados incompletos, um grande problema é o viés de confirmação. Isso acontece quando um modelo começa a acreditar e reforçar previsões erradas. Na extração de relações, os dados podem ter muitos exemplos de categorias comuns, o que significa que o modelo pode favorecer essas categorias enquanto ignora as mais raras, levando a um desempenho ruim no geral. Além disso, a distribuição das relações no texto pode ser altamente desequilibrada, dificultando o aprendizado dos modelos sobre as relações menos comuns.

Abordando o Desequilíbrio nos Dados

Para enfrentar o desequilíbrio nas tarefas de extração de relações, alguns sugeriram usar uma estratégia de amostragem. Isso significa que, em vez de usar todos os rótulos gerados para treinar o modelo, podemos escolher seletivamente quais rótulos manter com base na frequência com que aparecem no conjunto de dados. Ao preservar rótulos de classes mais raras, podemos ajudar o modelo a aprender melhor sobre esses tipos de relações. No entanto, essa abordagem não ajuda com o problema de rótulos incorretos sendo adicionados ao conjunto de dados.

Introduzindo o Auto-Treinamento Classificativo Adaptativo

Para gerenciar melhor os problemas de viés de confirmação e desequilíbrio de dados, foi proposta uma nova metodologia chamada Auto-Treinamento Classificativo Adaptativo (CAST). Esse método foca em avaliar a qualidade dos rótulos gerados antes de usá-los. Em vez de apenas olhar para a frequência de um rótulo, o CAST analisa como o modelo se sai em cada classe. Isso permite que ele preserve pseudo-rótulos de alta qualidade das classes em que o modelo está confiante, ao mesmo tempo em que é mais cauteloso com rótulos em que o modelo não tem certeza.

Nesse método, o processo de treinamento envolve dividir os dados em partes e treinar o modelo em algumas partes enquanto testa em outras. Assim, podemos monitorar o desempenho do modelo em diferentes classes e ajustar quantos rótulos manter com base na Precisão deles. Quanto melhor o modelo se sai em uma classe, mais provável é que os rótulos gerados dessa classe sejam mantidos.

Tipos de Dados e Configuração Experimental

No desenvolvimento do CAST, foram examinados dois tipos de dados: "nível bronze", que tem algumas informações faltando, mas é bom de forma geral, e "nível prata", que tem informações adicionais, mas pode ainda ter algumas imprecisões. Os experimentos tinham como objetivo ver como o CAST poderia se sair com esses diferentes tipos de dados.

Para testar o método, foram usados dados tanto de extração de relações em nível de documento (DocRE) quanto de extração de relações biomédicas (BioRE). Diferentes modelos foram testados para ver como o CAST se saiu em comparação com métodos existentes.

Resultados dos Experimentos

Os resultados de vários testes mostraram que o CAST superou modelos anteriores em termos de pontuação geral e precisão. Quando aplicado, o CAST conseguiu melhorar o desempenho do modelo, reduzindo os erros nos rótulos gerados sem perder muita precisão. Isso é particularmente importante em tarefas como extração de relações, onde é crucial manter um equilíbrio entre prever corretamente e cobrir todas as relações possíveis.

Os Efeitos das Rodadas de Auto-Treinamento

Um aspecto importante do modelo é quantas rodadas de treinamento realizar. Nos testes, à medida que mais rodadas de treinamento eram realizadas, o recall (a capacidade de capturar todos os exemplos verdadeiros) melhorou, mas a precisão poderia cair. Para o CAST, os resultados indicaram que manter um bom equilíbrio no número de rodadas ajudou a conseguir melhores resultados no geral.

As descobertas sugerem que experimentos breves com menos rodadas podem não gerar os resultados mais precisos, já que os erros podem se acumular e criar mais confusão em rodadas posteriores. Por outro lado, muitas rodadas podem levar a retornos decrescentes, onde as melhorias se tornam menos significativas.

Desempenho em Diferentes Classes

Outro ponto-chave das conclusões foi o desempenho em diferentes classes. Os testes mostraram que, embora alguns métodos, como o auto-treinamento convencional, enfrentassem problemas significativos com erros nas classes comuns, o CAST apresentou resultados mais consistentes em classes tanto frequentes quanto menos comuns. Isso torna o CAST particularmente eficaz para aplicações do mundo real, onde os dados podem não estar distribuídos uniformemente.

A Importância de Dados de Desenvolvimento de Qualidade

A qualidade do conjunto de dados de desenvolvimento foi considerada crucial ao treinar com dados incompletos. Se o conjunto de desenvolvimento for de baixa qualidade, mesmo um modelo forte como o CAST pode mostrar desempenho reduzido. Os testes destacaram a necessidade de dados de alta qualidade e bem anotados para treinar e avaliar modelos de forma eficaz, já que dados ruins podem levar a resultados enganosos.

Conclusão e Direções Futuras

A análise do CAST o estabelece como uma estrutura promissora para melhorar como os modelos aprendem com conjuntos de dados incompletos, particularmente em tarefas de extração de relações. A abordagem mostra que, ao focar na qualidade dos rótulos gerados e preservar aqueles nos quais o modelo está mais confiante, podemos enfrentar os problemas comuns associados a dados imprecisos e desequilibrados.

Trabalhos futuros poderiam explorar a aplicação dessa estrutura em outras tarefas e tipos de dados, como classificação de imagens. A principal limitação do CAST continua sendo a necessidade de múltiplas rodadas de treinamento, o que exige mais recursos computacionais. No geral, o CAST representa um passo significativo na criação de modelos mais robustos que podem aprender de forma eficaz a partir de dados imperfeitos.

Fonte original

Título: Class-Adaptive Self-Training for Relation Extraction with Incompletely Annotated Training Data

Resumo: Relation extraction (RE) aims to extract relations from sentences and documents. Existing relation extraction models typically rely on supervised machine learning. However, recent studies showed that many RE datasets are incompletely annotated. This is known as the false negative problem in which valid relations are falsely annotated as 'no_relation'. Models trained with such data inevitably make similar mistakes during the inference stage. Self-training has been proven effective in alleviating the false negative problem. However, traditional self-training is vulnerable to confirmation bias and exhibits poor performance in minority classes. To overcome this limitation, we proposed a novel class-adaptive re-sampling self-training framework. Specifically, we re-sampled the pseudo-labels for each class by precision and recall scores. Our re-sampling strategy favored the pseudo-labels of classes with high precision and low recall, which improved the overall recall without significantly compromising precision. We conducted experiments on document-level and biomedical relation extraction datasets, and the results showed that our proposed self-training framework consistently outperforms existing competitive methods on the Re-DocRED and ChemDisgene datasets when the training data are incompletely annotated. Our code is released at https://github.com/DAMO-NLP-SG/CAST.

Autores: Qingyu Tan, Lu Xu, Lidong Bing, Hwee Tou Ng

Última atualização: 2023-06-16 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2306.09697

Fonte PDF: https://arxiv.org/pdf/2306.09697

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes