Sci Simple

New Science Research Articles Everyday

# Informática # Computação e linguagem

Síntese de Dados Inovadora para Análise de Sentimentos

Uma nova abordagem pra melhorar a análise de sentimentos em cenários com poucos recursos.

Hongling Xu, Yice Zhang, Qianlong Wang, Ruifeng Xu

― 4 min ler


Método de Análise de Método de Análise de Sentimentos da Próxima Geração recursos. análise de sentimentos com poucos Uma solução poderosa pra melhorar a
Índice

Hongling Xu, Yice Zhang, Qianlong Wang, Ruifeng Xu
Instituto de Tecnologia de Harbin, Shenzhen, China
Laboratório Peng Cheng, Shenzhen, China
Laboratório Provincial Chines de Tecnologias de Inteligência de Segurança Novas
Emails: [email protected], [email protected]

Resumo

Modelos de linguagem grandes (LLMs) podem ajudar a lidar com a escassez de dados em situações de poucos recursos, tipo Análise de Sentimento Baseada em Aspectos (ABSA) com poucos exemplos. Métodos anteriores usando LLMs pra Aumento de Dados geralmente não têm diversidade e relevância. A gente apresenta o DS -ABSA, que usa duas abordagens: síntese de dados guiada por pontos-chave e guiada por instâncias. Essa estrutura gera amostras ABSA diversas e de alta qualidade em situações de poucos recursos, enquanto um módulo de Refinamento de Rótulos melhora a qualidade dos rótulos gerados. Nossos experimentos mostram que o DS -ABSA supera significativamente outros métodos em ABSA com poucos exemplos, mostrando seu potencial pra aplicações práticas.

Introdução

A análise de sentimento baseada em aspectos (ABSA) identifica sentimentos em relação a aspectos específicos nas avaliações dos usuários. Por exemplo, na avaliação "a duração da bateria é ótima, mas a resolução da tela é decepcionante," a análise resulta em (duração da bateria, positiva) e (resolução da tela, negativa). Métodos tradicionais dependem de grandes quantidades de dados rotulados, o que leva tempo e esforço pra coletar. Isso levou à exploração de métodos adequados para cenários de poucos recursos. As estratégias atuais se encaixam em três categorias: aumento de dados, aprendizado em contexto e técnicas de pré-treinamento. Cada uma tem suas limitações, como falta de diversidade nos dados aumentados ou a necessidade de conjuntos de dados externos extensos.

Método Proposto: DS -ABSA

Nossa estrutura de síntese de dados em dois fluxos, DS -ABSA, combina duas estratégias distintas para geração de dados. A estratégia guiada por pontos-chave foca em gerar atributos potenciais para ABSA enquanto a estratégia guiada por instâncias modifica amostras existentes. Essa abordagem permite diversidade e relevância nos dados gerados.

Síntese de Dados Guiada por Pontos-Chave

Esse método envolve brainstorming de atributos potenciais para ABSA, como categorias de aspectos e termos de opinião. LLMs ajudam a gerar novas avaliações com base nesses atributos. A gente enfatiza a manutenção da variedade nas amostras geradas.

Síntese de Dados Guiada por Instâncias

Esse método transforma amostras de avaliação existentes pra criar novas. Ele usa técnicas como combinação de amostras e reconstrução seletiva, garantindo que as novas amostras mantenham forte semelhança com os dados originais enquanto oferecem diversidade.

Refinamento de Rótulos

Pra lidar com imprecisões nos rótulos gerados pelos LLMs, implementamos um processo de refinamento de rótulos. Isso envolve normalizar os rótulos e aplicar um algoritmo de auto-treinamento ruidoso usando algumas amostras de alta qualidade pra melhorar a qualidade dos rótulos sintéticos.

Experimentos

Validamos o DS -ABSA em quatro conjuntos de dados de referência ABSA em dois domínios: restaurantes e laptops. Nossos resultados indicam que o DS -ABSA consistentemente supera métodos existentes de poucos exemplos. A avaliação mostra uma melhoria notável nas pontuações F1 em comparação com outras técnicas de ponta, validando a eficácia da nossa abordagem em configurações de poucos recursos.

Conclusão

O DS -ABSA apresenta uma solução nova pra ABSA com poucos exemplos. Ao usar efetivamente a síntese em dois fluxos e um robusto processo de refinamento de rótulos, geramos amostras de alta qualidade e diversas sem precisar de dados adicionais. Nossos achados sugerem que essa estrutura pode ser um recurso valioso para pesquisas futuras e aplicações em várias áreas. Reconhecemos algumas limitações, como possíveis vieses nos LLMs e dependência de um design de prompt cuidadoso. Endereçar isso pode oferecer melhorias adicionais.

Apêndices

  • Prompts para Geração de Dados: Prompts detalhados usados para gerar dados sintéticos.
  • Detalhes de Implementação: Explicações adicionais dos nossos métodos e modelos de base.
  • Experimentos Adicionais: Resultados suplementares pra apoiar nossas descobertas.
Fonte original

Título: DS$^2$-ABSA: Dual-Stream Data Synthesis with Label Refinement for Few-Shot Aspect-Based Sentiment Analysis

Resumo: Recently developed large language models (LLMs) have presented promising new avenues to address data scarcity in low-resource scenarios. In few-shot aspect-based sentiment analysis (ABSA), previous efforts have explored data augmentation techniques, which prompt LLMs to generate new samples by modifying existing ones. However, these methods fail to produce adequately diverse data, impairing their effectiveness. Besides, some studies apply in-context learning for ABSA by using specific instructions and a few selected examples as prompts. Though promising, LLMs often yield labels that deviate from task requirements. To overcome these limitations, we propose DS$^2$-ABSA, a dual-stream data synthesis framework targeted for few-shot ABSA. It leverages LLMs to synthesize data from two complementary perspectives: \textit{key-point-driven} and \textit{instance-driven}, which effectively generate diverse and high-quality ABSA samples in low-resource settings. Furthermore, a \textit{label refinement} module is integrated to improve the synthetic labels. Extensive experiments demonstrate that DS$^2$-ABSA significantly outperforms previous few-shot ABSA solutions and other LLM-oriented data generation methods.

Autores: Hongling Xu, Yice Zhang, Qianlong Wang, Ruifeng Xu

Última atualização: 2024-12-19 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2412.14849

Fonte PDF: https://arxiv.org/pdf/2412.14849

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes