Superando Barreiras Linguísticas em PLN
Enfrentando os desafios das línguas de baixo recurso no processamento de linguagem natural.
Surangika Ranathungaa, Shravan Nayak, Shih-Ting Cindy Huang, Yanke Mao, Tong Su, Yun-Hsiang Ray Chan, Songchen Yuan, Anthony Rinaldi, Annie En-Shiun Lee
― 2 min ler
Índice
Processamento de Linguagem Natural (PLN) é tudo sobre ensinar os computadores a entenderem as línguas humanas. É como tentar fazer seu gato entender que você quer que ele saia do teclado. Algumas línguas, no entanto, têm menos dados disponíveis para ensinar esses modelos de computador. Essas línguas são chamadas de Línguas de baixo recurso (LLBR). Na hora de traduzir entre línguas, ter exemplos suficientes é fundamental. Então, o que fazemos quando não temos exemplos suficientes?
O Desafio das LLBR
Imagina tentar ensinar alguém a jogar xadrez, mas só dando algumas peças em vez do jogo completo. É assim que os modelos de PLN se sentem ao lidar com LLBR. Eles têm dificuldade em realizar tarefas como Tradução quando não têm material suficiente para aprender. Isso leva à necessidade de métodos melhores de tradução usando os poucos dados que temos.
Dados Auxiliares
UsandoUma maneira eficaz de lidar com a falta de dados é usar dados paralelos de domínios ou línguas relacionadas. Pense nisso como compartilhar receitas entre amigos. Se você tem uma receita que usa batatas, mas quer fazer um prato com batata-doce, é legal olhar como seu amigo fez o prato dele. Da mesma forma, podemos treinar modelos de tradução usando exemplos de línguas ou tópicos que estão meio que relacionados.
Ajuste fino vs. Pré-treinamento
Quando estamos construindo sistemas de tradução, geralmente há duas maneiras principais de usar esses dados auxiliares: ajuste fino e pré-treinamento.
-
Ajuste fino é como dar algumas dicas ao seu amigo sobre a cozinha com base na sua experiência. Você já tem uma ideia básica e agora só precisa fazer alguns ajustes.
-
Pré-treinamento é mais como voltar para a escola de culinária antes de tentar fazer aquele prato de batata-doce. É começar do zero.
Título: Exploiting Domain-Specific Parallel Data on Multilingual Language Models for Low-resource Language Translation
Resumo: Neural Machine Translation (NMT) systems built on multilingual sequence-to-sequence Language Models (msLMs) fail to deliver expected results when the amount of parallel data for a language, as well as the language's representation in the model are limited. This restricts the capabilities of domain-specific NMT systems for low-resource languages (LRLs). As a solution, parallel data from auxiliary domains can be used either to fine-tune or to further pre-train the msLM. We present an evaluation of the effectiveness of these two techniques in the context of domain-specific LRL-NMT. We also explore the impact of domain divergence on NMT model performance. We recommend several strategies for utilizing auxiliary parallel data in building domain-specific NMT models for LRLs.
Autores: Surangika Ranathungaa, Shravan Nayak, Shih-Ting Cindy Huang, Yanke Mao, Tong Su, Yun-Hsiang Ray Chan, Songchen Yuan, Anthony Rinaldi, Annie En-Shiun Lee
Última atualização: 2024-12-27 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2412.19522
Fonte PDF: https://arxiv.org/pdf/2412.19522
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.
Ligações de referência
- https://www.latex-project.org/lppl.txt
- https://www.elsevier.com/locate/latex
- https://ctan.org/pkg/elsarticle
- https://support.stmdocs.in/wiki/index.php?title=Model-wise_bibliographic_style_files
- https://support.stmdocs.in
- https://acl-org.github.io/ACLPUB/formatting.html
- https://2023.eacl.org/calls/papers/
- https://t.ly/MLrhd
- https://en.wikibooks.org/wiki/LaTeX/Document_Structure#Sectioning_commands
- https://en.wikibooks.org/wiki/LaTeX/Mathematics
- https://en.wikibooks.org/wiki/LaTeX/Advanced_Mathematics
- https://en.wikibooks.org/wiki/LaTeX/Tables
- https://en.wikibooks.org/wiki/LaTeX/Tables#The_tabular_environment
- https://en.wikibooks.org/wiki/LaTeX/Floats,_Figures_and_Captions
- https://en.wikibooks.org/wiki/LaTeX/Importing_Graphics#Importing_external_graphics
- https://www.pmindia.gov.in/en/
- https://www.wordproject.org/bibles/si/index.htm
- https://ebible.org/download.php
- https://github.com/mjpost/sacreBLEU
- https://www.nltk.org/
- https://en.wikibooks.org/wiki/LaTeX/Bibliography_Management