Avanços na Redução de Toxicidade Multilíngue
Um novo sistema lida com conteúdo tóxico em várias línguas de forma eficaz.
― 5 min ler
Índice
Nos últimos tempos, lidar com conteúdo prejudicial ou tóxico em textos virou um assunto importante. Esse artigo fala sobre um método pra diminuir esse tipo de conteúdo em várias línguas. O foco é criar um sistema que funcione pra várias línguas ao mesmo tempo, o que pode ser bem complicado pra idiomas que não têm tantos dados disponíveis.
Desintoxicação de Texto Multilíngue
O conceito de desintoxicação de texto multilíngue envolve refinar textos pra tirar elementos prejudiciais ou tóxicos, mantendo o significado original. O objetivo é desenvolver um sistema que funcione bem em nove línguas diferentes: Amárico, Árabe, Alemão, Espanhol, Hindi, Chinês, Russo, Ucraniano e Inglês. Fazer isso em línguas com menos recursos é o que torna tudo mais desafiador.
Coleta de Dados
Inicialmente, tinham poucos recursos pra treinar um modelo com esse propósito. Só algumas bases de dados estavam disponíveis em Russo e Inglês, com pouco mais de 11.000 e 19.000 exemplos, respectivamente. Durante a competição, uma pequena base de dados foi liberada pra todas as línguas, mas tinha só 400 amostras por língua. Pra lidar com a falta de dados, usou-se tradução automática.
Usando um serviço de tradução online, os dados originais em Inglês foram traduzidos pra outras línguas. Esse processo aumentou bastante o número de amostras, adicionando aproximadamente 20.000 exemplos pra cada língua. Embora a tradução seja útil, ela pode trazer erros, então foram tomadas etapas adicionais pra garantir que as traduções estavam precisas e não mudaram a toxicidade das frases.
Controle de Qualidade
Pra verificar a qualidade das traduções, os significados e níveis de toxicidade foram avaliados. Um modelo que consegue avaliar a semelhança entre textos foi usado, e um classificador de toxicidade checou se as frases ainda mantinham sua natureza tóxica após a tradução. Limites rigorosos foram estabelecidos pra identificar frases tóxicas e neutras de forma eficaz. Depois de um filtro cuidadoso, a base de dados final tinha cerca de 40.500 pares de frases neutras e tóxicas.
Treinando o Modelo
Pra treinar o sistema de desintoxicação, vários modelos de linguagem multilíngues foram ajustados. A família de modelos escolhida mostrou boas capacidades pra lidar com várias línguas. O treinamento envolveu ajustar os modelos pra cada língua da competição. Configurações específicas foram aplicadas pra otimizar o desempenho, incluindo a definição da taxa de aprendizado e do tamanho do lote.
Um prefixo especial foi adicionado a cada frase tóxica durante o treinamento pra guiar melhor o modelo durante seu processo de aprendizado. A ideia era ensinar o modelo a reconhecer e lidar com a toxicidade de forma eficaz.
Selecionando a Melhor Saída
Depois que os modelos foram treinados, o próximo passo foi gerar possíveis saídas. Pra cada entrada, várias respostas foram produzidas, e as melhores foram escolhidas com base em critérios específicos que consideravam tanto a semelhança quanto a toxicidade. Esse método visava garantir que a saída final fosse de alta qualidade e apropriada pra uso.
Depois, uma técnica chamada Otimização de Preferência de Razão de Chances (ORPO) foi aplicada pra melhorar as escolhas do modelo. Esse método exigia apenas as melhores e rejeitava opções, permitindo que o modelo aprendesse com exemplos reais do que faz uma boa ou má saída.
Avaliação dos Resultados
O desempenho do sistema foi avaliado usando métodos automáticos, e os resultados mostraram que o modelo com alinhamento ORPO se saiu muito bem em diferentes línguas. As melhorias feitas por esse ajuste foram visíveis, já que os resultados médios aumentaram com o uso do ORPO.
Numa avaliação manual, o modelo de desintoxicação pra língua ucraniana se destacou, recebendo a maior pontuação entre seus pares. Isso indicou que o método utilizado foi eficaz pra essa língua em particular. O desempenho geral do sistema o colocou entre os dois melhores em avaliações baseadas em julgamento humano.
Direções Futuras
Os métodos utilizados mostraram sucesso em melhorar os dados de treinamento pra línguas com recursos limitados. No entanto, pesquisas futuras vão explorar como esses métodos de desintoxicação podem ser adaptados de línguas com muitos recursos pra aquelas que não têm, sem depender de traduções. A tradução automática nesses casos muitas vezes continua a ser pouco confiável.
Outra área pra mais exploração é como tornar os modelos mais interpretáveis. Entender quais palavras específicas foram alteradas durante o processo de desintoxicação e o raciocínio por trás dessas mudanças pode dar insights valiosos pra melhorar o sistema.
Conclusão
Resumindo, o desenvolvimento de um sistema de desintoxicação de texto multilíngue mostrou resultados promissores. A combinação de expansão de bases de dados através da tradução, treinamento cuidadoso e técnicas de otimização levou a uma solução eficaz. Mais pesquisas são necessárias pra refinar ainda mais essa abordagem, especialmente pra línguas com menos recursos disponíveis. Esse trabalho destaca a importância de manter a qualidade e garantir que o conteúdo possa ser seguro e respeitoso em várias línguas.
Título: SmurfCat at PAN 2024 TextDetox: Alignment of Multilingual Transformers for Text Detoxification
Resumo: This paper presents a solution for the Multilingual Text Detoxification task in the PAN-2024 competition of the SmurfCat team. Using data augmentation through machine translation and a special filtering procedure, we collected an additional multilingual parallel dataset for text detoxification. Using the obtained data, we fine-tuned several multilingual sequence-to-sequence models, such as mT0 and Aya, on a text detoxification task. We applied the ORPO alignment technique to the final model. Our final model has only 3.7 billion parameters and achieves state-of-the-art results for the Ukrainian language and near state-of-the-art results for other languages. In the competition, our team achieved first place in the automated evaluation with a score of 0.52 and second place in the final human evaluation with a score of 0.74.
Autores: Elisei Rykov, Konstantin Zaytsev, Ivan Anisimov, Alexandr Voronin
Última atualização: 2024-07-10 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2407.05449
Fonte PDF: https://arxiv.org/pdf/2407.05449
Licença: https://creativecommons.org/licenses/by-sa/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.
Ligações de referência
- https://pygments.org/
- https://pypi.python.org/pypi/Pygments
- https://hf.co/s-nlp/mt0-xl-detox-orpo
- https://github.com/s-nlp/multilingual-transformer-detoxification
- https://huggingface.co/datasets/s-nlp/ru_paradetox
- https://huggingface.co/datasets/s-nlp/paradetox
- https://huggingface.co/datasets/textdetox/multilingual_paradetox
- https://pypi.org/project/deep-translator/
- https://huggingface.co/textdetox/xlmr-large-toxicity-classifier