Enfrentando o Discurso de Ódio em Várias Línguas
Um projeto tem como objetivo identificar comentários prejudiciais sobre LGBTQ+ em várias línguas.
― 6 min ler
Índice
Nos últimos anos, as redes sociais viraram uma plataforma poderosa pra compartilhar opiniões e experiências. Mas, ao mesmo tempo, aumentaram os comentários negativos, principalmente os homofóbicos e transfóbicos. Esse artigo fala sobre um projeto que visa criar um sistema pra identificar esse tipo de conteúdo prejudicial em várias línguas.
Objetivos do Projeto
O principal objetivo desse projeto foi desenvolver um sistema que consiga classificar os comentários nas redes sociais com base se contêm Discurso de ódio contra indivíduos LGBTQ+. O projeto focou em cinco idiomas: inglês, espanhol, hindi, malaiala e tâmil. A equipe queria construir dois sistemas de classificação: um com três categorias e outro com sete, cada um identificando diferentes tipos de discurso negativo.
Como o Sistema Funciona
Pra criar esse sistema, a equipe usou um modelo de computador chamado BERT, que é eficaz pra tarefas de linguagem. Eles também utilizaram outro modelo chamado XLM-RoBERTa, que é treinado com textos de várias línguas. Esse modelo foi retrainado com comentários de redes sociais que refletem o uso da língua local, tornando-o mais sensível à forma como as pessoas se comunicam online.
O projeto envolveu coletar e preparar um grande conjunto de comentários de usuários reagindo a vídeos LGBTQ+ no YouTube. Esses dados foram cuidadosamente etiquetados em diferentes categorias, mas a equipe enfrentou alguns desafios, já que não recebeu informações detalhadas sobre como os comentários foram anotados.
Dados de Treinamento
Para o projeto, os organizadores forneceram dados em arquivos .csv que incluíam comentários nas cinco línguas-alvo. Os comentários foram classificados em diferentes grupos com base se continham discurso de ódio ou não. No total, tinham duas tarefas principais a serem cumpridas. A primeira tarefa envolvia identificar três classes de comentários: observações homofóbicas, conteúdo não anti-LGBT+ e observações transfóbicas. A segunda tarefa tinha sete categorias: contra-discurso, diferentes tipos de conteúdo homofóbico e transfóbico e 'nenhum dos acima'.
Desafios de Dados
Um desafio significativo nesse projeto foi a quantidade desequilibrada de dados em cada grupo de língua. Algumas línguas tinham mais exemplos que outras, o que dificultou o treinamento de um modelo eficaz. A equipe do projeto observou que tentativas anteriores de identificar discurso de ódio em várias línguas tiveram sucesso misto, com alguns modelos se saindo melhor que outros.
Retrainando o Modelo
O modelo XLM-RoBERTa foi inicialmente treinado com um grande conjunto de dados que incluía várias línguas, mas a equipe precisava melhorar seu desempenho para a tarefa específica de identificar discurso de ódio. Pra isso, eles coletaram tweets do Twitter pra treinamento, garantindo que os tweets refletissem o mesmo tempo e local que os comentários do YouTube. Eles filtrararam esses dados pra torná-los mais relevantes, removendo caracteres desnecessários e focando em preservar o estilo da língua.
Além disso, a equipe criou amostras que misturavam diferentes scripts de escrita. Por exemplo, alguns tweets que estavam em malaiala foram transliterados pra script latino. Esse processo visava lidar com a falta de exemplos em malaiala romanizado dentro do modelo existente.
Ajustando o Modelo
Depois de retrainar o modelo com os novos dados, a equipe ajustou usando os dados de treinamento etiquetados. Eles usaram um método pra oversample as categorias com menos exemplos pra garantir que o modelo tivesse material de treinamento suficiente pra cada classe. O modelo foi treinado várias vezes, avaliando continuamente seu desempenho pra melhorar a precisão.
Resultados
O projeto trouxe resultados promissores. O novo modelo retrainado teve um desempenho melhor em identificar discurso de ódio em comparação com o modelo base. Na primeira tarefa, o malaiala conseguiu a maior pontuação, enquanto o espanhol teve a menor. Na segunda tarefa, o malaiala também se destacou entre os modelos, mostrando que o processo de retrain trouxe grandes benefícios no desempenho. Mas, alguns resultados inesperados ocorreram ao misturar scripts, onde o desempenho variou bastante entre as línguas.
Lidando com os Problemas
Detectar discurso de ódio é uma tarefa difícil por causa das diversas formas como as pessoas expressam negatividade online. Comentários em redes sociais podem ser sutis, exigindo que os sistemas entendam o contexto ao invés de apenas procurar palavras específicas. A equipe reconheceu que essa complexidade não se limita a uma única língua ou região, tornando a tarefa ainda mais crucial.
Pra lidar com as deficiências nos dados, a equipe sugeriu usar dados sintéticos pra aumentar a diversidade. Esses dados sintéticos poderiam ajudar a preencher lacunas em áreas sub-representadas, potencialmente melhorando a eficácia geral do modelo. A ideia era criar mais dados de treinamento que pudessem abordar preconceitos e contabilizar diferentes formas de como o discurso de ódio poderia ser expresso.
Aplicações no Mundo Real
Os achados desse projeto têm implicações significativas pra monitorar discurso de ódio online. Ao refinar o modelo com dados específicos de línguas e regiões, ele pode ajudar a acompanhar comentários prejudiciais direcionados às comunidades LGBTQ+. Isso é particularmente importante pra línguas que frequentemente carecem de representação suficiente em modelos maiores.
Conclusão
O projeto demonstrou com sucesso o potencial de modelos como o XLM-RoBERTa pra identificar discurso de ódio em várias línguas, especialmente quando retrainados com dados relevantes. Embora houvesse alguns resultados mistos com a adição de dados misturados de scripts, a melhoria geral no desempenho da classificação ressalta a importância de adaptar modelos ao uso local da língua.
O que vem a seguir, a equipe planeja continuar refinando seus métodos, inclusive explorando técnicas como injeção de ruído pra fortalecer o sistema de classificação. Com o trabalho contínuo, espera-se que esses modelos fiquem ainda melhores em detectar e abordar discurso de ódio em diferentes línguas e regiões.
Título: cantnlp@LT-EDI-2023: Homophobia/Transphobia Detection in Social Media Comments using Spatio-Temporally Retrained Language Models
Resumo: This paper describes our multiclass classification system developed as part of the LTEDI@RANLP-2023 shared task. We used a BERT-based language model to detect homophobic and transphobic content in social media comments across five language conditions: English, Spanish, Hindi, Malayalam, and Tamil. We retrained a transformer-based crosslanguage pretrained language model, XLMRoBERTa, with spatially and temporally relevant social media language data. We also retrained a subset of models with simulated script-mixed social media language data with varied performance. We developed the best performing seven-label classification system for Malayalam based on weighted macro averaged F1 score (ranked first out of six) with variable performance for other language and class-label conditions. We found the inclusion of this spatio-temporal data improved the classification performance for all language and task conditions when compared with the baseline. The results suggests that transformer-based language classification systems are sensitive to register-specific and language-specific retraining.
Autores: Sidney G. -J. Wong, Matthew Durward, Benjamin Adams, Jonathan Dunn
Última atualização: 2023-08-24 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2308.10370
Fonte PDF: https://arxiv.org/pdf/2308.10370
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.