Enfrentando o Discurso de Ódio em Línguas Devanagari
Um estudo sobre o uso de IA pra detectar discursos de ódio em Hindi e Nepali.
Rushendra Sidibomma, Pransh Patwa, Parth Patwa, Aman Chadha, Vinija Jain, Amitava Das
― 6 min ler
Índice
- A Importância de Detectar Discurso de Ódio
- O que são Modelos de Linguagem Grande?
- O Desafio com Técnicas Tradicionais
- Ajuste Eficiente de Parâmetros (PEFT)
- LoRA: Uma Abordagem Inteligente
- O Estudo: Detectando Discurso de Ódio em Línguas Devanagari
- Os Conjuntos de dados
- Treinando os Modelos
- Resultados e Análise
- Problemas de Desequilíbrio de Classes
- Desafios na Identificação de Alvos
- Conclusão e Trabalho Futuro
- Considerações Éticas
- O Quadro Geral
- Fonte original
- Ligações de referência
No mundo digital de hoje, a disseminação de Discurso de ódio online é um problema sério. Isso pode levar a danos reais, especialmente para comunidades vulneráveis. Embora esse desafio afete muitos lugares, é particularmente visível em idiomas que usam o alfabeto Devanagari, como o hindi e o nepalês. Não há muitas ferramentas ou recursos disponíveis para lidar com discurso de ódio nessas línguas, o que torna o problema mais difícil de enfrentar.
A Importância de Detectar Discurso de Ódio
O discurso de ódio pode causar muitos danos, por isso é crucial detectá-lo. O mundo online é como uma grande festa onde algumas pessoas sempre tentam estragar a diversão para os outros. Quando o discurso de ódio é detectado cedo, pode ajudar a reduzir sua disseminação e impacto. Infelizmente, detectar discurso de ódio em línguas como hindi e nepalês é complicado.
Modelos de Linguagem Grande?
O que sãoModelos de Linguagem Grande (LLMs) são como robôs superinteligentes que conseguem entender e usar a linguagem humana. Eles são construídos com muitos dados e podem realizar várias tarefas linguísticas. No entanto, geralmente precisam de muitos recursos para serem ajustados corretamente, o que pode ser difícil de gerenciar em línguas de poucos recursos. Imagine tentar fazer um elefante gigante dançar; não é uma tarefa fácil!
O Desafio com Técnicas Tradicionais
Métodos tradicionais para treinar esses modelos podem ser caros. É como tentar comprar sapatos para um gigante—você precisa de muitos materiais e de um orçamento grande! Isso pode ser especialmente difícil para línguas que não têm tantos recursos disponíveis. Então, os pesquisadores estão à procura de maneiras mais inteligentes de ajustar esses modelos sem gastar uma fortuna.
Ajuste Eficiente de Parâmetros (PEFT)
É aqui que o Ajuste Eficiente de Parâmetros (PEFT) entra em cena. Em vez de ajustar o elefante todo, fazemos pequenas mudanças que o mantêm dançando graciosamente. O PEFT nos permite ajustar apenas uma parte dos parâmetros do modelo, tornando-o mais adequado para línguas com menos recursos.
LoRA: Uma Abordagem Inteligente
Uma técnica sob o PEFT é chamada LoRA (Adaptação de Baixa Classificação). Imagine o LoRA como um mecânico minúsculo trabalhando em uma máquina grande. Ele se concentra em ajustar apenas algumas áreas, o que não só reduz o custo, mas também faz a máquina funcionar suavemente sem atrasos. Isso economiza tempo e recursos enquanto mantém a eficiência.
O Estudo: Detectando Discurso de Ódio em Línguas Devanagari
Este estudo foca em detectar discurso de ódio em hindi e nepalês usando LLMs. Os pesquisadores montaram um sistema para analisar o texto nessas línguas. É como ter um robô amigo que consegue identificar os encrenqueiros em uma festa antes que eles comecem a causar caos.
Conjuntos de dados
OsPara treinar os LLMs, usaram um conjunto de dados contendo milhares de exemplos de texto. Esse texto foi tirado de várias fontes, incluindo postagens nas redes sociais e artigos de notícias. Infelizmente, descobriram que a maioria dos textos não era discurso de ódio, criando um desequilíbrio. É como ter um pote cheio de jellybeans, onde 90% são vermelhos e apenas 10% são verdes. Isso dificulta para o robô aprender quais são os ruins!
Treinando os Modelos
O estudo envolveu testar vários LLMs nesse conjunto de dados. Especificamente, eles analisaram quão bem diferentes modelos desempenharam na detecção de discurso de ódio e na identificação de seus alvos. Isso significa não só descobrir se um trecho de texto continha discurso de ódio, mas também se era direcionado a uma pessoa, organização ou comunidade.
Resultados e Análise
Depois de realizar os testes, os pesquisadores descobriram que um modelo, chamado Nemo, teve o melhor desempenho em ambas as tarefas. É como descobrir que a pequena locomotiva que conseguia era, na verdade, um carro de corrida! Apesar de ter menos parâmetros do que alguns outros modelos, o Nemo conseguiu entregar resultados incríveis.
Problemas de Desequilíbrio de Classes
Uma parte chave das descobertas foi que o modelo funcionou significativamente melhor em identificar não-discurso de ódio do que discurso de ódio. Isso se deveu principalmente ao desequilíbrio nos dados de treinamento. Quanto mais discurso de ódio eles alimentavam, melhor o modelo ficava em reconhecê-lo, mas tinham um número muito maior de exemplos não-discurso de ódio. Portanto, é como tentar ensinar um cachorro a latir quando ele está cercado por um monte de gatos silenciosos!
Desafios na Identificação de Alvos
Na hora de identificar os alvos do discurso de ódio, os pesquisadores notaram outro problema. O modelo teve dificuldade em reconhecer discurso de ódio direcionado a comunidades. Isso destaca os desafios de classificar alvos quando algumas categorias têm menos exemplos.
Conclusão e Trabalho Futuro
Em conclusão, o estudo mostrou que usar LLMs com métodos de ajuste eficiente pode ajudar a detectar discurso de ódio em línguas que costumam ser ignoradas. Embora tenham alcançado um bom desempenho, ainda há desafios pela frente, especialmente com conjuntos de dados desequilibrados. No futuro, os pesquisadores planejam desenvolver técnicas para criar conjuntos de dados mais equilibrados, o que ajudaria a melhorar a precisão do modelo.
Considerações Éticas
Detectar discurso de ódio não é apenas uma questão técnica; é também uma questão ética. Os pesquisadores notaram que os modelos podem ter preconceitos, então é essencial ter revisões humanas antes de tomar decisões com base nas previsões dos modelos. Isso garante que não acusemos acidentalmente um jellybean inocente de ser um encrenqueiro.
O Quadro Geral
À medida que avançamos para uma era digital, desenvolver ferramentas para detectar discurso de ódio é necessário para criar um ambiente online mais seguro. A esperança é que, com pesquisa contínua e melhores recursos, possamos enfrentar esses problemas de forma mais eficaz, ajudando a manter a festa online divertida para todo mundo. Então, vamos continuar a construir esses robôs inteligentes e dar a eles as ferramentas de que precisam para manter a paz!
Fonte original
Título: LLMsAgainstHate @ NLU of Devanagari Script Languages 2025: Hate Speech Detection and Target Identification in Devanagari Languages via Parameter Efficient Fine-Tuning of LLMs
Resumo: The detection of hate speech has become increasingly important in combating online hostility and its real-world consequences. Despite recent advancements, there is limited research addressing hate speech detection in Devanagari-scripted languages, where resources and tools are scarce. While large language models (LLMs) have shown promise in language-related tasks, traditional fine-tuning approaches are often infeasible given the size of the models. In this paper, we propose a Parameter Efficient Fine tuning (PEFT) based solution for hate speech detection and target identification. We evaluate multiple LLMs on the Devanagari dataset provided by (Thapa et al., 2025), which contains annotated instances in 2 languages - Hindi and Nepali. The results demonstrate the efficacy of our approach in handling Devanagari-scripted content.
Autores: Rushendra Sidibomma, Pransh Patwa, Parth Patwa, Aman Chadha, Vinija Jain, Amitava Das
Última atualização: 2024-12-26 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2412.17131
Fonte PDF: https://arxiv.org/pdf/2412.17131
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.