Analisando a Toxicidade em Discussões Políticas nas Redes Sociais
Este estudo avalia modelos de linguagem na classificação da toxicidade de conteúdo político.
― 6 min ler
Índice
Nos últimos anos, o crescimento das redes sociais mudou a maneira como as pessoas participam de discussões políticas. Embora tenha facilitado a expressão de opiniões e a organização de ações coletivas, também levou a um aumento nas interações negativas, como Toxicidade e falta de civilidade. Esses problemas se tornaram tópicos importantes para os pesquisadores que buscam entender o comportamento online.
Um jeito de estudar isso é usando modelos de linguagem, que são programas de computador avançados projetados para analisar e gerar linguagem humana. Este artigo discute um projeto que testou a capacidade de vários modelos de linguagem de classificar conteúdo político com base em seu nível de toxicidade e falta de civilidade. O objetivo é verificar o quão bem esses modelos conseguem anotar mensagens políticas das redes sociais.
Coleta de Dados
A pesquisa usou um conjunto de dados único coletado do Twitter, agora chamado de X. Esse conjunto incluiu mais de 3,5 milhões de mensagens relacionadas a protestos na Argentina e no Chile. Os protestos abordaram temas como as respostas do governo à pandemia de COVID-19 e agitações sociais devido a problemas econômicos. Os pesquisadores coletaram mensagens usando hashtags específicas relacionadas a esses eventos.
Para garantir resultados confiáveis, os pesquisadores criaram um "Padrão Ouro" para anotação. Isso envolveu categorizar mensagens com base em revisões humanas, que serviram como referência para comparar com os modelos de linguagem. Uma amostra balanceada de mensagens foi selecionada de ambos os países, com foco em vários níveis de toxicidade.
Criando o Padrão Ouro
Para estabelecer o padrão ouro, codificadores humanos revisaram manualmente as mensagens quanto à toxicidade. Eles definiram comentários tóxicos como rudes, desrespeitosos ou prejudiciais, enquanto comentários não tóxicos eram vistos como civis e construtivos. Uma equipe de codificadores habilidosos analisou as mensagens e atribuiu rótulos, garantindo um alto nível de concordância entre eles.
Esse processo demandou tempo e esforço consideráveis, usando uma plataforma online que respeitava as regras de privacidade. Ao ter vários codificadores revisando as mesmas mensagens, os pesquisadores garantiram a confiabilidade de seus rótulos.
Modelos de Linguagem em Ação
Com o padrão ouro em vigor, os pesquisadores testaram vários modelos de linguagem para ver quão bem eles poderiam classificar a toxicidade nas mensagens. Eles focaram em várias versões dos modelos da OpenAI, além de alternativas de código aberto. Os pesquisadores usaram diferentes modelos com capacidades variadas, incluindo aqueles projetados especificamente para tarefas de linguagem natural e outros com aplicações mais amplas.
Os modelos receberam as mesmas mensagens que os codificadores humanos para ver o quão próximas eram suas classificações. Esses testes incluíram um método conhecido como "classificação zero-shot", onde os modelos tinham que fazer previsões sem treinamento adicional na tarefa específica.
Resultados e Descobertas
Os resultados mostraram que alguns modelos se destacaram na identificação de toxicidade. Notavelmente, uma versão do modelo da OpenAI se destacou pela alta precisão. Curiosamente, alguns modelos de código aberto também tiveram resultados fortes, mostrando que podiam competir com as opções comerciais.
O estudo revelou que os modelos tinham pontos fortes diferentes com base em seu design e número de parâmetros, que são como o "tamanho" do modelo. Modelos maiores normalmente apresentavam melhor desempenho, mas exigiam mais poder de computação. Alguns modelos menores, no entanto, foram surpreendentemente eficazes e eficientes.
Considerações sobre o Desempenho dos Modelos
Os pesquisadores observaram que o desempenho dos modelos de linguagem variou significativamente. Modelos que eram mais baratos e fáceis de usar produziram bons resultados, mostrando que opções menores e de código aberto poderiam ser práticas para muitas aplicações. Isso é significativo, pois oferece alternativas a modelos proprietários que podem nem sempre ser acessíveis para todos os pesquisadores.
Um aspecto importante a considerar é a reprodutibilidade dos resultados. O estudo constatou que os modelos de código aberto poderiam consistentemente entregar os mesmos resultados quando testados várias vezes. Isso é crucial para cientistas que precisam garantir que seus resultados sejam confiáveis e possam ser repetidos por outros na área.
Configurações de Temperatura
Impacto dasNos experimentos, os pesquisadores testaram como diferentes configurações de temperatura impactavam o desempenho dos modelos. A "temperatura" nesse contexto se refere a quão criativo ou rigoroso o modelo é ao gerar respostas. Temperaturas mais baixas geralmente resultam em resultados mais consistentes, enquanto temperaturas mais altas podem levar a resultados variados.
Por meio desses experimentos, os pesquisadores estabeleceram que manter configurações de temperatura mais baixas melhorava a confiabilidade dos modelos de código aberto. Isso garante que, quando usados para tarefas como anotar conteúdo político, os resultados sejam mais estáveis e confiáveis.
Aplicações no Discurso Político
Os achados têm implicações mais amplas para entender toxicidade e falta de civilidade em discussões políticas online. À medida que as redes sociais continuam sendo uma plataforma para o engajamento político, ferramentas que podem analisar rapidamente e com precisão o conteúdo são inestimáveis.
Os modelos de linguagem podem ajudar a identificar interações prejudiciais, oferecendo insights sobre a natureza dos debates online. Isso pode ajudar pesquisadores, formuladores de políticas e plataformas de redes sociais a criar melhores estratégias para promover um discurso saudável e reduzir a negatividade.
Limitações do Estudo
Embora a pesquisa ofereça insights significativos, há limitações a considerar. O estudo focou principalmente em toxicidade e falta de civilidade sem aprofundar outros aspectos importantes do uso da linguagem online. Pesquisas futuras poderiam expandir esses esforços para incluir fatores adicionais, como desinformação ou o tom emocional das mensagens.
Outra limitação é a dependência dos modelos de linguagem existentes. Apesar de serem avançados, esses modelos podem ainda carregar preconceitos baseados em seus dados de treinamento. Isso significa que suas classificações podem refletir as falhas presentes nos conjuntos de dados em que foram treinados.
Conclusão
Em resumo, essa pesquisa destaca o potencial dos modelos de linguagem para analisar efetivamente conteúdo político nas redes sociais. A comparação com padrões ouro codificados por humanos mostrou resultados promissores, especialmente para certos modelos. Opções de código aberto surgiram como alternativas viáveis a produtos comerciais, oferecendo ferramentas acessíveis para os pesquisadores.
À medida que as redes sociais continuam a evoluir, o estudo sublinha a necessidade de métodos robustos para avaliar interações online. Isso pode levar a uma melhor compreensão e gerenciamento de contextos tóxicos em discussões políticas, contribuindo, em última análise, para um discurso público mais saudável.
Título: Benchmarking LLMs in Political Content Text-Annotation: Proof-of-Concept with Toxicity and Incivility Data
Resumo: This article benchmarked the ability of OpenAI's GPTs and a number of open-source LLMs to perform annotation tasks on political content. We used a novel protest event dataset comprising more than three million digital interactions and created a gold standard that includes ground-truth labels annotated by human coders about toxicity and incivility on social media. We included in our benchmark Google's Perspective algorithm, which, along with GPTs, was employed throughout their respective APIs while the open-source LLMs were deployed locally. The findings show that Perspective API using a laxer threshold, GPT-4o, and Nous Hermes 2 Mixtral outperform other LLM's zero-shot classification annotations. In addition, Nous Hermes 2 and Mistral OpenOrca, with a smaller number of parameters, are able to perform the task with high performance, being attractive options that could offer good trade-offs between performance, implementing costs and computing time. Ancillary findings using experiments setting different temperature levels show that although GPTs tend to show not only excellent computing time but also overall good levels of reliability, only open-source LLMs ensure full reproducibility in the annotation.
Autores: Bastián González-Bustamante
Última atualização: 2024-09-15 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2409.09741
Fonte PDF: https://arxiv.org/pdf/2409.09741
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.