Simple Science

Ciência de ponta explicada de forma simples

# Informática# Aprendizagem de máquinas# Inteligência Artificial

Identificando Perigos Online: Uma Nova Abordagem

Analisando padrões de linguagem pra identificar conteúdo negativo nas redes sociais.

― 8 min ler


Linguagem de Risco nasLinguagem de Risco nasRedes Sociaisespalha na internet.Analisando como o conteúdo negativo se
Índice

Comunidades de ódio online estão crescendo e mudando rápido. Entender como esses grupos se comunicam é muito importante, especialmente quando se trata de identificar linguagem prejudicial. Este artigo explora como podemos identificar e medir conteúdo negativo em Postagens nas redes sociais. A gente foca em textos que falam sobre Perigos, um termo que significa qualquer coisa que possa ser perigosa ou prejudicial, e como informações negativas se espalham online.

A Importância de Perigos na Linguagem

Os humanos evoluíram para prestar mais atenção em informações negativas. Isso se chama viés de negatividade. Quando as pessoas veem ou ouvem algo negativo, geralmente reagem mais forte do que reagiriam a algo positivo. Por exemplo, se alguém ouvir uma história sobre um evento perigoso, pode ser que ela compartilhe mais do que uma história sobre algo bom acontecendo. Essa tendência é útil para a sobrevivência, porque ajuda os indivíduos a notar ameaças potenciais.

Estudos recentes mostraram que as pessoas tendem a acreditar em informações negativas mais facilmente do que em positivas. Essa ideia é conhecida como credulidade negativamente tendenciosa. Isso significa que as pessoas são mais inclinadas a confiar em declarações que alertam sobre perigos. Isso é especialmente verdadeiro em contextos políticos, onde pessoas com crenças políticas diferentes podem reagir de maneiras diferentes a informações sobre perigos. Conservadores, por exemplo, normalmente prestam mais atenção a informações sobre perigos do que liberais.

Na nossa exploração, olhamos como essa linguagem de perigo está presente nas redes sociais e lendas urbanas, focando especialmente em postagens do Twitter, agora chamado de X. Analisar essas postagens ajuda a entender as tendências de como as pessoas se comunicam sobre perigos, especialmente durante eventos significativos.

Desenvolvendo o Modelo de Detecção de Perigos

Para analisar postagens sobre perigos, criamos um modelo que detecta linguagem de perigo. Treinamos esse modelo usando uma mistura de postagens de redes sociais e lendas urbanas. Lendas urbanas são histórias que são amplamente acreditadas, mas muitas vezes falsas, e frequentemente contêm elementos de perigo ou risco, tornando-as ideais para nossa pesquisa.

O modelo analisa as palavras usadas nas postagens e determina se elas descrevem um perigo. Ao olhar para tweets relacionados a eventos como a pandemia de COVID-19 e o conflito Hamas-Israel de 2023, conseguimos ver como as pessoas reagem a crises e a linguagem que usam para expressar seus medos ou preocupações.

Coleta de Dados e Anotação

Coletamos postagens do X com base em palavras-chave específicas relacionadas a perigos, como "perigo", "risco" ou "ameaça". Também buscamos lendas urbanas em sites que catalogam essas histórias. Para as postagens de redes sociais, pedimos a trabalhadores para ler e rotular as postagens, determinando se o texto descrevia um perigo.

Cada postagem foi examinada por vários anotadores para garantir precisão, e um rótulo final foi atribuído com base na opinião da maioria. Essa abordagem ajuda a criar um conjunto de dados confiável para treinar nosso modelo de detecção de perigos.

Treinamento e Desempenho do Modelo

Para nosso modelo, usamos várias técnicas de aprendizado de máquina para identificar perigos no texto. Testamos diferentes algoritmos e descobrimos que um modelo de máquina de vetor de suporte (SVM) teve o melhor desempenho. Ele conseguiu classificar perigos em postagens de redes sociais com mais precisão do que outros Modelos.

Também comparamos o desempenho do nosso modelo com o de modelos de linguagem populares, como o GPT-3.5 e o GPT-4, que são conhecidos por entender e gerar texto. Embora esses modelos sejam fortes em muitas áreas, nosso modelo especializado se mostrou mais eficaz em identificar perigos especificamente.

Principais Descobertas da Análise de Redes Sociais

Depois de treinar nosso modelo, aplicamos a vários conjuntos de dados. Ao fazer isso, encontramos tendências interessantes na linguagem relacionada a perigos.

Variações na Linguagem de Perigos ao Longo do Tempo

Uma das principais descobertas foi que menções de perigos aumentaram durante eventos importantes. Por exemplo, durante a pandemia de COVID-19 e o conflito Hamas-Israel, a linguagem em torno de perigos se tornou mais proeminente. Isso sugere que eventos específicos desencadeiam uma maior consciência e reação a perigos potenciais.

Diferenças Políticas na Discussão sobre Perigos

Também descobrimos diferenças notáveis em como diversos grupos políticos discutem perigos. Nossa análise mostrou que usuários conservadores tendiam a discutir perigos com mais frequência do que usuários liberais. Isso se alinha ao viés de negatividade, sugerindo que conservadores estavam mais sintonizados com ameaças em suas postagens.

Além disso, as palavras usadas por cada grupo eram diferentes, com conservadores enquadrando certas questões, como protestos, como perigos, enquanto liberais frequentemente abordavam tópicos semelhantes de um ângulo diferente.

A Relação Entre Perigos e Emoções

Outro aspecto interessante de nossas descobertas é a conexão entre linguagem de perigo e indicadores emocionais. Notamos que postagens que continham linguagem de perigo muitas vezes estavam correlacionadas com sentimentos de medo e raiva. Em contraste, emoções positivas, como alegria, estavam menos associadas à linguagem de perigo.

Essa correlação indica que quando as pessoas falam sobre ameaças, frequentemente o fazem com uma carga emocional forte, o que aumenta ainda mais a disseminação desse tipo de informação.

Lendas Urbanas e Sua Conexão com Perigos

Além de analisar postagens nas redes sociais, também olhamos para lendas urbanas. Nossas descobertas revelaram que lendas urbanas frequentemente contêm referências a perigos. Essas histórias costumam amplificar medos e preocupações, tornando-as um veículo poderoso para espalhar informações negativas.

Curiosamente, descobrimos que lendas urbanas com conteúdo sobre perigos eram mais propensas a serem acreditadas e compartilhadas. Isso reflete a ideia de que histórias que alertam sobre perigos ressoam mais fortemente com indivíduos, levando-os a confiar e propagar essas narrativas.

Implicações para a Comunicação Online

Entender como a linguagem de perigos se espalha online é importante por várias razões. Primeiro, isso pode ajudar indivíduos e organizações a desenvolver melhores estratégias para combater desinformação. Ao identificar padrões de como perigos são discutidos, fica mais fácil contrabalançar narrativas prejudiciais.

Além disso, reconhecer o peso emocional da linguagem de perigos pode informar campanhas de saúde pública e estratégias de comunicação. Por exemplo, durante uma crise de saúde, estruturar mensagens em torno de riscos potenciais pode provocar reações mais fortes e incentivar as pessoas a agir.

Desafios na Detecção de Perigos

Apesar do progresso feito na construção do nosso modelo de detecção de perigos, ainda existem desafios a serem superados. A análise de texto continua sendo subjetiva, e a presença de gírias, sarcasmo e linguagem de grupo dificulta a interpretação precisa. Esforços para melhorar o desempenho e a generalização do modelo estão em andamento.

Além disso, embora nossos resultados apoiem teorias psicológicas existentes sobre viés de negatividade, mais pesquisas são necessárias para confirmar essas descobertas em diferentes conjuntos de dados e contextos.

Direções Futuras para Pesquisa

À medida que nossa compreensão da comunicação sobre perigos evolui, há muitas avenidas para futuras pesquisas. Uma área potencial envolve examinar como a linguagem de perigos funciona em diferentes culturas e idiomas. Como nosso modelo é multilíngue, podemos expandir nossa análise para incluir postagens de todo o mundo.

Além disso, a integração de técnicas de aprendizado de máquina mais avançadas, incluindo versões aprimoradas de grandes modelos de linguagem, pode resultar em resultados ainda mais precisos. Modelos ajustados por instrução podem desempenhar um papel fundamental em refinar ainda mais as capacidades de detecção de perigos.

Considerações Éticas

Ao trabalhar com dados online, considerações éticas são fundamentais. Tomamos muito cuidado para anonimizar os dados e remover qualquer informação identificável antes da análise. É essencial equilibrar a busca pelo conhecimento com respeito pela privacidade individual e o potencial impacto de nossas descobertas.

Embora o modelo mostre promessas, é crucial lembrar que ele pode cometer erros. A interpretação das saídas do modelo deve ser abordada com cautela, especialmente ao avaliar o comportamento de usuários individuais ou padrões de compartilhamento.

Conclusão

Este estudo esclarece as dinâmicas da comunicação sobre perigos em espaços online. Ao analisar postagens em redes sociais e lendas urbanas, revelamos como informações negativas se espalham e como vários grupos reagem a ameaças percebidas. As percepções obtidas a partir desta pesquisa podem desempenhar um papel crucial no desenvolvimento de estratégias para lidar com desinformação e melhorar o discurso público em torno de questões importantes.

Entender a linguagem dos perigos nos ajuda a ver o papel poderoso que as emoções desempenham na formação da comunicação. À medida que refinamos nossos modelos e métodos de pesquisa, esperamos contribuir ainda mais para a compreensão de como a informação opera na era digital.

Reconhecendo e analisando a linguagem em torno de perigos, podemos ajudar a criar uma sociedade mais informada e resiliente. Os desafios da desinformação são significativos, mas com pesquisa contínua e colaboração, podemos trabalhar em direção a soluções que empoderem os usuários e incentivem o compartilhamento responsável de informações.

Fonte original

Título: Trust and Terror: Hazards in Text Reveal Negatively Biased Credulity and Partisan Negativity Bias

Resumo: Socio-linguistic indicators of text, such as emotion or sentiment, are often extracted using neural networks in order to better understand features of social media. One indicator that is often overlooked, however, is the presence of hazards within text. Recent psychological research suggests that statements about hazards are more believable than statements about benefits (a property known as negatively biased credulity), and that political liberals and conservatives differ in how often they share hazards. Here, we develop a new model to detect information concerning hazards, trained on a new collection of annotated X posts, as well as urban legends annotated in previous work. We show that not only does this model perform well (outperforming, e.g., zero-shot human annotator proxies, such as GPT-4) but that the hazard information it extracts is not strongly correlated with other indicators, namely moral outrage, sentiment, emotions, and threat words. (That said, consonant with expectations, hazard information does correlate positively with such emotions as fear, and negatively with emotions like joy.) We then apply this model to three datasets: X posts about COVID-19, X posts about the 2023 Hamas-Israel war, and a new expanded collection of urban legends. From these data, we uncover words associated with hazards unique to each dataset as well as differences in this language between groups of users, such as conservatives and liberals, which informs what these groups perceive as hazards. We further show that information about hazards peaks in frequency after major hazard events, and therefore acts as an automated indicator of such events. Finally, we find that information about hazards is especially prevalent in urban legends, which is consistent with previous work that finds that reports of hazards are more likely to be both believed and transmitted.

Autores: Keith Burghardt, Daniel M. T. Fessler, Chyna Tang, Anne Pisor, Kristina Lerman

Última atualização: 2024-05-28 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2405.17838

Fonte PDF: https://arxiv.org/pdf/2405.17838

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes