Simple Science

Ciência de ponta explicada de forma simples

# Informática# Redes Sociais e de Informação

A Luta Contra a Desinformação Online

Analisando as respostas dos usuários a desinformação e estratégias eficazes de correção.

― 6 min ler


Combatendo aCombatendo aDesinformação Onlinefalsas nas redes sociais.Estratégias para combater informações
Índice

A Desinformação online é um grande problema que afeta muita gente. Pode prejudicar a saúde pública fazendo as pessoas duvidarem de vacinas e conselhos de saúde. Além disso, pode criar desconfiança em informações importantes e até levar à violência.

Pra combater a desinformação, muitos usuários das redes sociais tentam responder a postagens enganosas com informações corretas. Essa prática é chamada de Correção Social. Embora esse método pareça útil, não fica claro quão efetivo ele realmente é. Às vezes, essas correções podem ter um efeito positivo, mas outras vezes, podem acabar fazendo as pessoas acreditarem ainda mais na desinformação.

A Importância de Estudar as Respostas dos usuários

Entender como as pessoas reagem à correção social é importante. Esse conhecimento pode ajudar a melhorar as estratégias para corrigir a desinformação de forma eficaz. Se a gente souber se uma resposta ajuda ou não, podemos incentivar mais pessoas a entrarem na luta contra a desinformação. Se uma resposta piora a desinformação, seria melhor procurar formas de consertar isso.

Abordagem da Pesquisa

Pra aprender mais, um estudo detalhado foi feito, focando na plataforma de redes sociais X (antigo Twitter). O estudo coletou dados sobre postagens de desinformação e as respostas que elas receberam. Isso incluiu analisar três tipos de mensagens: os tweets de desinformação, as respostas contra a desinformação e as respostas a essas contra-respostas.

Nesse estudo, foi criado um novo conjunto de dados com milhões de tweets e respostas. Uma análise dessas respostas ajudou a construir um framework pra classificar as reações dos usuários. O objetivo era ver se as respostas às correções de desinformação eram úteis ou prejudiciais.

O Conjunto de Dados

O conjunto de dados incluiu mais de 1,5 milhão de tweets que continham desinformação e um grande número de respostas que buscavam corrigir essa desinformação. Os pesquisadores categorizaram os tipos de respostas com base em se apoiavam ou rejeitavam a desinformação.

Tipos de Respostas dos Usuários

A pesquisa identificou três grandes tipos de respostas dos usuários às respostas contra a desinformação:

  1. Respostas que não acreditam na desinformação: Essas respostas mostram que o usuário acredita na correção e não na desinformação.
  2. Respostas que acreditam na desinformação: Essas respostas apoiam a desinformação ou discordam da resposta contra a desinformação.
  3. Respostas neutras: Essas respostas não indicam uma crença clara de um lado ou do outro. Elas expressam incerteza e faltam informações suficientes pra formar uma opinião.

Características das Respostas dos Usuários

O estudo analisou diferentes características das respostas pra entender o que torna uma resposta efetiva ou ineficaz. Isso incluiu olhar para a forma como as respostas foram escritas, quantos likes ou retweets elas receberam e os perfis dos usuários que as postaram.

Descobertas do Estudo

O estudo descobriu que respostas com linguagem positiva e educada tinham mais chances de serem eficazes. Isso significa que quando as pessoas corrigem a desinformação de maneira amigável e respeitosa, é mais provável que os outros aceitem essa correção.

Em contraste, respostas que incluíam linguagem negativa ou raiva tinham mais chances de dar errado. Esses tipos de respostas poderiam reforçar as crenças na desinformação ao invés de combatê-las.

Padrões de Engajamento

Estatísticas de engajamento, como o número de likes e retweets, também ajudam a entender as respostas dos usuários. Respostas contra-desinformação que receberam mais engajamento, como mais likes ou retweets, foram mais eficazes em promover informações corretas.

O estudo também notou que contas verificadas, que são geralmente vistas como mais confiáveis, estavam associadas a correções bem-sucedidas. Isso indica que a credibilidade do usuário importa quando as pessoas avaliam as informações.

Análise do Comportamento dos Usuários

A pesquisa se aprofundou em como os usuários se comportam ao encontrar desinformação. Mostrou que muitos usuários tendem a fornecer informações ou evidências adicionais pra apoiar suas crenças, seja apoiando a desinformação ou a correção.

A taxonomia das ações dos usuários ilustrou como as pessoas reagem de maneiras diferentes:

  • Os apoiadores das correções geralmente endossavam a correção e confirmavam sua precisão.
  • Aqueles que acreditavam na desinformação refutavam a correção, muitas vezes se tornando hostis em relação a quem ofereceu o contra-argumento.

Previsão das Respostas dos Usuários

Um modelo de previsão foi desenvolvido pra determinar o resultado provável de uma contra-resposta. Esse modelo poderia identificar se uma resposta provavelmente corrigiria a desinformação, a neutralizaria ou contribuiria pra crenças falsas.

O modelo mostrou promessas com altos índices de precisão, fornecendo uma ferramenta útil pra entender como diferentes tipos de mensagens podem influenciar os usuários.

Implicações no Mundo Real

Entender essas dinâmicas pode ajudar partes interessadas, como plataformas de redes sociais e verificadores de fatos, a monitorar as respostas dos usuários de forma mais eficaz. Focando em abordagens que mostraram funcionar, como usar linguagem positiva e fontes confiáveis, eles podem combater a desinformação com mais sucesso.

Limitações do Estudo

Embora essa pesquisa tenha fornecido insights valiosos, há algumas limitações. Ela se concentrou principalmente em tweets em inglês, limitando a aplicabilidade das descobertas a outros idiomas. Além disso, o estudo analisou apenas uma plataforma de redes sociais, que pode não refletir as dinâmicas de outras plataformas onde a desinformação pode se comportar de forma diferente.

Direções Futuras

Estudos futuros poderiam expandir essa pesquisa incluindo uma gama mais ampla de plataformas de redes sociais e idiomas. Combining user engagement metrics with response characteristics could give a more comprehensive picture of how corrections are received.

Além disso, investigar as redes de usuários envolvidos em discussões sobre desinformação poderia revelar mais sobre como a desinformação se espalha e quão eficazes as correções sociais podem ser.

Conclusão

Combater a desinformação é essencial pra uma comunidade online saudável. Ao entender melhor as respostas dos usuários à correção social, podemos criar melhores estratégias pra reduzir a desinformação e promover informações precisas. Os insights obtidos dessa pesquisa podem guiar esforços futuros pra fomentar um público mais informado.

Em resumo, os usuários das redes sociais desempenham um papel crucial na correção da desinformação. Saber como incentivar correções eficazes enquanto minimiza os efeitos prejudiciais pode levar a um cenário de informações online mais confiável e confiável.

Fonte original

Título: Corrective or Backfire: Characterizing and Predicting User Response to Social Correction

Resumo: Online misinformation poses a global risk with harmful implications for society. Ordinary social media users are known to actively reply to misinformation posts with counter-misinformation messages, which is shown to be effective in containing the spread of misinformation. Such a practice is defined as "social correction". Nevertheless, it remains unknown how users respond to social correction in real-world scenarios, especially, will it have a corrective or backfire effect on users. Investigating this research question is pivotal for developing and refining strategies that maximize the efficacy of social correction initiatives. To fill this gap, we conduct an in-depth study to characterize and predict the user response to social correction in a data-driven manner through the lens of X (Formerly Twitter), where the user response is instantiated as the reply that is written toward a counter-misinformation message. Particularly, we first create a novel dataset with 55, 549 triples of misinformation tweets, counter-misinformation replies, and responses to counter-misinformation replies, and then curate a taxonomy to illustrate different kinds of user responses. Next, fine-grained statistical analysis of reply linguistic and engagement features as well as repliers' user attributes is conducted to illustrate the characteristics that are significant in determining whether a reply will have a corrective or backfire effect. Finally, we build a user response prediction model to identify whether a social correction will be corrective, neutral, or have a backfire effect, which achieves a promising F1 score of 0.816. Our work enables stakeholders to monitor and predict user responses effectively, thus guiding the use of social correction to maximize their corrective impact and minimize backfire effects. The code and data is accessible on https://github.com/claws-lab/response-to-social-correction.

Autores: Bing He, Yingchen Ma, Mustaque Ahamad, Srijan Kumar

Última atualização: 2024-03-07 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2403.04852

Fonte PDF: https://arxiv.org/pdf/2403.04852

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes