Simple Science

Ciência de ponta explicada de forma simples

# Informática# Interação Homem-Computador# Computadores e sociedade

Abordando Conteúdo Prejudicial em Grupos do WhatsApp

Uma nova abordagem usando agentes de conversação pra ter conversas mais seguras no WhatsApp.

― 5 min ler


Combatendo MensagensCombatendo MensagensPrejudiciais no WhatsAppdiscussões em grupo de forma segura.Apresentando um chatbot pra melhorar as
Índice

WhatsApp é um app de mensagens bem popular em todo o mundo, especialmente em países em desenvolvimento. Embora ele ofereça um jeito prático de se comunicar, também permite que conteúdos ruins, como desinformação, discurso de ódio e boatos, se espalhem rapidinho. Esse problema fica pior por causa da criptografia de ponta a ponta do WhatsApp, que impede que a plataforma moderem o conteúdo diretamente. Em vez disso, a responsabilidade de lidar com Conteúdo Prejudicial cai nas mãos dos admins e membros dos grupos, o que muitas vezes leva à inação.

O Desafio do Conteúdo Prejudicial

Conteúdos prejudiciais no WhatsApp têm consequências reais, como influenciar eleições, espalhar mitos sobre saúde e incitar violência. Pesquisas mostram que os usuários costumam ter medo de desafiar mensagens prejudiciais por causa das relações sociais. Eles temem que contestar um conteúdo possa atrapalhar o relacionamento com a família e amigos. Estratégias existentes como moderação e checagem de fatos são limitadas; moderar é difícil por causa da criptografia, e checagem de fatos muitas vezes não é compartilhada nos grupos para evitar conflitos.

Explorando uma Alternativa: Deliberação

Estudos recentes propõem a deliberação como uma forma de discutir conteúdos prejudiciais de maneira aberta e inclusiva. A deliberação incentiva os indivíduos a avaliarem criticamente a legitimidade das informações compartilhadas. Em vez de simplesmente sinalizar o conteúdo, a deliberação permite que os usuários discutam e reflitam sobre as mensagens dentro do seu grupo.

O Papel dos Agentes Conversacionais

Para facilitar a deliberação, nossa pesquisa explorou o uso de agentes conversacionais-basicamente, chatbots que podem ajudar a guiar discussões. Fizemos entrevistas com 21 usuários do WhatsApp na Índia para coletar ideias sobre como tal agente poderia funcionar. Os participantes gostaram da ideia de ter um jeito anônimo de discutir conteúdos prejudiciais, o que poderia fazer com que se sentissem mais seguros ao abordar questões sensíveis.

Experiências dos Participantes

Durante as entrevistas, os participantes compartilharam suas opiniões sobre como o agente poderia ajudar na deliberação. Eles expressaram a necessidade de Anonimato para se protegerem ao discutir tópicos potencialmente polêmicos. Também sugeriram que o agente poderia ajudar a reduzir o esforço necessário para avaliar mensagens, facilitando a participação dos membros do grupo.

Design do Agente Conversacional

O agente trabalharia em três etapas principais:

  1. Ativação: O agente é ativado quando detecta conteúdo tóxico ou prejudicial dentro do grupo.

  2. Coletar Opiniões: Ele entra em contato com os membros do grupo através de mensagens privadas para saber o que eles acham da mensagem prejudicial.

  3. Resumo: O agente compila as opiniões coletadas e compartilha um resumo anônimo de volta para o grupo, para facilitar mais discussões.

Esse sistema permite que os membros do grupo expressem seus pensamentos sem medo de julgamento, promovendo uma discussão mais reflexiva sobre o conteúdo que está sendo compartilhado.

Preocupações dos Usuários com o Agente

Embora os participantes achassem a ideia do agente promissora, eles também levantaram várias preocupações. Eles temiam que o agente pudesse atrapalhar a dinâmica do grupo, especialmente em grupos pequenos e próximos. Os participantes sentiam que, mesmo com anonimato, poderia ser fácil adivinhar quem contribuiu com certas opiniões.

Além disso, alguns usuários acreditavam que a deliberação poderia não ser eficaz em grupos onde já existem opiniões fortes, como em câmaras de eco políticas ou religiosas. Nesses casos, o agente poderia servir melhor como um mecanismo de sinalização do que como um facilitador de deliberação.

Recomendações para Melhoria

Com base nas opiniões dos usuários, temos várias recomendações para projetar o agente de forma a aumentar sua eficácia:

  1. Ativação Automática: O agente deve identificar conteúdo prejudicial através de palavras-chave ou tags de mensagem.
  2. Anonimato: Manter os participantes anônimos para incentivar feedback honesto.
  3. Ativação Flexível: Permitir que os usuários ativem o agente manualmente se sentirem que uma mensagem é prejudicial.
  4. Moderação da Deliberação: Em vez de apenas sinalizar o conteúdo, o agente pode também ajudar a moderar as discussões para mantê-las respeitosas.

Direções Futuras para Pesquisa

Para entender completamente o potencial dos agentes conversacionais em facilitar a deliberação sobre conteúdos prejudiciais, mais pesquisas são necessárias. Estudos futuros poderiam envolver testes reais do agente em grupos do WhatsApp para ver como os usuários interagem com ele e se ele realmente promove discussões reflexivas.

Conclusão

O aumento do conteúdo prejudicial em grupos do WhatsApp traz desafios significativos para os usuários. Embora abordagens tradicionais como moderação e checagem de fatos tenham limitações, usar a deliberação através de um agente conversacional apresenta uma alternativa promissora. Criando um espaço seguro para discussões em grupo, o agente pode empoderar os usuários a pensarem criticamente e compartilharem perspectivas diversas. Através de um design cuidadoso e pesquisa contínua, podemos refinar ainda mais essa abordagem para proteger melhor as comunidades de conteúdos prejudiciais.

Fonte original

Título: Conversational Agents to Facilitate Deliberation on Harmful Content in WhatsApp Groups

Resumo: WhatsApp groups have become a hotbed for the propagation of harmful content including misinformation, hate speech, polarizing content, and rumors, especially in Global South countries. Given the platform's end-to-end encryption, moderation responsibilities lie on group admins and members, who rarely contest such content. Another approach is fact-checking, which is unscalable, and can only contest factual content (e.g., misinformation) but not subjective content (e.g., hate speech). Drawing on recent literature, we explore deliberation -- open and inclusive discussion -- as an alternative. We investigate the role of a conversational agent in facilitating deliberation on harmful content in WhatsApp groups. We conducted semi-structured interviews with 21 Indian WhatsApp users, employing a design probe to showcase an example agent. Participants expressed the need for anonymity and recommended AI assistance to reduce the effort required in deliberation. They appreciated the agent's neutrality but pointed out the futility of deliberation in echo chamber groups. Our findings highlight design tensions for such an agent, including privacy versus group dynamics and freedom of speech in private spaces. We discuss the efficacy of deliberation using deliberative theory as a lens, compare deliberation with moderation and fact-checking, and provide design recommendations for future such systems. Ultimately, this work advances CSCW by offering insights into designing deliberative systems for combating harmful content in private group chats on social media.

Autores: Dhruv Agarwal, Farhana Shahid, Aditya Vashistha

Última atualização: 2024-08-16 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2405.20254

Fonte PDF: https://arxiv.org/pdf/2405.20254

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes