A Ascensão das Ferramentas de Moderação de Conteúdo Pessoal
Analisando o impacto da moderação feita por usuários nas experiências online.
― 12 min ler
Índice
- O Crescimento das Redes Sociais e Conteúdo Gerado pelo Usuário
- O Surgimento de Ferramentas de Moderação Pessoal
- Perspectivas dos Usuários sobre Moderação de Conteúdo Pessoal
- Reações dos Usuários a Conteúdos Prejudiciais
- A Complexidade da Moderação de Conteúdo
- O Papel do Contexto na Moderação
- Expectativas dos Usuários para Ferramentas de Moderação
- A Necessidade de Transparência e Clareza
- Reduzindo o Peso da Moderação
- A Importância de Processos Iterativos
- A Distribuição da Responsabilidade
- Conclusão
- Fonte original
- Ligações de referência
Nos últimos anos, as plataformas online onde as pessoas interagem cresceram rapidamente. Sites de redes sociais permitem que os usuários compartilhem conteúdo, o que às vezes pode levar a experiências prejudiciais, especialmente para grupos vulneráveis. Lidar com conteúdos abusivos, como discursos de ódio ou assédio, é essencial para criar um ambiente online positivo. Várias empresas começaram a desenvolver ferramentas que permitem aos usuários controlarem suas próprias experiências, decidindo que tipo de conteúdo querem ver ou evitar.
Uma dessas ferramentas introduzidas pela Intel se chama Bleep, que foi feita para filtrar linguagem abusiva em chats de voz online enquanto jogam. Essa ferramenta permite que os usuários ajustem configurações usando deslizadores para controlar quanto de diferentes tipos de linguagem abusiva querem nas suas conversas. No entanto, a introdução de ferramentas assim gerou reações mistas entre os usuários.
Algumas pessoas acreditam que o Bleep pode oferecer segurança e conforto, enquanto outras acham que trivializa questões sérias como racismo ou sexismo, permitindo que os usuários "sintonizem" esses assuntos como se fosse um rádio. Esse debate destaca os sentimentos complexos que surgem quando se dá aos usuários controle sobre o conteúdo que encontram. Levanta perguntas sobre se é certo que os usuários tenham esse poder e se isso coloca responsabilidade demais sobre eles.
O Crescimento das Redes Sociais e Conteúdo Gerado pelo Usuário
As redes sociais explodiram em popularidade desde meados dos anos 2000. Elas permitem que os usuários gerem conteúdo e compartilhem suas opiniões com os outros. Esse empoderamento é especialmente valioso para grupos marginalizados que podem usar essas plataformas para se expressar ou chamar a atenção para questões importantes. No entanto, as regras que regem o conteúdo aceitável nessas plataformas geralmente são moldadas pelas normas culturais do Vale do Silício, onde muitas das grandes empresas de redes sociais estão localizadas.
Diferentes culturas e comunidades têm visões diferentes sobre o que constitui conteúdo aceitável. Portanto, uma abordagem única para Moderação de Conteúdo não é suficiente. Reconhecendo isso, alguns especialistas agora defendem a moderação de conteúdo pessoal, onde os usuários podem personalizar sua experiência com base em suas preferências. Essa abordagem dá aos usuários a capacidade de decidir o que querem ver, potencialmente tornando sua experiência online mais segura e agradável.
O Surgimento de Ferramentas de Moderação Pessoal
A moderação de conteúdo pessoal se refere a sistemas que permitem aos usuários personalizar suas escolhas de moderação com base no conteúdo que encontram online. Essas ferramentas podem fornecer deslizadores, alternadores e filtros para ajudar os usuários a gerenciar o que veem. Os usuários podem definir preferências para diferentes tipos de conteúdo, como sensibilidade a discursos de ódio ou palavras-chave específicas.
Algumas plataformas de redes sociais já começaram a experimentar essas ferramentas. Enquanto a moderação tradicional geralmente se baseia em regras gerais aplicadas pela plataforma, as ferramentas de moderação pessoal permitem que os usuários assumam o controle de sua própria experiência. Os usuários podem ajustar suas configurações para refletir seus níveis de conforto, que podem diferir significativamente de uma pessoa para outra.
Perspectivas dos Usuários sobre Moderação de Conteúdo Pessoal
A introdução de ferramentas de moderação de conteúdo pessoal gerou discussões sobre as responsabilidades dos usuários e das plataformas. Muitos usuários apreciam a capacidade de personalizar suas experiências, especialmente aqueles que encontram frequentemente conteúdo prejudicial. Por exemplo, aqueles que enfrentam discriminação ou discursos de ódio muitas vezes acham útil filtrar termos ou tipos de conteúdo específicos.
No entanto, nem todo mundo apoia a ideia de moderação configurável pelo usuário. Alguns usuários expressam preocupação de que isso transfira o peso da moderação para os indivíduos, em vez de abordar questões sistêmicas. Críticos temem que permitir que os usuários manipulem a filtragem de conteúdo pode levar a uma experiência online sanitizada que dificulta interações genuínas.
As opiniões em torno dessas ferramentas ilustram o conflito entre o empoderamento do usuário e a responsabilidade das plataformas de criar um ambiente seguro para todos. Os usuários desejam controle sobre suas experiências, mas também querem responsabilidade das plataformas que hospedam suas interações.
Reações dos Usuários a Conteúdos Prejudiciais
Participantes de estudos sobre ferramentas de moderação pessoal compartilharam uma ampla gama de experiências com danos online. Muitos encontram conteúdo negativo não apenas em seus feeds de notícias, mas também em mensagens diretas ou comentários. Enquanto alguns usuários usam ativamente ferramentas de moderação para se protegerem, outros escolhem ignorar completamente o conteúdo prejudicial ou até deixar as redes sociais de lado.
Aqueles que interagem com ferramentas de moderação frequentemente expressam frustração com os recursos existentes. Eles acham que, embora ferramentas como deslizadores e filtros ofereçam algum nível de controle, podem carecer de clareza e eficácia. Usuários podem se sentir sobrecarregados ao tentar configurar as opções, levando a um afastamento dos esforços de moderação.
Além disso, há o medo de perder conteúdo valioso ao usar ferramentas de moderação. Alguns usuários são cautelosos em filtrar postagens porque temem perder notícias ou discussões importantes. Esse conflito levanta uma pergunta fundamental sobre o equilíbrio entre segurança e abertura nas interações online.
A Complexidade da Moderação de Conteúdo
Quando os usuários falam sobre ferramentas de moderação pessoal, costumam mencionar a dificuldade de definir diferentes tipos de conteúdo prejudicial. Termos como "toxidade" ou "agressão" podem ser ambíguos e subjetivos. O que uma pessoa considera ofensivo, outra pode interpretar de maneira diferente. Por conta dessas opiniões diferentes, os sistemas de moderação pessoal precisam navegar nessas complexidades com cuidado.
Os usuários expressaram a necessidade de definições mais claras de categorias de conteúdo e critérios para entender melhor como a moderação funciona. Atualmente, muitas ferramentas existentes carecem da transparência necessária, deixando os usuários confusos sobre como suas escolhas afetam o conteúdo que veem. Essa falta de clareza pode fazer com que os usuários fiquem relutantes em se envolver com as ferramentas ou depender delas para proteção.
A natureza em evolução da linguagem e das normas sociais acrescenta outra camada de complexidade à moderação de conteúdo. Certos termos podem mudar de significado ou conotação ao longo do tempo, tornando desafiador para as ferramentas de moderação se manterem relevantes.
O Papel do Contexto na Moderação
Entender o contexto em torno de palavras e declarações é vital para a moderação eficaz. Muitos usuários apontaram que o significado das palavras pode depender muito do contexto social ou cultural em que são usadas. Essa questão pode criar desafios para ferramentas de moderação que dependem apenas da filtragem por palavras-chave, sem considerar o contexto.
Por exemplo, algumas comunidades podem usar palavras ofensivas ressignificadas ou termos que podem ser vistos como ofensivos fora de seus círculos. Sem a compreensão do contexto, as ferramentas de moderação podem, inadvertidamente, censurar conversas que são benignas ou de apoio dentro dessas comunidades.
Além disso, os usuários notaram que suas preferências para moderação podem variar com base em contextos ou conversas específicas. Alguns sugeriram que as ferramentas de moderação deveriam permitir ajustes contextuais em vez de aplicar filtros genéricos, permitindo que os usuários mantenham diálogos abertos enquanto ainda se protegem de conteúdo prejudicial.
Expectativas dos Usuários para Ferramentas de Moderação
Quando se trata de moderação pessoal de conteúdo, os usuários têm várias expectativas. Muitos sentem que as plataformas devem assumir a responsabilidade de remover o conteúdo mais prejudicial. Eles argumentam que, embora as ferramentas pessoais sejam úteis, elas não devem isentar as plataformas de seu dever de proteger os usuários.
Os usuários também querem ferramentas de moderação que sejam fáceis de entender e usar. Eles expressam frustração quando encontram sistemas complicados que exigem um esforço significativo para navegar. É preciso alcançar um equilíbrio entre a agência pessoal e o trabalho cognitivo envolvido na configuração dessas ferramentas.
Além disso, os usuários esperam consistência entre diferentes plataformas e ferramentas. Eles querem ter a certeza de que os sistemas de moderação funcionarão de forma eficaz, não importando onde estejam interagindo online. Essa consistência pode ajudar a aumentar a confiança dos usuários nas ferramentas de moderação pessoal.
A Necessidade de Transparência e Clareza
Nas discussões sobre ferramentas de moderação, os usuários frequentemente destacam a necessidade de transparência sobre como as decisões de moderação são tomadas. Eles querem saber quais critérios são usados para categorizar o conteúdo e como suas configurações podem impactar o que veem.
Oferecer definições claras e exemplos pode ajudar os usuários a entenderem melhor como usar as ferramentas de moderação. Sem essas informações, os usuários podem ficar incertos sobre o que esperar e podem se sentir desempoderados. Maior transparência pode incentivar os usuários a se envolverem mais profundamente com os esforços de moderação.
As plataformas também devem considerar como lidar com os desafios da moderação pessoal enquanto mantêm a confiança dos usuários. Incorporar feedback dos usuários e evoluir gradualmente os critérios de moderação pode ajudar a estabelecer um senso de pertencimento para os usuários sobre suas experiências.
Reduzindo o Peso da Moderação
Uma preocupação significativa entre os usuários de ferramentas de moderação pessoal é a carga cognitiva associada à configuração dessas opções. Muitos participantes expressaram o desejo por ferramentas que minimizem o esforço envolvido na filtragem de conteúdo, enquanto ainda permitem preferências individuais.
Para reduzir esse fardo, os sistemas de moderação podem implementar recursos que permitam aos usuários importar configurações ou categorias pré-configuradas. Assim, os usuários podem ajustar rapidamente seus filtros para alinhar com seus valores sem gastar tempo demais na configuração.
Usar métodos de filtragem colaborativa ou preferências de moderação coletadas pode também ajudar os usuários a se beneficiarem das experiências de outros. Essa abordagem permite que os usuários ajustem suas configurações com mínimo esforço, aprendendo com as preferências de seus pares.
A Importância de Processos Iterativos
Muitos usuários indicaram que suas preferências para moderação podem mudar ao longo do tempo. À medida que suas experiências nas redes sociais evoluem, também podem evoluir suas necessidades de filtragem de conteúdo. Ferramentas de moderação pessoal devem permitir ajustes iterativos, permitindo que os usuários adaptem seus filtros conforme necessário.
As plataformas podem facilitar ajustes dinâmicos ao oferecer controles em tempo real. Esses controles podem incorporar automaticamente o feedback dos usuários para refinar suas configurações, tornando mais fácil para os usuários manterem uma experiência online segura enquanto ainda interagem com conteúdo diverso.
Incentivar os usuários a fornecer feedback sobre suas experiências com ferramentas de moderação também pode promover melhorias contínuas. Plataformas que buscam ativamente a opinião dos usuários podem aprimorar seus sistemas com o tempo, melhorando a satisfação dos usuários.
A Distribuição da Responsabilidade
À medida que ferramentas de moderação pessoal se tornam mais comuns, a questão da responsabilidade surge. Os usuários expressaram que as plataformas não devem confiar exclusivamente neles para gerenciar o conteúdo; em vez disso, deve haver uma responsabilidade compartilhada entre usuários e plataformas.
Embora os usuários apreciem a capacidade de personalizar suas experiências, eles também esperam que as plataformas mantenham um nível básico de moderação. Eles querem a garantia de que o conteúdo prejudicial será abordado de forma proativa, permitindo que os usuários se concentrem em moldar suas experiências únicas sem enfrentar riscos desnecessários.
O equilíbrio de responsabilidade pode gerar tensões, especialmente quando se trata de definir o que constitui conteúdo inaceitável. Os usuários podem sentir que seus contextos culturais e perspectivas muitas vezes são ignorados nas políticas gerais das plataformas, levando a frustrações e sentimentos de exclusão.
Conclusão
A discussão em torno das ferramentas de moderação pessoal revela uma complexa interação entre empoderamento do usuário, responsabilidade e a necessidade de transparência. À medida que as plataformas de redes sociais continuam a crescer, o desenvolvimento de sistemas de moderação centrados no usuário é vital para garantir experiências online seguras e enriquecedoras.
Não existe uma solução única para moderação de conteúdo. Compreender as diversas experiências e expectativas dos usuários é crucial para criar ferramentas que realmente atendam às suas necessidades. Ao enfatizar clareza, contexto e processos iterativos, as plataformas podem fomentar interações construtivas enquanto respeitam a autonomia dos usuários.
O caminho a seguir para a moderação pessoal de conteúdo requer diálogo contínuo entre usuários, plataformas e formuladores de políticas. Trabalhando colaborativamente, os envolvidos podem abordar melhor os desafios do conteúdo online enquanto ainda promovem a liberdade de expressão e a comunicação aberta.
Os usuários merecem ferramentas eficazes para moldar suas experiências online, e as plataformas devem ser proativas em criar ambientes seguros. A moderação pessoal pode servir como um meio poderoso para os usuários navegarem pelo complexo cenário das interações online enquanto mantêm controle sobre suas experiências.
Título: Personalizing Content Moderation on Social Media: User Perspectives on Moderation Choices, Interface Design, and Labor
Resumo: Social media platforms moderate content for each user by incorporating the outputs of both platform-wide content moderation systems and, in some cases, user-configured personal moderation preferences. However, it is unclear (1) how end users perceive the choices and affordances of different kinds of personal content moderation tools, and (2) how the introduction of personalization impacts user perceptions of platforms' content moderation responsibilities. This paper investigates end users' perspectives on personal content moderation tools by conducting an interview study with a diverse sample of 24 active social media users. We probe interviewees' preferences using simulated personal moderation interfaces, including word filters, sliders for toxicity levels, and boolean toxicity toggles. We also examine the labor involved for users in choosing moderation settings and present users' attitudes about the roles and responsibilities of social media platforms and other stakeholders towards moderation. We discuss how our findings can inform design solutions to improve transparency and controllability in personal content moderation tools.
Autores: Shagun Jhaver, Alice Qian Zhang, Quanze Chen, Nikhila Natarajan, Ruotong Wang, Amy Zhang
Última atualização: 2023-05-17 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2305.10374
Fonte PDF: https://arxiv.org/pdf/2305.10374
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.
Ligações de referência
- https://youtu.be/97Qhj299zRM?t=1781
- https://www.acm.org/publications/taps/whitelist-of-latex-packages
- https://dl.acm.org/ccs.cfm
- https://help.twitch.tv/s/article/how-to-use-automod?language=en_US
- https://en.wikipedia.org/wiki/List_of_social_platforms_with_at_least_100_million_active_users
- https://www.dedoose.com