Simple Science

Ciência de ponta explicada de forma simples

# Informática# Redes Sociais e de Informação# Inteligência Artificial

Medição do Sexismo em Comunidades Online

Um novo método quantifica sexismo e toxicidade em discussões digitais.

― 7 min ler


Quantificando o SexismoQuantificando o SexismoOnlineconversas digitais.Um jeito de medir a toxicidade em
Índice

Discussões online geralmente mostram divisões grandes entre diferentes pontos de vista, especialmente sobre gênero. Muita gente participa de Comunidades onde as conversas podem rapidamente ficar tóxicas ou sexistas. É importante ter uma forma clara de medir quanto de sexismo existe nesses grupos. Isso é crucial para quem gerencia essas comunidades e para pesquisadores que estudam comportamentos online.

Pra resolver isso, foi desenvolvido um novo método pra medir sexismo em comunidades online. Esse método analisa com que frequência a linguagem negativa é usada contra homens e mulheres. Ao examinar comentários em vários grupos, ele pode dar uma ideia de como cada comunidade se comporta e quais atitudes estão presentes.

A Necessidade de Medição

As redes sociais se tornaram um campo de batalha para discussões sobre papéis de gênero. Existem comunidades que promovem visões tradicionais sobre masculinidade e feminilidade, enquanto outras desafiam essas ideias. A linguagem usada nessas discussões muitas vezes revela preconceitos subjacentes e sentimentos negativos em relação a certos grupos.

Enquanto alguns estudos reconhecem a presença de sexismo nas comunidades, muitos não fornecem uma medida clara de quão severo ele é. Por exemplo, podem afirmar que um grupo é sexista, mas não indicam quanto mais sexista ele é em comparação a outro grupo.

Pra preencher essa lacuna, foi criado um método escalável que quantifica o sexismo em discussões online. Esse método pode ser aplicado a várias comunidades pra dar uma compreensão mais detalhada do problema.

Como o Método Funciona

O método combina duas abordagens: uma que requer supervisão e outra que não requer. A parte supervisionada envolve treinar um modelo pra identificar comentários tóxicos. A parte não supervisionada identifica se esses comentários miram homens ou mulheres.

A abordagem consiste em examinar a linguagem usada nas discussões online, prestando atenção especial nos adjetivos que descrevem identidades masculinas e femininas. Ela avalia três fatores importantes:

  1. Toxicidade Contextual: Mede quão tóxica uma palavra é com base no seu contexto dentro da conversa de uma comunidade. Por exemplo, uma palavra que parece neutra em geral pode ter implicações negativas em certas discussões.

  2. Frequência: Determina com que frequência uma palavra é usada em uma comunidade. O uso frequente de uma palavra tóxica pode indicar um problema maior.

  3. Preconceito de Gênero: Identifica se a palavra tem viés em relação a um gênero específico. Isso ajuda a diferenciar entre negatividade geral em relação a um grupo e ataques específicos a indivíduos.

Ao analisar esses três aspectos, o método pode gerar uma pontuação que indica o nível de sexismo em uma comunidade.

Aplicando o Método a Comunidades Reais

O método foi testado em várias comunidades online, especialmente no Reddit, que tem grupos diversos discutindo gênero. Alguns desses grupos, como r/TheRedPill e r/MGTOW, são conhecidos por promover visões centradas nos homens e já foram rotulados como misóginos. Outros, como r/FemaleDatingStrategy, focam nas perspectivas das mulheres, mas foram criticados por objetificar homens.

Depois de analisar a linguagem usada nessas comunidades, os resultados mostraram padrões consistentes. O framework conseguiu identificar com sucesso os diferentes níveis de sexismo entre os grupos.

Descobertas de Diferentes Comunidades

  • r/TheRedPill e r/MGTOW: Essas comunidades tiveram uma pontuação alta em toxicidade em relação às mulheres. As discussões delas frequentemente incluíam estereótipos negativos e sugestões prejudiciais sobre o comportamento feminino.

  • r/FemaleDatingStrategy: Essa comunidade mostrou toxicidade voltada tanto para homens quanto para mulheres, refletindo uma dinâmica complexa onde as mulheres podem defender seus interesses enquanto também usam linguagem depreciativa sobre homens.

  • r/IncelTear: Essa comunidade, que critica comentários misóginos, ainda mostrou alta toxicidade em relação a figuras masculinas individuais, indicando que o sarcasmo pode esconder negatividade subjacente.

  • Comunidades Feministas: Grupos focados em feminismo exibiram menos toxicidade no geral, mas ainda continham discussões que criticavam papéis masculinos tradicionais.

Essas observações destacaram como diferentes comunidades podem se envolver em comportamentos tóxicos com base nas suas crenças e atitudes centrais.

Importância de Distinguir Alvos

Uma característica significativa do método é a capacidade de distinguir entre toxicidade geral em relação a identidades de gênero e ataques específicos a indivíduos. Essa clareza ajuda a evitar caracterizar mal comunidades que podem discutir certos indivíduos intensamente sem ter visões negativas abrangentes sobre um gênero.

Por exemplo, uma comunidade pode ser bastante crítica em relação a um político masculino particular sem ser inerentemente anti-homem. Entender essa diferença é essencial para abordar com precisão a linguagem usada nessas discussões.

Comparação com Outros Métodos

Métodos existentes de medir toxicidade geralmente dependem muito de listas pré-definidas de palavras e frases tóxicas. Isso pode levar a imprecisões, já que algumas palavras podem ser neutras em contextos diferentes, mas vistas como ofensivas em outros.

O novo método, no entanto, combina aprendizado supervisionado e não supervisionado, tornando-o mais adaptável a vários contextos. Ele não requer tanta anotação manual de dados como abordagens anteriores, o que o torna mais eficiente e escalável.

Além disso, ao contrário de métodos totalmente supervisionados que podem ser rígidos e menos generalizáveis, esse novo modelo pode avaliar dinamicamente a toxicidade com base na linguagem e contexto únicos de cada comunidade. Isso permite uma medição mais precisa do sexismo.

Implicações Mais Amplas

Esse método de medir sexismo não se limita apenas a discussões de gênero. Ele pode ser aplicado a outras formas de polarização no discurso online. Por exemplo, poderia ajudar a analisar discussões políticas apenas mudando as palavras-chave usadas no estudo.

Ao entender como a linguagem reflete preconceitos, os pesquisadores podem obter insights sobre dinâmicas sociais mais amplas, incluindo como diferentes grupos se comunicam e como essas comunicações podem escalar em visões mais extremas.

Direções Futuras

Existem várias possíveis avenidas para pesquisas futuras. Uma área importante é expandir o foco além do gênero para incluir outras identidades, como raça e orientação sexual. Isso exigiria ajustar o método para levar em conta os preconceitos e a linguagem únicos associados a esses outros grupos.

Outra direção poderia ser refinar ainda mais o modelo pra distinguir entre diferentes tipos de toxicidade, como sarcasmo versus agressão genuína. Isso poderia levar a entendimentos ainda mais nuances sobre a dinâmica das comunidades.

Conclusão

No geral, o método desenvolvido fornece uma ferramenta valiosa para medir sexismo e toxicidade em comunidades online. Ele permite uma avaliação mais clara de como a linguagem reflete atitudes em relação ao gênero, oferecendo insights que antes eram difíceis de quantificar.

Ao entender essas dinâmicas, moderadores e formuladores de políticas podem abordar melhor comportamentos tóxicos em espaços online, potencialmente levando a discussões mais saudáveis. Esse método abre caminho para futuras pesquisas sobre as complexidades da comunicação online e os fatores sociopolíticos que a influenciam.

Fonte original

Título: A Holistic Indicator of Polarization to Measure Online Sexism

Resumo: The online trend of the manosphere and feminist discourse on social networks requires a holistic measure of the level of sexism in an online community. This indicator is important for policymakers and moderators of online communities (e.g., subreddits) and computational social scientists, either to revise moderation strategies based on the degree of sexism or to match and compare the temporal sexism across different platforms and communities with real-time events and infer social scientific insights. In this paper, we build a model that can provide a comparable holistic indicator of toxicity targeted toward male and female identity and male and female individuals. Despite previous supervised NLP methods that require annotation of toxic comments at the target level (e.g. annotating comments that are specifically toxic toward women) to detect targeted toxic comments, our indicator uses supervised NLP to detect the presence of toxicity and unsupervised word embedding association test to detect the target automatically. We apply our model to gender discourse communities (e.g., r/TheRedPill, r/MGTOW, r/FemaleDatingStrategy) to detect the level of toxicity toward genders (i.e., sexism). Our results show that our framework accurately and consistently (93% correlation) measures the level of sexism in a community. We finally discuss how our framework can be generalized in the future to measure qualities other than toxicity (e.g. sentiment, humor) toward general-purpose targets and turn into an indicator of different sorts of polarizations.

Autores: Vahid Ghafouri, Jose Such, Guillermo Suarez-Tangil

Última atualização: 2024-06-29 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2404.02205

Fonte PDF: https://arxiv.org/pdf/2404.02205

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes