Simple Science

Ciência de ponta explicada de forma simples

# Informática# Interação Homem-Computador

Falantes de Amárico Enfrentam Desafios no YouTube

Pesquisas mostram que falantes de amárico têm exposição a conteúdos prejudiciais no YouTube.

― 9 min ler


YouTube Falha comYouTube Falha comUsuários em Amáricoameaça falantes de amárico na internet.A exposição a conteúdo prejudicial
Índice

Plataformas online como o YouTube atingem milhões de Usuários ao redor do mundo. Contudo, não tem muita informação sobre como falantes de línguas menos comuns usam essas plataformas, especialmente em relação a conteúdos prejudiciais. Para entender melhor essa questão, focamos no Amárico, uma língua falada amplamente na Etiópia.

A Necessidade de Compreensão

Fizemos dois tipos de estudos para investigar essa questão. Primeiro, entrevistamos 15 usuários de YouTube que falam amárico pra saber sobre suas experiências. Segundo, analisamos dados do YouTube, incluindo resultados de busca, recomendações, comentários e canais relacionados a conteúdos sexuais prejudiciais em amárico.

Nossa pesquisa mostrou várias descobertas importantes. Usuários que falam amárico consideram o YouTube importante pra várias partes de suas vidas. No entanto, relataram ser expostos a conteúdos sexuais prejudiciais enquanto buscavam vídeos inocentes. Isso é preocupante porque criadores de conteúdo ruins aproveitam a falta de ferramentas eficazes pra gerenciar conteúdo em línguas menos comuns.

A Ascensão do YouTube e Seus Desafios

O YouTube é o maior site de compartilhamento de vídeo em muitos países, influenciando significativamente como as pessoas consomem informações e entretenimento. Nos últimos anos, mais conteúdo em línguas que não o inglês surgiu. Essa expansão, porém, traz seus problemas.

Embora o YouTube ofereça conteúdo divertido, ele também tem aspectos prejudiciais. Muitos governos pelo mundo estão tentando criar regras pra controlar o conteúdo online. Infelizmente, há ambiguidade sobre o que constitui "Conteúdo Prejudicial", já que pode incluir material tanto legal quanto ilegal. Como resultado, o YouTube se baseia principalmente em suas próprias diretrizes pra gerenciar o conteúdo compartilhado em sua plataforma. Apesar desses esforços, muitos usuários ainda podem encontrar conteúdo prejudicial devido a processos de monitoramento ineficazes.

Moderação de Conteúdo e Seus Desafios

O YouTube utiliza uma combinação de sistemas automatizados e moderadores humanos pra gerenciar o conteúdo enviado à sua plataforma. No entanto, surgem problemas, especialmente para línguas menos comuns. Com dados digitais limitados para línguas como o amárico, a moderação eficaz muitas vezes falta. Além disso, muitas das pessoas encarregadas de moderar o conteúdo não falam essas línguas fluentemente.

Usuários em contextos de línguas com poucos recursos frequentemente experimentam uma má moderação de seu conteúdo. Isso leva a uma falta de compreensão de como o conteúdo online em suas línguas está sendo gerenciado, colocando-os em risco de exposição prejudicial.

O Caso Específico dos Usuários de Amárico

Pra aprofundar, focamos em usuários que falam amárico e suas experiências com conteúdo sexual no YouTube. O amárico é falado por mais de 25 milhões de pessoas, principalmente na Etiópia. Dados anteriores mostraram que conteúdo sexual é um dos tipos de material mais assistidos em plataformas como o YouTube. Nosso objetivo era responder a duas perguntas principais:

  1. Quais são as experiências dos usuários de amárico com conteúdo sexual prejudicial?
  2. Quais são as características do conteúdo sexual prejudicial em amárico?

Estudo 1: Entrevistas com Usuários

No nosso primeiro estudo, entrevistamos 15 falantes de amárico. As entrevistas aconteceram em várias plataformas online, garantindo que os participantes se sentissem seguros e à vontade. As conversas duraram cerca de uma hora, e nosso objetivo era entender como esses usuários encontraram conteúdo prejudicial.

Descobrimos que os participantes usavam o YouTube para fins educacionais e de entretenimento. No entanto, suas experiências de busca eram frequentemente frustrantes e improdutivas. Muitos usuários mencionaram que precisavam filtrar resultados irrelevantes pra encontrar o conteúdo que procuravam.

Curiosamente, ao procurarem por tópicos comuns, vários usuários relataram ter se deparado com vídeos sexuais. Por exemplo, um participante mencionou ter se surpreendido ao ver conteúdo explícito ao pesquisar por música religiosa. Isso ilustra como conteúdo prejudicial pode aparecer inesperadamente enquanto os usuários buscam informações benignas.

Os participantes também notaram que, às vezes, recebiam recomendações para conteúdo sexual com base em seus hábitos de visualização anteriores. Isso era particularmente preocupante porque alguns usuários relataram ter sido expostos a esse material enquanto simplesmente navegavam por vídeos relacionados.

Estudo 2: Analisando Dados do YouTube

Para a segunda parte da nossa pesquisa, coletamos e analisamos dados diretamente do YouTube. Reunimos resultados de busca, recomendações e comentários relacionados a conteúdo sexual em amárico. Isso envolveu olhar milhares de vídeos pra entender o comportamento do algoritmo da plataforma.

Descobrimos que muitas buscas benignas estavam retornando vídeos sexuais indesejados. Para um número significativo, encontramos que buscas populares resultavam em conteúdo inadequado aparecendo nos principais resultados. Isso mostra como material prejudicial pode infiltrar buscas seguras facilmente.

Além disso, examinamos os vídeos que o sistema de recomendação oferecia aos usuários. Na nossa análise, muitos usuários que abriram vídeos sexuais eram apresentados a ainda mais conteúdo sexual como recomendações. Esse ciclo perpetua a exposição a materiais prejudiciais.

O Papel dos Criadores de Conteúdo

Durante nossa pesquisa, identificamos vários criadores de conteúdo que carregaram material prejudicial em amárico. Esses criadores frequentemente usavam várias estratégias pra driblar a moderação de conteúdo do YouTube. Alguns usavam programas de TV populares ou nomes de celebridades nas descrições de seus vídeos pra atrair mais visualizações, enquanto outros incorporavam linguagem explícita em suas miniaturas pra ganhar atenção.

Também notamos que vários desses canais tinham alegações enganosas em suas descrições, se apresentando como se estivessem oferecendo conteúdo útil ou educacional. Essa manipulação dificultou para os usuários identificarem vídeos prejudiciais e levou a mais exposição a material inadequado.

Reações dos Usuários e Mecanismos de Enfrentamento

Os participantes compartilharam como muitas vezes se sentiam impotentes ao relatar conteúdo prejudicial. Alguns relataram experiências cansativas ao tentar retirar vídeos do ar. Apesar de relatarem material prejudicial, muitos expressaram dúvidas sobre a eficácia do sistema de denúncias.

Os usuários descreveram se sentir sobrecarregados e frustrados pela falta de respostas suficientes às suas denúncias. Alguns perderam a esperança após tentativas repetidas e frustradas de relatar conteúdo prejudicial, sentindo que seus problemas não eram levados a sério pela plataforma.

Pra lidar com essas frustrações, alguns participantes desenvolveram estratégias pessoais. Isso incluía usar a função "Não Recomendar" no YouTube pra evitar exposição a material indesejado e criar contas separadas pra diferentes interesses. Esse comportamento reflete o desejo dos usuários de gerenciar melhor suas experiências e minimizar danos ao interagir com a plataforma.

O Impacto nas Comunidades

Nossas descobertas mostram um padrão preocupante onde usuários-especialmente grupos vulneráveis como mulheres e trabalhadores migrantes-estão em risco de serem expostos a conteúdo prejudicial. A falta de ferramentas de moderação eficazes para línguas com poucos recursos permite que criadores mal-intencionados visem esses usuários.

As experiências compartilhadas pelos participantes sugerem uma necessidade de plataformas como o YouTube oferecerem melhor suporte para falantes de línguas menos comuns. Deve haver esforços aumentados pra garantir que as políticas sejam aplicadas adequadamente e que os usuários sejam protegidos de conteúdo prejudicial.

Recomendações para Melhoria

Baseado em nossa pesquisa, propomos várias recomendações para o YouTube e outras plataformas online:

  1. Aprimorar a Moderação de Conteúdo: As plataformas devem investir em melhores ferramentas e mais recursos dedicados a monitorar conteúdo em línguas com poucos recursos. Isso inclui contratar moderadores que falem essas línguas fluentemente.

  2. Melhorar os Sistemas de Denúncia dos Usuários: Mecanismos de feedback mais fortes são vitais para usuários que reportam conteúdo prejudicial. Isso pode ajudar a construir confiança no sistema e encorajar os usuários a continuarem denunciando materiais problemáticos.

  3. Diretrizes Culturalmente Relevantes: Desenvolver diretrizes que considerem as diferenças culturais pode ajudar as plataformas a gerenciar melhor o conteúdo. Compreender o contexto dos usuários é importante pra moderar material de forma eficaz.

  4. Campanhas de Conscientização: As plataformas podem trabalhar com organizações locais pra educar usuários sobre os riscos associados ao conteúdo online e capacitá-los a fazer escolhas mais seguras.

  5. Engajamento da Comunidade: Colaborar com usuários e comunidades pode ajudar as plataformas a entenderem melhor suas experiências e melhorar as práticas de moderação de conteúdo.

Conclusão

Nosso estudo destaca os desafios significativos enfrentados por falantes de amárico e outros usuários de línguas com poucos recursos em plataformas como o YouTube. Embora essas plataformas ofereçam recursos valiosos, elas também expõem os usuários a conteúdo prejudicial devido à moderação inadequada. Ao tomar medidas pra melhorar a segurança dos usuários e aprimorar a moderação de conteúdo, as plataformas podem criar uma experiência melhor pra todo mundo, especialmente pra aqueles em comunidades vulneráveis.

Daqui pra frente, mais pesquisas são necessárias pra explorar as experiências de usuários em outras línguas e contextos culturais. Compreender o impacto da língua nas interações online será crucial pra desenvolver ambientes digitais mais inclusivos e seguros.

Fonte original

Título: "I Searched for a Religious Song in Amharic and Got Sexual Content Instead": Investigating Online Harm in Low-Resourced Languages on YouTube

Resumo: Online social media platforms such as YouTube have a wide, global reach. However, little is known about the experience of low-resourced language speakers on such platforms; especially in how they experience and navigate harmful content. To better understand this, we (1) conducted semi-structured interviews (n=15) and (2) analyzed search results (n=9313), recommendations (n=3336), channels (n=120) and comments (n=406) of policy-violating sexual content on YouTube focusing on the Amharic language. Our findings reveal that -- although Amharic-speaking YouTube users find the platform crucial for several aspects of their lives -- participants reported unplanned exposure to policy-violating sexual content when searching for benign, popular queries. Furthermore, malicious content creators seem to exploit under-performing language technologies and content moderation to further target vulnerable groups of speakers, including migrant domestic workers, diaspora, and local Ethiopians. Overall, our study sheds light on how failures in low-resourced language technology may lead to exposure to harmful content and suggests implications for stakeholders in minimizing harm. Content Warning: This paper includes discussions of NSFW topics and harmful content (hate, abuse, sexual harassment, self-harm, misinformation). The authors do not support the creation or distribution of harmful content.

Autores: Hellina Hailu Nigatu, Inioluwa Deborah Raji

Última atualização: 2024-05-26 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2405.16656

Fonte PDF: https://arxiv.org/pdf/2405.16656

Licença: https://creativecommons.org/licenses/by-nc-sa/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes