Simple Science

La science de pointe expliquée simplement

# Informatique# Interaction homme-machine

Les locuteurs amarneh font face à des défis sur YouTube

Des recherches montrent que les locuteurs amhariques sont exposés à du contenu nuisible sur YouTube.

― 9 min lire


YouTube déçoit lesYouTube déçoit lesutilisateurs amharas.ligne.menace les locuteurs amhariques enL'exposition à du contenu nuisible
Table des matières

Les plateformes en ligne comme YouTube atteignent des millions d'Utilisateurs à travers le monde. Cependant, il n'y a pas beaucoup d'infos sur comment les locuteurs de langues moins courantes utilisent ces plateformes, surtout en ce qui concerne le Contenu nuisible. Pour mieux comprendre ce problème, on s'est concentré sur l'amharique, une langue parlée largement en Éthiopie.

Le besoin de compréhension

On a mené deux types d'études pour explorer ce sujet. D'abord, on a interviewé 15 utilisateurs de YouTube parlant amharique pour connaître leurs expériences. Ensuite, on a examiné des données de YouTube, y compris des résultats de recherche, des recommandations, des commentaires et des chaînes liées au contenu sexuel nuisible en amharique.

Notre recherche a montré plusieurs résultats importants. Les utilisateurs Amhariques considèrent YouTube comme essentiel pour de nombreux aspects de leur vie. Cependant, ils ont signalé avoir été exposés à du contenu sexuel nuisible en cherchant des vidéos innocentes. C'est inquiétant car les créateurs de contenu inapproprié profitent du manque d'outils efficaces pour gérer le contenu dans les langues moins courantes.

L'essor de YouTube et ses défis

YouTube est le plus grand site de partage de vidéos dans de nombreux pays, influençant fortement la manière dont les gens consomment information et divertissement. Ces dernières années, de plus en plus de contenus dans des langues autres que l'anglais ont vu le jour. Cette expansion, cependant, s'accompagne de ses problèmes.

Bien que YouTube offre du contenu agréable, il a aussi des aspects nuisibles. De nombreux gouvernements dans le monde essaient de créer des règles pour contrôler le contenu en ligne. Malheureusement, il y a une ambiguïté sur ce qui constitue "du contenu nuisible" puisque cela peut inclure du matériel légal et illégal. En conséquence, YouTube s'appuie principalement sur ses propres directives pour gérer le contenu partagé sur sa plateforme. Malgré ces efforts, de nombreux utilisateurs peuvent encore rencontrer du contenu nuisible en raison de processus de surveillance inefficaces.

La Modération de contenu et ses défis

YouTube utilise une combinaison de systèmes automatisés et de modérateurs humains pour gérer le contenu téléchargé sur leur plateforme. Cependant, des problèmes surviennent, surtout pour les langues moins courantes. Avec des données numériques limitées pour des langues comme l'amharique, la modération efficace est souvent manquante. De plus, beaucoup de personnes chargées de modérer le contenu ne parlent pas ces langues couramment.

Les utilisateurs dans des contextes linguistiques à faibles ressources éprouvent souvent des problèmes de mauvaise modération de leur contenu. Cela entraîne un manque de compréhension sur comment le contenu en ligne dans leurs langues est géré, les mettant à risque d'exposition nuisible.

Le cas spécifique des utilisateurs amhariques

Pour creuser davantage, on s'est concentré sur les utilisateurs parlant amharique et leurs expériences avec le contenu sexuel sur YouTube. L'amharique est parlé par plus de 25 millions de personnes, principalement en Éthiopie. Des données passées ont montré que le contenu sexuel est l'un des types de matériel les plus regardés sur des plateformes comme YouTube. Notre objectif était de répondre à deux questions principales :

  1. Quelles sont les expériences des utilisateurs amhariques avec le contenu sexuel nuisible ?
  2. Quelles sont les caractéristiques du contenu sexuel nuisible en amharique ?

Étude 1 : Interviews avec les utilisateurs

Dans notre première étude, on a interviewé 15 locuteurs amhariques. Ces interviews ont eu lieu sur différentes plateformes en ligne, assurant que les participants se sentent en sécurité et à l'aise. Les conversations ont duré environ une heure, et on visait à comprendre comment ces utilisateurs ont rencontré du contenu nuisible.

On a découvert que les participants utilisaient YouTube à des fins éducatives et de divertissement. Cependant, leurs expériences de recherche étaient souvent frustrantes et peu productives. Beaucoup d'utilisateurs ont mentionné qu'ils devaient parcourir des résultats non pertinents pour trouver le contenu qu'ils recherchaient.

Fait intéressant, en cherchant des sujets communs, plusieurs utilisateurs ont signalé tomber sur des vidéos sexuelles. Par exemple, un participant a mentionné avoir été surpris de voir du contenu explicite en cherchant de la musique religieuse. Cela illustre comment du contenu nuisible peut apparaître de manière inattendue pendant que les utilisateurs cherchent des infos bénignes.

Les participants ont également noté qu'ils recevaient parfois des recommandations pour du contenu sexuel basé sur leurs habitudes de visionnage précédentes. C'était particulièrement préoccupant car certains utilisateurs ont rapporté avoir été exposés à ce matériel en parcourant simplement des vidéos connexes.

Étude 2 : Analyse des données de YouTube

Pour la deuxième partie de notre recherche, on a collecté et analysé des données directement depuis YouTube. On a rassemblé des résultats de recherche, des recommandations et des commentaires liés au contenu sexuel en amharique. Cela impliquait d'examiner des milliers de vidéos pour comprendre le comportement de l'algorithme de la plateforme.

On a découvert que de nombreuses requêtes de recherche bénignes renvoyaient des vidéos sexuelles non désirées. Pour un nombre significatif, on a trouvé que des requêtes populaires entraînaient l'apparition de contenu inapproprié dans les premiers résultats. Cela montre à quel point le matériel nuisible peut facilement infiltrer des recherches sûres.

De plus, on a examiné les vidéos que le système de recommandation offrait aux utilisateurs. Dans notre analyse, beaucoup d'utilisateurs qui ouvraient des vidéos sexuelles étaient présentés avec encore plus de contenu sexuel comme recommandations. Ce cycle perpétue l'exposition au matériel nuisible.

Le rôle des créateurs de contenu

Au cours de notre recherche, on a identifié plusieurs créateurs de contenu qui téléchargeaient du matériel nuisible en amharique. Ces créateurs utilisaient souvent diverses stratégies pour contourner la modération de contenu de YouTube. Certains utilisaient des émissions de télévision populaires ou des noms de célébrités dans leurs descriptions de vidéos pour attirer plus de vues, tandis que d'autres incorporaient un langage explicite dans leurs vignettes pour capter l'attention.

On a aussi remarqué qu'un certain nombre de ces chaînes avaient des allégations trompeuses dans leurs descriptions, se présentant comme fournissant un contenu utile ou éducatif. Cette manipulation rend difficile pour les utilisateurs d'identifier les vidéos nuisibles et mène à plus d'exposition à du matériel inapproprié.

Réactions des utilisateurs et mécanismes d'adaptation

Les participants ont partagé comment ils se sentaient souvent impuissants en signalant du contenu nuisible. Certains ont rapporté des expériences épuisantes en essayant de faire retirer des vidéos. Malgré les signalements de matériel nuisible, beaucoup ont exprimé des doutes sur l'efficacité du système de signalement.

Les utilisateurs ont décrit se sentir débordés et frustrés par le manque de réponses suffisantes à leurs signalements. Certains ont perdu espoir après des tentatives répétées infructueuses pour signaler du contenu nuisible, se sentant que leurs problèmes n'étaient pas pris au sérieux par la plateforme.

Pour faire face à ces frustrations, certains participants avaient développé des stratégies personnelles. Cela incluait l'utilisation de la fonctionnalité "Ne pas recommander" sur YouTube pour éviter l'exposition à du matériel non désiré et la création de comptes séparés pour différents intérêts. Ce comportement reflète le désir des utilisateurs de mieux gérer leurs expériences et de minimiser les dommages lors de leur interaction avec la plateforme.

L'impact sur les communautés

Nos résultats montrent un schéma préoccupant où les utilisateurs-surtout les groupes vulnérables comme les femmes et les travailleurs migrants-sont à risque d'être exposés à du contenu nuisible. Le manque d'outils de modération efficaces pour les langues à faibles ressources permet aux créateurs malveillants de cibler ces utilisateurs.

Les expériences partagées par les participants suggèrent un besoin pour des plateformes comme YouTube de fournir un meilleur soutien aux locuteurs de langues moins courantes. Il doit y avoir plus d'efforts pour s'assurer que les politiques sont correctement appliquées et que les utilisateurs sont protégés du contenu nuisible.

Recommandations pour l'amélioration

Sur la base de notre recherche, on propose plusieurs recommandations pour YouTube et d'autres plateformes en ligne :

  1. Améliorer la modération du contenu : Les plateformes devraient investir dans de meilleurs outils et plus de ressources dédiées à la surveillance du contenu dans les langues à faibles ressources. Cela inclut l'embauche de modérateurs qui parlent ces langues couramment.

  2. Améliorer les systèmes de signalement des utilisateurs : De meilleurs mécanismes de retour d'information sont essentiels pour les utilisateurs qui signalent du contenu nuisible. Cela peut aider à bâtir la confiance dans le système et encourager les utilisateurs à continuer à signaler des matériaux problématiques.

  3. Directives culturellement pertinentes : Développer des directives qui tiennent compte des différences culturelles peut aider les plateformes à mieux gérer le contenu. Comprendre le contexte des utilisateurs est important pour modérer efficacement le matériel.

  4. Campagnes de sensibilisation : Les plateformes peuvent travailler avec des organisations locales pour éduquer les utilisateurs sur les risques associés au contenu en ligne et leur donner les moyens de faire des choix plus sûrs.

  5. Engagement communautaire : Collaborer avec les utilisateurs et les communautés peut aider les plateformes à mieux comprendre leurs expériences et à améliorer les pratiques de modération du contenu.

Conclusion

Notre étude met en lumière les défis significatifs auxquels font face les locuteurs amhariques et d'autres utilisateurs de langues à faibles ressources sur des plateformes comme YouTube. Bien que ces plateformes offrent des ressources précieuses, elles exposent aussi les utilisateurs à du contenu nuisible en raison d'une modération inadéquate. En prenant des mesures pour améliorer la sécurité des utilisateurs et renforcer la modération du contenu, les plateformes peuvent créer une meilleure expérience pour tout le monde, en particulier pour ceux des communautés vulnérables.

Pour aller de l'avant, d'autres recherches sont nécessaires pour explorer les expériences des utilisateurs dans d'autres langues et contextes culturels. Comprendre l'impact de la langue sur les interactions en ligne sera crucial pour développer des environnements numériques plus inclusifs et sûrs.

Source originale

Titre: "I Searched for a Religious Song in Amharic and Got Sexual Content Instead": Investigating Online Harm in Low-Resourced Languages on YouTube

Résumé: Online social media platforms such as YouTube have a wide, global reach. However, little is known about the experience of low-resourced language speakers on such platforms; especially in how they experience and navigate harmful content. To better understand this, we (1) conducted semi-structured interviews (n=15) and (2) analyzed search results (n=9313), recommendations (n=3336), channels (n=120) and comments (n=406) of policy-violating sexual content on YouTube focusing on the Amharic language. Our findings reveal that -- although Amharic-speaking YouTube users find the platform crucial for several aspects of their lives -- participants reported unplanned exposure to policy-violating sexual content when searching for benign, popular queries. Furthermore, malicious content creators seem to exploit under-performing language technologies and content moderation to further target vulnerable groups of speakers, including migrant domestic workers, diaspora, and local Ethiopians. Overall, our study sheds light on how failures in low-resourced language technology may lead to exposure to harmful content and suggests implications for stakeholders in minimizing harm. Content Warning: This paper includes discussions of NSFW topics and harmful content (hate, abuse, sexual harassment, self-harm, misinformation). The authors do not support the creation or distribution of harmful content.

Auteurs: Hellina Hailu Nigatu, Inioluwa Deborah Raji

Dernière mise à jour: 2024-05-26 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2405.16656

Source PDF: https://arxiv.org/pdf/2405.16656

Licence: https://creativecommons.org/licenses/by-nc-sa/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires