Simple Science

La science de pointe expliquée simplement

# Informatique# Interaction homme-machine

L'essor des outils de modération de contenu personnel

Étudier l'impact de la modération par les utilisateurs sur les expériences en ligne.

― 13 min lire


Outils de modérationOutils de modérationperso : contrôleutilisateurdans les espaces en ligne.et la responsabilité des plateformesÉquilibrer le pouvoir des utilisateurs
Table des matières

Ces dernières années, les plateformes en ligne où les gens interagissent ont explosé. Les sites de Réseaux sociaux permettent aux utilisateurs de partager du contenu, ce qui peut parfois mener à des expériences nuisibles, surtout pour les groupes vulnérables. Traiter le Contenu abusif, comme les discours haineux ou le harcèlement, est essentiel pour créer un environnement en ligne positif. Plusieurs entreprises ont commencé à développer des outils qui permettent aux utilisateurs de contrôler leurs propres expériences, leur permettant de décider quel type de contenu ils veulent voir ou éviter.

Un de ces outils, lancé par Intel, s'appelle Bleep et est conçu pour filtrer le langage abusif dans les discussions vocales en ligne pendant les jeux. Cet outil permet aux utilisateurs d'ajuster les paramètres avec des curseurs pour contrôler la quantité de différents types de langage abusif qu'ils souhaitent dans leurs conversations. Cependant, l'introduction de tels outils a suscité des réactions mitigées parmi les utilisateurs.

Certaines personnes pensent que Bleep peut offrir sécurité et confort, tandis que d'autres estiment que cela banalise des problèmes sérieux comme le racisme ou le sexisme en permettant aux utilisateurs de les "accorder" ou non comme une radio. Ce débat met en avant les sentiments complexes qui apparaissent lorsque l'on donne aux utilisateurs le contrôle sur le contenu qu'ils rencontrent. Ça soulève des questions sur le fait qu'il est juste que les utilisateurs aient un tel pouvoir et si cela leur impose trop de responsabilités.

La Croissance des Réseaux Sociaux et du Contenu Généré par les Utilisateurs

Les réseaux sociaux ont explosé en popularité depuis le milieu des années 2000. Ça permet aux utilisateurs de générer du contenu et de partager leurs opinions avec les autres. Ce pouvoir est particulièrement précieux pour les groupes marginalisés qui peuvent utiliser ces plateformes pour s'exprimer ou attirer l'attention sur des questions importantes. Cependant, les règles régissant le contenu acceptable sur ces plateformes sont souvent façonnées par les normes culturelles de la Silicon Valley, où se trouvent de nombreuses grandes entreprises de réseaux sociaux.

Différentes cultures et communautés ont des vues différentes sur ce qui constitue un contenu acceptable. Par conséquent, une approche universelle de la Modération de contenu est insuffisante. Reconnaissant cela, certains experts plaident désormais pour une modération personnelle du contenu, où les utilisateurs peuvent personnaliser leur expérience en fonction de leurs préférences. Cette approche donne aux utilisateurs la possibilité de décider ce qu'ils veulent voir, rendant potentiellement leur expérience en ligne plus sûre et agréable.

L'Émergence d'Outils de Modération de Contenu Personnel

La modération personnelle de contenu fait référence à des systèmes permettant aux utilisateurs de personnaliser leurs choix de modération en fonction du contenu qu'ils rencontrent en ligne. De tels outils peuvent offrir des curseurs, des boutons à bascule et des filtres pour aider les utilisateurs à gérer ce qu'ils voient. Les utilisateurs peuvent définir des préférences pour différents types de contenu, comme leur sensibilité aux discours haineux ou à des mots-clés spécifiques.

Certaines plateformes de réseaux sociaux ont déjà commencé à expérimenter ces outils. Alors que la modération traditionnelle repose souvent sur des règles générales imposées par la plateforme, les outils de modération personnelle laissent aux utilisateurs le contrôle de leur propre expérience. Les utilisateurs peuvent ajuster leurs paramètres pour refléter leurs niveaux de confort, qui peuvent varier considérablement d'une personne à l'autre.

Perspectives des utilisateurs sur la Modération Personnelle de Contenu

L'introduction d'outils de modération de contenu personnel a suscité des discussions sur les responsabilités des utilisateurs et des plateformes. Beaucoup d'utilisateurs apprécient la capacité de personnaliser leurs expériences, surtout ceux qui rencontrent régulièrement du contenu nuisible. Par exemple, ceux qui subissent de la discrimination ou du discours haineux trouvent souvent utile de filtrer certains termes ou types de contenu.

Cependant, tout le monde ne soutient pas l'idée d'une modération configurée par l'utilisateur. Certains utilisateurs s'inquiètent que cela déplace le fardeau de la modération sur les individus plutôt que de s'attaquer à des problèmes systémiques. Les critiques craignent qu'en permettant aux utilisateurs de manipuler le filtrage de contenu, cela crée une expérience en ligne aseptisée qui empêche les interactions authentiques.

Les opinions autour de ces outils illustrent le choc entre l'autonomisation des utilisateurs et la responsabilité des plateformes de créer un environnement sûr pour tous les utilisateurs. Les utilisateurs souhaitent avoir le contrôle sur leurs expériences, mais ils veulent aussi de la responsabilité de la part des plateformes qui hébergent leurs interactions.

Réactions des Utilisateurs au Contenu Nuisible

Les participants aux études sur les outils de modération personnelle ont partagé une large gamme d'expériences avec les préjudices en ligne. Beaucoup rencontrent du contenu négatif non seulement dans leurs fils d'actualité, mais aussi dans des messages directs ou des commentaires. Tandis que certains utilisateurs utilisent activement des outils de modération pour se protéger, d'autres choisissent de l'ignorer complètement ou même de quitter les réseaux sociaux.

Ceux qui utilisent des outils de modération expriment souvent leur frustration face aux fonctionnalités existantes. Ils trouvent que, bien que des outils comme des curseurs et des filtres offrent un certain niveau de contrôle, ils peuvent manquer de clarté et d'efficacité. Les utilisateurs peuvent se sentir submergés en essayant de configurer les paramètres, ce qui les conduit à se désengager des efforts de modération.

De plus, il y a une peur de rater du contenu précieux en utilisant des outils de modération. Certains utilisateurs sont prudents à l'idée de filtrer des publications car ils craignent de rater des nouvelles ou des discussions importantes. Ce conflit soulève une question essentielle sur l'équilibre entre la sécurité et l'ouverture dans les interactions en ligne.

La Complexité de la Modération de Contenu

Quand les utilisateurs parlent des outils de modération personnelle, ils évoquent souvent la difficulté de définir les différents types de contenu nuisible. Des termes comme "toxique" ou "agressif" peuvent être ambigus et subjectifs. Ce que quelqu'un trouve offensant, une autre personne peut l'interpréter différemment. À cause de ces opinions divergentes, les systèmes de modération personnelle doivent naviguer ces complexités avec précaution.

Les utilisateurs ont exprimé le besoin de définitions plus claires des catégories de contenu et des critères pour mieux comprendre comment la modération fonctionne. Actuellement, beaucoup d'outils existants manquent de la transparence nécessaire, laissant les utilisateurs confus sur la façon dont leurs choix affectent le contenu qu'ils voient. Ce manque de clarté peut rendre les utilisateurs réticents à interagir avec les outils ou à s'appuyer sur eux pour se protéger.

La nature évolutive du langage et des normes sociales ajoute une autre couche de complexité à la modération de contenu. Certains termes peuvent changer de signification ou de connotation au fil du temps, rendant difficile pour les outils de modération de rester pertinents.

Le Rôle du Contexte dans la Modération

Comprendre le contexte entourant les mots et les déclarations est vital pour une modération efficace. Beaucoup d'utilisateurs ont souligné que la signification des mots peut grandement dépendre du contexte social ou culturel dans lequel ils sont utilisés. Ce problème peut créer des défis pour les outils de modération qui s'appuient uniquement sur le filtrage par mots-clés sans tenir compte du contexte.

Par exemple, certaines communautés peuvent utiliser des insultes récupérées ou des termes qui pourraient être perçus comme offensants en dehors de leurs cercles. Sans la compréhension du contexte, les outils de modération peuvent censurer involontairement des conversations qui sont bénignes ou de soutien au sein de ces communautés.

De plus, les utilisateurs ont noté que leurs préférences en matière de modération peuvent varier en fonction de contextes ou de conversations spécifiques. Certains ont suggéré que les outils de modération devraient permettre des ajustements contextuels plutôt que d'appliquer des filtres universels, permettant aux utilisateurs de maintenir des dialogues ouverts tout en se protégeant contre le contenu nuisible.

Attentes des Utilisateurs pour les Outils de Modération

En ce qui concerne la modération personnelle de contenu, les utilisateurs ont diverses attentes. Beaucoup estiment que les plateformes devraient prendre la responsabilité de supprimer le contenu le plus nuisible. Ils soutiennent que, bien que les outils personnels soient utiles, ils ne devraient pas soulager les plateformes de leur devoir de protéger les utilisateurs.

Les utilisateurs veulent aussi des outils de modération qui soient faciles à comprendre et à utiliser. Ils expriment leur frustration lorsqu'ils rencontrent des systèmes compliqués qui nécessitent un effort considérable pour être navigués. Un équilibre doit être trouvé entre l'autonomie personnelle et le travail cognitif impliqué dans la configuration de ces outils.

De plus, les utilisateurs s'attendent à une cohérence entre les différentes plateformes et outils. Ils veulent être rassurés que les systèmes de modération fonctionneront efficacement, peu importe où ils interagissent en ligne. Cette cohérence peut aider à renforcer la confiance des utilisateurs dans les outils de modération personnelle.

La Nécessité de Transparence et de Clarté

Dans les discussions sur les outils de modération, les utilisateurs soulignent souvent le besoin de transparence concernant comment les décisions de modération sont prises. Ils veulent savoir quels critères sont utilisés pour catégoriser le contenu et comment leurs paramètres peuvent impacter ce qu'ils voient.

Offrir des définitions et des exemples clairs peut aider les utilisateurs à mieux comprendre comment utiliser les outils de modération. Sans ces informations, les utilisateurs peuvent être incertains de ce à quoi s'attendre et peuvent se sentir désarmés. Une plus grande transparence peut encourager les utilisateurs à s'engager plus profondément avec les efforts de modération.

Les plateformes doivent aussi considérer comment aborder les défis de la modération personnelle tout en maintenant la confiance des utilisateurs. Incorporer les retours des utilisateurs et faire évoluer progressivement les critères de modération peut aider à établir un sentiment de propriété pour les utilisateurs sur leurs expériences.

Réduire le Fardeau de la Modération

Une préoccupation majeure parmi les utilisateurs d'outils de modération personnelle est la charge cognitive associée à la configuration de ces paramètres. Beaucoup de participants ont exprimé le souhait d'outils qui minimisent l'effort impliqué dans le filtrage du contenu tout en permettant des préférences individuelles.

Pour réduire ce fardeau, les systèmes de modération peuvent mettre en œuvre des fonctionnalités qui permettent aux utilisateurs d'importer des paramètres ou des catégories pré-configurés. Ce faisant, les utilisateurs peuvent rapidement ajuster leurs filtres pour s'aligner sur leurs valeurs sans passer trop de temps sur la configuration.

Utiliser des méthodes de filtrage collaboratif ou des préférences de modération issues de la foule peut aussi aider les utilisateurs à bénéficier des expériences des autres. Cette approche permet aux utilisateurs de peaufiner leurs paramètres avec un effort minimal tout en apprenant des préférences de leurs pairs.

L'Importance des Processus Itératifs

Beaucoup d'utilisateurs ont indiqué que leurs préférences en matière de modération pouvaient changer avec le temps. Au fur et à mesure que leurs expériences sur les réseaux sociaux évoluent, leurs besoins en matière de filtrage de contenu peuvent également évoluer. Les outils de modération personnelle devraient permettre des ajustements itératifs, permettant aux utilisateurs d'adapter leurs filtres au besoin.

Les plateformes peuvent faciliter des ajustements dynamiques en offrant des contrôles juste-à-temps. Ceux-ci peuvent automatiquement incorporer les retours des utilisateurs pour affiner leurs paramètres, rendant plus facile pour les utilisateurs de maintenir une expérience en ligne sûre tout en s'engageant avec du contenu divers.

Encourager les utilisateurs à donner leur avis sur leurs expériences avec les outils de modération peut aussi favoriser l'amélioration continue. Les plateformes qui sollicitent activement les retours des utilisateurs peuvent améliorer leurs systèmes au fil du temps, améliorant finalement la satisfaction des utilisateurs.

La Répartition de la Responsabilité

À mesure que les outils de modération personnelle deviennent plus courants, la question de la responsabilité se pose. Les utilisateurs ont exprimé que les plateformes ne devraient pas uniquement compter sur eux pour gérer le contenu ; il devrait plutôt y avoir une responsabilité partagée entre utilisateurs et plateformes.

Bien que les utilisateurs apprécient la possibilité de personnaliser leurs expériences, ils s'attendent aussi à ce que les plateformes maintiennent un niveau de modération de base. Ils veulent des assurances que le contenu nuisible sera traité de manière proactive, laissant aux utilisateurs la liberté de façonner leurs expériences uniques sans faire face à des risques inutiles.

L'équilibre des responsabilités peut créer des tensions, surtout lorsqu'il s'agit de définir ce qui constitue un contenu inacceptable. Les utilisateurs peuvent sentir que leurs contextes culturels et leurs perspectives sont souvent ignorés dans les politiques à l'échelle de la plateforme, ce qui entraîne frustration et sentiments d'exclusion.

Conclusion

La discussion autour des outils de modération de contenu personnel révèle un jeu complexe d'autonomisation des utilisateurs, de responsabilité et de besoin de transparence. À mesure que les plateformes de réseaux sociaux continuent de croître, le développement de systèmes de modération centrés sur l'utilisateur est essentiel pour garantir des expériences en ligne sûres et enrichissantes.

Il n'existe pas de solution universelle à la modération de contenu. Comprendre les diverses expériences et attentes des utilisateurs est crucial pour créer des outils qui répondent vraiment à leurs besoins. En mettant l'accent sur la clarté, le contexte et les processus itératifs, les plateformes peuvent favoriser des interactions constructives tout en respectant l'autonomie des utilisateurs.

Le chemin à suivre pour la modération personnelle de contenu nécessite un dialogue continu entre utilisateurs, plateformes et décideurs. En travaillant ensemble, les parties prenantes peuvent mieux aborder les défis du contenu en ligne tout en promouvant la liberté d'expression et la communication ouverte.

Les utilisateurs méritent des outils efficaces pour façonner leurs expériences en ligne, et les plateformes doivent être proactives pour créer des environnements sûrs. La modération personnelle peut servir de moyen puissant pour les utilisateurs de naviguer dans le paysage complexe des interactions en ligne tout en conservant le contrôle sur leurs expériences.

Source originale

Titre: Personalizing Content Moderation on Social Media: User Perspectives on Moderation Choices, Interface Design, and Labor

Résumé: Social media platforms moderate content for each user by incorporating the outputs of both platform-wide content moderation systems and, in some cases, user-configured personal moderation preferences. However, it is unclear (1) how end users perceive the choices and affordances of different kinds of personal content moderation tools, and (2) how the introduction of personalization impacts user perceptions of platforms' content moderation responsibilities. This paper investigates end users' perspectives on personal content moderation tools by conducting an interview study with a diverse sample of 24 active social media users. We probe interviewees' preferences using simulated personal moderation interfaces, including word filters, sliders for toxicity levels, and boolean toxicity toggles. We also examine the labor involved for users in choosing moderation settings and present users' attitudes about the roles and responsibilities of social media platforms and other stakeholders towards moderation. We discuss how our findings can inform design solutions to improve transparency and controllability in personal content moderation tools.

Auteurs: Shagun Jhaver, Alice Qian Zhang, Quanze Chen, Nikhila Natarajan, Ruotong Wang, Amy Zhang

Dernière mise à jour: 2023-05-17 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2305.10374

Source PDF: https://arxiv.org/pdf/2305.10374

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires