Traiter les promotions inappropriées dans les jeux générés par les utilisateurs
Un nouveau système identifie les contenus nuisibles dans les promotions UGCG.
― 10 min lire
Table des matières
- La montée des jeux de contenu généré par les utilisateurs
- Le défi de la Modération de contenu
- Collecte et analyse de données
- Présentation de notre système de détection
- La nature des images promotionnelles UGCG
- Limitations des systèmes de détection existants
- Notre cadre pour la modération
- Mise en œuvre et évaluation
- L'importance de l'identification contextuelle
- Expérimentations en situations réelles
- Défis et considérations éthiques
- Conclusion et orientations futures
- Source originale
- Liens de référence
Les jeux en ligne créés par les utilisateurs (UGCGs) sont devenus super populaires, surtout chez les gamins et les ados. Ces jeux offrent des moyens amusants de socialiser et d'être créatif en ligne. Par contre, il y a un gros souci : certains de ces jeux propagent du contenu inapproprié et explicite sur les réseaux sociaux. Ça peut exposer les jeunes à des images nuisibles, ce qui soulève de sérieux problèmes de sécurité. Malgré ces inquiétudes, il n'y a pas eu beaucoup de recherches sur comment ces promotions nuisibles fonctionnent.
Dans cet article, on se concentre sur le challenge posé par les promotions inappropriées d'UGCGs dangereux. On a rassemblé une collection d'images qui montrent du contenu sexuel et violent lié à ces jeux. On a découvert que beaucoup de ces images promotionnelles sont des captures d'écran directes des jeux eux-mêmes. Ça montre qu'il y a un besoin clair de meilleurs systèmes pour signaler automatiquement ces promotions dangereuses.
On a créé un nouveau système conçu pour aider les plateformes de réseaux sociaux à identifier les images nuisibles utilisées pour promouvoir des UGCGs dangereux. Notre système utilise des modèles avancés qui combinent vision et langage pour détecter efficacement ces images. Avec un taux de précision de 94%, notre système surpasse largement les outils existants pour ça.
La montée des jeux de contenu généré par les utilisateurs
Les jeux de contenu généré par les utilisateurs en ligne ont pris le devant de la scène ces dernières années. Ces jeux permettent aux joueurs de créer leurs propres expériences de jeu et de les partager avec les autres. Des plateformes comme Roblox ont permis à un large éventail de créateurs de concevoir des jeux engageants qui attirent des millions d'utilisateurs, surtout des enfants. Les données montrent qu'une grande partie des utilisateurs de Roblox a moins de 16 ans, avec beaucoup qui sont même plus jeunes.
Pour attirer des joueurs, les créateurs utilisent souvent des plateformes de réseaux sociaux comme X (anciennement Twitter), Reddit et Discord pour partager des images ou vidéos promotionnelles. Même si cette stratégie aide à toucher plus d'utilisateurs, elle comporte aussi le risque d'exposer les enfants à du contenu nuisible. Malheureusement, certains créateurs de jeux ont profité de cette opportunité pour promouvoir des jeux remplis d'images explicites et de violence, posant de sérieux risques pour les jeunes audiences.
Modération de contenu
Le défi de laLa modération de contenu dans les UGCGs est un sujet de discussion continu, mais les efforts de modération se concentrent principalement sur ce qui se passe à l'intérieur des jeux. Peu d'attention a été accordée à la promotion de ces jeux à travers des images sur les réseaux sociaux. Les créateurs de jeux partagent souvent des Contenus promotionnels qui peuvent avoir l'air innocents mais qui peuvent en fait être nuisibles.
Les outils de modération actuels, comme Google Cloud Vision, Clarifai et Amazon Rekognition, utilisent la technologie pour détecter du contenu nuisible. Cependant, ils ont souvent du mal à identifier les images inappropriées liées aux UGCGs. Les modèles d'apprentissage automatique traditionnels reposent sur de grands ensembles de données pour apprendre ce qui est considéré comme dangereux, mais récolter de tels ensembles de données pour les UGCGs est compliqué à cause des styles et des personnages uniques utilisés dans ces jeux.
Collecte et analyse de données
Pour comprendre l'ampleur des promotions d'images inappropriées dans les UGCGs, on a collecté un ensemble de données du monde réel d'images. Cet ensemble de données inclut 2,924 images montrant du contenu sexuel explicite et violent. On a utilisé des mots-clés tirés des histoires partagées par des parents et des enfants pour trouver des images pertinentes.
À travers notre analyse, on a trouvé que beaucoup de ces images promotionnelles sont en fait des captures d'écran des UGCGs. Ça montre qu'il faut des stratégies de modération plus robustes. De plus, nos tests ont montré que les outils de Détection actuels performent mal en ce qui concerne l'identification des images liées aux UGCGs, révélant des lacunes significatives dans leur efficacité.
Présentation de notre système de détection
Pour relever ces défis, on a développé un système novateur spécifiquement conçu pour détecter les images nuisibles liées aux promotions UGCG. Notre système utilise des modèles avancés de vision-langage (VLMs) et une nouvelle méthode appelée « prompting conditionnel » pour une meilleure précision. Cette approche permet à notre modèle d'apprendre et de s'adapter sans avoir besoin de grandes quantités de données d'entraînement.
Notre système est capable d'identifier des images promotionnelles illicites avec une précision impressionnante. Il utilise le raisonnement contextuel pour comprendre ce qui se passe dans une image, ce qui lui permet de signaler efficacement le contenu nuisible.
La nature des images promotionnelles UGCG
Les images promotionnelles utilisées par les créateurs d'UGCG diffèrent énormément des promotions de jeux traditionnels. Au lieu de graphiques conçus professionnellement, la plupart des promotions UGCG consistent en de simples captures d'écran prises directement des jeux. Notre analyse a confirmé qu'environ 97,8 % des images promotionnelles échantillonnées étaient des captures d'écran.
Ça veut dire que les images se fondent parfaitement dans la plateforme, rendant difficile l'identification de celles qui sont nuisibles. Ce problème met en évidence l'urgence d'améliorer les outils de modération pour mieux reconnaître et signaler ces promotions problématiques.
Limitations des systèmes de détection existants
On a examiné à quel point les systèmes de détection existants peuvent identifier les images nuisibles des UGCG. Cela a impliqué d'évaluer des outils largement utilisés comme Google Vision AI et d'autres. Bien que ces systèmes soient efficaces pour reconnaître du contenu traditionnellement dangereux, ils sous-performent nettement lorsqu'il s'agit de détecter des images liées aux UGCG.
Ce manque d'efficacité découle des éléments visuels distincts présents dans les UGCG par rapport aux images du monde réel ou animées. À cause de cette disparité, un grand écart existe dans la modération du contenu unique produit dans ces jeux, ce qui entraîne un besoin pressant pour des méthodes de détection spécialisées.
Notre cadre pour la modération
En développant notre système de détection, on a mis en place un cadre qui inclut plusieurs composants clés :
Collecte et annotation de données : On a compilé un ensemble de données d'images liées à des promotions UGCG illicites et on les a systématiquement annotées.
Détection basée sur VLM : En utilisant de grands VLMs, on a mis en œuvre une stratégie de prompting conditionnel pour adapter notre modèle aux caractéristiques uniques des images UGCG.
Modération de contenu : Notre système traite les images et détermine si elles contiennent du contenu dangereux, en émettant des alertes si nécessaire.
Le cadre est conçu pour fonctionner efficacement dans des environnements réels de réseaux sociaux, permettant une modération efficace du contenu promotionnel.
Mise en œuvre et évaluation
On a utilisé un système informatique hautes performances pour mettre en œuvre notre cadre de détection. Nos tests ont comparé ses performances avec celles des détecteurs de référence existants. Les résultats ont révélé que notre système surpassait largement ces outils traditionnels en termes de précision et d'exactitude.
Notre évaluation a confirmé que notre cadre excelle non seulement à identifier des images UGCG illicites mais aussi qu'il a du potentiel pour des applications plus larges dans la modération de contenu à travers diverses plateformes en ligne.
L'importance de l'identification contextuelle
Une partie critique de notre système est sa capacité à effectuer une identification contextuelle. Cela inclut la formulation de questions spécifiques que le VLM doit poser sur le contenu des images. Par exemple, des questions peuvent aborder si les personnages dans l'image sont engagés dans des activités sexuelles ou affichent de la violence. Ce raisonnement structuré permet au modèle d'arriver à des conclusions éclairées sur la sécurité d'une image.
Nos évaluations montrent que cette méthode booste significativement les taux de détection. En intégrant des questions contextuelles, on crée une approche plus complète pour identifier le contenu nuisible.
Expérimentations en situations réelles
Dans une expérience, on a testé notre cadre sur des images collectées sur Reddit et Discord, en simulant des situations réelles. On a découvert que notre système identifiait efficacement des images UGCG nuisibles, démontrant la généralisabilité et l'adaptabilité de notre modèle.
Comparé aux outils traditionnels, notre cadre a constamment mieux performé sur des ensembles de données variés. Ça met en avant son potentiel pour des applications réelles dans la modération de contenu nuisible sur les plateformes de réseaux sociaux.
Défis et considérations éthiques
Bien que notre étude fournisse des insights précieux, il est important de reconnaître ses limitations. Par exemple, notre ensemble de données se composait principalement de contenu en anglais, ce qui pourrait négliger des promotions nuisibles sur des plateformes non anglophones.
De plus, on s'est concentré uniquement sur les UGCGs dans Roblox, laissant de côté d'autres plateformes qui pourraient également poser des risques similaires. Élargir la recherche pour inclure des langues diverses et des plateformes de jeux pourrait améliorer notre compréhension de ces problèmes.
Tout au long de l'étude, on a respecté des lignes directrices éthiques. Les processus de collecte de données ont été approuvés, et on a veillé à l'anonymat des utilisateurs impliqués dans l'ensemble de données.
Conclusion et orientations futures
En résumé, on a entrepris une analyse complète des promotions illicites d'UGCGs dangereux. Nos découvertes soulignent le besoin urgent d'outils de modération améliorés pour protéger les jeunes audiences du contenu nuisible. Notre nouveau système de détection montre des avancées significatives par rapport aux méthodes existantes, atteignant une précision impressionnante de 94 %.
En regardant vers l'avenir, on prévoit d'étendre notre cadre au-delà de la simple modération d'images. Ça inclut l'exploration de la modération de contenu à l'intérieur même des jeux et d'adapter nos approches pour les technologies émergentes comme la réalité virtuelle. Assurer la sécurité des espaces en ligne, particulièrement pour les jeunes utilisateurs, reste notre objectif principal.
Titre: Moderating Illicit Online Image Promotion for Unsafe User-Generated Content Games Using Large Vision-Language Models
Résumé: Online user generated content games (UGCGs) are increasingly popular among children and adolescents for social interaction and more creative online entertainment. However, they pose a heightened risk of exposure to explicit content, raising growing concerns for the online safety of children and adolescents. Despite these concerns, few studies have addressed the issue of illicit image-based promotions of unsafe UGCGs on social media, which can inadvertently attract young users. This challenge arises from the difficulty of obtaining comprehensive training data for UGCG images and the unique nature of these images, which differ from traditional unsafe content. In this work, we take the first step towards studying the threat of illicit promotions of unsafe UGCGs. We collect a real-world dataset comprising 2,924 images that display diverse sexually explicit and violent content used to promote UGCGs by their game creators. Our in-depth studies reveal a new understanding of this problem and the urgent need for automatically flagging illicit UGCG promotions. We additionally create a cutting-edge system, UGCG-Guard, designed to aid social media platforms in effectively identifying images used for illicit UGCG promotions. This system leverages recently introduced large vision-language models (VLMs) and employs a novel conditional prompting strategy for zero-shot domain adaptation, along with chain-of-thought (CoT) reasoning for contextual identification. UGCG-Guard achieves outstanding results, with an accuracy rate of 94% in detecting these images used for the illicit promotion of such games in real-world scenarios.
Auteurs: Keyan Guo, Ayush Utkarsh, Wenbo Ding, Isabelle Ondracek, Ziming Zhao, Guo Freeman, Nishant Vishwamitra, Hongxin Hu
Dernière mise à jour: 2024-08-12 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2403.18957
Source PDF: https://arxiv.org/pdf/2403.18957
Licence: https://creativecommons.org/licenses/by-nc-sa/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.
Liens de référence
- https://www.revvedupkids.org/blog/harmful-online-games
- https://github.com/CactiLab/UGCG-Guard
- https://docs.google.com/document/d/1KL9dUQiOByE_zX3So5GkXr-9SxyFdkJOoYUmx7j8Rno/edit?usp=sharing
- https://www.researchgate.net/publication/220878888_The_Social_Side_of_Gaming_A_Study_of_Interaction_Patterns_in_a_Massively_Multiplayer_Online_Game
- https://link.springer.com/chapter/10.1007/978-3-031-22124-8_30
- https://eprints.qut.edu.au/37826/1/c37826.pdf
- https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=8094233
- https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=4160952
- https://developer.twitter.com/en/docs/twitter-api