Unangemessene Werbung in von Nutzern erstellten Spielen ansprechen
Ein neues System erkennt schädliche Inhalte in UGCG-Werbung.
― 8 min Lesedauer
Inhaltsverzeichnis
- Der Aufstieg von nutzergenerierten Inhalten
- Die Herausforderung der Inhaltsmoderation
- Datensammlung und Analyse
- Einführung unseres Erkennungssystems
- Die Natur der UGCG-Werbebilder
- Einschränkungen bestehender Erkennungssysteme
- Unser Moderationsrahmenwerk
- Implementierung und Bewertung
- Die Bedeutung der kontextuellen Identifikation
- Experimente in realen Situationen durchführen
- Herausforderungen und ethische Überlegungen
- Fazit und zukünftige Richtungen
- Originalquelle
- Referenz Links
Online-Spiele, die von Nutzern erstellt werden (UGCGs), sind in den letzten Jahren mega beliebt geworden, vor allem bei Kids und Teens. Diese Spiele bieten coole Möglichkeiten, um online zu sozialisieren und kreativ zu sein. Aber es gibt ein grosses Problem: einige dieser Spiele fördern schlechten und expliziten Inhalt in sozialen Medien. Das kann junge Nutzer gefährlichen Bildern aussetzen, was echt ernsthafte Sicherheitsprobleme aufwirft. Trotz dieser Bedenken ist bisher nicht viel Forschung darüber gemacht worden, wie diese schädlichen Werbung funktioniert.
In diesem Artikel konzentrieren wir uns auf die Herausforderung durch unangemessene Werbung für unsichere UGCGs. Wir haben eine Sammlung von Bildern zusammengestellt, die sexuellen und gewalttätigen Inhalt in Verbindung mit diesen Spielen zeigen. Wir haben herausgefunden, dass viele dieser Werbebilder direkt Screenshots aus den Spielen sind. Das zeigt, dass es einen klaren Bedarf für bessere Systeme gibt, die diese unsicheren Werbung automatisch kennzeichnen.
Wir haben ein neues System entwickelt, das sozialen Medienplattformen hilft, schädliche Bilder zu erkennen, die zur Werbung für unsichere UGCGs verwendet werden. Unser System nutzt fortschrittliche Modelle, die Vision und Sprache kombinieren, um diese Bilder effektiv zu erkennen. Mit einer Genauigkeitsrate von 94% übertrifft unser System deutlich die bestehenden Tools, die dafür verfügbar sind.
Der Aufstieg von nutzergenerierten Inhalten
Online-Spiele, die von Nutzern erstellt werden, stehen in den letzten Jahren im Rampenlicht. Diese Spiele erlauben es Spielern, ihre eigenen Spielerlebnisse zu kreieren und sie mit anderen zu teilen. Plattformen wie Roblox haben es vielen Kreativen ermöglicht, ansprechende Spiele zu designen, die Millionen von Nutzern anziehen, besonders Kinder. Daten zeigen, dass ein grosser Teil der Roblox-Nutzer unter 16 Jahren ist, viele davon sogar noch jünger.
Um Spieler zu gewinnen, nutzen die Kreatoren oft soziale Medien wie X (früher Twitter), Reddit und Discord, um Werbebilder oder -videos zu teilen. Diese Strategie hilft zwar, mehr Nutzer zu erreichen, birgt aber auch das Risiko, Kinder gefährlichem Inhalt auszusetzen. Leider haben einige Spieleschöpfer diese Gelegenheit ausgenutzt, um Spiele mit expliziten Bildern und Gewalt zu bewerben, was ernsthafte Bedrohungen für junge Zielgruppen darstellt.
Die Herausforderung der Inhaltsmoderation
Die Moderation von Inhalten in UGCGs ist ein ständiges Diskussionsthema, doch die Moderationsbemühungen konzentrieren sich hauptsächlich auf das, was innerhalb der Spiele passiert. Es wurde wenig Aufmerksamkeit auf die Werbung für diese Spiele durch Bilder in sozialen Medien gelegt. Spieleschöpfer teilen oft Werbeinhalte, die harmlos aussehen, aber tatsächlich Schädlich sein können.
Aktuelle Moderationstools wie Google Cloud Vision, Clarifai und Amazon Rekognition nutzen Technologien, um schädliche Inhalte zu erkennen. Allerdings haben sie oft Schwierigkeiten, unangemessene Bilder im Zusammenhang mit UGCGs zu identifizieren. Traditionelle Machine-Learning-Modelle verlassen sich auf grosse Datensätze, um zu lernen, was als unsicher gilt, aber das Sammeln solcher Datensätze für UGCGs ist wegen der einzigartigen Stile und Charaktere in diesen Spielen herausfordernd.
Datensammlung und Analyse
Um das Ausmass unangemessener Bildwerbung in UGCGs zu verstehen, haben wir einen Datensatz aus der realen Welt mit Bildern gesammelt. Dieser Datensatz enthält 2.924 Bilder mit sexuell explizitem und gewalttätigem Inhalt. Wir haben Schlüsselwörter aus Geschichten verwendet, die von Eltern und Kindern geteilt wurden, um relevante Bilder zu finden.
Durch unsere Analyse haben wir herausgefunden, dass viele dieser Werbebilder tatsächlich Screenshots aus den UGCGs sind. Das zeigt den Bedarf an robusteren Moderationsstrategien. Ausserdem haben unsere Tests ergeben, dass aktuelle Erkennungstools schlecht abschneiden, wenn es darum geht, Bilder im Zusammenhang mit UGCGs zu identifizieren, was erhebliche Lücken in ihrer Effektivität aufzeigt.
Einführung unseres Erkennungssystems
Um diese Herausforderungen anzugehen, haben wir ein neuartiges System entwickelt, das speziell für die Erkennung schädlicher Bilder im Zusammenhang mit UGCG-Werbung konzipiert ist. Unser System nutzt fortschrittliche Vision-Language-Modelle (VLMs) und eine neue Methode namens bedingtes Prompting für bessere Genauigkeit. Dieser Ansatz ermöglicht es unserem Modell, zu lernen und sich anzupassen, ohne umfangreiche Trainingsdaten zu benötigen.
Unser System kann illegale Werbebilder mit beeindruckender Genauigkeit identifizieren. Es verwendet kontextuelles Denken, um zu verstehen, was in einem Bild passiert, und kann so schädlichen Inhalt effektiv kennzeichnen.
Die Natur der UGCG-Werbebilder
Die Werbebilder, die von UGCG-Kreatoren verwendet werden, unterscheiden sich deutlich von traditionellen Spielwerbungen. Anstatt professionell gestalteter Grafiken bestehen die meisten UGCG-Werbungen aus einfachen Screenshots, die direkt aus den Spielen genommen wurden. Unsere Analyse hat bestätigt, dass etwa 97,8% der beprobten Werbebilder Screenshots waren.
Das bedeutet, dass die Bilder nahtlos mit der Plattform verschmelzen, was es schwierig macht, schädliche Bilder zu erkennen. Dieses Problem hebt den dringenden Bedarf an verbesserten Moderationstools hervor, um diese problematischen Werbungen besser zu erkennen und zu kennzeichnen.
Einschränkungen bestehender Erkennungssysteme
Wir haben untersucht, wie gut bestehende Erkennungssysteme schädliche UGCG-Bilder identifizieren können. Dazu haben wir weit verbreitete Tools wie Google Vision AI und andere bewertet. Während diese Systeme effektiv darin sind, traditionelle unsichere Inhalte zu erkennen, schneiden sie beim Erkennen von UGCG-bezogenen Bildern deutlich schlechter ab.
Diese Ineffektivität ergibt sich aus den unterschiedlichen visuellen Elementen, die in UGCGs im Vergleich zu Bildern aus der realen Welt oder animierten Bildern zu finden sind. Aufgrund dieser Unterschiede gibt es eine grosse Lücke bei der Moderation des einzigartigen Inhalts, der in diesen Spielen produziert wird, was zu einem dringenden Bedarf an spezialisierten Erkennungsmethoden führt.
Unser Moderationsrahmenwerk
Bei der Entwicklung unseres Erkennungssystems haben wir ein Rahmenwerk implementiert, das mehrere wichtige Komponenten umfasst:
Datensammlung und Annotation: Wir haben einen Datensatz von Bildern zusammengestellt, die mit illegalen UGCG-Werbungen verbunden sind, und diese systematisch annotiert.
VLM-basierte Erkennung: Durch die Nutzung grosser VLMs haben wir eine bedingte Prompting-Strategie implementiert, um unser Modell an die einzigartigen Eigenschaften von UGCG-Bildern anzupassen.
Inhaltsmoderation: Unser System verarbeitet Bilder und ermittelt, ob sie unsicheren Inhalt enthalten, wobei bei Bedarf Warnungen ausgegeben werden.
Das Rahmenwerk ist so gestaltet, dass es effektiv in realen sozialen Medienumgebungen funktioniert und eine effiziente Moderation von Werbeinhalten ermöglicht.
Implementierung und Bewertung
Wir haben ein Hochleistungsrechnersystem genutzt, um unser Erkennungsrahmenwerk zu implementieren. Unsere Tests verglichen seine Leistung mit bestehenden Baseline-Detektoren. Die Ergebnisse zeigten, dass unser System diese traditionellen Tools sowohl in Genauigkeit als auch Präzision weit übertrifft.
Unsere Bewertung bestätigte, dass unser Rahmenwerk nicht nur in der Lage ist, illegale UGCG-Bilder zu identifizieren, sondern auch Potenzial für breitere Anwendungen in der Inhaltsmoderation auf diversen Online-Plattformen hat.
Die Bedeutung der kontextuellen Identifikation
Ein wichtiger Teil unseres Systems ist seine Fähigkeit zur kontextuellen Identifikation. Dazu gehört das Erstellen spezifischer Fragen, die das VLM über den Inhalt der Bilder stellen kann. Zum Beispiel können Fragen darauf abzielen, ob die Charaktere im Bild sexuelle Aktivitäten ausüben oder Gewalt zeigen. Dieses strukturierte Denken ermöglicht es dem Modell, informierte Schlussfolgerungen über die Sicherheit eines Bildes zu ziehen.
Unsere Bewertungen zeigen, dass diese Methode die Erkennungsraten erheblich steigert. Durch die Integration kontextueller Fragen schaffen wir einen umfassenderen Ansatz zur Identifizierung schädlicher Inhalte.
Experimente in realen Situationen durchführen
In einem Experiment haben wir unser Rahmenwerk an Bildern getestet, die von Reddit und Discord gesammelt wurden, um realistische Situationen zu simulieren. Wir fanden heraus, dass unser System effektiv unsichere UGCG-Bilder identifizieren konnte, was die Generalisierbarkeit und Anpassungsfähigkeit unseres Modells demonstriert.
Im Vergleich zu traditionellen Tools schnitt unser Rahmenwerk in verschiedenen Datensätzen durchweg besser ab. Dies hebt sein Potenzial für reale Anwendungen in der Moderation schädlicher Inhalte auf sozialen Medienplattformen hervor.
Herausforderungen und ethische Überlegungen
Während unsere Studie wertvolle Einblicke bietet, ist es wichtig, ihre Einschränkungen zu erkennen. Zum Beispiel bestand unser Datensatz hauptsächlich aus englischsprachigem Inhalt, was dazu führen könnte, dass unsichere Werbungen von nicht-englischen Plattformen übersehen werden.
Ausserdem konzentrierten wir uns ausschliesslich auf UGCGs innerhalb von Roblox und liessen andere Plattformen ausser Acht, die ebenfalls ähnliche Risiken darstellen könnten. Eine Erweiterung der Forschung, um verschiedene Sprachen und Gaming-Plattformen einzubeziehen, könnte unser Verständnis dieser Probleme verbessern.
Während der gesamten Studie hielten wir uns an ethische Richtlinien. Die Datensammelprozesse wurden genehmigt, und wir gewährleisteten die Anonymität der Nutzer, die in den Datensatz einflossen.
Fazit und zukünftige Richtungen
Zusammenfassend haben wir eine umfassende Analyse der illegalen Werbung für unsichere UGCGs durchgeführt. Unsere Ergebnisse unterstreichen den dringenden Bedarf an verbesserten Moderationstools zum Schutz junger Zielgruppen vor schädlichem Inhalt. Unser neues Erkennungssystem zeigt signifikante Fortschritte im Vergleich zu bestehenden Methoden und erreicht eine beeindruckende Genauigkeit von 94%.
Für die Zukunft planen wir, unser Rahmenwerk über die Bildmoderation hinaus auszudehnen. Dazu gehört die Untersuchung der Inhaltsmoderation innerhalb der Spiele selbst und die Anpassung unserer Ansätze für aufkommende Technologien wie Virtual Reality. Die Sicherheit von Online-Räumen, insbesondere für jüngere Nutzer, bleibt unser Hauptziel.
Titel: Moderating Illicit Online Image Promotion for Unsafe User-Generated Content Games Using Large Vision-Language Models
Zusammenfassung: Online user generated content games (UGCGs) are increasingly popular among children and adolescents for social interaction and more creative online entertainment. However, they pose a heightened risk of exposure to explicit content, raising growing concerns for the online safety of children and adolescents. Despite these concerns, few studies have addressed the issue of illicit image-based promotions of unsafe UGCGs on social media, which can inadvertently attract young users. This challenge arises from the difficulty of obtaining comprehensive training data for UGCG images and the unique nature of these images, which differ from traditional unsafe content. In this work, we take the first step towards studying the threat of illicit promotions of unsafe UGCGs. We collect a real-world dataset comprising 2,924 images that display diverse sexually explicit and violent content used to promote UGCGs by their game creators. Our in-depth studies reveal a new understanding of this problem and the urgent need for automatically flagging illicit UGCG promotions. We additionally create a cutting-edge system, UGCG-Guard, designed to aid social media platforms in effectively identifying images used for illicit UGCG promotions. This system leverages recently introduced large vision-language models (VLMs) and employs a novel conditional prompting strategy for zero-shot domain adaptation, along with chain-of-thought (CoT) reasoning for contextual identification. UGCG-Guard achieves outstanding results, with an accuracy rate of 94% in detecting these images used for the illicit promotion of such games in real-world scenarios.
Autoren: Keyan Guo, Ayush Utkarsh, Wenbo Ding, Isabelle Ondracek, Ziming Zhao, Guo Freeman, Nishant Vishwamitra, Hongxin Hu
Letzte Aktualisierung: 2024-08-12 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2403.18957
Quell-PDF: https://arxiv.org/pdf/2403.18957
Lizenz: https://creativecommons.org/licenses/by-nc-sa/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.
Referenz Links
- https://www.revvedupkids.org/blog/harmful-online-games
- https://github.com/CactiLab/UGCG-Guard
- https://docs.google.com/document/d/1KL9dUQiOByE_zX3So5GkXr-9SxyFdkJOoYUmx7j8Rno/edit?usp=sharing
- https://www.researchgate.net/publication/220878888_The_Social_Side_of_Gaming_A_Study_of_Interaction_Patterns_in_a_Massively_Multiplayer_Online_Game
- https://link.springer.com/chapter/10.1007/978-3-031-22124-8_30
- https://eprints.qut.edu.au/37826/1/c37826.pdf
- https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=8094233
- https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=4160952
- https://developer.twitter.com/en/docs/twitter-api