Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Computerwissenschaften# Computer und Gesellschaft

Crowdsourcing den Kampf gegen Fake News

Kollektive Meinungen nutzen, um irreführende Informationen in sozialen Medien anzugehen.

François t'Serstevens, Roberto Cerina, Giulia Piccillo

― 8 min Lesedauer


Kampf gegen Fake News mitKampf gegen Fake News mitCrowdsourcingbessere Nachrichtenverifikation.Die Nutzung von Community-Insights für
Inhaltsverzeichnis

Falsche Nachrichten sind heute ein grosses Problem, vor allem in sozialen Medien. Viele Leute haben Schwierigkeiten zu erkennen, was falsche Nachrichten wirklich sind und wem man vertrauen kann. Social-Media-Unternehmen setzen oft Experten ein, um das herauszufinden, aber diese Methode wurde dafür kritisiert, dass sie voreingenommen und unzuverlässig ist. Daher schauen sich einige Forscher und Unternehmen eine neue Methode zur Erkennung von falschen Nachrichten an, die "Crowdsourcing" nutzt. Dieser Ansatz greift auf die Ideen und Meinungen ganz normaler Leute zurück, anstatt sich nur auf Experten zu verlassen.

Ziel dieses Artikels ist es, darzulegen, wie Crowdsourcing genutzt werden kann, um falsche Nachrichten genau zu identifizieren. Wir erklären, wie wir Daten gesammelt, diese analysiert haben und welche Erkenntnisse wir über die Verbreitung falscher Nachrichten in den Vereinigten Staaten gewonnen haben.

Die Herausforderung, falsche Nachrichten zu definieren

Falsche Nachrichten werden oft als irreführende Informationen definiert, die wie echte Nachrichten aussehen, es aber nicht sind. Diese Definition ist in der Praxis schwer anzuwenden, besonders auf sozialen Plattformen, wo Nachrichten schnell geteilt werden. Social Media zeigt nicht den Entscheidungsprozess hinter den Postings, was es schwierig macht zu beurteilen, ob etwas wahr oder falsch ist.

Um dieses Problem zu lösen, sind verschiedene Methoden zur Identifizierung von falschen Nachrichten entstanden:

  1. Expertenbewertung: Einige Unternehmen beschäftigen professionelle Journalisten, um Inhalte zu überprüfen. Diese Methode hat jedoch Probleme, wie politische Voreingenommenheit und mangelndes Vertrauen von bestimmten Gruppen.

  2. Crowd-bewertete Einschätzung: Bei dieser Methode werden Meinungen von einer grossen Gruppe von Leuten zur Wahrhaftigkeit einer Nachricht gesammelt. Die Idee ist, dass die Mehrheit meistens besser Bescheid weiss. Dieser Ansatz wird als inklusiver und kosteneffektiver angesehen im Vergleich zur Expertenbewertung.

  3. Rechnerische Methoden: Algorithmen analysieren riesige Mengen an Social-Media-Daten, um falsche Inhalte anhand verschiedener Merkmale wie Sprache, Quelle der Informationen und Nutzerverhalten zu erkennen.

Während Expertenbewertungen ihre Vorteile haben, können sie von den persönlichen Überzeugungen der Bewerter beeinflusst werden. Das wirft Fragen zur Objektivität auf. Crowdbasierte Bewertungen, wenn sie richtig gemacht werden, können helfen, einige dieser Bedenken zu überwinden, indem sie eine breitere Palette von Meinungen widerspiegeln.

Der neue Ansatz

In diesem Artikel stellen wir eine neue Methode zur Erkennung von falschen Nachrichten vor, die auf der Weisheit der Massen basiert. Das bedeutet, dass wir die kollektiven Bewertungen vieler Menschen nutzen, um herauszufinden, ob eine Information wahr oder falsch ist. Unser Ansatz umfasst mehrere Schritte:

  1. Datensammlung: Wir haben eine Online-Umfrage durchgeführt, um Meinungen von Leuten zu verschiedenen Tweets im Zusammenhang mit der Pandemie zu sammeln. Die Tweets wurden basierend auf wichtigen COVID-19-Begriffen ausgewählt, um sicherzustellen, dass sie relevant sind.

  2. Erstellung von Personas: Wir haben verschiedene Personas erstellt, um verschiedene soziale Gruppen zu repräsentieren. So können wir besser verstehen, wie unterschiedliche Leute die gleiche Information unterschiedlich wahrnehmen.

  3. Statistische Modellierung: Wir haben ein statistisches Modell verwendet, um die Umfragedaten zu interpretieren und vorherzusagen, wie wahrscheinlich es ist, dass jeder Tweet falsche Informationen verbreitet.

  4. Aggregation der Ergebnisse: Nachdem wir die Wahrhaftigkeit jedes Tweets berechnet haben, haben wir die Ergebnisse aus verschiedenen Gruppen zusammengefasst. Diese Aggregation ermöglicht es uns, ein umfassenderes Bild von der Verbreitung falscher Nachrichten in den USA zu sehen.

Datensammlung und erste Einrichtung

Zu Beginn haben wir Tausende von Tweets gesammelt, die COVID-19-bezogene Schlüsselwörter enthielten. Wir konzentrierten uns auf Tweets, die in einem bestimmten Zeitraum gepostet wurden, um sicherzustellen, dass sie aktuell und relevant waren. Die Tweets wurden dann von Teilnehmern bewertet, die ihre Meinungen zu deren Genauigkeit teilten.

Die Umfrage wurde sorgfältig gestaltet, um sicherzustellen, dass eine vielfältige Gruppe von Menschen teilnahm. Wir strebten eine repräsentative Stichprobe an, die verschiedene Altersgruppen, Geschlechter und politische Zugehörigkeiten umfasst. Damit haben wir ein genaueres Bild davon geschaffen, wie Menschen falsche Nachrichten wahrnehmen.

Verständnis der Nutzermerkmale

Um unsere Analyse zu verbessern, sammelten wir demografische Informationen über die Umfrageteilnehmer. Dazu gehörten Aspekte wie Alter, Geschlecht und politische Überzeugungen. Das Verständnis dieser Merkmale ist wichtig, da sie beeinflussen können, wie jemand Nachrichten interpretiert.

Zum Beispiel können politische Überzeugungen prägen, was Leute als falsche Nachrichten ansehen, was für unsere Analyse wichtig ist. Wir nutzten ein Tool, um diese Merkmale auf Basis der Profile der Teilnehmer und deren Interaktionen online zu schätzen. Diese Informationen helfen uns zu bewerten, wie verschiedene Gruppen falsche Nachrichten teilen und wie deren Ansichten die Gesamtergebnisse beeinflussen.

Die Weisheit der Menge

Die Grundidee hinter unserem Ansatz ist, dass "die Weisheit der Menge" die Wahrheit über falsche Nachrichten offenbaren kann. Wenn viele Leute ein einzelnes Stück Information bewerten, tendiert ihre durchschnittliche Einschätzung dazu, näher an der tatsächlichen Wahrheit zu sein.

Wir definierten unsere Veritätsmetriken, die messen, wie vertrauenswürdig jeder Tweet auf Basis der Meinungen der Menge ist. Wir etablierten verschiedene Methoden, um die Meinungen der Umfrageteilnehmer zu gewichten. Das bedeutet, dass wir die Merkmale jedes Bewerters berücksichtigten, um sicherzustellen, dass unsere Endbewertungen eine faire Einschätzung aus einer vielfältigen Menge widerspiegeln.

Wichtige Erkenntnisse

Nach der Analyse der Daten haben wir mehrere interessante Trends zur Verbreitung falscher Nachrichten gefunden:

  1. Insgesamt ist das Teilen selten: Wir haben festgestellt, dass das Teilen von falschen Nachrichten im Allgemeinen ungewöhnlich ist. Die meisten Leute engagieren sich nicht mit oder teilen irreführende Informationen online.

  2. Politische Unterschiede beim Teilen: Unsere Ergebnisse deuteten darauf hin, dass Demokraten tendenziell weniger falsche Nachrichten teilen als der Durchschnittsnutzer. Im Gegenteil, als wir die Tweets betrachteten, die von Republikanern bewertet wurden, zeigten sie eine geringere Wahrscheinlichkeit, falsche Nachrichten basierend auf ihren eigenen Definitionen zu teilen.

  3. Unterschiede nach Geschlecht: Wir fanden Hinweise darauf, dass Frauen weniger wahrscheinlich falsche Nachrichten teilen als Männer. Diese Erkenntnis fügt eine weitere Schicht zum Verständnis hinzu, wie soziale Faktoren die Verbreitung von Fehlinformationen beeinflussen.

  4. Altersfaktor: Es gab gemischte Ergebnisse bezüglich des Alters. Ältere Menschen schienen in einigen Fällen häufiger falsche Nachrichten zu teilen, während in anderen dieser Trend nicht signifikant war.

Diese Ergebnisse zeigen, dass das Teilen falscher Nachrichten ein kompliziertes Problem ist, das von mehreren sozialen Merkmalen beeinflusst wird.

Analyse auf Bundesstaatsebene

Um ein umfassendes Verständnis von der Verbreitung falscher Nachrichten zu bieten, führten wir eine Analyse auf Bundesstaatsebene in den Vereinigten Staaten durch. Hier nutzten wir unsere Erkenntnisse über individuelles Verhalten, um zu schätzen, wie viele Menschen in jedem Bundesstaat möglicherweise falsche Nachrichten teilen.

Trotz der allgemeinen Seltenheit des Teilens von falschen Nachrichten fanden wir kleine Unterschiede zwischen den Bundesstaaten. Einige Bundesstaaten wie Tennessee hatten eine höhere Wahrscheinlichkeit für das Teilen von falschen Nachrichten, während Orte wie Washington, D.C., niedrigere Raten zeigten. Diese Informationen könnten für politische Entscheidungsträger und Social-Media-Unternehmen wertvoll sein, die versuchen, die Verbreitung von Fehlinformationen effektiv anzugehen.

Auswirkungen auf Social-Media-Unternehmen

Unsere Methode, die Meinungen der Menge zur Erkennung von falschen Nachrichten zu nutzen, bietet mehrere Vorteile, besonders für Social-Media-Unternehmen. Indem sie auf die kollektive Weisheit der Nutzer zugreifen, können Unternehmen ihre Inhalte besser moderieren. Einige der wichtigsten Auswirkungen sind:

  1. Verbesserte Legitimität: Durch die Einbeziehung der Allgemeinheit in den Bewertungsprozess können Unternehmen Vertrauen bei ihren Nutzern aufbauen. Wenn die Menge beteiligt ist, wird deutlich, dass die Entscheidungen über Inhalte auf einer breiteren Palette von Meinungen basieren.

  2. Grössere Transparenz: Der crowdsourcete Ansatz ist transparent und ermöglicht es den Nutzern zu sehen, wie Entscheidungen über die Moderation von Inhalten getroffen werden. Das kann das Gefühl von Voreingenommenheit oder Ungerechtigkeit in der Behandlung von Informationen verringern.

  3. Anpassungsfähigkeit: Da sich die Trends von Fehlinformationen im Laufe der Zeit ändern, ändern sich auch die Wahrnehmungen von Wahrheit. Crowdbasierte Bewertungen können sich schnell an neue Umstände anpassen, sodass die Moderationsrichtlinien relevant bleiben.

  4. Politisches Gleichgewicht: Die Berücksichtigung der politischen Vielfalt der Teilnehmer kann helfen, einen ausgewogeneren Ansatz in der Inhaltsmoderation zu schaffen und das Risiko von Voreingenommenheit gegen bestimmte Gruppen zu verringern.

Einschränkungen und zukünftige Forschung

Obwohl unsere Studie wertvolle Einblicke bietet, hat sie auch ihre Einschränkungen. Die Ergebnisse basieren auf einer spezifischen Reihe von Tweets zu Pandemie-Themen, was sie kontextabhängig macht. Zukünftige Forschungen sollten andere Themen und Kontexte untersuchen, um unsere Ergebnisse zu validieren.

Darüber hinaus könnte unser statistisches Modell verbessert werden. Wir haben einen relativ einfachen Ansatz verwendet, um individuelle Merkmale zu erfassen, aber eine Erweiterung auf tiefere Interaktionen könnte bessere Einblicke darin geben, wie verschiedene Faktoren die Verbreitung von falschen Nachrichten beeinflussen.

Zuletzt könnten weitere Studien die Dynamik des Online-Verhaltens auf verschiedenen Plattformen untersuchen. Social Media entwickelt sich ständig weiter, und zu verstehen, wie diese Veränderungen die Verbreitung von Fehlinformationen beeinflussen, ist entscheidend für eine effektive Regulierung.

Fazit

Falsche Nachrichten bleiben ein drängendes Problem in unserer zunehmend digitalen Welt. Durch die Implementierung einer crowdsourceten Methodologie zur Erkennung können wir nicht nur die Genauigkeit unserer Bewertungen verbessern, sondern auch die demokratische Legitimität der Inhaltsmoderation auf Social-Media-Plattformen erhöhen. Unsere Erkenntnisse über die Verbreitung falscher Nachrichten in verschiedenen demografischen Gruppen sind wichtig, um das breitere Landschaft von Fehlinformationen heute zu verstehen.

Zusammenfassend lässt sich sagen, dass die Einbeziehung von Alltagsmenschen in den Prozess der Identifizierung falscher Nachrichten zu einem repräsentativeren und vertrauenswürdigeren Ansatz führen kann. Während sich Social Media weiterentwickelt, müssen auch unsere Methoden sicherstellen, dass genaue Informationen irreführenden Inhalten überlegen sind. Der Bedarf an besseren Lösungen ist klar, und Crowdsourcing bietet einen innovativen Weg nach vorne.

Originalquelle

Titel: Fake News Detection via Wisdom of Synthetic & Representative Crowds

Zusammenfassung: Social media companies have struggled to provide a democratically legitimate definition of "Fake News". Reliance on expert judgment has attracted criticism due to a general trust deficit and political polarisation. Approaches reliant on the ``wisdom of the crowds'' are a cost-effective, transparent and inclusive alternative. This paper provides a novel end-to-end methodology to detect fake news on X via "wisdom of the synthetic & representative crowds". We deploy an online survey on the Lucid platform to gather veracity assessments for a number of pandemic-related tweets from crowd-workers. Borrowing from the MrP literature, we train a Hierarchical Bayesian model to predict the veracity of each tweet from the perspective of different personae from the population of interest. We then weight the predicted veracity assessments according to a representative stratification frame, such that decisions about ``fake'' tweets are representative of the overall polity of interest. Based on these aggregated scores, we analyse a corpus of tweets and perform a second MrP to generate state-level estimates of the number of people who share fake news. We find small but statistically meaningful heterogeneity in fake news sharing across US states. At the individual-level: i. sharing fake news is generally rare, with an average sharing probability interval [0.07,0.14]; ii. strong evidence that Democrats share less fake news, accounting for a reduction in the sharing odds of [57.3%,3.9%] relative to the average user; iii. when Republican definitions of fake news are used, it is the latter who show a decrease in the propensity to share fake news worth [50.8%, 2.0%]; iv. some evidence that women share less fake news than men, an effect worth a [29.5%,4.9%] decrease.

Autoren: François t'Serstevens, Roberto Cerina, Giulia Piccillo

Letzte Aktualisierung: 2024-08-06 00:00:00

Sprache: English

Quell-URL: https://arxiv.org/abs/2408.03154

Quell-PDF: https://arxiv.org/pdf/2408.03154

Lizenz: https://creativecommons.org/licenses/by/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Ähnliche Artikel