Die Auswirkungen des Empfehlung Algorithmus von Twitter auf die politische Polarisierung
Eine Studie zeigt, wie die Algorithmen von Twitter politische Meinungen und Echokammern beeinflussen.
― 7 min Lesedauer
Inhaltsverzeichnis
Soziale Medien spielen eine grosse Rolle dabei, wie wir Nachrichten bekommen und Informationen teilen. Eine der bemerkenswerten Sorgen hier ist die Verbreitung von irreführenden Informationen und wie Leute oft in Echokammern landen, wo sie nur Meinungen hören, die die eigenen bestätigen. Diese Echokammern können zu mehr politischen Meinungsverschiedenheiten und erhöhter Polarisierung in der Gesellschaft führen. Algorithmen, die im Grunde genommen Regelwerke sind, die von sozialen Medienplattformen genutzt werden, um Inhalte zu empfehlen, können zu diesen Problemen beitragen. Aber wie funktionieren diese Algorithmen eigentlich und welchen Einfluss haben sie?
Was sind Echokammern?
Eine Echokammer ist eine Situation, in der Menschen nur mit anderen interagieren, die ihre Überzeugungen teilen. Das führt dazu, dass sie ihre bestehenden Ansichten verstärken und extremere Meinungen entwickeln können. Die Sorge ist, dass Echokammern eine Kluft in der öffentlichen Meinung verursachen und die Politische Polarisierung verstärken können. Forscher haben dieses Phänomen auf verschiedenen sozialen Medienplattformen untersucht, besonders was politische Diskussionen angeht. Die meisten Ergebnisse zeigen, dass Nutzer dazu tendieren, sich mit anderen, die ähnliche Überzeugungen haben, zu gruppieren, aber einige argumentieren, dass Echokammern vielleicht nicht so verbreitet sind, wie man denkt.
Ein weiteres Konzept, das mit Echokammern verbunden ist, ist die Filterblase. Dieser Begriff beschreibt, wie Algorithmen beeinflussen, welche Inhalte Menschen sehen, basierend auf ihren vorherigen Interaktionen. Während Echokammern aus vielen Gründen entstehen können, wie der Neigung der Menschen, Informationen zu suchen, die ihre Überzeugungen bestätigen, können Filterblasen ebenfalls ein bedeutender Faktor sein.
Algorithmen überprüfen
Um die potenziell negativen Auswirkungen von Algorithmen auf sozialen Medienplattformen besser zu verstehen, führen Forscher algorithmische Audits durch. Dabei wird untersucht, wie die Eingaben und Ausgaben dieser Systeme die Nutzererfahrungen beeinflussen. Eine gängige Methode ist es, automatisierte Konten zu erstellen, manchmal „Sock Puppet“-Konten genannt, die simulieren, wie echte Nutzer mit der Plattform interagieren.
Verschiedene Studien wurden zu den Algorithmen von Twitter durchgeführt, um zu sehen, wie sie die Nutzer beeinflussen. Einige haben gezeigt, dass die Reihenfolge, in der Freunde ausgewählt werden, die Nutzererfahrung erheblich beeinflussen kann. Andere Forschungen zeigen, dass Twitters eigene Algorithmen eine vielfältige Palette an Links fördern könnten, während sie gleichzeitig die politische Kluft vergrössern.
Die Rolle von Empfehlungssystemen
Freundschaftsempfehlungssysteme auf sozialen Medien schlagen Nutzern Konten vor, mit denen sie sich verbinden können. Als Twitters „Wer folge ich“-Funktion eingeführt wurde, stiegen die Followerzahlen erheblich. Die meisten der gängigen Forschungen über die Auswirkungen dieser Systeme auf politische Polarisierung und Fehlinformationen basieren jedoch auf Simulationen.
Einige Simulationen legen nahe, dass Algorithmen, die zu ähnlichen Netzwerken führen, die Meinungs-Polarisierung fördern können. Andere Studien zeigen, dass diese Systeme die Sichtbarkeit von Minderheitsansichten verringern und Echokammern vergrössern könnten, wenn die Anfangsnetzwerke bereits homogen sind.
Der Aufbau der Studie
Um zu untersuchen, wie Twitters Freundschaftsempfehlungsalgorithmus die politische Polarisierung während der Midterm-Wahlen 2022 in den USA beeinflusst, wurde eine einzigartige Studie entworfen. Die Forscher erstellten automatisierte Konten, die echte Nutzer nachahmten, indem sie mehr linke und rechte Politiker folgten. Ziel war es zu beobachten, wie sich ihre Netzwerke im Laufe der Zeit basierend auf den Vorschlägen des Algorithmus veränderten.
Die Studie wurde in zwei Hauptteile unterteilt: Eine Gruppe von Konten nutzte die Empfehlungen „Wer folge ich“, während die andere Konten basierend auf bestehenden Freundesempfehlungen folgte. So konnten die Forscher die Netzwerke vergleichen, die vom Algorithmus gebildet wurden, mit denen, die sich natürlich durch soziale Verbindungen bildeten.
Datensammlungsprozess
Während der Studie, die von September bis Dezember 2022 stattfand, schufen automatisierte Konten unterschiedliche Netzwerke, indem sie entweder die Empfehlungen verwendeten oder Freunde von Freunden folgten. Sie folgten einer vorgegebenen Liste von Protokollen zur Datensammlung.
Einer der Hauptfokusse lag auf der Struktur der gebildeten Netzwerke, was half, festzustellen, ob Echokammern existierten. Zusätzliche Daten wurden von echten Twitter-Nutzern gesammelt, die denselben Politikern folgten, um eine Vergleichsgruppe für die automatisierten Konten zu schaffen. Die Sammlung umfasste das Speichern von Tweets, Follower-Informationen und Engagement-Metriken.
Die Forscher dokumentierten das Netzwerkwachstum in Echtzeit und notierten, wann jedes automatisierte Konto neuen Konten folgte. So konnten sie analysieren, wie sich die Netzwerke entwickelten.
Verständnis politischer Homogenität
Durch einen genauen Blick auf diese Netzwerke wollten die Forscher messen, wie politisch einheitlich sie waren. Dies wurde erreicht, indem Nutzer als links, rechts oder neutral klassifiziert wurden, basierend auf den politischen Inhalten, die sie teilten. Die persönlichen Netzwerke, die von den automatisierten Konten gebildet wurden, konnten dann mit dem Nutzerverhalten typischer Twitter-Nutzer und denen, die Freundschaftsvorschläge erhielten, verglichen werden.
Der Vergleich zeigte, dass Konten, die auf das Freundschaftsempfehlungssystem angewiesen waren, in politisch vielfältigeren Netzwerken landeten. Konten, die durch Empfehlungen von bestehenden Freunden wuchsen, wiesen höhere Grade politischer Homogenität auf.
Erkenntnisse zur politischen Exposition
Eine der wichtigsten Erkenntnisse betraf die Exposition gegenüber Fehlinformationen. Die automatisierten Konten, die auf den Algorithmus angewiesen waren, hatten eine geringere Exposition gegenüber irreführenden Wahl-Narrativen im Vergleich zu denen, die durch soziale Empfehlungen gebildet wurden. Der Unterschied war besonders auffällig bei Konten, die mit republikanischen Kandidaten besät wurden.
Diese Erkenntnis legt nahe, dass der Empfehlung Algorithmus helfen könnte, die politische Polarisierung und Fehlinformationen zu reduzieren, indem er eine breitere Palette von Perspektiven bietet, selbst wenn es zu Netzwerken führt, die immer noch die strukturelle Definition von Echokammern erfüllen.
Das Amplification-Paradox
Während Empfehlungalgorithmen das Nutzerverhalten stark beeinflussen, erzählen sie nicht die ganze Geschichte darüber, warum Menschen möglicherweise mit extremen Inhalten online interagieren. Die Studie deutete darauf hin, dass das Freundschaftsempfehlungssystem die Chancen verringern könnte, dass automatisierte Konten irreführenden Informationen ausgesetzt sind, wodurch mehr politische Vielfalt in ihren Netzwerken entsteht.
Die Ergebnisse werfen jedoch auch die Frage auf, ob die Algorithmen entworfen wurden, um gesunde Informationsumgebungen zu fördern oder ob sie einfach erstellt wurden, um das Nutzerengagement zu optimieren und die Werbeeinnahmen zu erhöhen. Solche Faktoren müssen weiter untersucht werden, um zu verstehen, wie soziale Medienplattformen bessere Informations-Erfahrungen für Nutzer schaffen könnten.
Einschränkungen der Studie
Es gab mehrere Einschränkungen der Studie, insbesondere bezüglich der Anzahl der verwendeten automatisierten Konten. Die kleine Stichprobe machte es schwierig, breite Schlussfolgerungen zu ziehen. Darüber hinaus spiegelten die automatisierten Konten nicht das Verhalten echter Nutzer wider – wie das Posten oder Interagieren mit Inhalten – sodass die Ergebnisse möglicherweise nicht das echte Nutzerverhalten auf der Plattform widerspiegeln.
Die Studie gab zudem nur einen Snapshot von Twitter zur damaligen Zeit wieder. Aufgrund verschiedener Veränderungen, die danach auf der Plattform zu beobachten waren, wäre eine Wiederholung der Studie zu diesem Zeitpunkt nicht machbar.
Fazit
Diese Studie liefert wertvolle Informationen über die Auswirkungen von Twitters Freundschaftsempfehlungsalgorithmus auf die Bildung persönlicher Netzwerke während einer entscheidenden politischen Phase. Während der Algorithmus Konten zu Clustern oder Nachbarschaften leitete, die strukturell dicht und möglicherweise echokammerartig erschienen, war der Inhalt innerhalb dieser Netzwerke ideologisch vielfältiger als die, die rein durch soziale Empfehlungen entstanden.
Forschungsergebnisse deuten darauf hin, dass soziale Medienalgorithmen allein nicht die Hauptursache für Echokammern sind. Vielmehr ist es wichtig, das Zusammenspiel zwischen diesen Algorithmen und den individuellen Nutzerentscheidungen zu verstehen. Zukünftige Studien sollten weiterhin diese Dynamiken erkunden, um das Design und die Regulierung von sozialen Medienplattformen für gesündere Online-Diskurse besser zu informieren.
Titel: Echo Chambers in the Age of Algorithms: An Audit of Twitter's Friend Recommender System
Zusammenfassung: The presence of political misinformation and ideological echo chambers on social media platforms is concerning given the important role that these sites play in the public's exposure to news and current events. Algorithmic systems employed on these platforms are presumed to play a role in these phenomena, but little is known about their mechanisms and effects. In this work, we conduct an algorithmic audit of Twitter's Who-To-Follow friend recommendation system, the first empirical audit that investigates the impact of this algorithm in-situ. We create automated Twitter accounts that initially follow left and right affiliated U.S. politicians during the 2022 U.S. midterm elections and then grow their information networks using the platform's recommender system. We pair the experiment with an observational study of Twitter users who already follow the same politicians. Broadly, we find that while following the recommendation algorithm leads accounts into dense and reciprocal neighborhoods that structurally resemble echo chambers, the recommender also results in less political homogeneity of a user's network compared to accounts growing their networks through social endorsement. Furthermore, accounts that exclusively followed users recommended by the algorithm had fewer opportunities to encounter content centered on false or misleading election narratives compared to choosing friends based on social endorsement.
Autoren: Kayla Duskin, Joseph S. Schafer, Jevin D. West, Emma S. Spiro
Letzte Aktualisierung: 2024-04-09 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2404.06422
Quell-PDF: https://arxiv.org/pdf/2404.06422
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.
Referenz Links
- https://help.twitter.com/en/rules-and-policies/twitter-automation
- https://developer.twitter.com/en/developer-terms/more-on-restricted-use-cases
- https://dl.acm.org/ccs.cfm
- https://blog.twitter.com/engineering/en
- https://selenium-python.readthedocs.io/
- https://projects.fivethirtyeight.com/2022-election-forecast/senate/
- https://www.eipartnership.net/