Der versteckte Einfluss von Social-Media-Algorithmen in der Politik
Analysieren, wie Algorithmen politische Inhalte in sozialen Medien beeinflussen, wenn Wahlen näher rücken.
Jinyi Ye, Luca Luceri, Emilio Ferrara
― 7 min Lesedauer
Inhaltsverzeichnis
- Der Algorithmus Zaubertrick
- Das Sock-Puppen-Experiment
- Wie funktioniert das?
- Die Sock-Puppen-Strategie
- Einen genaueren Blick auf die Expositionsungleichheit werfen
- Beliebte Konten: Wer steht im Rampenlicht?
- Aber warte, es gibt noch mehr: Verstärkung und Abschwächung politischer Stimmen
- Auswirkungen auf die Demokratie
- Der wachsende Einfluss nicht-traditioneller Stimmen
- Den Algorithmus im Auge behalten
- Fazit: Die Show muss weitergehen
- Originalquelle
- Referenz Links
Vor der US-Präsidentschaftswahl 2024 ist Social Media das grosse Zelt, in dem jeder-von ernsthaften politischen Kommentatoren bis zu deinem Onkel, der Katzen-Memes teilt-über Politik redet. Aber hier der Clou: Ein Grossteil der politischen Inhalte, die du auf Social-Media-Plattformen siehst, kommt nicht nur von Leuten, denen du folgst. Tatsächlich stammen etwa die Hälfte der Tweets auf der "Für dich"-Timeline von Konten, von denen du nicht mal wusstest, dass sie existieren! Also, welche politischen Gedanken schlüpfen in deinen Feed und wie beeinflusst das unsere demokratischen Gespräche?
Der Algorithmus Zaubertrick
Social-Media-Algorithmen sind wie angespannte Zauberer, die ständig hinter den Kulissen arbeiten. Sie entscheiden, welche Tweets auf unseren Bildschirmen auftauchen, während wir unseren Kaffee schlürfen und durchscrollen. Kein Wunder, dass es sich anfühlt, als würde man einen Zaubertrick erraten, wenn man versucht herauszufinden, wie diese Algorithmen funktionieren. Frühere Studien zeigen, dass bestimmte politische Stimmen in den Tweets von Konten, denen wir folgen, verstärkt werden. Aber was ist mit diesen geheimnisvollen Tweets von Konten, denen wir nicht folgen? Da liegt die echte Neugier.
Während wir uns auf die Wahlen vorbereiten, müssen wir herausfinden, wie diese Algorithmen die politischen Inhalte beeinflussen, die wir konsumieren, und was das für unsere Standpunkte bedeutet.
Das Sock-Puppen-Experiment
Um diesem algorithmischen Chaos auf den Grund zu gehen, haben wir 120 "Sock-Puppen"-Konten erstellt-basically gefälschte Konten mit unterschiedlichen politischen Neigungen. Wir haben sie ins Social-Media-Wild entlassen, um zu sehen, welchen politischen Inhalten sie über drei Wochen hinweg ausgesetzt waren. Unser Ziel? Herausfinden, ob Nutzer mit unterschiedlichen politischen Überzeugungen unterschiedliche Arten von politischen Inhalten vorgesetzt bekamen und ob es eine Verzerrung bei den Empfehlungen gab.
Spoiler-Alarm: Wir haben einige interessante Ergebnisse gefunden. Es stellt sich heraus, dass der Algorithmus dazu tendiert, ein paar beliebte Konten insgesamt zu bevorzugen, aber rechtsgerichtete Nutzer bekamen die kürzere Leine, was die Exposition angeht. Sowohl links- als auch rechtsgerichtete Nutzer sahen mehr von dem, womit sie einverstanden waren, und weniger von dem, was sie nicht mochten.
Wie funktioniert das?
Also, wie entscheidet der Algorithmus, welche Tweets angezeigt werden? 2023 hat Twitter (jetzt X) ein bisschen die Katzen aus dem Sack gelassen und einige Details über seinen Empfehlungsalgorithmus bekanntgegeben. Einfach gesagt, nutzt er eine Mischung aus Engagement-Daten und schicken neuronalen Netzwerken, um auszuwählen, welche Tweets gezeigt werden. Frag uns aber nicht, wie das alles genau funktioniert, denn selbst wir sind da etwas unsicher mit den Details.
Was wir wissen, ist, dass frühere Studien ein Muster gezeigt haben: Der Algorithmus neigt dazu, politische Inhalte, die eher nach rechts geneigt sind, mehr als nach links zu pushen. Das bedeutet, wenn du ein rechtsextremer Nutzer bist, bekommst du wahrscheinlich mehr rechte Tweets zu sehen, während linksgerichtete Nutzer ihre Inhalte häufiger sehen.
Die Sock-Puppen-Strategie
Um unsere Untersuchung durchzuführen, haben wir vier Gruppen von Konten erstellt-linksgerichtet, rechtsgerichtet, ausgeglichen und neutral. Jede Gruppe folgte einer Mischung aus Medien und politischen Persönlichkeiten, um ihre politischen Neigungen genau darzustellen. Dann haben wir Tweets von diesen Konten alle paar Stunden überwacht, um zu sehen, was der Algorithmus empfohlen hat.
Am Ende unserer Datensammlung hatten wir eine saftige Menge an Daten, die aus über 5 Millionen Tweets bestand. Wir konnten sehen, wie unterschiedliche politische Profile Inhalte aus fremden Netzwerken erlebten.
Einen genaueren Blick auf die Expositionsungleichheit werfen
Wenn politische Inhalte auf Social-Media-Plattformen geteilt werden, bekommen manche Nutzer mehr Exposition als andere. Das nennt man Popularitätsverzerrung. Denk daran wie an einen Beliebtheitswettbewerb-wenn du von vielen Leuten gemocht wirst, erhältst du mehr Aufmerksamkeit. Unsere Sock-Puppen waren da keine Ausnahme. Wir stellten fest, dass rechtsgerichtete Nutzer die meiste Ungleichheit in dem, was sie sahen, im Vergleich zu linksgerichteten und neutralen Nutzern erlebten.
Wir verwendeten eine schicke Kennzahl namens Gini-Koeffizient, um zu messen, wie gleichmässig politische Inhalte unter den Nutzern verteilt waren. Ein hoher Gini-Koeffizient bedeutet, dass ein paar beliebte Konten das Gespräch dominieren, während ein niedriger Wert auf eine gleichmässigere Verteilung hinweist. Wir fanden heraus, dass rechtsgerichtete Nutzer den grössten Anteil des Ungleichheitskuchens abbekamen.
Beliebte Konten: Wer steht im Rampenlicht?
Jetzt, wo wir wussten, dass die Exposition verzerrt war, richteten wir unsere Aufmerksamkeit auf die Konten, die am häufigsten im Feed unserer Sock-Puppen auftauchten. Und rate mal? Rechtsgerichtete Konten wurden häufiger empfohlen als linksgerichtete. Prozentual gesehen erhielten rechtsgerichtete Nutzer etwa 30% der Sichtbarkeit, während linksgerichtete Nutzer näher bei 29% lagen.
Aber warte, es gibt noch mehr: Verstärkung und Abschwächung politischer Stimmen
Algorithmen können bestimmte Stimmen verstärken, während sie andere zum Schweigen bringen. Das bedeutet, wenn du rechtsgerichtete Konten folgst, ist der Algorithmus eher geneigt, dir ähnliche Inhalte zu zeigen. Gleichzeitig könnten gegensätzliche Standpunkte aus deinem Timeline ferngehalten werden. Wir haben die durchschnittlichen Verstärkungsverhältnisse gezählt, um zu sehen, wie viel politischer Inhalt hervorgehoben oder in den Hintergrund gedrängt wurde, basierend auf den politischen Neigungen der Nutzer.
Was wir gefunden haben, ist faszinierend: Linksgerichtete Konten sahen einen Anstieg der Sichtbarkeit für Konten, die mit ihren Überzeugungen übereinstimmten, während rechtsgerichtete Konten es schwerer hatten. Das war nicht nur ein kleiner Schubs; der Unterschied in der Verstärkung war signifikant! Es scheint, als würde die Plattform es den Nutzern, die sich ohnehin schon einig sind, bequem machen.
Auswirkungen auf die Demokratie
Warum sind diese Erkenntnisse wichtig? Ganz einfach. Da Social Media eine bedeutende Rolle bei der Gestaltung politischer Diskussionen spielt, kann die Art und Weise, wie Algorithmen bestimmte Botschaften verstärken, nicht nur individuelle Meinungen, sondern auch die öffentliche Diskussion insgesamt beeinflussen. Wenn Nutzern hauptsächlich Inhalte gezeigt werden, die mit ihren Ansichten übereinstimmen, kann das zu Echokammern führen, in denen vielfältige Perspektiven fehlen.
Mit den bevorstehenden Wahlen sollten wir vorsichtig sein, wie Algorithmen Meinungen formen können. Wenn neue Nutzer oder neutrale Konten eher konservativen Perspektiven ausgesetzt sind, bekommen sie möglicherweise kein ausgewogenes Bild der politischen Landschaft. Das könnte subtile, aber langanhaltende Auswirkungen auf ihre Meinungen haben.
Der wachsende Einfluss nicht-traditioneller Stimmen
Eine weitere Wendung in der Geschichte ist, dass Plattformen anscheinend politischen Kommentatoren und Influencern mehr Sichtbarkeit geben als nur Politikern oder Nachrichtenorganisationen. Dieser Trend geht in die Richtung, dass individuelle Stimmen-insbesondere solche, die ansprechenden Content kreieren-im politischen Bereich an Bedeutung gewinnen. Das könnte beeinflussen, wie Meinungen gebildet werden, besonders für lässige Nutzer, die von sensationellen Kommentaren beeinflusst werden könnten.
Den Algorithmus im Auge behalten
Angesichts all dieser Enthüllungen ist es klar, dass es wichtig ist, das algorithmische Verhalten und seine Auswirkungen auf die Inhaltsverteilung zu beobachten. Während diese Plattformen sich weiterentwickeln, wird Transparenz helfen, potenziellen Missbrauch zu verhindern, insbesondere während bedeutender Ereignisse wie Wahlen. Regelmässige Kontrollen können helfen, die Integrität demokratischer Prozesse zu wahren und sicherzustellen, dass Nutzer mit einer ausgewogenen Sicht informiert werden.
Fazit: Die Show muss weitergehen
Wenn wir unsere Reise durch die Welt der Social-Media-Algorithmen und politischen Inhalte abschliessen, ist es offensichtlich, dass das, was wir online sehen, eine entscheidende Rolle bei der Gestaltung unserer politischen Ansichten spielt. Die Algorithmen haben die Macht zu diktieren, was wir sehen, und die Ergebnisse können zu ungleicher Exposition führen.
Also, das nächste Mal, wenn du durch deinen Feed scrollst, denk daran: Die Tweets, die du siehst, sind vielleicht nicht die ganze Geschichte und könnten die versteckten Machenschaften der Algorithmen widerspiegeln. Lass uns auf eine Zukunft hoffen, in der vielfältige Stimmen gehört werden und der politische Diskurs für alle gesund, ansprechend und inklusiv ist.
Titel: Auditing Political Exposure Bias: Algorithmic Amplification on Twitter/X Approaching the 2024 U.S. Presidential Election
Zusammenfassung: Approximately 50% of tweets in X's user timelines are personalized recommendations from accounts they do not follow. This raises a critical question: what political content are users exposed to beyond their established networks, and how might this influence democratic discourse online? Due to the black-box nature and constant evolution of social media algorithms, much remains unknown about this aspect of users' content exposure, particularly as it pertains to potential biases in algorithmic curation. Prior research has shown that certain political groups and media sources are amplified within users' in-network tweets. However, the extent to which this amplification affects out-of-network recommendations remains unclear. As the 2024 U.S. Election approaches, addressing this question is essential for understanding the influence of algorithms on online political content consumption and its potential impact on users' perspectives. In this paper, we conduct a three-week audit of X's algorithmic content recommendations using a set of 120 sock-puppet monitoring accounts that capture tweets in their personalized ``For You'' timelines. Our objective is to quantify out-of-network content exposure for right- and left-leaning user profiles and to assess any potential biases in political exposure. Our findings indicate that X's algorithm skews exposure toward a few high-popularity accounts across all users, with right-leaning users experiencing the highest level of exposure inequality. Both left- and right-leaning users encounter amplified exposure to accounts aligned with their own political views and reduced exposure to opposing viewpoints. Additionally, we observe a right-leaning bias in exposure for new accounts within their default timelines.
Autoren: Jinyi Ye, Luca Luceri, Emilio Ferrara
Letzte Aktualisierung: 2024-11-11 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2411.01852
Quell-PDF: https://arxiv.org/pdf/2411.01852
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.
Referenz Links
- https://www.allsides.com/media-bias/media-bias-chart
- https://www.justice.gov/opa/pr/justice-department-disrupts-covert-russian-government-sponsored-foreign-malign-influence
- https://t.co/oz43ix5jZU
- https://t.co/N1RReBLopn
- https://t.co/kxb8qjGCDW
- https://t.co/wGf2ZdlXpw
- https://t.co/0xJ9e0ZYYG
- https://t.co/nsxZlPV0pC
- https://t.co/e04n749N5H
- https://t.co/t4SOzQjxuy
- https://t.co/zueo7YDFWx
- https://t.co/q4qgmwRLzt
- https://t.co/9Fp1kdOX6w
- https://t.co/HLS0hEHY1C
- https://t.co/2oHPuuFBnN
- https://t.co/FkmisNic4X
- https://t.co/gOvFmy1bYN
- https://t.co/Kj4zTIcPyk
- https://t.co/Retehye9rD
- https://t.co/wGG3L4uBaT