Twitterの推薦アルゴリズムが政治的分極化に与える影響
研究によると、ツイッターのアルゴリズムが政治的意見やエコーチェンバーにどんな影響を与えるかがわかった。
― 1 分で読む
ソーシャルメディアはニュースを得たり情報を共有したりするのに大きな役割を果たしてるよね。ここでの注目すべき懸念は、誤解を招く情報の広がりや、人々が自分と同じ意見しか聞かないエコーチェンバーに陥ること。これって政治的な意見の対立を増やしたり、社会の分断を深めたりするんだ。アルゴリズム、要はソーシャルメディアプラットフォームがコンテンツを推薦するために使うルールのセットもこれらの問題に寄与してるかもしれない。でも、これらのアルゴリズムは実際にはどう機能してるのか、どんな影響を与えてるのか?
エコーチェンバーとは?
エコーチェンバーは、みんなが自分の信念を共有する人としか関わらない状況のこと。これが既存の意見を強化したり、もっと極端な意見を生むことにつながる。心配なのは、エコーチェンバーが世間の意見を分断させたり、政治的な対立を助長すること。研究者たちはこの現象をいろんなソーシャルメディアプラットフォームで調べてきたけど、特に政治的な議論に関して。ほとんどの結果は、ユーザーが似たような信念を持つ人たちと集まる傾向があるって示してるけど、エコーチェンバーはそんなに一般的じゃないって主張する人もいる。
エコーチェンバーに関連するもう一つの概念はフィルターバブル。この言葉は、アルゴリズムが過去のインタラクションに基づいて人々が見るコンテンツに影響を与える様子を説明してる。エコーチェンバーはいろんな理由で作られるけど、自分の信念を確認する情報を求める傾向も一因だし、フィルターバブルも重要な要素になりうる。
アルゴリズムの監査
ソーシャルメディアプラットフォーム上のアルゴリズムがもたらす潜在的な悪影響を理解するために、研究者たちはアルゴリズム監査を行う。これは、システムの入力と出力を調べて、ユーザーの体験にどう影響を与えるかを見ていくんだ。一般的な方法の一つは、自動アカウント、時には「ソックパペット」アカウントとも呼ばれるものを作成して、実際のユーザーがプラットフォームとどうインタラクトするかをシミュレーションすること。
いろんな研究がTwitterのアルゴリズムに関して行われて、ユーザーにどんな影響を与えてるかを見てきた。友達が選ばれる順番がユーザーの体験に大きな影響を与えることが示された研究もある。一方、Twitter自身のアルゴリズムが多様なリンクを促進しつつ、政治的な分断を深めるかもしれないって研究もある。
推薦システムの役割
ソーシャルメディアの友達推薦システムは、ユーザーがつながるアカウントを提案する。Twitterの「フォローすべきアカウント」機能が導入されたとき、フォロワー数が大幅に増えたんだ。でも、これらのシステムが政治的な分極化や誤情報に与える影響に関する主流の研究は、シミュレーションに基づいてることがほとんど。
いくつかのシミュレーションでは、似たようなネットワークが形成されるアルゴリズムが意見の分極化を促す可能性があるって示唆されてる。他の研究では、これらのシステムがマイノリティの意見の視認性を減少させ、初期のネットワークがすでに同質であった場合にはエコーチェンバーを増加させる可能性があるってわかってる。
研究の設定
2022年のアメリカ中間選挙の際に、Twitterの友達推薦アルゴリズムが政治的分極化にどう影響するかを調べるために、ユニークな研究がデザインされた。研究者たちは実際のユーザーを模倣した自動アカウントを作成し、左派と右派の政治家をフォローした。目標は、アルゴリズムの提案に基づいてネットワークが時間とともにどう変わるかを観察することだった。
研究は二つの大きな部分に分かれていて、一方は「フォローすべきアカウント」の推薦を使うアカウント、もう一方は既存の友達の推薦に基づいてフォローするアカウントを使った。こうすることで、アルゴリズムによって形成されたネットワークと、自然な社会的つながりによって形成されたネットワークを比較できるようにした。
データ収集プロセス
2022年の9月から12月にかけて行われた研究の間、自動アカウントは推薦提案を使ったり、友達の友達をフォローしたりして、異なるネットワークを作った。データ収集のために事前に設定されたプロトコルに従った。
主な焦点の一つは、形成されたネットワークの構造で、これがエコーチェンバーが存在するかどうかを判断するのに役立った。自動アカウントがフォローした同じ政治家をフォローしていた実際のTwitterユーザーからも追加のデータを収集して、比較グループを作った。データ収集にはツイート、フォロワー情報、エンゲージメントの指標が含まれた。
研究者たちはリアルタイムでネットワークの成長を記録し、自動アカウントが新しいアカウントをフォローするたびにメモを取った。これにより、ネットワークがどのように進化していくかを分析できた。
政治的均質性の理解
これらのネットワークを詳しく見て、研究者たちは政治的にどれだけ均質であるかを測ることを目指した。これは、シェアされた政治的コンテンツに基づいてユーザーを左派、右派、または中立にラベリングすることで行われた。自動アカウントによって形成された個人ネットワークは、典型的なTwitterユーザーや友達の推薦を受けた人たちの行動と比較されることができた。
比較の結果、友達推薦システムに依存したアカウントは、より政治的に多様なネットワークに入ることがわかった。既存の友達からの推薦に基づいて成長したアカウントは、より高い政治的均質性を示した。
政治的曝露に関する発見
重要な発見の一つは、誤情報への曝露に関するものだった。アルゴリズムに依存した自動アカウントは、社会的な推薦を通じて形成されたアカウントと比べて、誤解を招く選挙のナラティブへの曝露が低かった。特に共和党候補者で種まきされたアカウントでは、この違いが顕著だった。
この洞察は、推薦アルゴリズムが政治的分極化や誤情報を減少させるのに役立つ可能性があるって示唆してるけど、それでもエコーチェンバーの構造的定義に当てはまるネットワークができるかもしれない。
増幅の逆説
推薦アルゴリズムはユーザーの行動に大きな影響を与えるけど、なぜ人々がオンラインで極端なコンテンツに関与するのかの全貌を語るものではない。この研究は、友達推薦システムが自動アカウントが誤解を招く情報に曝露される確率を低くし、ネットワーク内により多くの政治的多様性を生み出すかもしれないことを示している。
ただし、研究結果は、アルゴリズムが健全な情報環境を促進するように設計されているのか、単にユーザーのエンゲージメントを最適化して広告収益を増加させるために作られたのかという疑問も提起した。こうした要因は、ソーシャルメディアプラットフォームがユーザーにとってより良い情報体験を育む方法を理解するためには、さらなる検討が必要だ。
研究の制限事項
この研究にはいくつかの制限があって、特に使用された自動アカウントの数に関しては。サンプルが少なかったから、広範な結論を引き出すのが難しかった。また、自動アカウントは実際のユーザーのように行動しなかったから、例えば投稿したりコンテンツに関与したりすることがなかったので、結果はプラットフォーム上の本物のユーザー行動を反映してないかもしれない。
この研究は特定の時期のTwitterのスナップショットしか提供してないし、その後プラットフォームで見られたさまざまな変化のために、研究を再現することは今のところ難しい。
結論
この研究は、Twitterの友達推薦アルゴリズムが重要な政治的時期に個人ネットワークの形成に与える影響に関する貴重な情報を追加するものだ。アルゴリズムがアカウントを構造的に密度が高く、エコーのように見えるクラスターや近隣に導く一方で、そこに含まれるコンテンツは社会的推薦だけで形成されたネットワークよりもイデオロギー的に多様だった。
研究は、ソーシャルメディアのアルゴリズムだけがエコーチェンバーの主な原因ではないことを示してる。むしろ、これらのアルゴリズムと個々のユーザーの選択との相互作用を理解することが大切なんだ。今後の研究は、このダイナミクスを探求し続けて、より健康的なオンラインディスコースのためのソーシャルメディアプラットフォームの設計や規制をよりよく情報提供できるようにすべきだ。
タイトル: Echo Chambers in the Age of Algorithms: An Audit of Twitter's Friend Recommender System
概要: The presence of political misinformation and ideological echo chambers on social media platforms is concerning given the important role that these sites play in the public's exposure to news and current events. Algorithmic systems employed on these platforms are presumed to play a role in these phenomena, but little is known about their mechanisms and effects. In this work, we conduct an algorithmic audit of Twitter's Who-To-Follow friend recommendation system, the first empirical audit that investigates the impact of this algorithm in-situ. We create automated Twitter accounts that initially follow left and right affiliated U.S. politicians during the 2022 U.S. midterm elections and then grow their information networks using the platform's recommender system. We pair the experiment with an observational study of Twitter users who already follow the same politicians. Broadly, we find that while following the recommendation algorithm leads accounts into dense and reciprocal neighborhoods that structurally resemble echo chambers, the recommender also results in less political homogeneity of a user's network compared to accounts growing their networks through social endorsement. Furthermore, accounts that exclusively followed users recommended by the algorithm had fewer opportunities to encounter content centered on false or misleading election narratives compared to choosing friends based on social endorsement.
著者: Kayla Duskin, Joseph S. Schafer, Jevin D. West, Emma S. Spiro
最終更新: 2024-04-09 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2404.06422
ソースPDF: https://arxiv.org/pdf/2404.06422
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。
参照リンク
- https://help.twitter.com/en/rules-and-policies/twitter-automation
- https://developer.twitter.com/en/developer-terms/more-on-restricted-use-cases
- https://dl.acm.org/ccs.cfm
- https://blog.twitter.com/engineering/en
- https://selenium-python.readthedocs.io/
- https://projects.fivethirtyeight.com/2022-election-forecast/senate/
- https://www.eipartnership.net/