Simple Science

最先端の科学をわかりやすく解説

# コンピューターサイエンス# コンピュータと社会# 社会と情報ネットワーク

TikTokでの陰謀論の広まり

研究によると、TikTokでの陰謀論の広がりとその影響について明らかになった。

― 1 分で読む


TikTokの陰謀論TikTokの陰謀論らかにした。研究が陰謀的コンテンツの驚くべき成長を明
目次

TikTokは特に若者の間でとても人気のあるプラットフォームになったよね。流行やチャレンジがバイラルになることで知られてるけど、このプラットフォームで広がる有害なコンテンツ、特に陰謀論については深刻な懸念があるんだ。陰謀論っていうのは、特定のグループや政府が関与する秘密の計画や出来事を示唆する嘘のアイデアなんだ。

この記事では、TikTokでどれだけの動画が陰謀論を促進しているかに関する研究について話すよ。この研究は、アメリカでの3年間に共有された動画に焦点を当てて、TikTokの新しいクリエイタープログラムの影響を理解することを目指しているんだ。このプログラムは、ユーザーが自分のコンテンツからお金を稼げるようにするものだよ。

TikTokの台頭とその影響

ここ数年で、TikTokは人々がニュースや情報を消費する方法を変えてきた。アメリカのユーザーの約43%が定期的にTikTokをニュースのために利用してるんだ。このプラットフォームには、10億以上のアクティブユーザーがおり、毎日何百万もの動画がアップロードされてるんだ。TikTokはさまざまなエンタメコンテンツで知られているけど、誤情報や有害なコンテンツが迅速に広がる場所でもあるんだよ。

大きなオーディエンスを持つことから、TikTokが安全なオンライン空間であり続けることが重要なんだ。偽情報やヘイトスピーチの問題に取り組むことは特に大切で、特に陰謀論はユーザーの現実認識を歪める可能性があるからね。

陰謀論って何?

陰謀論は、グループや政府が関与する秘密の行動を主張する嘘や未確認の物語なんだ。無害なアイデアから人々の間で誤情報や分裂を引き起こす危険な信念まで幅広いんだ。ソーシャルメディアのおかげで、これらの理論が広がりやすくなっていて、これらの信念を共有するコミュニティがオンラインで形成されることもよくあるよ。これが現実世界に影響を及ぼすこともあるんだ。

大規模な言語モデルに基づく生成AIの台頭も、悪用の懸念を呼んでる。これらのツールは説得力のある誤解を招くコンテンツを生成できるけど、同時に研究者がソーシャルメディアデータを分析して陰謀論がどのように広がるかを理解する手助けにもなるんだ。

研究の質問

この研究は3つの重要な質問に答えることを目指してる:

  1. TikTokで陰謀論を共有する動画の推定普及率はどれくらい?
  2. クリエイタープログラムはTikTokで共有される陰謀的コンテンツの量を変えたの?
  3. 大規模言語モデルはTikTokで陰謀論を特定するのに役立つの?

方法論

これらの質問に答えるために、研究者たちはアメリカで3年間に共有された約150万本のTikTok動画のデータセットを集めたよ。特に長い動画(少なくとも1分)に焦点を当ててるんだ。彼らはデータ駆動型のアプローチを使って、陰謀論に関連するハッシュタグを特定して、その普及率を推定したんだ。

クリエイタープログラムが導入される前と後のコンテンツを調べた結果、共有される動画の平均長さが少し増えたことに気づいたよ。それに、動画の音声から生成されたトランスクリプトを分析することで、大規模言語モデルがどれだけ陰謀論を特定できるかも評価したんだ。

陰謀論に関する発見

研究の結果、約0.1%のTikTok動画が陰謀論を共有していることが分かったよ。つまり、500本に1本が陰謀に関するものってこと。ただ、割合は低いけど、陰謀動画の総数はかなり多くて、2023年には毎月約1000本の陰謀に関連する動画が投稿されてるって推定されてるんだ。

この研究では、陰謀コンテンツは2021年の中頃に顕著な急増を見せたけど、その後すぐに約0.1%で安定したんだ。

クリエイタープログラムの影響

2023年に始まったTikTokの新しいクリエイタープログラムは、クリエイターが1分以上の動画を投稿することでお金を稼げるようにすることを目指してる。このプログラムはプラットフォームで共有される動画の全体的な長さに影響を与えたみたい。収集されたデータによると、プログラムが始まった後に動画の数と平均時間が増加したんだ。

大規模言語モデルの利用

研究者たちは、動画コンテンツ内で陰謀論を検出するための大規模言語モデルの可能性も分析したよ。動画の音声から生成されたトランスクリプトを使って、これらのテキストをモデルの入力として利用したんだ。結果として、多くのモデルが陰謀的コンテンツの特定に成功したけど、精度や再現率にはばらつきがあったんだ。

モデルのパフォーマンスは使われるプロンプトに大きく依存していて、タスクのフレーミングの仕方がモデルの効果に影響することが示唆されたよ。最もパフォーマンスが良いモデルは素晴らしい結果を示していて、有害なコンテンツを特定するのに役立つことを示してるんだ。

モデレーションへの影響

この研究の結果は、TikTokや似たようなプラットフォームがコンテンツをモデレートする方法に重要な影響を持つよ。陰謀論やその普及を特定することで、TikTokは有害な素材の拡散を制限するためのより良いコンテンツモデレーション戦略を実施できるんだ。これにより、特に誤情報やヘイトコンテンツを扱うことで、ユーザーにとってより安全な環境を作れるようになるよ。

これに加えて、より多くのソーシャルメディアプラットフォームが似たようなマネタイズ戦略を採用するようになる中で、これらの変化がコンテンツのダイナミクスにどのように影響するかを理解することが重要になるよ。

研究の限界

この研究は貴重な洞察を提供してくれるけど、いくつかの限界も考慮する必要があるよ。データはTikTokのリサーチAPIを通じて収集されたもので、特定のバイアスを含んでいる可能性があるんだ。研究はまた、陰謀コンテンツを特定するために特定のハッシュタグに依存していて、異なるハッシュタグが異なる結果をもたらすこともあるんだ。

さらに、大規模言語モデルを使うことで不確実性が生じるかもしれない。これらのモデルは完璧ではなく、不安定な結果を生むことがあるからね。今後の研究はこれらの方法を洗練させて、TikTokで見つかる陰謀論の性質をより深く掘り下げることを目指すべきだよ。

倫理的考慮事項

この研究は、ユーザーのプライバシーを守るために倫理的ガイドラインに従ったんだ。すべてのデータは集約的に収集されて使われていて、個々のアイデンティティは匿名のままにされてるよ。それに、分析に使われたモデルに個人情報は与えられていないんだ。

結論

要するに、TikTokは情報共有の重要なプラットフォームになっているけど、誤情報や陰謀論の面でのリスクもあるんだ。大規模なデータセットと先進的な技術を活用することで、研究者は陰謀コンテンツの普及とマネタイズ戦略の影響についての光を当てたんだよ。ソーシャルメディアが進化し続ける中で、これらの課題を理解し対処するための研究は必要不可欠になるね。

この研究は、有害な理論の拡散を管理するための効果的なコンテンツモデレーション戦略の必要性を強調しているんだ。適切なアプローチを用いれば、プラットフォームはユーザーにとってより安全な空間を作りながら、TikTokのようなプラットフォームの魅力的なコンテンツ創造のダイナミックさを維持できるんだ。

今後の研究の方向性

陰謀論の複雑さやソーシャルメディア上での存在についてはまだ学ぶべきことがたくさんあるよ。今後の研究では、異なる陰謀論のニュアンスや、それらがさまざまなプラットフォームでどのように広がるかを調べるべきだね。また、プラットフォームのポリシーやクリエイターのインセンティブの変更がコンテンツトレンドに与える長期的な影響をモニタリングするのも有益だと思う。

さらに、動画の視覚要素などのマルチモーダルデータを統合することで、理解と検出能力を向上させることができるんだ。新しいモデルを採用して、さまざまな方法論を探求することで、コンテンツモデレーション技術をさらに洗練させ、有害なコンテンツを効果的に管理する手助けができるはずだよ。

オリジナルソース

タイトル: Conspiracy theories and where to find them on TikTok

概要: TikTok has skyrocketed in popularity over recent years, especially among younger audiences, thanks to its viral trends and social challenges. However, concerns have been raised about the potential of this platform to promote and amplify online harmful and dangerous content. Leveraging the official TikTok Research API and collecting a longitudinal dataset of 1.5M videos shared in the US over a period of 3 years, our study analyzes the presence of videos promoting conspiracy theories, providing a lower-bound estimate of their prevalence (approximately 0.1% of all videos) and assessing the effects of the new Creator Program, which provides new ways for creators to monetize, on the supply of conspiratorial content. We evaluate the capabilities of state-of-the-art open Large Language Models to identify conspiracy theories after extracting audio transcriptions of videos, finding that they can detect harmful content with high precision but with overall performance comparable to fine-tuned traditional language models such as RoBERTa. Our findings are instrumental for content moderation strategies that aim to understand and mitigate the spread of harmful content on rapidly evolving social media platforms like TikTok.

著者: Francesco Corso, Francesco Pierri, Gianmarco De Francisci Morales

最終更新: 2024-07-17 00:00:00

言語: English

ソースURL: https://arxiv.org/abs/2407.12545

ソースPDF: https://arxiv.org/pdf/2407.12545

ライセンス: https://creativecommons.org/licenses/by/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。

著者たちからもっと読む

類似の記事

社会と情報ネットワークウイルスイベントがユーザーエンゲージメントに与える影響

この記事では、バイラル投稿がユーザーの注意とエンゲージメントに時間とともにどんな影響を与えるかを調べてるよ。

― 1 分で読む