Simple Science

最先端の科学をわかりやすく解説

# コンピューターサイエンス# 機械学習

時間的グラフ学習の進展

新しいデータセットが時間的グラフニューラルネットワークの予測能力を向上させる。

― 1 分で読む


時間的グラフ学習のブレイク時間的グラフ学習のブレイクスルーの挙動に対する予測を強化した。新しいデータセットが進化するネットワーク
目次

時間的グラフ学習は、構造が時間とともに変化するネットワークを研究する分野なんだ。これらのネットワークは、ソーシャルネットワーク、金融取引、生物システムなどの異なる相互作用がどう起こるかを理解するのに役立つ。私たちが答えようとしている主な質問は、過去のデータに基づいてネットワークの未来の振る舞いを予測できるかってこと。これを実現するために、過去数年間のさまざまなトークン取引ネットワークの情報を含む「Temporal Graph Scaling(TGS)」データセットを作ったんだ。

TGSデータセット

TGSデータセットは、2017年から2023年までのEthereumブロックチェーンの84の異なるトークン取引ネットワークで構成されていて、ERC20トークンに焦点を当ててる。このデータセットを使うことで、研究者たちは、未見のネットワークの振る舞いをどれだけうまく予測できるかを評価できるんだ。

特に、時間的グラフニューラルネットワーク(TGNN)の移転性に注目してる。まずは大きなネットワークのコレクションで訓練することで、これらのモデルが新しいネットワークに直面したときにどれだけうまく機能するかを評価できるんだ。研究から、TGNNは、言語処理など他の分野で使われているモデルと同様に、より多くのネットワークで訓練されるとパフォーマンスが向上することがわかった。

時間的グラフの重要性

実生活では、多くの関係が時間的グラフとして捉えることができる。このグラフでは、ノードが異なるエンティティを表し、エッジが時間とともに進化する相互作用を示してる。これには、社会的相互作用や金融取引などが含まれる。応用の可能性を考えると、これらのグラフを効果的に使う方法を理解することは非常に重要だよ。

最近の基盤モデルの進展は、自然言語処理やコンピュータビジョンの分野で効果的であることが証明されている。これらの基盤モデルは、大量のデータから学習し、その知識を新しいタスクに適用することを目指している。でも、時間的グラフの表現学習、特に時間的グラフにおけるこれらのモデルの応用は制限されてきた。

時間的グラフスケーリングベンチマーク

時間的グラフにおける基盤モデルの研究のギャップを埋めるために、TGSベンチマークを開発した。このベンチマークには、Ethereum取引データから派生した新しい時間的グラフが含まれていて、各グラフにはさまざまなノードとエッジが含まれている。合計で300万のノードと1900万のエッジがあり、データは時間的グラフ学習を研究するための堅牢なフレームワークを提供するんだ。

TGSベンチマークは、生データを提供するだけでなく、この包括的なデータセットでモデルの訓練を可能にすることで研究をサポートしている。時間とともに相互接続されたネットワークから基盤モデルがどれだけ学習できるかを理解するための基盤を築いている。

時間的グラフニューラルネットワーク(TGNN)の役割

TGNNは、時間的グラフから学ぶための特化したモデルだ。これらのモデルは、エンティティが時間とともにどう相互作用するかを分析するための特定の機能を持ってる。データの時間的特性を活用することで、TGNNは未来の相互作用についての貴重な洞察を提供できる。

私たちの研究では、TGSデータセットを使ってTGNNを訓練し、これらのモデルに適用されるスケーリング法則を観察した。スケーリング法則は、訓練データの量を増やすとモデルのパフォーマンスが大幅に向上するという考え方を指す。訓練するネットワークが多いほど、モデルは未見のネットワークを扱うのが得意になるんだ。

実験の実施

私たちの基盤モデルの効果を評価するために、未見のデータセットに対してテストを行った。実験の結果、より多くのネットワークで事前訓練することで、モデルがこの学んだ知識を新しい未見のネットワークについての予測に転送できることがわかった。

さらに、TGNNが複数のネットワークから同時に学ぶことを可能にするアルゴリズムの詳細を調査した。それには、モデルが偶発的な相関関係を作成しないように訓練中にデータをシャッフルし、ネットワーク間で切り替える際に履歴情報をリセットすることが含まれてる。これにより、モデルは異なるネットワークの独自の特性に適応しやすくなるんだ。

比較のためのベースラインモデル

実験の中で、基盤モデルを基本モデルや単一ネットワークモデルと比較した。基本モデルは前のデータトレンドに基づいたシンプルな予測を使用し、単一モデルは一度に1つのネットワークに焦点を当てた。これによって、複数のネットワークから学べる私たちの基盤モデルの利点を強調したかったんだ。

結果と発見

実験の結果、基盤モデルは未見のトークンの特性を予測する際に他のモデルを大幅に上回った。より多くのネットワークで訓練されたモデルは、精度が高く、さまざまなデータセットに対して一般化するのが得意だった。これは、時間的グラフ学習における基盤モデルの強さを示している。

より広い応用

私たちの研究の意味は、学問的な好奇心にとどまらない。基盤モデルは、特に金融の分野で大きな可能性を秘めている。正確な予測能力を持つこれらのモデルは、金融の意思決定に役立ち、ネットワークのトレンドやトークン価格の分析を助けることができる。

倫理的配慮

私たちの研究が時間的グラフ学習の理解を進めることを目指している一方で、潜在的な悪影響には注意が必要だ。例えば、特定のデータセットに集中することで、他の分野でのモデルの効果が制限される危険がある。また、広範なモデルの訓練には資源が必要で、環境への影響や技術の進歩へのアクセスの不平等についての懸念も生じるかもしれない。

制限と今後の研究

私たちの有望な発見にも制限はある。リソースの制約から、64のネットワークまででモデルの訓練を止めたが、より広範な訓練を行えばさらに良いモデルが得られるかもしれない。また、離散時間グラフに焦点を当てたけど、今後の研究では連続時間グラフを探求する可能性も残っている。

結論

私たちの研究は、未見のネットワークの進化を時間的グラフを使って予測できることを確認した。TGSベンチマークを作成し、効果的な訓練アルゴリズムを開発することで、この分野の将来の研究の基盤を築いた。私たちの発見は、時間的グラフ学習における基盤モデルの可能性を強調し、さらなる探求や応用の機会を提供している。

データセットのドキュメント

TGSデータセットはMITライセンスの下で学術的に使用されることを目的としている。このデータセットの責任ある開発と使用を確保し、コミュニティの意見にもオープンでいることを約束する。今後もデータセットを維持・拡張し、より多くのトークンネットワークを追加して、さらに大きな基盤モデルのサポートをするつもりだ。

追加統計

TGSデータセット内の各トークンネットワークの包括的な統計は、さまざまな独自の特性を明らかにする。エッジ数、ノベルティスコア、取引頻度を理解することで、ネットワークの動態を評価するためのしっかりした基盤が得られる。今後の研究では、時間的グラフの複雑さを引き続き探求し、より堅牢で効果的なモデルへの道を開いていく。

要するに、私たちの作業は時間的グラフ学習の新しい道を開き、この急速に進化する研究分野における基盤モデルの利用の大きなメリットを示している。

オリジナルソース

タイトル: Towards Neural Scaling Laws for Foundation Models on Temporal Graphs

概要: The field of temporal graph learning aims to learn from evolving network data to forecast future interactions. Given a collection of observed temporal graphs, is it possible to predict the evolution of an unseen network from the same domain? To answer this question, we first present the Temporal Graph Scaling (TGS) dataset, a large collection of temporal graphs consisting of eighty-four ERC20 token transaction networks collected from 2017 to 2023. Next, we evaluate the transferability of Temporal Graph Neural Networks (TGNNs) for the temporal graph property prediction task by pre-training on a collection of up to sixty-four token transaction networks and then evaluating the downstream performance on twenty unseen token networks. We find that the neural scaling law observed in NLP and Computer Vision also applies in temporal graph learning, where pre-training on greater number of networks leads to improved downstream performance. To the best of our knowledge, this is the first empirical demonstration of the transferability of temporal graphs learning. On downstream token networks, the largest pre-trained model outperforms single model TGNNs on thirteen unseen test networks. Therefore, we believe that this is a promising first step towards building foundation models for temporal graphs.

著者: Razieh Shirzadkhani, Tran Gia Bao Ngo, Kiarash Shamsi, Shenyang Huang, Farimah Poursafaei, Poupak Azad, Reihaneh Rabbany, Baris Coskunuzer, Guillaume Rabusseau, Cuneyt Gurcan Akcora

最終更新: 2024-06-26 00:00:00

言語: English

ソースURL: https://arxiv.org/abs/2406.10426

ソースPDF: https://arxiv.org/pdf/2406.10426

ライセンス: https://creativecommons.org/licenses/by/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。

著者たちからもっと読む

類似の記事