Avanços em Aprendizado de Gráficos Temporais
Um novo conjunto de dados melhora as capacidades de previsão em redes neurais gráficas temporais.
― 7 min ler
Índice
- O Conjunto de Dados TGS
- Importância dos Grafos Temporais
- O Benchmark Temporal Graph Scaling
- O Papel das Redes Neurais de Grafos Temporais (TGNNs)
- Realizando Experimentos
- Modelos de Base para Comparação
- Resultados e Descobertas
- Aplicações Mais Amplas
- Considerações Éticas
- Limitações e Trabalhos Futuros
- Conclusão
- Documentação do Conjunto de Dados
- Estatísticas Adicionais
- Fonte original
- Ligações de referência
O aprendizado de Grafos Temporais é um campo que estuda redes cuja estrutura muda ao longo do tempo. Essas redes podem ajudar a entender como diferentes interações acontecem, como aquelas em redes sociais, transações financeiras e sistemas biológicos. A principal pergunta que tentamos responder é se conseguimos prever o comportamento futuro de uma rede com base em dados passados. Para isso, criamos um conjunto de dados chamado Temporal Graph Scaling (TGS), que inclui informações de várias redes de transações de tokens nos últimos anos.
O Conjunto de Dados TGS
O conjunto de dados TGS consiste em 84 redes diferentes de transações de tokens da blockchain Ethereum, focando em tokens ERC20 de 2017 a 2023. Esse conjunto permite que os pesquisadores avaliem quão bem diferentes modelos conseguem prever o comportamento de redes desconhecidas, com base nas redes que já encontraram.
A gente foca especificamente na transferibilidade das Redes Neurais de Grafos Temporais (TGNNs). Ao treinar primeiro em uma coleção maior de redes, conseguimos avaliar quão bem esses modelos podem se sair quando confrontados com novas redes. Nossa pesquisa mostrou que as TGNNs, assim como os modelos usados em outras áreas, como processamento de linguagem, melhoram seu desempenho quando treinadas em um número maior de redes.
Importância dos Grafos Temporais
Na vida real, muitas relações podem ser capturadas como grafos temporais. Nesses grafos, os nós representam diferentes entidades, enquanto as arestas mostram interações que evoluem ao longo do tempo. Isso pode incluir interações sociais, transações financeiras e muito mais. Dado seu potencial de aplicação, entender como usar esses grafos de forma eficaz é crucial.
Avanços recentes em Modelos Fundamentais provaram ser eficazes em áreas como processamento de linguagem natural e visão computacional. Esses modelos buscam aprender a partir de uma grande quantidade de dados e aplicar esse conhecimento em novas tarefas. No entanto, a aplicação desses modelos no aprendizado de representação de grafos, especialmente grafos temporais, tem sido limitada.
O Benchmark Temporal Graph Scaling
Para preencher a lacuna na pesquisa sobre modelos fundamentais em grafos temporais, desenvolvemos o benchmark TGS. Esse benchmark inclui grafos temporais novos derivados de dados de transações do Ethereum, com cada grafo contendo uma variedade de nós e arestas. Com um total de 3 milhões de nós e 19 milhões de arestas, os dados oferecem uma base robusta para estudar o aprendizado de grafos temporais.
O benchmark TGS não só fornece os dados brutos, mas também facilita a pesquisa ao permitir que modelos sejam treinados nesse conjunto de dados abrangente. Ele estabelece as bases para entender quão bem os modelos fundamentais podem aprender com redes interconectadas ao longo do tempo.
O Papel das Redes Neurais de Grafos Temporais (TGNNs)
As TGNNs são modelos especializados que ajudam a aprender com grafos temporais. Esses modelos vêm com recursos específicos que permitem analisar como as entidades interagem ao longo do tempo. Ao aproveitar a natureza temporal dos dados, as TGNNs podem fornecer insights valiosos sobre interações futuras.
Em nossa pesquisa, treinamos TGNNs usando o conjunto de dados TGS, observando as leis de escalabilidade que se aplicam a esses modelos. As leis de escalabilidade se referem à ideia de que, à medida que aumentamos a quantidade de dados de treinamento, o desempenho do modelo melhora significativamente. Quanto mais redes treinamos, melhor os modelos se tornam em lidar com redes desconhecidas.
Realizando Experimentos
Para avaliar a eficácia dos nossos modelos fundamentais, testamos eles contra conjuntos de dados desconhecidos. Nossos experimentos mostraram que, ao pré-treinar em um maior número de redes, os modelos podiam transferir esse conhecimento aprendido para fazer previsões sobre novas redes não vistas.
Investigamos mais detalhes do nosso algoritmo que permite que as TGNNs aprendam com múltiplas redes simultaneamente. Isso envolveu embaralhar os dados durante o treinamento para garantir que o modelo não criasse correlações espúrias e redefinindo as informações históricas ao mudar entre redes. Isso ajuda o modelo a se adaptar melhor às características únicas de diferentes redes.
Modelos de Base para Comparação
Nos nossos experimentos, comparamos nossos modelos fundamentais com modelos básicos e modelos de rede única. O modelo básico usou uma previsão simples com base nas tendências de dados anteriores, enquanto o modelo único focou em uma rede de cada vez. Com isso, queríamos destacar as vantagens dos nossos modelos fundamentais que podiam aprender com múltiplas redes.
Resultados e Descobertas
Os resultados dos nossos experimentos mostraram que os modelos fundamentais superaram significativamente os outros modelos na previsão das propriedades de tokens desconhecidos. Os modelos treinados em um maior número de redes tiveram maior precisão e foram melhores em generalizar entre diferentes conjuntos de dados. Isso indica a força dos modelos fundamentais no aprendizado de grafos temporais.
Aplicações Mais Amplas
As implicações da nossa pesquisa vão além da curiosidade acadêmica. Modelos fundamentais têm um potencial enorme em várias áreas, especialmente em finanças. Com capacidades de previsão precisas, esses modelos podem informar decisões financeiras e ajudar a analisar tendências de rede ou preços de tokens.
Considerações Éticas
Embora nossa pesquisa tenha como objetivo avançar a compreensão do aprendizado de grafos temporais, precisamos ser cautelosos quanto a potenciais resultados negativos. Por exemplo, há o risco de que focar em um conjunto de dados específico possa limitar a eficácia do modelo em outras áreas. Além disso, os recursos necessários para um treinamento extensivo de modelos podem levar a preocupações sobre impacto ambiental e desigualdade no acesso aos avanços tecnológicos.
Limitações e Trabalhos Futuros
Apesar das nossas descobertas promissoras, há limitações no nosso trabalho. Paramos o treinamento do modelo em 64 redes devido a restrições de recursos; no entanto, um treinamento mais extenso poderia gerar modelos ainda melhores. Além disso, enquanto focamos em grafos temporais discretos, ainda há potencial para explorar grafos de tempo contínuo em pesquisas futuras.
Conclusão
Nossa pesquisa confirma que é possível prever a evolução de redes desconhecidas usando grafos temporais. Ao criar o benchmark TGS e desenvolver algoritmos de treinamento eficazes, estabelecemos as bases para futuros estudos nesta área. Nossas descobertas destacam o potencial dos modelos fundamentais no aprendizado de grafos temporais e apresentam oportunidades para mais exploração e aplicação.
Documentação do Conjunto de Dados
Os conjuntos de dados TGS são destinados ao uso acadêmico sob a licença MIT. Estamos comprometidos em garantir o desenvolvimento e uso responsável desses conjuntos de dados, enquanto permanecemos transparentes e abertos a contribuições da comunidade. Planejamos manter e expandir o conjunto de dados ao longo do tempo, adicionando mais redes de tokens para apoiar modelos ainda maiores.
Estatísticas Adicionais
Estatísticas abrangentes para cada rede de token no conjunto de dados TGS revelam uma variedade de características únicas. Entender contagens de arestas, pontuações de novidade e frequência de transações fornece uma base sólida para avaliar a dinâmica da rede. Pesquisas futuras continuarão a explorar as complexidades dos grafos temporais, abrindo caminho para modelos mais robustos e eficazes.
Em resumo, nosso trabalho abre novas avenidas para o aprendizado de grafos temporais e demonstra os benefícios significativos de utilizar modelos fundamentais neste campo de estudo em rápida evolução.
Título: Towards Neural Scaling Laws for Foundation Models on Temporal Graphs
Resumo: The field of temporal graph learning aims to learn from evolving network data to forecast future interactions. Given a collection of observed temporal graphs, is it possible to predict the evolution of an unseen network from the same domain? To answer this question, we first present the Temporal Graph Scaling (TGS) dataset, a large collection of temporal graphs consisting of eighty-four ERC20 token transaction networks collected from 2017 to 2023. Next, we evaluate the transferability of Temporal Graph Neural Networks (TGNNs) for the temporal graph property prediction task by pre-training on a collection of up to sixty-four token transaction networks and then evaluating the downstream performance on twenty unseen token networks. We find that the neural scaling law observed in NLP and Computer Vision also applies in temporal graph learning, where pre-training on greater number of networks leads to improved downstream performance. To the best of our knowledge, this is the first empirical demonstration of the transferability of temporal graphs learning. On downstream token networks, the largest pre-trained model outperforms single model TGNNs on thirteen unseen test networks. Therefore, we believe that this is a promising first step towards building foundation models for temporal graphs.
Autores: Razieh Shirzadkhani, Tran Gia Bao Ngo, Kiarash Shamsi, Shenyang Huang, Farimah Poursafaei, Poupak Azad, Reihaneh Rabbany, Baris Coskunuzer, Guillaume Rabusseau, Cuneyt Gurcan Akcora
Última atualização: 2024-06-26 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2406.10426
Fonte PDF: https://arxiv.org/pdf/2406.10426
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.
Ligações de referência
- https://neurips.cc/Conferences/2024/PaperInformation/FundingDisclosure
- https://github.com/mlcommons/croissant
- https://github.com/benjaminnNgo/ScalingTGNs
- https://zenodo.org/doi/10.5281/zenodo.11455827
- https://tgs-benchmark.github.io/TGS-Benchmark/
- https://huggingface.co/api/datasets/ntgbaoo/Temporal_Graph_Scaling_TGS_Benchmark/croissant
- https://github.com/ethereum/go-ethereum
- https://github.com/blockchain-etl/ethereum-etl
- https://zenodo.org/records/11455828
- https://alliancecan.ca/en
- https://www.neurips.cc/Conferences/2023/CallForDatasetsBenchmarks
- https://mirrors.ctan.org/macros/latex/contrib/natbib/natnotes.pdf
- https://www.ctan.org/pkg/booktabs
- https://www.emfield.org/icuwb2010/downloads/IEEE-PDF-SpecV32.pdf
- https://mirrors.ctan.org/macros/latex/required/graphics/grfguide.pdf
- https://neurips.cc/Conferences/2023/PaperInformation/FundingDisclosure