Avançando a Classificação de Gráficos através do Aprendizado Contrastivo
Um novo método melhora os resultados de classificação de grafos usando adaptação de domínio não supervisionada.
― 6 min ler
Índice
Classificação de grafos é um assunto importante em machine learning que foca em prever as características de grafos inteiros. Isso inclui várias aplicações, como analisar redes sociais e prever propriedades de moléculas. O desafio tá na necessidade de um monte de exemplos rotulados pra treinar os modelos, o que pode ser caro e difícil de conseguir.
As redes neurais de grafos (GNNs) têm mostrado potencial nessa área, mas geralmente dependem de dados rotulados extensos. É aí que entra a adaptação de domínio não supervisionada. Usando dados de um domínio relacionado, mas diferente, onde os rótulos são mais disponíveis, conseguimos melhorar o desempenho dos modelos de classificação de grafos em dados não rotulados.
Desafios na Classificação de Grafos
Tem vários desafios importantes na área de classificação de grafos. Um dos principais obstáculos é como extrair informações significativas da estrutura dos grafos quando os dados rotulados são escassos. As GNNs normalmente funcionam passando informações entre nós vizinhos pra criar uma representação do gráfico inteiro. Porém, elas tendem a focar em informações estruturais implícitas, que podem não ser suficientes quando os dados rotulados são limitados.
Além disso, reduzir as diferenças entre grafos de diferentes domínios é crucial. Grafos de domínios diferentes podem ter diferenças significativas nas suas características, dificultando a aplicação de modelos aprendidos de um domínio para outro. A maioria dos métodos existentes de outras áreas, como visão computacional, não se aplica diretamente a grafos.
Abordagem Proposta
Pra enfrentar esses desafios, propomos um novo método chamado Aprendizado de Representação de Grafos Contrastivos Acoplados. Essa abordagem tem dois componentes principais: um ramo de rede neural convolucional de grafos (GCN) e um ramo de rede de núcleo hierárquico de grafos (HGKN). O ramo GCN foca em aprender a estrutura implícita do gráfico, enquanto o ramo HGKN captura informações estruturais mais detalhadas de forma explícita.
Combinando esses dois ramos, criamos uma representação mais abrangente dos grafos. Também implementamos uma estrutura de aprendizado contrastivo de múltiplas visões que inclui dois tipos de aprendizado: aprendizado contrastivo inter-ramos e aprendizado contrastivo inter-domínios.
Aprendizado Contrastivo Inter-Ramos
Esse aspecto da estrutura compara representações de grafos obtidas de ambos os ramos. Assim, o modelo consegue aprender a partir de diferentes perspectivas, resultando em representações de grafos de maior qualidade. Isso ajuda o modelo a entender melhor a semântica dos grafos, mesmo quando os rótulos são poucos.
Aprendizado Contrastivo Inter-Domínios
Essa parte foca em reduzir as diferenças entre amostras do domínio fonte (que têm rótulos) e amostras do domínio alvo (que não têm rótulos). Criando rótulos pseudo para as amostras alvo com base nas semelhanças com as amostras fonte, o modelo consegue alinhar melhor as representações dos grafos em diferentes domínios, tornando a classificação mais precisa.
Experimentação e Resultados
Nossos experimentos foram realizados em vários conjuntos de dados de classificação de grafos amplamente reconhecidos. Os resultados mostram que nosso método proposto supera significativamente outros métodos existentes. Isso é especialmente evidente em tarefas onde o modelo precisa lidar com a escassez de rótulos.
Conjuntos de Dados Usados
Os conjuntos de dados que analisamos incluem Mutagenicidade, Tox21, PROTEÍNAS, COX2 e BZR. Cada um desses conjuntos contém diferentes tipos de grafos, permitindo uma avaliação completa da eficácia do nosso método em cenários diversos.
Métricas de Desempenho
O desempenho da nossa abordagem é avaliado com base na sua capacidade de classificar grafos corretamente. Os resultados são comparados com vários métodos de ponta e demonstraram desempenho melhorado em geral.
Descobertas
Adaptação de Domínio é Crítica: Os resultados indicam que métodos projetados para adaptação de domínio geralmente superam GNNs tradicionais e métodos de núcleo de grafos. Isso destaca a importância de construir modelos que possam aproveitar dados rotulados de domínios relacionados.
Aprendizado de Representação Eficaz: Nossa abordagem se destaca em extrair representações significativas de grafos tanto dos ramos GCN quanto HGKN. Cada ramo traz pontos fortes únicos para o processo de aprendizado, facilitando melhor desempenho em condições de dados rotulados limitados.
Importância do Aprendizado Contrastivo: A estrutura de aprendizado contrastivo é fundamental para o sucesso do nosso modelo. Estabelecendo conexões fortes entre representações inter-domínios e inter-ramos, o modelo reduz discrepâncias e melhora o aprendizado de representação de grafos.
Análise de Sensibilidade
Pra entender como diferentes fatores influenciam nosso método proposto, fizemos análises de sensibilidade nos hiperparâmetros como taxas de pooling e o número de grafos filtro usados no ramo HGKN.
Taxas de Pooling
Aumentar a taxa de pooling resulta em reter mais informações dos nós. No entanto, valores muito altos podem complicar o modelo, gerando retornos decrescentes em desempenho. Uma taxa equilibrada gera os melhores resultados, indicando um trade-off entre retenção de informação e eficiência computacional.
Número de Grafos Filtro
O número de grafos filtro no ramo HGKN também impacta o desempenho. Um maior número de filtros ajuda a capturar informações estruturais mais detalhadas, mas pode levar a retornos decrescentes se estiver muito alto. Descobrimos que valores menores geram melhor desempenho ao focar nas características estruturais essenciais.
Conclusão
Resumindo, a abordagem de Aprendizado de Representação de Grafos Contrastivos Acoplados proposta oferece um avanço significativo na classificação de grafos adaptativa de domínio não supervisionada. Aproveitando tanto estruturas implícitas quanto explícitas de grafos, juntamente com uma estrutura de aprendizado contrastivo de múltiplas visões, conseguimos alcançar um alto desempenho mesmo em situações onde os dados rotulados são escassos.
Nossos experimentos extensivos ilustram a eficácia do método em vários conjuntos de dados, mostrando sua capacidade de lidar com os desafios da adaptação de domínio na classificação de grafos. O trabalho futuro vai focar em expandir essa abordagem pra encarar tarefas mais complexas e melhorar ainda mais a sua aplicabilidade em cenários do mundo real.
Título: CoCo: A Coupled Contrastive Framework for Unsupervised Domain Adaptive Graph Classification
Resumo: Although graph neural networks (GNNs) have achieved impressive achievements in graph classification, they often need abundant task-specific labels, which could be extensively costly to acquire. A credible solution is to explore additional labeled graphs to enhance unsupervised learning on the target domain. However, how to apply GNNs to domain adaptation remains unsolved owing to the insufficient exploration of graph topology and the significant domain discrepancy. In this paper, we propose Coupled Contrastive Graph Representation Learning (CoCo), which extracts the topological information from coupled learning branches and reduces the domain discrepancy with coupled contrastive learning. CoCo contains a graph convolutional network branch and a hierarchical graph kernel network branch, which explore graph topology in implicit and explicit manners. Besides, we incorporate coupled branches into a holistic multi-view contrastive learning framework, which not only incorporates graph representations learned from complementary views for enhanced understanding, but also encourages the similarity between cross-domain example pairs with the same semantics for domain alignment. Extensive experiments on popular datasets show that our CoCo outperforms these competing baselines in different settings generally.
Autores: Nan Yin, Li Shen, Mengzhu Wang, Long Lan, Zeyu Ma, Chong Chen, Xian-Sheng Hua, Xiao Luo
Última atualização: 2024-07-29 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2306.04979
Fonte PDF: https://arxiv.org/pdf/2306.04979
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.