OLGA: Um Novo Método para Aprendizado de Uma Classe em Grafos
A OLGA classifica de forma eficaz os nós do gráfico para tarefas de aprendizado de uma única classe usando técnicas inovadoras.
― 7 min ler
Índice
A aprendizagem de uma classe (OCL) foca em problemas onde estamos interessados em apenas uma categoria ou classe de coisas. Por exemplo, se queremos encontrar só e-mails de spam, usamos apenas os e-mails que sabemos que são spam para treinar nosso sistema. O objetivo do OCL é identificar instâncias que pertencem a essa categoria enquanto ignoramos todo o resto. Comumente, técnicas são usadas para criar um limite, geralmente chamado de hiperesfera, em torno dos exemplos que temos dessa categoria. A ideia é que queremos que nosso modelo reconheça novos itens que caem dentro desse limite como parte da categoria e qualquer coisa fora como não pertencente a ela.
Grafos são estruturas úteis para representar muitos problemas que encontramos no mundo real. Eles consistem em nós e arestas, onde os nós simbolizam itens, e as arestas denotam as conexões entre esses itens. Essa estrutura é significativa em áreas como mídia social, sistemas de recomendação ou estudo de redes biológicas. Ao usar grafos, podemos analisar melhor as relações porque conseguimos ver como tudo está conectado.
Existem várias tarefas onde podemos usar grafos para classificação, especialmente quando só nos importamos com um grupo específico dentro dos dados. Por exemplo, podemos usar grafos para identificar notícias falsas, prever músicas populares, detectar fraudes ou notar atividades incomuns nos dados. A vantagem do OCL nesses casos é que ele requer menos amostras para o treinamento e pode funcionar melhor mesmo quando instâncias da categoria "não interessante" são raras.
No entanto, ainda há lacunas significativas na pesquisa sobre OCL quando aplicado a dados de grafos. Métodos tradicionais podem ser divididos em duas abordagens principais: métodos em duas etapas e métodos de ponta a ponta. Nos métodos em duas etapas, o processo é dividido em duas partes, onde primeiro criamos representações do grafo usando técnicas não supervisionadas e depois categorizamos os nós usando OCL. Embora isso possa ser eficaz, as representações feitas nem sempre funcionam bem com a etapa de classificação posterior porque não são projetadas especificamente para OCL.
Os métodos de ponta a ponta são mais recentes e aprendem a representar e classificar ao mesmo tempo, o que pode melhorar a eficácia geral. No entanto, a maioria desses métodos também enfrenta limitações, como a falta de restrições sobre como a hiperesfera é criada ou problemas com a compreensão e interpretação dos resultados.
O Método Proposto: OLGA
Para abordar essas lacunas, apresentamos o OLGA, um método de ponta a ponta para classificar nós em grafos focado em OCL. O OLGA é projetado para aprender representações de nós de grafos enquanto também identifica quais pertencem à categoria de interesse.
O OLGA funciona combinando dois tipos de Funções de Perda. A primeira ajuda o modelo a recriar a estrutura original do grafo, garantindo que as conexões e relações sejam preservadas. A segunda é uma nova função de perda que propomos, focada em garantir que instâncias da categoria de interesse permaneçam próximas ao centro da hiperesfera.
O aprendizado no OLGA estabiliza o processo, de modo que instâncias consideradas relevantes possam ser incluídas de forma eficaz, mesmo que sejam não rotuladas. Essa abordagem dupla permite que o modelo aprenda com várias tarefas ao mesmo tempo, melhorando o desempenho geral na classificação das instâncias de interesse.
Como o OLGA Funciona
No OLGA, primeiro geramos uma representação dos nós do grafo, que é essencial para capturar os aspectos estruturais do grafo. O modelo segue um caminho semelhante ao de como funcionam os autoencoders de grafos, permitindo a reconstrução das conexões do grafo para manter informações essenciais.
Tarefas
No OLGA, definimos três tarefas principais para o processo de aprendizado:
- Tarefa de Classificação: Essa tarefa trata de determinar se um nó pertence à categoria de interesse ou não.
- Reprodução de Nós Rotulados: Essa tarefa visa recriar a estrutura para os nós rotulados que conhecemos.
- Reprodução de Nós Não Rotulados: Essa tarefa foca no mesmo para os nós que ainda não temos rótulos.
Ao fazer isso, o OLGA pode construir um sistema robusto capaz de identificar quais nós se encaixam na nossa categoria de interesse com base em representações aprendidas.
Funções de Perda
As funções de perda guiam nosso processo de aprendizado. A perda de reconstrução garante que os nós sejam corretamente representados, enquanto a nova perda da hiperesfera empurra instâncias dentro da esfera mais perto do centro. Isso ajuda a manter o foco na categoria de interesse e mantém o processo de aprendizado eficaz.
Avaliando o OLGA
Para garantir a eficácia do OLGA, avaliamos seu desempenho em relação a outros métodos usando diversos conjuntos de dados que abrangem diferentes tipos de dados, como textuais, de imagem e tabulares. O objetivo era mostrar que o OLGA supera outros métodos de ponta em determinar quais nós pertencem à categoria de interesse.
Conjuntos de Dados
Usamos conjuntos de dados de uma classe coletados de várias fontes que incluíam:
- Conjuntos de Dados Textuais: Estes incluíam dados sobre detecção de notícias falsas e classificação de eventos.
- Conjuntos de Dados de Imagem: Tivemos coleções de imagens de comida e imagens médicas, por exemplo, detecção de pneumonia.
- Conjuntos de Dados Tabulares: Dados sobre propriedades moleculares e detecção de malware foram utilizados.
Isso nos permitiu testar o OLGA em vários domínios e tipos de dados, garantindo ampla aplicabilidade.
Configuração Experimental
Em nossos experimentos, geramos representações de grafos usando métodos como DeepWalk e Node2Vec, e então usamos algoritmos OCL para classificar os nós com base nessas representações. Comparamos o desempenho do OLGA com métodos tradicionais em duas etapas e técnicas de ponta a ponta.
Realizamos uma forma de validação cruzada adequada para Aprendizado de uma classe, onde garantimos que apenas instâncias da nossa categoria de interesse fossem segregadas para treinamento e teste. Essa abordagem realista simula como o OCL geralmente funciona na prática.
Resultados
Os resultados mostraram que o OLGA frequentemente superou outros métodos. Ele obteve melhores resultados de classificação em muitos conjuntos de dados, especialmente em categorias textuais e tabulares. O OLGA mostrou a capacidade de manter o desempenho de classificação mesmo ao trabalhar com representações de baixa dimensão, o que também facilitou a interpretação e visualização.
Em cenários onde o OLGA não foi o melhor desempenho, ele ainda manteve resultados competitivos, sugerindo seu potencial em diferentes aplicações. As representações visuais criadas pelo OLGA foram valiosas para entender quão bem o modelo funcionou, mostrando separações distintas entre instâncias de interesse e não interesse.
Conclusão
Apresentamos o OLGA, uma nova abordagem para aprendizado de uma classe dentro do contexto de dados de grafos. Ao combinar diferentes funções de perda e utilizar aprendizado de ponta a ponta, o OLGA efetivamente aprende representações e classifica nós em grafos. Nossos experimentos confirmam que o OLGA se sai bem em vários domínios enquanto permanece interpretável e capaz de visualizar seus resultados.
A capacidade de trabalhar com dados de baixa dimensão aumenta ainda mais a utilidade do OLGA, tornando-o uma escolha flexível para aplicações do mundo real onde entender os dados e fazer classificações precisas é crucial.
Trabalhos futuros continuarão a explorar modificações adicionais no OLGA, visando melhorar sua robustez e aplicabilidade a situações de dados ainda mais diversas. Desenvolver melhores técnicas de interpretabilidade também será uma prioridade, facilitando para os usuários entenderem como o OLGA chega às suas decisões.
Título: OLGA: One-cLass Graph Autoencoder
Resumo: One-class learning (OCL) comprises a set of techniques applied when real-world problems have a single class of interest. The usual procedure for OCL is learning a hypersphere that comprises instances of this class and, ideally, repels unseen instances from any other classes. Besides, several OCL algorithms for graphs have been proposed since graph representation learning has succeeded in various fields. These methods may use a two-step strategy, initially representing the graph and, in a second step, classifying its nodes. On the other hand, end-to-end methods learn the node representations while classifying the nodes in one learning process. We highlight three main gaps in the literature on OCL for graphs: (i) non-customized representations for OCL; (ii) the lack of constraints on hypersphere parameters learning; and (iii) the methods' lack of interpretability and visualization. We propose One-cLass Graph Autoencoder (OLGA). OLGA is end-to-end and learns the representations for the graph nodes while encapsulating the interest instances by combining two loss functions. We propose a new hypersphere loss function to encapsulate the interest instances. OLGA combines this new hypersphere loss with the graph autoencoder reconstruction loss to improve model learning. OLGA achieved state-of-the-art results and outperformed six other methods with a statistically significant difference from five methods. Moreover, OLGA learns low-dimensional representations maintaining the classification performance with an interpretable model representation learning and results.
Autores: M. P. S. Gôlo, J. G. B. M. Junior, D. F. Silva, R. M. Marcacini
Última atualização: 2024-08-26 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2406.09131
Fonte PDF: https://arxiv.org/pdf/2406.09131
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.