Simple Science

La science de pointe expliquée simplement

# Informatique# Réseaux sociaux et d'information# Intelligence artificielle# Apprentissage automatique

Avancées dans la classification de nœuds avec peu d'exemples

Nouveau cadre améliore la catégorisation des nœuds dans des graphes avec des attributs de texte et peu de données.

― 6 min lire


Cadre de Classification àCadre de Classification àPeu d'Exemplesdes nœuds avec des données limitées.Une nouvelle approche pour classifier
Table des matières

Ces dernières années, l'utilisation des graphes est devenue super importante dans plein de domaines comme les réseaux sociaux, les systèmes de recommandation et les analises de données. Un type de graphe, c'est le graphe avec attributs textuels (TAG), où chaque point, ou nœud, est associé à un morceau de texte. Le défi ici, c'est de catégoriser ces nœuds avec peu de données d'entraînement, ce qu'on appelle la classification de nœuds avec peu d'exemples.

C'est quoi un Graphe avec Attributs Textuels ?

Un graphe avec attributs textuels, c'est un type de graphe où chaque nœud contient des infos supplémentaires sous forme de texte. Par exemple, dans un graphe de citations, chaque papier peut être un nœud, et le texte pourrait inclure le titre et le résumé de ce papier. Les arêtes (les connexions) entre les nœuds montrent les relations, comme les citations entre les articles de recherche. Chaque nœud représente à la fois une donnée et les relations qu'il a avec d'autres données.

Le Défi de la Classification de Nœuds avec Peu d'Exemples

La classification de nœuds avec peu d'exemples vise à identifier les catégories des nœuds dans un graphe basé sur un petit nombre d'exemples étiquetés. C'est compliqué car les méthodes de machine learning habituelles demandent beaucoup d'exemples étiquetés, mais ici, on est limité. Dans beaucoup de situations pratiques, on n'a que quelques exemples à apprendre.

Les approches traditionnelles s'appuient souvent sur des caractéristiques préalablement traitées des nœuds, mais ça peut mener à une mauvaise performance si l'extraction des caractéristiques n'est pas bien faite. Du coup, il faut trouver une manière plus efficace, surtout quand le texte brut est impliqué.

Le Cadre Proposé

Pour surmonter ce défi, un nouveau cadre est introduit qui combine les forces de deux modèles : un modèle de langage (LM) et un réseau de neurones de graphe (GNN). Ce cadre a deux phases principales : pré-entraînement et incitation.

Pré-Entraînement

Pendant la phase de pré-entraînement, le modèle de langage et le réseau de neurones de graphe sont entraînés ensemble. Le modèle de langage apprend à partir du texte brut trouvé dans le graphe, pendant que le réseau de neurones de graphe apprend la structure et les relations entre les nœuds. Ce training commun aide chaque modèle à augmenter la capacité de l'autre.

L'entraînement utilise une technique où certaines parties du texte sont masquées ou cachées. Ça pousse le modèle à apprendre non seulement des parties visibles du texte, mais aussi à prédire les parties manquantes en se basant sur le contexte donné par les autres nœuds.

Incitation

Après le pré-entraînement, le modèle entre dans la phase d'incitation. C'est là qu'on guide le modèle à utiliser ce qu'il a appris pour catégoriser de nouveaux nœuds. Cette phase utilise une combinaison d'incitations textuelles et d'incitations de graphe. Les incitations textuelles sont basées sur le texte brut associé aux nœuds, tandis que les incitations de graphe sont basées sur la structure du graphe lui-même.

L'idée de base, c'est de s'assurer que quand le modèle reçoit de nouveaux nœuds jamais vus avec très peu d'exemples étiquetés, il peut quand même prédire efficacement leur catégorie en utilisant l'info combinée du texte et de la structure du graphe.

Expérimentation

Pour valider comment ce nouveau cadre fonctionne, des expériences poussées ont été menées. Ces expériences se concentrent sur six jeux de données réels, qui comprennent des réseaux de citations et des réseaux de co-achat de produits. Les résultats montrent que le cadre proposé surpasse nettement les méthodes existantes.

Importance de l'Apprentissage auto-supervisé

Une des idées clés derrière le cadre proposé, c'est le concept d'apprentissage auto-supervisé. Cette approche permet au modèle d'apprendre à partir des données elles-mêmes sans besoin d'une grande quantité de données étiquetées. En profitant des relations dans le graphe et à travers le texte, le modèle peut efficacement apprendre des représentations significatives pour chaque nœud.

Comparaison avec d'Autres Méthodes

Le cadre a été comparé avec diverses autres méthodes, y compris celles qui se concentrent sur le méta-apprentissage et les approches de machine learning traditionnelles. Les résultats démontrent que la méthode proposée atteint systématiquement une plus grande précision sur tous les jeux de données testés, prouvant son efficacité pour gérer la classification de nœuds avec peu d'exemples.

Composants du Cadre

Modèle de Langage

Le cœur du modèle de langage est conçu pour comprendre le texte associé à chaque nœud. Il capte le sens sémantique dans le texte, permettant une meilleure classification.

Réseau de Neurones de Graphe

Le réseau de neurones de graphe comprend les relations entre les nœuds dans le graphe. Il aide à diffuser l'info à travers les nœuds connectés, s'assurant que le modèle bénéficie non seulement du texte de chaque nœud, mais aussi du contexte fourni par l'ensemble du graphe.

Apprentissage par Incitations Mixtes

Le mécanisme d'incitation repose sur la structure du graphe et le texte associé aux nœuds. En concevant des incitations qui s'appuient sur ces deux composants, le modèle peut mieux s'adapter à de nouvelles tâches avec très peu d'exemples.

Résultats

Les expériences montrent que le cadre proposé obtient des améliorations significatives par rapport aux méthodes de base. Le cadre démontre une augmentation de la précision, prouvant que la combinaison des modèles de langage avec les structures de graphe peut mener à de meilleurs résultats.

Les résultats indiquent aussi que l'approche mixte d'utiliser à la fois des incitations de graphe et des incitations textuelles est particulièrement bénéfique, car elle permet au modèle de tirer parti de l'info des deux domaines.

Conclusion

En résumé, la classification de nœuds avec peu d'exemples sur des graphes avec attributs textuels représente une tâche difficile, mais le cadre proposé offre une solution prometteuse. En intégrant à la fois les modèles de langage et les réseaux de neurones de graphe via l'apprentissage auto-supervisé, il gère efficacement les difficultés liées aux données étiquetées limitées. Les expériences confirment l'efficacité de l'approche, ouvrant la voie à de futures recherches et applications dans ce domaine.

Alors que les données continuent de croître en complexité et en volume, des méthodes comme celle décrite ici vont devenir de plus en plus importantes pour gérer et utiliser efficacement l'info dans divers domaines.

Source originale

Titre: Pre-Training and Prompting for Few-Shot Node Classification on Text-Attributed Graphs

Résumé: The text-attributed graph (TAG) is one kind of important real-world graph-structured data with each node associated with raw texts. For TAGs, traditional few-shot node classification methods directly conduct training on the pre-processed node features and do not consider the raw texts. The performance is highly dependent on the choice of the feature pre-processing method. In this paper, we propose P2TAG, a framework designed for few-shot node classification on TAGs with graph pre-training and prompting. P2TAG first pre-trains the language model (LM) and graph neural network (GNN) on TAGs with self-supervised loss. To fully utilize the ability of language models, we adapt the masked language modeling objective for our framework. The pre-trained model is then used for the few-shot node classification with a mixed prompt method, which simultaneously considers both text and graph information. We conduct experiments on six real-world TAGs, including paper citation networks and product co-purchasing networks. Experimental results demonstrate that our proposed framework outperforms existing graph few-shot learning methods on these datasets with +18.98% ~ +35.98% improvements.

Auteurs: Huanjing Zhao, Beining Yang, Yukuo Cen, Junyu Ren, Chenhui Zhang, Yuxiao Dong, Evgeny Kharlamov, Shu Zhao, Jie Tang

Dernière mise à jour: 2024-07-22 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2407.15431

Source PDF: https://arxiv.org/pdf/2407.15431

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires