Zubnet AIApprendreWiki › GNN
Modèles

GNN

Aussi appelé : Réseau de neurones de graphes
Des réseaux de neurones conçus pour opérer sur des données structurées en graphe — des données où les entités sont connectées par des relations (réseaux sociaux, molécules, graphes de connaissances, réseaux de transport). Les GNN apprennent en passant des messages entre nœuds connectés, permettant à chaque nœud de mettre à jour sa représentation en fonction de ses voisins. Ils gèrent les données qui ne s'inscrivent pas naturellement dans des grilles (images) ou des séquences (texte).

Pourquoi c'est important

Toutes les données ne sont pas du texte ou des images. Les réseaux sociaux, les structures moléculaires, les systèmes de recommandation, les réseaux de détection de fraude et les itinéraires logistiques sont tous naturellement structurés en graphe. Les GNN sont le bon outil quand les relations entre entités sont aussi importantes que les entités elles-mêmes. La découverte de médicaments, l'analyse de réseaux sociaux et la prédiction de trafic reposent tous sur les GNN.

En profondeur

L'opération centrale d'un GNN est le passage de messages : chaque nœud collecte l'information de ses voisins, l'agrège (somme, moyenne ou pondérée par attention), et met à jour sa propre représentation. Après K tours de passage de messages, la représentation de chaque nœud encode l'information de son voisinage à K sauts. Les Graph Convolutional Networks (GCN), GraphSAGE et les Graph Attention Networks (GAT) sont les architectures les plus courantes, différant dans la façon dont elles agrègent l'information des voisins.

Applications

Découverte de médicaments : les molécules sont des graphes (atomes = nœuds, liaisons = arêtes). Les GNN prédisent les propriétés moléculaires, l'affinité de liaison et la toxicité en apprenant de la structure du graphe moléculaire. Réseaux sociaux : les GNN détectent des communautés, prédisent des liens et identifient des nœuds influents. Systèmes de recommandation : les utilisateurs et les articles forment un graphe biparti, et les GNN prédisent quels articles un utilisateur aimerait en se basant sur la structure du graphe. Détection de fraude : les réseaux de transactions révèlent des patterns suspects que les GNN peuvent apprendre à identifier.

Transformers comme réseaux de graphes

Il existe un lien profond entre les Transformers et les GNN : l'auto-attention peut être vue comme un passage de messages sur un graphe entièrement connecté (chaque token assiste à chaque autre token). Les GNN opèrent sur des graphes épars (chaque nœud ne connecte qu'à ses voisins réels). Cette connexion a inspiré les Graph Transformers qui combinent l'expressivité des Transformers avec l'efficacité des structures de graphes épars, et a mené à une pollinisation croisée d'idées entre les deux communautés.

Concepts connexes

← Tous les termes
← GGUF Google DeepMind →