L'opération centrale d'un GNN est le passage de messages : chaque nœud collecte l'information de ses voisins, l'agrège (somme, moyenne ou pondérée par attention), et met à jour sa propre représentation. Après K tours de passage de messages, la représentation de chaque nœud encode l'information de son voisinage à K sauts. Les Graph Convolutional Networks (GCN), GraphSAGE et les Graph Attention Networks (GAT) sont les architectures les plus courantes, différant dans la façon dont elles agrègent l'information des voisins.
Découverte de médicaments : les molécules sont des graphes (atomes = nœuds, liaisons = arêtes). Les GNN prédisent les propriétés moléculaires, l'affinité de liaison et la toxicité en apprenant de la structure du graphe moléculaire. Réseaux sociaux : les GNN détectent des communautés, prédisent des liens et identifient des nœuds influents. Systèmes de recommandation : les utilisateurs et les articles forment un graphe biparti, et les GNN prédisent quels articles un utilisateur aimerait en se basant sur la structure du graphe. Détection de fraude : les réseaux de transactions révèlent des patterns suspects que les GNN peuvent apprendre à identifier.
Il existe un lien profond entre les Transformers et les GNN : l'auto-attention peut être vue comme un passage de messages sur un graphe entièrement connecté (chaque token assiste à chaque autre token). Les GNN opèrent sur des graphes épars (chaque nœud ne connecte qu'à ses voisins réels). Cette connexion a inspiré les Graph Transformers qui combinent l'expressivité des Transformers avec l'efficacité des structures de graphes épars, et a mené à une pollinisation croisée d'idées entre les deux communautés.