Zubnet AIApprendreWiki › GNN
Models

GNN

Graph Neural Network
Des réseaux de neurones conçus pour opérer sur des données structurées en graphe — des données où les entités sont connectées par des relations (réseaux sociaux, molécules, graphes de connaissances, réseaux de transport). Les GNN apprennent en passant des messages entre les nœuds connectés, permettant à chaque nœud de mettre à jour sa représentation selon ses voisins. Ils gèrent des données qui ne fittent pas proprement dans des grilles (images) ou des séquences (texte).

Pourquoi c'est important

Toutes les données ne sont pas du texte ou des images. Les réseaux sociaux, les structures moléculaires, les systèmes de recommandation, les réseaux de détection de fraude et les routes logistiques sont tous naturellement structurés en graphe. Les GNN sont le bon outil quand les relations entre entités sont aussi importantes que les entités elles-mêmes. La découverte de médicaments, l'analyse de réseaux sociaux et la prédiction de trafic reposent tous sur les GNN.

Deep Dive

The core operation in a GNN is message passing: each node collects information from its neighbors, aggregates it (sum, mean, or attention-weighted), and updates its own representation. After K rounds of message passing, each node's representation encodes information about its K-hop neighborhood. Graph Convolutional Networks (GCN), GraphSAGE, and Graph Attention Networks (GAT) are the most common architectures, differing in how they aggregate neighbor information.

Applications

Drug discovery: molecules are graphs (atoms = nodes, bonds = edges). GNNs predict molecular properties, binding affinity, and toxicity by learning from the molecular graph structure. Social networks: GNNs detect communities, predict links, and identify influential nodes. Recommendation systems: users and items form a bipartite graph, and GNNs predict which items a user would like based on graph structure. Fraud detection: transaction networks reveal suspicious patterns that GNNs can learn to identify.

Transformers as Graph Networks

There's a deep connection between Transformers and GNNs: self-attention can be viewed as message passing on a fully connected graph (every token attends to every other token). GNNs operate on sparse graphs (each node only connects to its actual neighbors). This connection has inspired Graph Transformers that combine the expressiveness of Transformers with the efficiency of sparse graph structures, and has led to cross-pollination of ideas between the two communities.

Concepts liés

← Tous les termes
← GGUF Google DeepMind →