GNN में core operation message passing है: प्रत्येक node अपने neighbors से जानकारी collect करता है, उसे aggregate करता है (sum, mean, या attention-weighted), और अपना representation update करता है। K rounds of message passing के बाद, प्रत्येक node का representation उसके K-hop neighborhood की जानकारी encode करता है। Graph Convolutional Networks (GCN), GraphSAGE, और Graph Attention Networks (GAT) सबसे आम architectures हैं, neighbor information aggregate करने के तरीके में भिन्न।
Drug discovery: molecules graphs हैं (atoms = nodes, bonds = edges)। GNNs molecular graph structure से सीखकर molecular properties, binding affinity, और toxicity predict करते हैं। Social networks: GNNs communities detect करते हैं, links predict करते हैं, और influential nodes identify करते हैं। Recommendation systems: users और items bipartite graph बनाते हैं, और GNNs graph structure के आधार पर predict करते हैं कि user को कौन से items पसंद आएंगे। Fraud detection: transaction networks suspicious patterns reveal करते हैं जिन्हें GNNs identify करना सीख सकते हैं।
Transformers और GNNs के बीच एक deep connection है: self-attention को fully connected graph पर message passing के रूप में देखा जा सकता है (हर token हर दूसरे token पर attend करता है)। GNNs sparse graphs पर operate करते हैं (प्रत्येक node केवल अपने actual neighbors से connect होता है)। इस connection ने Graph Transformers को inspire किया है जो Transformers की expressiveness को sparse graph structures की efficiency के साथ combine करते हैं, और दोनों communities के बीच ideas के cross-pollination को जन्म दिया है।