Zubnet AIसीखेंWiki › GNN
मॉडल

GNN

इसे भी कहा जाता है: Graph Neural Network
Graph-structured data पर operate करने के लिए designed neural networks — ऐसा data जहां entities relationships से जुड़ी होती हैं (social networks, molecules, knowledge graphs, transportation networks)। GNNs connected nodes के बीच messages pass करके सीखते हैं, प्रत्येक node को अपने neighbors के आधार पर अपना representation update करने देते हैं। ये ऐसा data संभालते हैं जो grids (images) या sequences (text) में नहीं बैठता।

यह क्यों मायने रखता है

सभी data text या images नहीं है। Social networks, molecular structures, recommendation systems, fraud detection networks, और logistics routes सभी स्वाभाविक रूप से graph-structured हैं। GNNs तब सही tool हैं जब entities के बीच relationships entities जितनी ही महत्वपूर्ण हैं। Drug discovery, social network analysis, और traffic prediction सभी GNNs पर rely करते हैं।

गहन अध्ययन

GNN में core operation message passing है: प्रत्येक node अपने neighbors से जानकारी collect करता है, उसे aggregate करता है (sum, mean, या attention-weighted), और अपना representation update करता है। K rounds of message passing के बाद, प्रत्येक node का representation उसके K-hop neighborhood की जानकारी encode करता है। Graph Convolutional Networks (GCN), GraphSAGE, और Graph Attention Networks (GAT) सबसे आम architectures हैं, neighbor information aggregate करने के तरीके में भिन्न।

Applications

Drug discovery: molecules graphs हैं (atoms = nodes, bonds = edges)। GNNs molecular graph structure से सीखकर molecular properties, binding affinity, और toxicity predict करते हैं। Social networks: GNNs communities detect करते हैं, links predict करते हैं, और influential nodes identify करते हैं। Recommendation systems: users और items bipartite graph बनाते हैं, और GNNs graph structure के आधार पर predict करते हैं कि user को कौन से items पसंद आएंगे। Fraud detection: transaction networks suspicious patterns reveal करते हैं जिन्हें GNNs identify करना सीख सकते हैं।

Transformers as Graph Networks

Transformers और GNNs के बीच एक deep connection है: self-attention को fully connected graph पर message passing के रूप में देखा जा सकता है (हर token हर दूसरे token पर attend करता है)। GNNs sparse graphs पर operate करते हैं (प्रत्येक node केवल अपने actual neighbors से connect होता है)। इस connection ने Graph Transformers को inspire किया है जो Transformers की expressiveness को sparse graph structures की efficiency के साथ combine करते हैं, और दोनों communities के बीच ideas के cross-pollination को जन्म दिया है।

संबंधित अवधारणाएँ

← सभी शब्द
← GGUF Google DeepMind →