Zubnet AIAprenderWiki › GNN
Modelos

GNN

Também conhecido como: Graph Neural Network, Rede Neural de Grafo
Redes neurais projetadas para operar em dados estruturados como grafos — dados onde entidades são conectadas por relacionamentos (redes sociais, moléculas, grafos de conhecimento, redes de transporte). GNNs aprendem passando mensagens entre nós conectados, permitindo que cada nó atualize sua representação com base em seus vizinhos. Elas lidam com dados que não se encaixam em grades (imagens) ou sequências (texto).

Por que isso importa

Nem todos os dados são texto ou imagens. Redes sociais, estruturas moleculares, sistemas de recomendação, redes de detecção de fraude e rotas logísticas são todos naturalmente estruturados como grafos. GNNs são a ferramenta certa quando os relacionamentos entre entidades são tão importantes quanto as próprias entidades. Descoberta de fármacos, análise de redes sociais e predição de tráfego dependem de GNNs.

Em profundidade

A operação central em uma GNN é a passagem de mensagens: cada nó coleta informação de seus vizinhos, agrega (soma, média ou ponderado por atenção) e atualiza sua própria representação. Após K rodadas de passagem de mensagens, a representação de cada nó codifica informação sobre sua vizinhança de K saltos. Graph Convolutional Networks (GCN), GraphSAGE e Graph Attention Networks (GAT) são as arquiteturas mais comuns, diferindo em como agregam informação dos vizinhos.

Aplicações

Descoberta de fármacos: moléculas são grafos (átomos = nós, ligações = arestas). GNNs preveem propriedades moleculares, afinidade de ligação e toxicidade aprendendo da estrutura do grafo molecular. Redes sociais: GNNs detectam comunidades, preveem links e identificam nós influentes. Sistemas de recomendação: usuários e itens formam um grafo bipartido, e GNNs preveem quais itens um usuário gostaria com base na estrutura do grafo. Detecção de fraude: redes de transações revelam padrões suspeitos que GNNs podem aprender a identificar.

Transformers como Redes de Grafo

Há uma conexão profunda entre Transformers e GNNs: a auto-atenção pode ser vista como passagem de mensagens em um grafo totalmente conectado (cada token atende a todos os outros tokens). GNNs operam em grafos esparsos (cada nó conecta-se apenas aos seus vizinhos reais). Essa conexão inspirou Graph Transformers que combinam a expressividade dos Transformers com a eficiência de estruturas de grafos esparsos, e levou a polinização cruzada de ideias entre as duas comunidades.

Conceitos relacionados

← Todos os termos
← GGUF Google DeepMind →