A operação central em uma GNN é a passagem de mensagens: cada nó coleta informação de seus vizinhos, agrega (soma, média ou ponderado por atenção) e atualiza sua própria representação. Após K rodadas de passagem de mensagens, a representação de cada nó codifica informação sobre sua vizinhança de K saltos. Graph Convolutional Networks (GCN), GraphSAGE e Graph Attention Networks (GAT) são as arquiteturas mais comuns, diferindo em como agregam informação dos vizinhos.
Descoberta de fármacos: moléculas são grafos (átomos = nós, ligações = arestas). GNNs preveem propriedades moleculares, afinidade de ligação e toxicidade aprendendo da estrutura do grafo molecular. Redes sociais: GNNs detectam comunidades, preveem links e identificam nós influentes. Sistemas de recomendação: usuários e itens formam um grafo bipartido, e GNNs preveem quais itens um usuário gostaria com base na estrutura do grafo. Detecção de fraude: redes de transações revelam padrões suspeitos que GNNs podem aprender a identificar.
Há uma conexão profunda entre Transformers e GNNs: a auto-atenção pode ser vista como passagem de mensagens em um grafo totalmente conectado (cada token atende a todos os outros tokens). GNNs operam em grafos esparsos (cada nó conecta-se apenas aos seus vizinhos reais). Essa conexão inspirou Graph Transformers que combinam a expressividade dos Transformers com a eficiência de estruturas de grafos esparsos, e levou a polinização cruzada de ideias entre as duas comunidades.