La operación central en una GNN es el paso de mensajes: cada nodo recopila información de sus vecinos, la agrega (suma, media o ponderada por atención) y actualiza su propia representación. Después de K rondas de paso de mensajes, la representación de cada nodo codifica información sobre su vecindario de K saltos. Graph Convolutional Networks (GCN), GraphSAGE y Graph Attention Networks (GAT) son las arquitecturas más comunes, diferenciándose en cómo agregan la información vecina.
Descubrimiento de fármacos: las moléculas son grafos (átomos = nodos, enlaces = aristas). Las GNN predicen propiedades moleculares, afinidad de unión y toxicidad aprendiendo de la estructura del grafo molecular. Redes sociales: las GNN detectan comunidades, predicen enlaces e identifican nodos influyentes. Sistemas de recomendación: usuarios e ítems forman un grafo bipartito, y las GNN predicen qué ítems le gustarían a un usuario basándose en la estructura del grafo. Detección de fraude: las redes de transacciones revelan patrones sospechosos que las GNN pueden aprender a identificar.
Hay una conexión profunda entre Transformers y GNNs: la autoatención puede verse como paso de mensajes en un grafo completamente conectado (cada token atiende a todos los demás tokens). Las GNN operan sobre grafos dispersos (cada nodo solo se conecta con sus vecinos reales). Esta conexión ha inspirado Graph Transformers que combinan la expresividad de los Transformers con la eficiencia de las estructuras de grafos dispersos, y ha llevado a una polinización cruzada de ideas entre ambas comunidades.