1. 信息聚合方式的区别
🔹 传统 GNN(如 GCN)
- 采用 固定的归一化权重 来聚合邻居节点特征。
- 公式示例(GCN):
h_i' = \sigma\left( \sum_{j \in \mathcal{N}(i)} \frac{1}{\sqrt{d_i d_j}} W h_j \right)
这里权重 $\frac{1}{\sqrt{d_i d_j}}$ 仅依赖于节点度数,是预定义的,不随数据学习。 ➡ 聚合方式是 静态的,缺少自适应性。
🔹 图注意力网络(GAT / GATv2)
- 采用 自注意力机制 来为邻居分配权重。
- 公式:
h_i' = \sigma\left( \sum_{j \in \mathcal{N}(i)} \alpha_{ij} W h_j \right), \quad
\alpha_{ij} = \text{softmax}_j \big( a^T \, \text{LeakyReLU}(W[h_i \, || \, h_j]) \big)
其中 alpha_{ij} 是 可学习的权重,依赖于节点特征本身。 ➡ 聚合方式是 动态的,模型能根据任务自动决定哪些邻居更重要。
2. 表达能力的区别
- 传统 GNN(GCN, GraphSAGE 等):对所有邻居的贡献大体一致,只能学习“平均化”或“加权和”的表示。
- GAT 系列:允许不同邻居有不同的重要性,可以突出关键邻居、弱化噪声邻居,表达能力更强。
3. 可解释性的区别
- 传统 GNN:聚合权重由图结构决定,难以解释“为什么这个邻居重要”。
- GAT 系列:注意力权重 alpha_{ij} 可以直接看作“节点 i 对邻居 j 的依赖程度”,可解释性更好。
4. 适用场景的区别
- 传统 GNN:适合结构相对规则的图(如社交网络、引文网络),邻居的贡献差别不大。
- 图注意力网络:适合异质图、知识图谱、推荐系统等场景——因为这些图的边类型复杂、邻居的重要性差异大。
5. 小总结
| 方面 | 传统 GNN (如 GCN) | 图注意力网络 (GAT / GATv2) |
|---|---|---|
| 聚合方式 | 固定权重(度数归一化) | 动态权重(自注意力学习) |
| 表达能力 | 相对有限 | 更灵活、更强 |
| 可解释性 | 较弱 | 较强(注意力可视化) |
| 适用场景 | 同质图、规则图 | 异质图、复杂关系图 |

![[深度学习]图注意力网络 图神经网络](/images/banner7.webp)

说些什么吧!