ICLR 2022 | GNN | GraphSNN (二)

439 阅读2分钟

本文已参与「新人创作礼」活动,一起开启掘金创作之路。


定理

在这里插入图片描述 定理一:subgraph\simeq_{subgraph} => overlap\simeq_{overlap} => subtree\simeq_{subtree},反过来不行,=>代表推出。

在这里插入图片描述 定理二:如果一个GNN 有足够多层,并且可以将Si,SjS_i,S_j映射为不同的embeddings的时候,则GNN和WL-1 相当,有且仅当 Si̸subtreeSjS_i \not \simeq_{subtree} S_j

在这里插入图片描述 定理三:当一个GNN的agg策略满足下面这三个性质的,且有足够多层,并满足1)substree同构,subgraph不同构,ii的邻居的multiset不等于jj邻居的multiset。2)聚合函数Φ\Phi是单射的;那么,该GNN就是严格的比1-WL要更具表达能力。(其实这个定义和[1] 中的WL kernel 用于subtree pattern的定义基本很像了。) 在这里插入图片描述 注:这里的kernel function:ww即用来构造邻接矩阵AA,比如Avu=w(Sv,Svu)A_{vu}=w(S_v, S_{vu}),而AA就是决定了聚合的策略,即决定了邻居的权重。

模型

那么基于上面的理论,我们只要构造满足定理三的聚合函数Φ\Phi的GNN就可以了。

在这里插入图片描述 在这里插入图片描述 在这里插入图片描述 这里γ\gamma是一个可学习的参数。

实验

作者做了两类实验,一类是图节点分类,另外一类是图整体分类问题。效果都很好,图分类用到了Standford的OGB,我也在跑这个benchmark。但是没有对比最新SOTA(去年7月的),比如ppa,sota已经80+了,作者是72. 在这里插入图片描述

在这里插入图片描述

总结

(亮点主要是提出了一个新的视角来分析GNN表达能力。)

分析

(个人认为本文思路很像是[1]中继承而来,但是扩展了三种isomorphism,并且计算ww的方式也比较有新意,可以从如何构造kernel function上面去挖掘新的想法。但是如果对于是没有 ground truth topology的任务,估计效果就不会很好,比如一些link prediction的任务。)

references

[1] Shervashidze, Nino, et al. "Weisfeiler-lehman graph kernels." Journal of Machine Learning Research 12.9 (2011).