开启掘金成长之旅!这是我参与「掘金日新计划 · 2 月更文挑战」的第 20 天,点击查看活动详情
- 异质图神经网络HGNN(异质图神经网络(持续更新ing...))
- metapath
- meta-graph
- metapath-based neighborhood
- meta-path neighbor graph / metapath-based graph
- network schema
- metapath及其相关概念(持续更新ing...)
- metapath2vec
- HAN
- GTN
- MAGNN
- HGT
- RGCN
- GATNE
- G2G
- DEAL
- 动态图神经网络
- hyperbolic
- graph un-learning:理念是从模型中去掉已学习的部分训练集(想要保护隐私,所以要删除指定用户数据,这种scenario)
- 用GNN做NLP
- TextGCN
- AutoGraph:这个我主要是听过北大一位毕业博士给我们实验室讲的talk。我自己不是做这个的,所以只在此简单罗列。对slides或者相关专业人士有需求的可以联系我,我再去帮你找人。
补充知识点:GNN算子可以分为propagate(P)和transform(T)
- G-NAS:PT的pipeline(模式和深度)是固定的 GraphNAS Graph Neural Architecture Search Auto-GNN: Neural Architecture Search of Graph Neural Networks
- Model Degradation Hinders Deep Graph Neural Networks:这篇paper考虑了以前工作太浅导致对全图信息的表现力不足,GNN很难做深是个经典问题了,本文这里给出的解释是拉普拉斯平滑(slides这里还有一些相关论文列表,JKNet,SGC,APPNP,DAGNN等,其他略,可以看下面一条的deep GNN工作集锦),主要探讨了P和T两种算子的深度分别对GNN产生的影响
- DFG-NAS: Deep Graph Neural Architecture Search:design space考虑不同的PT顺序、组合和数量,加入门机制、skip connection等
(架构的选择与图的稀疏程度、大小等有关)
- PaSca: a Graph Neural Architecture Search System under the Scalable Paradigm:这篇主要考虑信息通讯代价的问题,提升GNN的scalability
PKU-DAIR/SGL: A scalable graph learning toolkit for extremely large graph datasets. (WWW'22, 🏆 Best Student Paper Award)
Neural Message Passing (NMP) 范式(聚合过程是通讯,更新过程是计算)会导致图运算耗时
SGAP范式:
这个架构看起来是传播→训练→传播again(这回用的是训练后得到的软标签),具体的没看 design space是3个SGAP步骤中的参数选择
- Angel Graph
- mengliu1998/awesome-deep-gnn: Papers about developing deep Graph Neural Networks (GNNs):关注GNN深度的相关工作
- 图神经网络随机删减方法 AAAI 2023 | DropMessage: 图神经网络随机删减方法的归并统一