小知识,大挑战!本文正在参与“ 程序员必备小知识 ”创作活动
本文同时参与 「掘力星计划」 ,赢取创作大礼包,挑战创作激励金
Xie Y, Xu Z, Zhang J, et al. Self-supervised learning of graph neural networks: A unified review[J]. arXiv preprint arXiv:2102.10757, 2021.
很新的自监督学习的综述,对自己的知识体系的补充。
摘要:在监督模式下训练的深度模型在各种任务上取得了显着的成功。当标记样本有限时,自监督学习 (SSL) 正在成为利用大量未标记样本的新范式。 SSL 在自然语言和图像学习任务上取得了可喜的表现。最近,有一种趋势是使用图神经网络 (GNN) 将这种成功扩展到图数据。在本次调查中,我们对使用 SSL 训练 GNN 的不同方法进行了统一审查。具体来说,我们将 SSL 方法分为对比模型和预测模型。在任一类别中,我们都提供了一个统一的方法框架以及这些方法在框架下的每个组件中有何不同。我们对 GNN 的 SSL 方法的统一处理阐明了各种方法的异同,为开发新方法和算法奠定了基础。我们还总结了不同的 SSL 设置以及每个设置中使用的相应数据集。为了促进方法论的开发和实证比较,我们为 GNN 中的 SSL 开发了一个标准化的测试平台,包括常见基线方法、数据集和评估指标的实现。
自监督分成了2大类,对比模型和预测模型。
- 对比模型是数据数据对
- 预测模型是数据标签对
最新的工作如图
对比方法
Overview of Contrastive Learning Framework
从视角的角度: 属性,结构,采样。
属性的角度:属性预测
结构的角度:边扰动。
采样的角度:子图的采样对比。
从encoder的角度: 图的encoder,节点的encoder
从目标的角度: 互信息的计算 :JS,DV,InfoNce,非边界的互信息估计
PREDICTIVE LEARNING
- Graph reconstruction GAE , VGAE,GPT
- Property prediction. 预测一些性质。
- Self-training 伪标签技术
下一步思路:自监督下的异构图表示