首页
首页
沸点
课程
直播
活动
竞赛
商城
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
cf020031308
掘友等级
学生
|
电子科大
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
赞
1
文章 1
沸点 0
赞
1
返回
|
搜索文章
最新
热门
从对比链接中蒸馏自知识:非消息传递的图节点分类
原文地址:https://cf020031308.github.io/papers/2021-distilling-self-knowledge-from-contrastive-links-to-c
图神经网络中半监督分类的一些涨点技巧
原文地址:https://cf020031308.github.io/papers/2021-bag-of-tricks-of-semi-supervised-classification-with-
用于标签分布学习的标签强化
通常的分类问题中,训练数据的标签是一个标签集合,称逻辑标签(Logic Labels)。 但实际上一个数据应该被标记为什么标签应该是一个更软性的概率,在各标签的概率向量称该数据的标签分布(Label Distribution)。 基于标签分布的分类训练效果会比基于逻辑标签更好,…
图神经网络上的注意力标签传播
标题直译过来应该是“用于图神经网络上的标签传播的角色等价注意力”,但文章开头定义的包括“角色等价”一系列等价概念并没什么实质的意义,所以按我自己理解简化了标题。
图变分自编码器
推断网络:视特征矩阵 X 和邻接矩阵 A(但对角元为 1)为可观测变量,每个节点的隐变量 Z 在条件 X, A 下服从正态分布,其参数 $\mu$ 和 $\sigma$ 通过两个共享第一层的两层 GCN(X, A) 得到。 其中 SC 指 Spectral Clustering…
图神经网络全面综述
This survey considers GNNs as all deep learning aproaches for graph data. 再现:各节点持续与邻居节点通过消息传递(Message Passing)更新状态,直到稳定。 各层使用相同的再现函数。 $f_\t…
图注意力网络
GAT 不像之前的网络如 GCN 般在卷积层里固定了每条边的权重(作为卷积核的参数),而是引入自注意力机制用节点的表示计算节点之间的相关性作为边的权重。在尤其是 Inductive Learning 的任务上远超已有方法。 另外,为了保持结构信息,只有相邻的节点之间会计算权重,…
时空图卷积网络:用于交通预测的深度学习框架
图结构的交通时序数据:对时间 t 有图 $G_t = (V_t, E, W)$,其中 $V_t$ 是点集,在不同时刻有不同的值,E 是边集,W 是权重矩阵。 交通预测是指在已知之前 M 个交通观测的情况下,预测未来 H 个时间步后最可能的交通指标。 即已知 W,由 $v = (…
FastGCN:通过重要性采样快速训练图卷积网络
其中 $t_l$ 表示第 l 层的样本数,n 为全部节点数。 但其中 $W^{(l)}$ 每次迭代都会变,与 $h^{(l)}$ 的矩阵乘法也比较耗时。 也就是节点以正比于 $\hat A$ 矩阵中所在列 2 范数的概率被采样,计算简单且这个分布与层无关。 但作者没能证明这个估…
GaAN: 用于大型图与时空图的门控注意力网络
权重 g 因中心节点 x 而异,所以也可以看作一个注意力。 里面后两部分分别为最大池化和平均池化,所以作者文章中说用到了卷积层。
下一页
个人成就
文章被点赞
197
文章被阅读
70,660
掘力值
1,518
关注了
8
关注者
14
收藏集
1
关注标签
29
加入于
2017-01-16