首页
首页
沸点
课程
直播
活动
竞赛
商城
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
cf020031308
掘友等级
学生
|
电子科大
关注
私信
获得徽章 0
动态
文章
专栏
沸点
收藏集
1
关注
赞
1
文章 1
沸点 0
资讯 0
赞
1
关注
返回
|
搜索文章
cf020031308
学生 @ 电子科大
·
1年前
举报
cf020031308.github.io
收起
查看大图
向左旋转
向右旋转
分享
评论
点赞
cf020031308
学生 @ 电子科大
·
1年前
关注
从对比链接中蒸馏自知识:非消息传递的图节点分类
原文地址:https://cf020031308.github.io/papers/2021-distilling-self-knowledge-from-contrast...
赞
评论
分享
cf020031308
学生 @ 电子科大
·
1年前
举报
cf020031308.github.io
收起
查看大图
向左旋转
向右旋转
分享
评论
点赞
cf020031308
学生 @ 电子科大
·
2年前
举报
cf020031308.github.io
收起
查看大图
向左旋转
向右旋转
分享
评论
点赞
cf020031308
学生 @ 电子科大
·
2年前
关注
图神经网络中半监督分类的一些涨点技巧
原文地址:https://cf020031308.github.io/papers/2021-bag-of-tricks-of-semi-supervised-classi...
赞
评论
分享
cf020031308
学生 @ 电子科大
·
2年前
举报
cf020031308.github.io
收起
查看大图
向左旋转
向右旋转
分享
1
点赞
cf020031308
学生 @ 电子科大
·
2年前
关注
用于标签分布学习的标签强化
通常的分类问题中,训练数据的标签是一个标签集合,称逻辑标签(Logic Labels)。 但实际上一个数据应该被标记为什么标签应该是一个更软性的概率,在各标签的概率向量称该...
赞
评论
分享
cf020031308
学生 @ 电子科大
·
2年前
关注
图神经网络上的注意力标签传播
标题直译过来应该是“用于图神经网络上的标签传播的角色等价注意力”,但文章开头定义的包括“角色等价”一系列等价概念并没什么实质的意义,所以按我自己理解简化了标题。...
赞
1
分享
cf020031308
学生 @ 电子科大
·
2年前
关注
图变分自编码器
推断网络:视特征矩阵 X 和邻接矩阵 A(但对角元为 1)为可观测变量,每个节点的隐变量 Z 在条件 X, A 下服从正态分布,其参数 $\mu$ 和 $\sigma$ 通...
赞
评论
分享
cf020031308
学生 @ 电子科大
·
2年前
关注
图神经网络全面综述
This survey considers GNNs as all deep learning aproaches for graph data. 再现:各节点持续与邻居节...
赞
评论
分享
cf020031308
学生 @ 电子科大
·
2年前
关注
图注意力网络
GAT 不像之前的网络如 GCN 般在卷积层里固定了每条边的权重(作为卷积核的参数),而是引入自注意力机制用节点的表示计算节点之间的相关性作为边的权重。在尤其是 Induc...
赞
评论
分享
cf020031308
学生 @ 电子科大
·
2年前
关注
时空图卷积网络:用于交通预测的深度学习框架
图结构的交通时序数据:对时间 t 有图 $G_t = (V_t, E, W)$,其中 $V_t$ 是点集,在不同时刻有不同的值,E 是边集,W 是权重矩阵。 交通预测是指在...
赞
评论
分享
cf020031308
学生 @ 电子科大
·
2年前
关注
FastGCN:通过重要性采样快速训练图卷积网络
其中 $t_l$ 表示第 l 层的样本数,n 为全部节点数。 但其中 $W^{(l)}$ 每次迭代都会变,与 $h^{(l)}$ 的矩阵乘法也比较耗时。 也就是节点以正比于...
赞
评论
分享
cf020031308
学生 @ 电子科大
·
2年前
关注
GaAN: 用于大型图与时空图的门控注意力网络
权重 g 因中心节点 x 而异,所以也可以看作一个注意力。 里面后两部分分别为最大池化和平均池化,所以作者文章中说用到了卷积层。...
赞
评论
分享
cf020031308
学生 @ 电子科大
·
2年前
关注
位置感知图神经网络
现在的 GNN 方法学到的节点表示依赖于所在邻域的结构,无法捕获更广范围的图的结构。 导致图中两点如果有相同的局部结构,就会学到相同的表示,从表示上无法区分开。 M(v) ...
赞
评论
分享
cf020031308
学生 @ 电子科大
·
2年前
关注
Reformer:高效的 Transformer
所以直观地看,就是距离远的 x 和 y(上)经过随机旋转很容易被转到不同区域,但如果两者较近(下),就更容易保持在同一区域。 稀疏性:softmax 的结果取决于最大的那一...
1
评论
分享
cf020031308
学生 @ 电子科大
·
2年前
关注
实用且最优的角距离局部敏感哈希算法
论文主要研究 Cross-polytope LSH 算法,包括理论分析(Optimal)和性能改进(Practical),我这里只关心后者。 Cross-polytope ...
1
评论
分享
cf020031308
学生 @ 电子科大
·
2年前
关注
高维相似搜索中的多探头 LSH 索引
精确的最近邻搜索算法(Nearest Neighbor Search, NN)在高维空间中很慢,所以发展出了近似最近邻搜索(Approximate Nearest Neig...
赞
评论
分享
cf020031308
学生 @ 电子科大
·
2年前
关注
标签传播与简单模型结合可超越图神经网络
一个经验:ogbn-arxiv 数据集中,只是简单地将节点分类为领域中最多的类就能有 61% 的准确率。 将训练集上的结果传播到全图,直至收敛。 最小化。前一部分的最小化保...
2
评论
分享
cf020031308
学生 @ 电子科大
·
2年前
关注
使用 Jumping Knowledge Networks 的图表示学习
当前基于深度学习的图表示学习方法大多遵循一种邻域聚合(或消息传递)的模式。 比起在一定范围内打转的 tree 型,同样走 4 步,core 型节点的邻域几乎包含了整个图。 ...
赞
评论
分享
下一页
个人成就
文章被点赞
198
文章被阅读
67,438
掘力值
1,497
关注了
8
关注者
14
收藏集
1
关注标签
29
加入于
2017-01-16
温馨提示
当前操作失败,如有疑问,可点击申诉