首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
cf020031308
掘友等级
学生
|
电子科大
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
1
文章 1
沸点 0
赞
1
返回
|
搜索文章
最新
热门
GaAN: 用于大型图与时空图的门控注意力网络
权重 g 因中心节点 x 而异,所以也可以看作一个注意力。 里面后两部分分别为最大池化和平均池化,所以作者文章中说用到了卷积层。
位置感知图神经网络
现在的 GNN 方法学到的节点表示依赖于所在邻域的结构,无法捕获更广范围的图的结构。 导致图中两点如果有相同的局部结构,就会学到相同的表示,从表示上无法区分开。 M(v) 降维为 z(v) 是右乘了一个列向量,相当于 M(v) 的任一行经相同的线性组合成为 z(v) 的一维,所…
Reformer:高效的 Transformer
所以直观地看,就是距离远的 x 和 y(上)经过随机旋转很容易被转到不同区域,但如果两者较近(下),就更容易保持在同一区域。 稀疏性:softmax 的结果取决于最大的那一批元素,所以注意力权重主要依赖于最相关的那部分。反映到注意力矩阵中就是它的(软)稀疏性。如图 a 有点的就…
实用且最优的角距离局部敏感哈希算法
论文主要研究 Cross-polytope LSH 算法,包括理论分析(Optimal)和性能改进(Practical),我这里只关心后者。 Cross-polytope LSH 的距离度量是角距离(angular distance),等效于归一化到单位球面上之后的欧拉距离。 …
高维相似搜索中的多探头 LSH 索引
精确的最近邻搜索算法(Nearest Neighbor Search, NN)在高维空间中很慢,所以发展出了近似最近邻搜索(Approximate Nearest Neighbor Search, ANN),其中一支就是局部敏感哈希算法(Locality Sensitive H…
标签传播与简单模型结合可超越图神经网络
一个经验:ogbn-arxiv 数据集中,只是简单地将节点分类为领域中最多的类就能有 61% 的准确率。 将训练集上的结果传播到全图,直至收敛。 最小化。前一部分的最小化保证估计是平滑的,后一部分保证估计结果与实际结果尽量近。 C&S 流程中,除了 Smooth 环节…
使用 Jumping Knowledge Networks 的图表示学习
当前基于深度学习的图表示学习方法大多遵循一种邻域聚合(或消息传递)的模式。 比起在一定范围内打转的 tree 型,同样走 4 步,core 型节点的邻域几乎包含了整个图。 作者因此提出如上图的架构,简单来说就是将基础 GNNs 模型的每一层表示再聚合一下,因此可以加深 GNNs…
统一图卷积神经网络与标签传播
这篇文章分析了图卷积网络(Graph Convolutional Networks, GCN)和标签传播算法(Label Propagation Algorithm, LPA)的理论关系,证明能提升 LPA 效果的边权重也能改善 GCN,进而提出 GCN-LPA 模型,将 LP…
神经网络中的自动微分与反向传播
如果公式、图片显示有问题,请查看原文。 链式法则:一条路径的偏微分为路径上各相邻节点间偏微分的连乘。 其中每条边上标记有前向计算时的结果(红色数字)与尾节点(上层节点)对头节点(下层节点)的偏微分。 因为任意两个节点间的梯度为它们两节点之间所有路径的偏微分之和(这个例子没体现出…
颠倒强化学习:不要预测回报,直接得到动作
1. 控制过程 2. 训练过程 于是可使用监督学习的方法如随机梯度下降训练 C 的参数。 在不保证马尔可夫性的环境中,合适的控制动作可能不只与当前观测量相关,而与整个轨迹都相关。 RL 的值函数方法要遍历计算每个动作的期望收益,不适合高维动作空间;但 UDRL 没这限制。 RL…
下一页
个人成就
文章被点赞
196
文章被阅读
78,646
掘力值
1,580
关注了
8
关注者
14
收藏集
1
关注标签
29
加入于
2017-01-16