首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
zyriix
掘友等级
推荐算法工程师
|
保密
了解世界、改造世界,如果可能,那就再拓展一点人类认知的边界。
获得徽章 3
动态
文章
专栏
沸点
收藏集
关注
作品
赞
1
文章 0
沸点 1
赞
1
返回
|
搜索文章
最新
热门
深度学习-经典召回算法
待填坑 Q:为什么要召回?召回和排序的区别是什么? A:以典型的内容推荐为例,在内容库中的内容通常是千万甚至亿级的。在这个量级上直接使用复杂的深度学习模型是几乎不可能的。所以,先使用一定的方法,从物料
深度学习-BP的链式求导、梯度爆炸和梯度消失
首先来思考一下,一个简单的DNN中,梯度与哪些因素有关? 先来一个简单的3层神经网络 第一层的输出为 $$ h_i = \sigma(u_i) = \sigma(\sum_{k=1}^{K}w_{ki
图神经网络核心总结
图神经网络最初的使用是在社交关系中,社交网络中,用户和用户间的关系包含大量的信息。但已有的两大领域的特征抽取工具(CNN、RNN)无法有效利用这种关系。由于用户间的关系天生就是一个图的特征,因此有人想
DIN核心内容总结
这个结构图已经很清晰的反应了网络结构和动机。 给用户推荐Item时,如果能够根据用户短期/长期浏览过的物品信息,就能更好地辅助模型做出判断。 本文的思想:将候选Item与用户的行为序列Item计算一个
解析xDeepFM研究者的心路历程--纯个人理解
背景:DCN为PointWise交叉,且论文中已经证明DCN本质是输入向量x0的标量乘,无法达到特征交叉的效果。 Q:如何利用vector进行特征交叉 A:延续FM的思想,可以为每个特征构建一个向量,
DeepFM论文阅读
DeepFM与其他相关模型的差异 FNN 依赖预训练的FM层 PNN 把FM结果输出到DNN中,没有以Wide&Deep的方法合并起来 Wide&Deep没有用FM,手动设计特征,费时费力 DeepF
Wide&Deep论文简读
本文解读过程中会参杂自己的理解,按照以下格式进行撰写 罗列原文内容 按自己理解解析 希望自己可以思考感受论文中所蕴含的哲学思想,而不是仅仅拆解公式与模型结构。当然也不是所有论文都有哲学思想就是了😋 论
深度学习-Attention及Transformer总结
### Attention本质 Attention本质的工作是,计算两两向量的内积并softmax作为相似度(权重),并基于该相似度对向量进行重构(加权求和)。
深度学习-权重初始化和Normalization
在训练过程中,初始权重直接影响模型的输出,进一步影响损失及回传的梯度。因此,恰当的权重初始化是非常重要的。 常量初始化 权重全部初始化为0,梯度回传后全为0,多于一层的NN就无法学习。 梯度全部初始化
深度学习-权重衰减
本质:在参数更新的时候,直接让权重变为以前的一部分 $$ W = W - \eta (g + \lambda W) $$ 这里着重介绍一下和正则化的区别。 正则化是在损失函数中添加一个正则项 $$ J
下一页
个人成就
文章被点赞
20
文章被阅读
22,629
掘力值
585
关注了
5
关注者
4
收藏集
0
关注标签
5
加入于
2020-03-21