首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
随时学丫
掘友等级
算法工程师
分享技术,心得
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
3
文章 3
沸点 0
赞
3
返回
|
搜索文章
最新
热门
推荐系统中的多臂老虎机,在探索和利用的权衡下,如何实现利益最大化?
推荐系统中有两个经典问题:EE 问题和冷启动问题。 什么是 EE 问题?又叫 exploit-explore 问题。exploit 就是:对用户比较确定的兴趣,当然要利用开采迎合,好比说已经挣到的钱,当然要花;explore 就是:光对着用户已知的兴趣使用,用户很快会腻,所以要…
白话 NLP,3 个因果告诉你 Mask 矩阵因何而产生?
在 NLP 中,一个最常见的问题便是输入序列长度不等,通常需要进行 PAD 操作,通常在较短的序列后面填充 0,虽然 RNN 等模型可以处理不定长输入,但在实践中,需要对 input 做 batchsize,转换成固定的 tensor。 对如上两个 vector 进行 pad …
“高速网络” 残差网络如何解决网络退化问题
深度学习的概念源于人工神经网络,而之所以叫深度学习。我认为有 2 点,第一是网络很深,非常深,第二是学习,如何学习呢?通过数学建模,不断调整参数达到减少目标值和预测值之间的误差,从而可以拟合任意的曲线,达到准确预测的目的。 而今天我们就来谈谈深度学习的一个特点:深。 深层网络一…
8000 字长文告诉你:懂这 4 项技能便可轻松入门深度学习
初学者容易踩的第一个深坑就是心态不好。 有的人过于自信,多自己的学习能力深信不疑。但是当遇到非常困难的算法或者推理,容易受到打击,甚至气馁,长此以往,不断怀疑自己,容易产生消极情绪,甚至放弃。 有的人过于消极,觉得算法太难学了,刚开始学习时觉得就像天书一样,自乱阵脚,整天都在怀…
论文解读 | Transformer 原理深入浅出
Attention 机制由 Bengio 团队于 2014 年提出,并广泛应用在深度学习的各个领域。而 Google 提出的用于生成词向量的 Bert 在 NLP 的 11 项任务中取得了效果的大幅提升,Bert 正是基于双向 Transformer。 Transformer …
拆 Transformer 系列二:Multi- Head Attention 机制详解
在「拆 Transformer 系列一:Encoder-Decoder 模型架构详解」中有简单介绍 Attention,Self-Attention 以及 Multi-Head Attention,都只是在直观上介绍 Attention 的作用,如何能够像人的视觉注意力机制那样…
拆 Transformer 系列一:Encoder-Decoder 模型架构详解
人工智能的发展非常迅速,翻译的准确性越来越高,以至于有人担心译员是否会失业,甚至有的家长担心孩子学习外语专业将来找不到工作。哎呀,扯远了,本人认为:机器翻译可以便于人们更好的获得国外的信息,提高专业译员的翻译速度,但是更深层次的思考,仍然还要依赖人工翻译。 机器翻译目前只在通用…
论文解读:Bert原理深入浅出
Bert 自 Google 于 2018 年发表至今,一直给人们带来惊喜,期间也陆陆续续因为Bert出现的原因多了不少新的岗位,甚至公司 JD 上都明确表明必须懂 Bert。 它在 11 项自然语言处理任务中均表现出惊人的成绩:包括将 GLUE 基准推至 80.4%(绝对改进率…
Hbase下载地址(全)
Please make sure you're downloading from a nearby mirror site, not from www.apache.org. We suggest downloading the current stable release. …
344. Reverse String
344. Reverse String Write a function that reverses a string. The input string is given as an array of characters char[]. Do not allocate ex…
下一页
个人成就
文章被点赞
36
文章被阅读
56,628
掘力值
1,016
关注了
2
关注者
20
收藏集
0
关注标签
43
加入于
2016-10-15