首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
望江小汽车
掘友等级
深度学习/自然语言处理 工程师
|
望江智库
简历 https://yuanxiaosc.github.io/about/
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
多模态商品分类解决方案-深度学习在真实NAVER购物网站的应用
NAVER Shopping是NAVER提供的购物门户服务。 NAVER Shopping将产品与类别相匹配,以便系统地组织产品并允许更轻松地搜索用户。 当然,每天将超过2000万个新注册产品与大约5,000个类别相匹配的任务是不可能手动完成的。 本文介绍了使用TensorFl…
2018年最强自然语言模型 Google BERT 论文全文中译
我们提出了一种新的称为 BERT 的语言表示模型,BERT 代表来自 Transformer 的双向编码器表示(Bidirectional Encoder Representations from Transformers)。不同于最近的语言表示模型(Peters et al.…
梳理2003-2018年NLP词语表示重要标志、论文和简介
本质上,自然语言理解 NLU 的核心问题其实就是如何从语言文字的表象符号中抽取出来蕴含在文字背后的真实意义,并将其用计算机能够读懂的方式表征出来。当然这通常对应的是数学语言,表征是如此重要,以至于 2012 年的时候 Yoshua Bengio 作为第一作者发表了一篇表征学习的…
最简版Seq2Seq的英法机器翻译实践和详细代码解释
本文的内容主要是基于英法平行语料库来实现一个简单的英法翻译模型。没有使用注意力机制和双向LSTM等技术,主要是为了掌握基本的Seq2Seq结构和TensorFlow函数使用。使用TensorFlow 1.12.0,主要依靠 tf.contrib.seq2seq.BasicDec…
机器学习中的信息熵 、交叉熵 、 相对熵 、KL散度 、 Wasserstein距离【收藏】
KL 散度,用分布 P 的最佳信息传递方式来传达分布 Q,比用分布 Q 自己的最佳信息传递方式来传达分布 Q,平均多耗费的信息长度为 KL 散度,表达为 或 ,KL 散度衡量了两个分布之间的差异。 由 KL 散度的公式可知,分布 Q 里可能性越大的事件,对 影响力越大。如果想让…
2018年最强自然语言模型 Google BERT 资源汇总
遮蔽语言模型(完形填空)和预测下一句任务。 Recent empirical improvements due to transfer learning with language models have demonstrated that rich, unsupervised…
他们只说注意力机制(Attention Mechanism)不练,还是我来给大家撸代码讲解
Attention是一种用于提升基于RNN(LSTM或GRU)的Encoder + Decoder模型的效果的的机制(Mechanism),一般称为Attention Mechanism。Attention Mechanism目前非常流行,广泛应用于机器翻译、语音识别、图像标注…
简单手撸代码进入SMP2018中文人机对话技术评测任务一前三甲
如果你对自然语言处理和深度学习感兴趣,一定要看看本文,怎么从原始文本数据处理到训练模型到构建应用。过程很重要!总有一点你会有收获。 SMP2018中文人机对话技术评测由中国中文信息学会社会媒体处理专委会主办,哈尔滨工业大学、科大讯飞股份有限公司承办,讯飞公司提供数据,华为公司提…
招聘笔记:机器学习基础知识(19道题,有参考答案)
这一章介绍了大量每个数据科学家需要牢记在心的基础概念(和习语)。第一章只是概览(唯一不含有代码的一章),相当简单,但你要确保每一点都搞明白了,再继续进行学习本书其余章节。端起一杯咖啡,开始学习吧! 提示:如果你已经知道了机器学习的所有基础概念,可以直接翻到第2章。如果你不确认,…
深度学习必须熟悉的损失函数:交叉熵损失函数
人类却能够根据明显的犯错快速地学习到正确的东西。相反,在我们的错误不是很好地定义的时候,学习的过程会变得更加缓慢。但神经网络却不一定如此,这种行为看起来和人类学习行为差异很大。人工神经元在其犯错较大的情况下其实学习很有难度。 为了理解这个问题的源头,想想我们的神经元是通过改变权…
下一页
个人成就
文章被点赞
134
文章被阅读
98,375
掘力值
1,494
关注了
0
关注者
555
收藏集
0
关注标签
2
加入于
2018-06-28