首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
NLP基础
订阅
Wensse
更多收藏集
微信扫码分享
微信
新浪微博
QQ
4篇文章 · 0订阅
八千字长文深度解读,迁移学习在强化学习中的应用及最新进展
机器之心原创,作者:Luo Sainan,编辑:H4O。 机器学习技术在许多领域取得了重大成功,但是,许多机器学习方法只有在训练数据和测试数据在相同的特征空间中或具有相同分布的假设下才能很好地发挥作用。当分布发生变化时,大多数统计模型需要使用新收集的训练数据重建模型。在许多实际…
换个角度看GAN:另一种损失函数
选自Medium,作者:Phúc Lê,机器之心编译,参与:张玺。 Jeremy Howardf 老师曾在生成对抗网络(GAN)课程中说过:「……本质上,GAN 就是另一种损失函数。」 本文将在适合的相关背景下讨论上面的观点,并向大家阐述 GAN 这种「学得」(learned)…
硬核NeruIPS 2018最佳论文,一个神经了的常微分方程
机器之心原创,作者:蒋思源。 在最近结束的 NeruIPS 2018 中,来自多伦多大学的陈天琦等研究者成为最佳论文的获得者。他们提出了一种名为神经常微分方程的模型,这是新一类的深度神经网络。神经常微分方程不拘于对已有架构的修修补补,它完全从另外一个角度考虑如何以连续的方式借助…
Word2Vec随记
Word2vec是一个基于神经网络的语言模型,设计目标是用来计算概率P(w|context),即词w在其上下文context下的条件概率。这里的context是一个句子中词w周围紧连着的n个词。有了P(w|context),就可以用类似n-gram模型的方法计算出一个句子的概率…