首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
TobiasLee
掘友等级
学生
|
西安电子科技大学
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
43
文章 41
沸点 2
赞
43
返回
|
搜索文章
赞
文章( 41 )
沸点( 2 )
TensorFlow 官方文档中文版发布啦(持续维护)
TensorFlow Docs 是由掘金翻译计划实时维护的 TensorFlow 官方文档中文版,维护者由全球各大公司开发人员和各著名高校研究者及学生组成。欢迎大家加入维护团队,欢迎提 Issue 和 PR。 此外还有前段时间 Google 官方推出的 机器学习速成课程。 答:…
RNN 循环神经网络系列 5: 自定义单元
在本文中,我们将探索并尝试创建我们自己定义的 RNN 单元。不过在此之前,我们需要先仔细研究简单的 RNN,再逐步深入较为复杂的单元(如 LSTM 与 GRU)。我们会分析这些单元在 tensorflow 中的实现代码,最终参照这些代码来创建我们的自定义单元。本文将援引由 Ch…
[译] RNN 循环神经网络系列 3:编码、解码器
在本文中,我将介绍基本的编码器(encoder)和解码器(decoder),用于处理诸如机器翻译之类的 seq2seq 任务。我们不会在这篇文章中介绍注意力机制,而在下一篇文章中去实现它。 如下图所示,我们将输入序列输入给编码器,然后将生成一个最终的隐藏状态,并将其输入到解码器…
[译] RNN 循环神经网络系列 4: 注意力机制
在这篇文章里,我们将尝试使用带有注意力机制的编码器-解码器(encoder-decoder)模型来解决序列到序列(seq-seq)问题,实现的原理主要是根据这篇论文,具体请参考这里。 首先,让我们来一窥整个模型的架构并且讨论其中一些有趣的部分,然后我们会在先前实现的不带有注意力…
[译] RNN 循环神经网络系列 2:文本分类
在第一篇文章中,我们看到了如何使用 TensorFlow 实现一个简单的 RNN 架构。现在我们将使用这些组件并将其应用到文本分类中去。主要的区别在于,我们不会像 CHAR-RNN 模型那样输入固定长度的序列,而是使用长度不同的序列。 这个任务的数据集选用了来自 Cornell…
如何使用中文维基百科语料
在做自然语言处理时很多时候都会需要中文语料库,高质量的中文语料库较难找,维基百科和百度百科算是比较不错的语料库。其中维基百科会定时将语料库打包发布 https://dumps.wikimedia.org/zhwiki/ ,可以下载最新版本的语料库。而百度百科则需要自己去爬,不过…
机器学习面试基础知识 & 扩展-01
视频教程的总结和一些自行补充的内容,旨在尽可能的理解其原理。 在忽略噪声的情况下,泛化误差可分解为偏差、方差两部分。 偏差:度量学习算法的期望预测与真实结果的偏离程度,也叫拟合能力。 方差:度量了同样大小的训练集的变动所导致的学习性能的变化,即刻画了数据扰动造成的影响。 我们通…
[译] 为什么我们渴求女性来设计 AI
原文地址:Why we desperately need women to design AI 原文作者:Kate Brodock 译文出自:掘金翻译计划 本文永久链接:https://github.com/xitu/gold-miner/blob/master/TODO/wh…
基于 TensorFlow 的上下文机器人
如果你想要快速搭建一个基于 TensorFlow 的目标驱动型聊天机器人,看这篇文章就对啦。
下一页
个人成就
文章被点赞
34
文章被阅读
14,143
掘力值
236
关注了
10
关注者
5
收藏集
1
关注标签
30
加入于
2016-11-02