首页
首页
沸点
课程
直播
活动
竞赛
商城
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
草履虫都能看懂的白话解析《动手学深度学习》
Ann_
创建于2021-11-12
订阅专栏
我在看李沐老师这本书,决定写一下详细解析。
等 35 人订阅
共37篇文章
创建于2021-11-12
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
动手学深度学习10.3 attention的注意力分数 | attention scoring functions
持续创作,加速成长!这是我参与「掘金日新计划 · 6 月更文挑战」的第3天,点击查看活动详情 Attention score 本节内容主要是解释什么是attention打分函数。 当然我们首先需要了解
动手学深度学习10.3 nadaraya-waston核回归
持续创作,加速成长!这是我参与「掘金日新计划 · 6 月更文挑战」的第4天,点击查看活动详情 本系列更多文章见专栏:草履虫都能看懂的白话解析《动手学深度学习》 PS:专栏还在更新中。 不带参数的nad
动手学深度学习10.3 代码实现 加性注意力 | additive attention
持续创作,加速成长!这是我参与「掘金日新计划 · 6 月更文挑战」的第7天,点击查看活动详情 python人必懂的导包,这不用解释了。 一个遮蔽softmax的操作。在nadaraya-waston核
动手学深度学习10.2 nadaraya-waston核回归 代码实现
持续创作,加速成长!这是我参与「掘金日新计划 · 6 月更文挑战」的第5天,点击查看活动详情 本系列更多文章见专栏:草履虫都能看懂的白话解析《动手学深度学习》 PS:书我还没看完,专栏还在更新中。 最
动手学深度学习10.3 代码实现 缩放点积注意力 | scaled dot-product attention
持续创作,加速成长!这是我参与「掘金日新计划 · 6 月更文挑战」的第10天,点击查看活动详情 python人必懂的导包,这不用解释了。 一个遮蔽softmax的操作。在nadaraya-waston
动手学深度学习9.4 bi RNN 双向RNN
这是我参与2022首次更文挑战的第15天,活动详情查看:2022首次更文挑战 前面已经说过了循环神经网络、gru、Lstm。深度循环神经网络。这些要说的是双向RNN。 双向循环神经网络是在 Bidir
动手学深度学习8.4 循环神经网络
这是我参与2022首次更文挑战的第14天,活动详情查看:2022首次更文挑战 多层感知机隐藏层的计算 上面的图是一个多层感知机模型。 输入X是四维向量,但个隐藏层是五维向量,输出结果是三维向量。 隐藏
动手学深度学习9.3 深度循环神经网络
这是我参与2022首次更文挑战的第13天,活动详情查看:2022首次更文挑战 之前学神经网络的时候我们知道单层神经网络就是只有一个输入层和一个输出层,多层感知机才会有隐藏层。 其实RNN也可以有多个隐
动手学深度学习9.2 LSTM
这是我参与2022首次更文挑战的第11天,活动详情查看:2022首次更文挑战 在上一节里边,我们已经说到了如何使用门控单元对某些无关内容的忽略。也提到了其实首先是出现了LSTM,后来才出现了GRU,但
动手学深度学习9.1 GRU
这是我参与2022首次更文挑战的第10天,活动详情查看:2022首次更文挑战 在循环神经网络中计算梯度。特别是,我们还发现矩阵连续乘积可以导致梯度消失或者梯度爆炸。我们可能会遇到这样的情况——一些词元
动手学深度学习8.5 手动实现RNN
参与11月更文挑战的第28天,活动详情查看:2021最后一次更文挑战 这个分为两部分,手写RNN是用最基础的语法实现RNN,尽量不用PyTorch的模块,用来清理思路的。下一节的RNN简介实现才是快速
动手学深度学习8.2 简单的文本预处理
参与11月更文挑战的第25天,活动详情查看:2021最后一次更文挑战 这篇文章是讲述如何进行简单的文本预处理,真的是超级简单的那种。 我们要进行以下四个步骤: 将文本作为字符串加载到内存中。
动手学深度学习8.1 序列模型简介
参与11月更文挑战的第24天,活动详情查看:2021最后一次更文挑战 本文是《动手学深度学习》的pytorch版读书笔记,该系列更多文章可以看这里:《动手学深度学习》专栏(juejin.cn) 笔记G
动手学深度学习6.2 填充和步幅 padding and strides
参与11月更文挑战的第23天,活动详情查看:2021最后一次更文挑战 需要接着动手学深度学习6.1 为什么需要卷积层 | 卷积公式推导看。 经过第一节的推到和演示,我们已经能get到卷积的输出形状取决
动手学深度学习6.1 实现二维交叉运算 和 卷积层
参与11月更文挑战的第22天,活动详情查看:2021最后一次更文挑战 只看干巴巴的代码肯定看不懂我在干嘛,建议配合理论食用。 动手学深度学习6.1 为什么需要卷积层 | 卷积公式推导 - 掘金 (ju
动手学深度学习6.1 为什么需要卷积层 | 卷积公式推导
参与11月更文挑战的第21天,活动详情查看:2021最后一次更文挑战 假设我现在要识别一个图片,看他是猫还是狗(两分类),我用的是小米手机,像素是6400w。 我用一个单层的全连接神经网络来识别。 那
动手学深度学习5.4 PyTorch教程 读写文件
参与11月更文挑战的第21天,活动详情查看:2021最后一次更文挑战 读写文件有什么必要呢? 读写文件其实不是读取数据集。 是当你的训练时要定期存储中间结果,以确保在服务器电源不小心被断掉,或者出现其
动手学深度学习5.3 PyTorch教程 自定义层
参与11月更文挑战的第20天,活动详情查看:2021最后一次更文挑战 上一小节讲的是怎么自定义初始化参数。动手学深度学习5.2 PyTorch教程 参数初始化 - 掘金 (juejin.cn) 这一节
动手学深度学习5.2 PyTorch教程 参数绑定
参与11月更文挑战的第19天,活动详情查看:2021最后一次更文挑战 有时我们希望在多个层间共享参数。 如果层数少,我们可以设定其他层参数等于某一个层的参数。但是如果有很多层的时候怎么办呢?难道每一层
动手学深度学习5.2 PyTorch教程 参数初始化
参与11月更文挑战的第19天,活动详情查看:2021最后一次更文挑战 先新建一个网络,生成测试数据X。 网络长这样。 内置初始化 调用内置的初始化器。下面的代码将所有权重参数初始化为标准差为0.01的
下一页