首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
howhaokw
掘友等级
获得徽章 1
动态
文章
专栏
沸点
收藏集
关注
作品
赞
1
文章 1
沸点 0
赞
1
返回
|
搜索文章
最新
热门
序列模型|循环神经网络|动手学深度学习
1. 改进本节实验中的模型。 是否包含了过去 $4$ 个以上的观测结果?真实值需要是多少个? 如果没有噪音,需要多少个过去的观测结果?提示:把 $\sin$ 和 $\cos$ 写成微分方程。 可以在保
残差网络(ResNet)|现代卷积神经网络|动手学深度学习
1. 图7.4.1 中的 Inception 块与残差块之间的主要区别是什么?在删除了 Inception 块中的一些路径之后,它们是如何相互关联的? 图中的 Inception 块与残差块之间的主要
批量规范化|现代卷积神经网络|动手学深度学习
1. 在使用批量规范化之前,我们是否可以从全连接层或卷积层中删除偏置参数?为什么? 在使用批量规范化(Batch Normalization,BN)之前,我们可以从全连接层或卷积层中删除偏置参数。这是
含并行连结的网络(GoogleLeNet)|现代卷积神经网络|动手学深度学习
1. GoogLeNet 有一些后续版本。尝试实现并运行它们,然后观察实验结果。这些后续版本包括: 添加批量规范化层 (Ioffe and Szegedy, 2015)(batch normaliza
网络中的网络(NiN)|现代卷积神经网络|动手学深度学习
1. 调整 NiN 的超参数,以提高分类准确性。 为了提高Network-in-Network(NiN)模型的分类准确率,可以调整以下超参数和模型组件: 增加卷积层的滤波器数量:增加每层卷积层的滤波器
使用块的网络(VGG)|现代卷积神经网络|动手学深度学习
1. 打印层的尺寸时,我们只看到8个结果,而不是11个结果。剩余的3层信息去哪了? 2. 与AlexNet相比,VGG的计算要慢得多,而且它还需要更多的显存。分析出现这种情况的原因。 与AlexNet
深度卷积神经网络(AlexNet)|现代卷积神经网络|动手学深度学习
1. 试着增加迭代轮数。对比LeNet的结果有什么不同?为什么? 2. AlexNet对Fashion-MNIST数据集来说可能太复杂了。 尝试简化模型以加快训练速度,同时确保准确性不会显著下降。 设
LeNet|卷积神经网络|动手学深度学习
1. 将平均汇聚层替换为最大汇聚层,会发生什么? 将下面的 LeNet 实现中的平均汇聚层替换为最大汇聚层,会发生什么? 在LeNet架构中,将平均汇聚层(nn.AvgPool2d)替换为最大汇聚层(
汇聚层|卷积神经网络|动手学深度学习
1. 尝试将平均汇聚层作为卷积层的特殊情况实现。 实现思路 平均汇聚层(Average Pooling Layer)可以看作是一种特殊的卷积层,其卷积核的大小等于汇聚窗口的大小,卷积核的权重都是相同的
多输入多输出通道|卷积神经网络|动手学深度学习
1. 假设我们有两个卷积核,大小分别为$k_1$和$k_2$(中间没有非线性激活函数)。 证明运算可以用单次卷积来表示。 这个等效的单个卷积核的维数是多少呢? 反之亦然吗? 假设我们有两个卷积核,大小
下一页
个人成就
文章被点赞
3
文章被阅读
7,511
掘力值
536
关注了
4
关注者
4
收藏集
1
关注标签
23
加入于
2016-10-11