首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
张贤同学
掘友等级
在读研究生
在读研究生,爱好技术,做过嵌入式、Android等。现在研究Python、AI、Java。个
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
26
文章 26
沸点 0
赞
26
返回
|
搜索文章
最新
热门
[PyTorch 学习笔记] 3.2 卷积层
这篇文章主要介绍了 PyTorch 中常用的卷积层,包括 3 个部分。 卷积有一维卷积、二维卷积、三维卷积。一般情况下,卷积核在几个维度上滑动,就是几维卷积。比如在图片上的卷积就是二维卷积。 padding:填充宽度,主要是为了调整输出的特征图大小,一般把 padding 设置…
[PyTorch 学习笔记] 3.1 模型创建步骤与 nn.Module
这篇文章来看下 PyTorch 中网络模型的创建步骤。网络模型的内容如下,包括模型创建和权值初始化,这些内容都在nn.Module中有实现。 创建模型有 2 个要素:构建子模块和拼接子模块。如 LeNet 里包含很多卷积层、池化层、全连接层,当我们构建好所有的子模块之后,按照一…
[PyTorch 学习笔记] 3.1 模型创建步骤与 nn.Module
这篇文章来看下 PyTorch 中网络模型的创建步骤。网络模型的内容如下,包括模型创建和权值初始化,这些内容都在nn.Module中有实现。 创建模型有 2 个要素:构建子模块和拼接子模块。如 LeNet 里包含很多卷积层、池化层、全连接层,当我们构建好所有的子模块之后,按照一…
[PyTorch 学习笔记] 2.2 图片预处理 transforms 模块机制
我们在安装PyTorch时,还安装了torchvision,这是一个计算机视觉工具包。有 3 个主要的模块: 深度学习模型是由数据驱动的,数据的数量和分布对模型训练的结果起到决定性作用。所以我们需要对数据进行预处理和数据增强。下面是用数据增强,从一张图片经过各种变换生成 64 …
图解 BERT
2018 年是机器学习模型处理文本(或者更准确地说,自然语言处理或 NLP)的转折点。我们对这些方面的理解正在迅速发展:如何最好地表示单词和句子,从而最好地捕捉基本语义和关系?此外,NLP 社区已经发布了非常强大的组件,你可以免费下载,并在自己的模型和 pipeline 中使用…
图解 Attention
序列到序列(seq2seq)模型是一种深度学习模型,在很多任务上都取得了成功,如:机器翻译、文本摘要、图像、图像理解(image captioning)。谷歌翻译在 2016 年年末开始使用这种模型。有 2 篇开创性的论文(Sutskever et al., 2014, Cho…
[PyTorch 学习笔记] 2.1 DataLoader 与 DataSet
实现 1 元人民币和 100 元人民币的图片二分类。前面讲过 PyTorch 的五大模块:数据、模型、损失函数、优化器和迭代训练。 数据收集:样本和标签。 数据读取:对应于PyTorch 的 DataLoader。其中 DataLoader 包括 Sampler 和 DataS…
[PyTorch 学习笔记] 1.5 autograd 与逻辑回归
在深度学习中,权值的更新是依赖于梯度的计算,因此梯度的计算是至关重要的。在 PyTorch 中,只需要搭建好前向计算图,然后利用torch.autograd自动求导得到所有张量的梯度。 retain_graph: 保存计算图。PyTorch 采用动态图机制,默认每次反向传播之后…
[PyTorch 学习笔记] 1.4 计算图与动态图机制
深度学习就是对张量进行一系列的操作,随着操作种类和数量的增多,会出现各种值得思考的问题。比如多个操作之间是否可以并行,如何协同底层的不同设备,如何避免冗余的操作,以实现最高效的计算效率,同时避免一些 bug。因此产生了计算图 (Computational Graph)。 计算图…
[PyTorch 学习笔记] 1.3 张量操作与线性回归
第一次指定拼接的维度 dim =2,结果的维度是 [2, 3, 3]。后面指定拼接的维度 dim =0,由于原来的 tensor 已经有了维度 0,因此会把tensor 往后移动一个维度变为 [1,2,3],再拼接变为 [3,2,3]。 功能:将张量按照维度 dim 进行平均切…
下一页
个人成就
文章被点赞
18
文章被阅读
16,823
掘力值
401
关注了
7
关注者
4
收藏集
1
关注标签
22
加入于
2016-06-23