首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
ys1305
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
1
文章 1
沸点 0
赞
1
返回
|
搜索文章
最新
热门
0tensor操作
其中, torch.dtype 是展示 torch.Tensor 数据类型的类,pytorch 有八个不同的数据类型,下表是完整的 dtype 列表. 需要注意的是,torch.tensor 总是会复制 data, 如果你想避免复制,可以使 torch.Tensor. deta…
9pytorch读取数据集
普通神经网络代码这里需要除以255,而CNN不需要,因为ToTensor()会自动除以255CNN完整代码
8pytorch优化函数学习率衰减
PyTorch提供了十种优化器,在这里就看看都有哪些优化器。 torch.optim是一个实现了各种优化算法的库。大部分常用的方法得到支持,并且接口具备足够的通用性,使得未来能够集成更加复杂的方法。 为了使用torch.optim,你需要构建一个optimizer对象。这个对象…
5自定义网络层
nn.Parameternn.Parameter包裹起来才能加入model.parameters()中,才能够使用优化器进行优化参数自定义网络层和函数访问children/modules
4pytorch初始化
PyTorch 中参数的默认初始化在各个层的 reset_parameters() 方法中。例如:nn.Linear 和 nn.Conv2D,都是在 [-limit, limit] 之间的均匀分布(Uniform distribution),其中 limit 是 1. / sq…
1PyTorch 实现中的一些常用技巧
模型统计数据(ModelStatistics)统计参数总数量参数正则化(WeightRegularization)以前的方法L2/L1Regularization机器学习中几乎都可以看到损失函数后面会
01一步步实现神经网络
numpy实现tensor实现自动求导定义自动求导函数pytorch中的nnPyTorch:optim这一次我们不再手动更新模型的weights,而是使用optim这个包来帮助我们更新参数。optim
6模型保存与加载
网络的保存和提取有两种方式:一种是保存网络的状态(parameters and buffers);另一种是保存整个网络(模型和状态),当然是推荐第一种啦!!!(方便重构)。 在PyTorch中,torch.nn.Module模型的可学习参数(即权重和偏差)包含在模型的参数中(使…
pytorch套路
cross_entropy输入的logits是未经过softmax层的输出。 而标签值为一个数字,而不是对应的one-hot向量。
2面向 Numpy 用户的 PyTorch 速查表
类型(Types)NumpyPyTorchnp.ndarraytorch.Tensornp.float32torch.float32;torch.floatnp.float64torch.float6
下一页
个人成就
文章被点赞
1
文章被阅读
12,486
掘力值
168
关注了
1
关注者
1
收藏集
4
关注标签
14
加入于
2019-08-14