首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
pytorch学习合集
rainbow_yh
创建于2022-12-08
订阅专栏
笔者也是刚开始学习pytorch,大家可以一同进步~
暂无订阅
共9篇文章
创建于2022-12-08
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
优化器(9)
什么是优化器 pytorch的优化器:管理并更新模型中可学习参数的值,使得模型输出更接近真实标签 导数:函数在指定坐标轴上的变化率 方向导数:指定方向上的变化率 梯度:一个向量,方向为方向导数取得最大
权值初始化(8)
梯度消失与爆炸 E𝑿∗𝒀=𝑬𝑿∗𝑬𝒀 D𝑿=𝑬X𝟐[𝑬𝑿]𝟐 D𝑿+𝒀=𝑫𝑿+𝑫𝒀 1.2.3 ⇒ D(XY)=D(X)D(Y)+D(X)[𝑬𝒀]𝟐+D(Y)[𝑬𝑿]𝟐 若E(X)=0,E(Y)=0
池化、线性、激活函数层(7)
池化层-PoolingLayer nn.MaxPool2d nn.MaxPool2d 功能:对二维信号(图像)进行最大值池化 主要参数: kernel_size:池化核尺寸 stride:步长 pad
卷积层(6)
1d/2d/3d卷积 卷积运算:卷积核在输入信号(图像)上滑动,相应位置上进行乘加 卷积核:又称为滤波器,过滤器,可认为是某种模式,某种特征。 卷积过程类似于用一个模版去图像上寻找与它相似的区域,与卷
模型容器与AlexNet构建(5)
网络层容器 nn.Sequential nn.Sequential是nn.module的容器,用于按顺序包装一组网络层 顺序性:各网络层之间严格按照顺序构建 自带forward():自带的forwar
transforms预处理(4)
transforms-裁剪 transforms.CentorCrop transforms.CenterCrop 功能:从图像中心裁剪图片 size:所需裁剪图片尺寸 transforms.Rand
autograd与逻辑回归(3)
torch.autograd torch.autograd.backward torch.autograd.backward() 功能:自动求取梯度 tensors: 用于求导的张量,如loss re
Tensor的概念和基础操作入门(1)
Tensor的概念 张量是一个多维数组,它是标量、向量、矩阵的高维拓展。 Tensor与Variable Variable是torch.autograd中的数据类型 主要用于封装Tensor,进行自动
tensor概念和基础操作入门(2)
张量的操作 张量拼接与切分 torch.cat和torch.stack torch.cat() 功能:将张量按维度dim进行拼接 tensors: 张量序列 dim: 要拼接的维度 torch.sta