首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
【深度学习】:《PyTorch入门到项目实战》
JOJO数据科学
创建于2023-09-04
订阅专栏
此专栏主要记录如何使用PyTorch实现深度学习笔记,以沐神动手学深度学习内容为基础,介绍如何从最基本的Pytorch应用到构建复杂神经网络模型,尽量坚持每周持续更新,欢迎大家订阅!
等 4 人订阅
共18篇文章
创建于2023-09-04
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
【深度学习】:《100天一起学习PyTorch》模型评估和选择(上):欠拟合和过拟合
【深度学习】:《100天一起学习PyTorch》模型评估和选择(上):欠拟合和过拟合 @TOC 1.基本概念 机器学习的任务是发现一种泛化的模式,通过训练集发现总体的规律,从而在未知的数据集上也能展现
【深度学习】:《PyTorch入门到项目实战》(十三)卷积神经网络:多通道输入和多通道输出
本文已参与「新人创作礼」活动,一起开启掘金创作之路 【深度学习】:《PyTorch入门到项目实战》(十三)卷积神经网络:多通道输入和多通道输出 多通道输入和多通道输出 前言 我们之前已经介绍了单通道的
【深度学习】:《PyTorch入门到项目实战》第五天:从0到1实现Softmax回归
本文已参与「新人创作礼」活动,一起开启掘金创作之路 【深度学习】:《PyTorch入门到项目实战》第五天:从0到1实现Softmax回归 写在前面 🍓1. 数据集导入 首先我们来简单的介绍一些soft
池化层(Pooling layers)
池化层(Pooling layers) 1.理论部分 假如输入是一个4×4矩阵,用到的池化类型是最大池化(max pooling)。执行最大池化是一个2×2矩阵。执行过程非常简单,把4×4的输入拆分成
【深度学习】:PyTorch:数据操作和自动求导
本文已参与「新人创作礼」活动,一起开启掘金创作之路 【深度学习】:PyTorch:数据操作和自动求导 🌻1.数据操作 🌼1.1 张量创建 tensor(张量)表示一个数值组成的数组,可以有多个维度,类
【深度学习】:《PyTorch入门到项目实战》第10天:梯度爆炸、梯度消失、梯度检验
【深度学习】:《PyTorch入门到项目实战》第10天:梯度爆炸、梯度消失、梯度检验 写在前面 为了方便演示,这里我们假设每一层神经网络只有两个神经元,每一层神经网络的参数为$W^{[L]}$,假设激
【深度学习】:《PyTorch入门到项目实战》(十一):卷积层
本文已参与「新人创作礼」活动,一起开启掘金创作之路 【深度学习】:《PyTorch入门到项目实战》(十一):卷积层 卷积神经网络(CNN):卷积层实现 1.引入 让我们举个例子,假设给了我们这样一张图
GoogLeNet(附Pytorch源码)
GoogLeNet(附Pytorch源码) GoogleNet(Inception v1)是由Google团队在2014年提出的深度卷积神经网络架构。它是为解决图像分类任务而设计的,并在ImageNe
【深度学习】:《PyTorch入门到项目实战》第三天:简洁代码实现线性神经网络(附代码)
【深度学习】:《PyTorch入门到项目实战》第三天:简洁代码实现线性神经网络(附代码) 在上一节我们学习了如何使用pytorch从零实现一个线性回归模型。包括生成数据集,构建损失函数,梯度下降 优化
【深度学习】:《PyTorch入门到项目实战》从0到1实现logistic回归
【深度学习】:《PyTorch入门到项目实战》从0到1实现logistic回归 logistic回归虽然名字是回归,但实际上是一个分类算法,主要处理二分类问题,具体理论部分大家可以看我的这篇文章。机器
残差网络(ResNets)(Residual Networks (ResNet))
残差网络(ResNets)(Residual Networks (ResNet)) 一、引言 经过我们之前的介绍,我们发现对卷积神经网络而言,“越深越好”,这是有道理的,因为这样模型的能力应该更强(它
三大经典卷积神经网络架构:LeNet、AlexNet、VGG(代码实现及案例比较)
三大经典卷积神经网络架构:LeNet、AlexNet、VGG(代码实现及案例比较) 1.Lenet 1.1理论介绍 经过前面的介绍,我们已经了解了卷积神经网络的基本模块,接下来我们来讨论几个经典的神经
【深度学习】: PyTorch从零实现线性回归
本文已参与「新人创作礼」活动,一起开启掘金创作之路 【深度学习】: PyTorch从零实现线性回归 参考资料:本专栏主要以沐神《动手学深度学习》为学习资料,记录自己的学习笔记,能力有限,如有错误,欢迎
【深度学习】:《PyTorch入门到项目实战》第六天:多层感知机(含代码)
【深度学习】:《PyTorch入门到项目实战》第六天:多层感知机(含代码) 🍓1.感知机 感知机是一个非常简单的处理二分类的模型,首先我们来看看一个简单的例子 对于给定输入$x$,权重$w$,和偏移$
【深度学习】:《PyTorch入门到项目实战》第八天:权重衰退(含源码)
【深度学习】:《PyTorch入门到项目实战》第八天:权重衰退(含源码) 1.基本概念 前一节我们描述了过拟合的问题,虽然我们可以通过增加更多的数据来减少过拟合,但是成本较高,有时候并不能满足。因此现
【深度学习】:《PyTorch入门到项目实战》第九天:Dropout实现
【深度学习】:《PyTorch入门到项目实战》第九天:Dropout实现 @TOC 写在前面 1. Dropout理论基础 1.1 基本原理 假设我们要训练的神经网络如下所示: 传统的神经网络是全连接
【深度学习】:《PyTorch入门到项目实战》(十二)填充(padding)和步幅(stride)
本文已参与「新人创作礼」活动,一起开启掘金创作之路 【深度学习】:《PyTorch入门到项目实战》(十二)填充(padding)和步幅(stride) 前言 在之前,我们介绍了卷积核对输入特征的影响。
NiN(Network in Network)和1×1卷积
NiN(Network in Network)和1×1卷积 我们之前介绍了LeNet,AlexNet,VGG。在我们用卷积层提取特征后,全连接层的参数如下 可以看出,全连接层的参数很大,很占内存。因此