首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
用户6849316202219
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
36
文章 36
沸点 0
赞
36
返回
|
搜索文章
赞
文章( 36 )
沸点( 0 )
【小白学AI】(反)卷积输出尺寸计算
这里简单的来讲解一下为什么。 【$input+2*padding$】这个就是原来的图片,外面加了一圈padding,因为padding是一圈,所以左右、上下都有,所以是两倍的。 【$input+2*padding-kernel$】是计算,这个要走多少步。来举个例子就好理解了: …
【小白学AI】GBDT梯度提升详解
GBDT是boost中的一种方法,boost还有XGBoost,adaboost。 【Boost】 就是让多个弱分类器,通过不同的集成方式,来让多个弱分类器变成一个强分类器。 【gradient-boost】 梯度提升。简单的说,先训练一个弱分类器,然后弱分类器和目标值之间的残…
【小白学AI】XGBoost推导详解与牛顿法
在2020年还在整理XGB的算法,其实已经有点过时了。不过,主要是为了扩大知识面和应付面试嘛。现在的大数据竞赛,XGB基本上已经全面被LGB模型取代了,这里主要是学习一下Boost算法。之前已经在其他博文中介绍了Adaboost算法和Gradient-boost算法,这篇文章讲…
小白学PyTorch | 动态图与静态图的浅显理解
本章节缕一缕PyTorch的动态图机制与Tensorflow的静态图机制(最新版的TF也支持动态图了似乎)。 其中呢,$a=x+w$ ,$b=w+1$ , $y=a∗b$. (a和b是类似于中间变量的那种感觉。) Pytorch在计算的时候,就会把计算过程用上面那样的动态图存储…
小白学PyTorch | 1 搭建一个超简单的网络
让我们的神经网络学会逻辑异或运算,异或运算也就是俗称的“相同取0,不同取1” 。再把我们的需求说的简单一点,也就是我们需要搭建这样一个神经网络,让我们在输入(1,1)时输出0,输入(1,0)时输出1(相同取0,不同取1),以此类推。 因为我们的需求需要有两个输入,一个输出,所以…
小白学PyTorch | 2 浅谈训练集和测试集
关键词:错误率(error rate),精度(accuracy)。 错误率好理解,就是m个样本中,a个样本分类错误,则错误率E = a/m 。 精度 就是 1-E。 其实很简单,但是为什么我还要提一提呢,因为机器学习里还有很多相关名词,例如:准确率,召回率,精确度等等,所以希望…
小白学PyTorch | 3 Dataset和Dataloader
PyTorch 读取其他的数据,主要是通过 Dataset 类,所以先简单了解一下 Dataset 类。在看很多PyTorch的代码的时候,也会经常看到dataset这个东西的存在。Dataset类作为所有的 datasets 的基类存在,所有的 datasets 都需要继承它…
小白学PyTorch | 4 构建模型三要素与权重初始化
第一行是初始化,往后定义了一系列组件。nn.Conv2d就是一般图片处理的卷积模块,然后池化层,全连接层等等。 其实net(inputs),就是类似于使用了net.forward(inputs)这个函数。 这段代码的基本流程就是,先从self.modules()中遍历每一层,然…
小白学PyTorch | 5 torchvision预训练模型与数据集全览
torchvision包由流行的数据集、模型体系结构和通用的计算机视觉图像转换组成。简单地说就是常用数据集+常见模型+常见图像增强方法 翻译过来就是:每一个数据集的API都是基本相同的。他们都有两个相同的参数:transform和target_transform(后面细讲) 大…
小白学PyTorch | 6 模型函数之构建访问遍历存储(进阶)
本文是对一些函数的学习。函数主要包括下面四个方便: torch.nn.Module是所有网络的基类,在PyTorch实现模型的类中都要继承这个类(这个在之前的课程中已经提到)。在构建Module中,Module是一个包含其他的Module的,类似于,你可以先定义一个小的网络模块…
下一页
个人成就
文章被阅读
236
掘力值
11
关注了
1
关注者
0
收藏集
0
关注标签
0
加入于
2020-12-17