🏆🏆🏆教程全知识点简介:1.深度学习概述包括深度学习与机器学习区别、深度学习应用场景、深度学习框架介绍、项目演示、开发环境搭建(pycharm安装)。2. TensorFlow基础涵盖TF数据流图、TensorFlow实现加法运算、图与TensorBoard(图结构、图相关操作、默认图、创建图、OP)、张量(张量概念、张量的阶、张量数学运算)、变量OP(创建变量)、增加其他功能(命名空间、模型保存与加载、命令行参数使用)、逻辑回归案例。3. 神经网络基础包括playground使用、多个神经元效果演示、深层神经网络。4. 神经网络与tf.keras。5. 梯度下降算法改进涵盖指数加权平均、动量梯度下降法、RMSProp算法、Adam算法、TensorFlow Adam算法API、学习率衰减、标准化输入、神经网络调优、批标准化。6. 卷积神经网络包括CNN原理、CIFAR类别分类(API使用、步骤分析代码实现缩减版LeNet)、卷积神经网络学习特征可视化。7. 经典分类网络结构涵盖LeNet解析、AlexNet、卷积网络结构优化、Inception结构、pre_trained模型VGG预测(VGG模型使用、步骤代码)。8. CNN网络实战技巧。9. 迁移学习案例包括基于VGG的五种图片类别识别迁移学习(数据集迁移需求、思路步骤、训练时读取本地图片类别、特征图平均值输出替代全连接层)。10. 目标检测包括目标检测任务描述、目标定位实现思路、产品物体检测项目介绍、R-CNN(Overfeat模型、SPPNet)、Faster R-CNN(RPN原理)、YOLO(单元格grid cell、非最大抑制NMS、训练)、SSD。11. 产品检测数据集训练涵盖标注数据读取存储(xml读取本地文件存储pkl、解析结构、one_hot编码函数)、训练(案例训练结果、多GPU训练代码修改)、本地预测测试(预测代码)、模型导出(keras模型TensorFlow导出)。12. 模型部署包括Web与模型服务对接逻辑、Docker部署环境、TF Serving与Web开启服务(安装Tensorflow Serving、commodity模型服务运行)、TensorFlow Client对接模型服务、Web Server开启。
📚📚👉👉👉本站这篇博客: juejin.cn/post/751006… 中查看
📚📚👉👉👉本站这篇博客: juejin.cn/post/751783… 中查看
✨ 本教程项目亮点
🧠 知识体系完整:覆盖从基础原理、核心方法到高阶应用的全流程内容
💻 全技术链覆盖:完整前后端技术栈,涵盖开发必备技能
🚀 从零到实战:适合 0 基础入门到提升,循序渐进掌握核心能力
📚 丰富文档与代码示例:涵盖多种场景,可运行、可复用
🛠 工作与学习双参考:不仅适合系统化学习,更可作为日常开发中的查阅手册
🧩 模块化知识结构:按知识点分章节,便于快速定位和复习
📈 长期可用的技术积累:不止一次学习,而是能伴随工作与项目长期参考
🎯🎯🎯全教程总章节
🚀🚀🚀本篇主要内容
卷积神经网络
2.4 BN与神经网络调优
学习目标
-
目标
- 知道常用的一些神经网络超参数
- 知道BN层的意义以及数学原理
-
应用
-
无
-
2.4.1 神经网络调优
经常会涉及到参数的调优,也称之为超参数调优。目前 从第二部分中讲过的超参数有
-
算法层面:
-
学习率α\alphaα
-
β1,β2,ϵ\beta1,\beta2, \epsilonβ1,β2,ϵ10−810^{-8}10−8
-
λ\lambdaλ
-
-
网络层面:
-
hidden units:各隐藏层神经元个数
-
layers:神经网络层数
-
2.4.1.1 调参技巧
对于调参,通常采用跟机器学习中介绍的网格搜索一致,让所有参数的可能组合在一起,得到N组结果。然后去测试每一组的效果去选择。
假设 现在有两个参数
α\alphaαβ\betaβ
这样会有9种组合,[0.1, 0.8], [0.1, 0.88], [0.1, 0.9]…….
-
合理的参数设置
- 学习率α\alphaα
- 算法参数β\betaβ
注:而指数移动平均值参数:β 从 0.9 (相当于近10天的影响)增加到 0.9005 对结果(1/(1-β))几乎没有影响,而 β 从 0.999 到 0.9995 对结果的影响会较大,因为是指数级增加。通过介绍过的式子理解S100=0.1Y100+0.1∗0.9Y99+0.1∗(0.9)2Y98+...S_{100} = 0.1Y_{100} + 0.1 * 0.9Y_{99} + 0.1 * {(0.9)}^2Y_{98} + ...S100=0.1Y100+0.1∗0.9Y99+0.1∗(0.9)2Y98+...
2.4.1.2 运行
通常 有这么多参数组合,每一个组合运行训练都需要很长时间,但是如果资源允许的话,可以同时并行的训练多个参数模型,并观察效果。如果资源不允许的话,还是得一个模型一个模型的运行,并时刻观察损失的变化
所以对于这么多的超参数,调优是一件复杂的事情,怎么让这么多的超参数范围,工作效果还能达到更好,训练变得更容易呢?
2.4.2 批标准化(Batch Normalization)
Batch Normalization论文地址:arxiv.org/abs/1502.03…
其中最开头介绍是这样的:
训练深度神经网络很复杂,因为在训练期间每层输入的分布发生变化,因为前一层的参数发生了变化。这通过要求较低的学
习率和仔细的参数初始化来减慢训练速度,并且使得训练具有饱和非线性的模型变得非常困难。 将这种现象称为** 内部协
变量偏移** ,并通过 **标准化层** 输入来解决问题。 的方法的优势在于使标准化成为模型体系结构的一部分,并为每
个培训小批量执行标准化。批量标准化允许 使用更高的学习率并且不太关心初始化。它还可以充当调节器,在某些情况
下可以消除对Dropout的需求。应用于最先进的图像分类模型,批量标准化实现了相同的精度,培训步骤减少了14倍,并
且显着地超过了原始模型。使用批量标准化网络的集合, 改进了ImageNet分类的最佳发布结果:达到4.9%的前5个
验证错误(和4.8%的测试错误),超出了人类评估者的准确性。
首先 还是回到之前, 对输入特征 X 使用了标准化处理。标准化化后的优化得到了加速。
对于深层网络呢? 接下来看一下这个公式,这是向量的表示。表示每Mini-batch有m个样本。
- m个样本的向量表示
Z[L]=W[L]A[L−1]+b[L]Z^{[L]} = W^{[L]}A^{[L-1]}+b^{[L]}Z[L]=W[L]A[L−1]+b[L]
A[L]=gLA^{[L]}=g^{[L]}(Z^{[L]})A[L]=g[L](Z[L])
输入A[L−1]A^{[L-1]}A[L−1]A[L]A^{[L]}A[L]
深层网络当中不止是初始的特征输入,而到了隐藏层也有输出结果,所以 是否能够对隐层的输入Z[L]Z^{[L]}Z[L]A[L]A^{[L]}A[L]
2.4.2.1 批标准化公式
所以假设对于上图第二个四个神经元隐层。记做Z[l]Z^{[l]}Z[l]z[i][l]z^{[l]}_{[i]}z[i][l]lll
μ=1m∑iz(i)\mu = \frac{1}{m} \sum_i z^{(i)}μ=m1∑iz(i)
σ2=1m∑i(zi−μ)2\sigma^2 = \frac{1}{m} \sum_i {(z_i - \mu)}^2σ2=m1∑i(zi−μ)2
znorm(i)=z(i)−μσ2+ϵz_{norm}^{(i)} = \frac{z^{(i)} - \mu}{\sqrt{\sigma^2 + \epsilon}}znorm(i)=√σ2+ϵz(i)−μ
其中ϵ\epsilonϵ10−810^{-8}10−8z[i][l]z^{[l]}_{[i]}z[i][l]
z~(i)=γznorm(i)+β\tilde z^{(i)} = \gamma z^{(i)}_{norm}