首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
深度学习
Gorway
创建于2026-02-10
订阅专栏
深度学习相关
暂无订阅
共3篇文章
创建于2026-02-10
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
深入解析批归一化 (Batch Normalization): 稳定并加速深度学习的基石
批归一化(Batch Normalization, BN)通过标准化神经网络中间层输入,有效缓解内部协变量偏移问题,加速模型收敛并提升训练稳定性。
Batch 与 Mini-Batch 梯度下降的权衡与选择
深度学习中,Batch梯度下降使用整个训练集计算梯度,更新稳定但计算成本高;Mini-Batch梯度下降则使用小批量数据,在内存效率和计算速度上更优,是当前主流方法。
输入归一化 (Input Normalization)为何必须使用训练集的μ和σ?
输入归一化是机器学习数据预处理的关键步骤,通过对特征值进行标准化调整(通常采用均值-标准差方法),使不同量纲的特征具有可比性。其核心价值在于优化梯度下降效率,确保特征贡献均衡。实施时需严格遵循使用训练