首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
深度学习
Gorway
创建于2026-02-10
订阅专栏
深度学习相关
暂无订阅
共6篇文章
创建于2026-02-10
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
简单理解深度学习中的多种归一化方法
本文对比分析了深度学习中四种常用的归一化方法:批归一化(BN)、层归一化(LN)、实例归一化(IN)和组归一化(GN)。BN通过跨样本同通道归一化加速训练,但对批次大小敏感;LN在单个样本内对所有通道
解析残差网络 (ResNet)
ResNet通过残差学习解决了深度神经网络退化问题。其核心是残差块结构,包含主路径(学习残差F(x))和捷径连接(直接传递输入x),最终输出为H(x)=F(x)+x。
搞懂卷积神经网络(CNN)的核心运算
本文详细解析了卷积神经网络(CNN)的核心运算过程。首先介绍了CNN的关键符号表示,包括层级索引、过滤器尺寸、填充和步幅等超参数。
深入解析批归一化 (Batch Normalization): 稳定并加速深度学习的基石
批归一化(Batch Normalization, BN)通过标准化神经网络中间层输入,有效缓解内部协变量偏移问题,加速模型收敛并提升训练稳定性。
Batch 与 Mini-Batch 梯度下降的权衡与选择
深度学习中,Batch梯度下降使用整个训练集计算梯度,更新稳定但计算成本高;Mini-Batch梯度下降则使用小批量数据,在内存效率和计算速度上更优,是当前主流方法。
输入归一化 (Input Normalization)为何必须使用训练集的μ和σ?
输入归一化是机器学习数据预处理的关键步骤,通过对特征值进行标准化调整(通常采用均值-标准差方法),使不同量纲的特征具有可比性。其核心价值在于优化梯度下降效率,确保特征贡献均衡。实施时需严格遵循使用训练