首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
Gorway
掘友等级
操作工
Java
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
Gorway
操作工
·
1月前
关注
简单理解深度学习中的多种归一化方法
本文对比分析了深度学习中四种常用的归一化方法:批归一化(BN)、层归一化(LN)、实例归一化(IN)和组归一化(GN)。BN通过跨样本同通道归一化加速训练,但对批次大小敏感...
0
评论
分享
Gorway
操作工
·
1月前
关注
解析残差网络 (ResNet)
ResNet通过残差学习解决了深度神经网络退化问题。其核心是残差块结构,包含主路径(学习残差F(x))和捷径连接(直接传递输入x),最终输出为H(x)=F(x)+x。...
0
评论
分享
Gorway
操作工
·
1月前
关注
搞懂卷积神经网络(CNN)的核心运算
本文详细解析了卷积神经网络(CNN)的核心运算过程。首先介绍了CNN的关键符号表示,包括层级索引、过滤器尺寸、填充和步幅等超参数。...
0
评论
分享
Gorway
操作工
·
2月前
关注
深入解析批归一化 (Batch Normalization): 稳定并加速深度学习的基石
批归一化(Batch Normalization, BN)通过标准化神经网络中间层输入,有效缓解内部协变量偏移问题,加速模型收敛并提升训练稳定性。...
0
评论
分享
Gorway
操作工
·
2月前
关注
Batch 与 Mini-Batch 梯度下降的权衡与选择
深度学习中,Batch梯度下降使用整个训练集计算梯度,更新稳定但计算成本高;Mini-Batch梯度下降则使用小批量数据,在内存效率和计算速度上更优,是当前主流方法。...
0
评论
分享
Gorway
操作工
·
2月前
关注
输入归一化 (Input Normalization)为何必须使用训练集的μ和σ?
输入归一化是机器学习数据预处理的关键步骤,通过对特征值进行标准化调整(通常采用均值-标准差方法),使不同量纲的特征具有可比性。其核心价值在于优化梯度下降效率,确保特征贡献均...
0
评论
分享
Gorway
操作工
·
2月前
关注
理解Inverted Dropout的每一步
理解Inverted Dropout的每一步 Dropout是一种强大的神经网络正则化技术。为了真正掌握它,我们必须清晰地追踪数据在网络中每一步的变化,尤其是在加入了Dro...
0
评论
分享
Gorway
关注了
吴楷鹏
操作工
Gorway
关注了
杜赛_dusai
操作工
Gorway
关注了
潦草的孜孜
操作工
Gorway
关注了
宫水三叶的刷题日记
操作工
个人成就
文章被阅读
546
掘力值
87
关注了
4
关注者
0
收藏集
5
关注标签
4
加入于
2024-03-27