稀土掘金 稀土掘金
    • 首页
    • 沸点
    • 课程
    • 数据标注 HOT
    • AI Coding
    • 更多
      • 直播
      • 活动
      • APP
      • 插件
    • 直播
    • 活动
    • APP
    • 插件
      • 搜索历史 清空
        • 写文章
        • 发沸点
        • 写笔记
        • 写代码
        • 草稿箱
        创作灵感 查看更多
Gorway的个人资料头像

Gorway

创作等级LV.1
掘友等级
掘友3级:新星掘友
操作工
Java
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0 沸点 0
赞
0
返回
|
搜索文章
最新 热门
  • Batch 与 Mini-Batch 梯度下降的权衡与选择
    深度学习中,Batch梯度下降使用整个训练集计算梯度,更新稳定但计算成本高;Mini-Batch梯度下降则使用小批量数据,在内存效率和计算速度上更优,是当前主流方法。
    • 23小时前
    • 8
    • 点赞
    • 评论
    算法
  • 输入归一化 (Input Normalization)为何必须使用训练集的μ和σ?
    输入归一化是机器学习数据预处理的关键步骤,通过对特征值进行标准化调整(通常采用均值-标准差方法),使不同量纲的特征具有可比性。其核心价值在于优化梯度下降效率,确保特征贡献均衡。实施时需严格遵循使用训练
    • 3天前
    • 9
    • 点赞
    • 评论
    人工智能
  • 理解Inverted Dropout的每一步
    理解Inverted Dropout的每一步 Dropout是一种强大的神经网络正则化技术。为了真正掌握它,我们必须清晰地追踪数据在网络中每一步的变化,尤其是在加入了Dropout之后。
    • 3天前
    • 9
    • 点赞
    • 评论
    人工智能
  • 个人成就
    文章被阅读 26
    掘力值 30
    关注了
    4
    关注者
    0
    收藏集
    5
    关注标签
    4
    加入于
    2024-03-27