首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
人工智能
订阅
流年星光43127
更多收藏集
微信扫码分享
微信
新浪微博
QQ
5篇文章 · 0订阅
手把手实现Pytroch的自动微分
【自动微分实现】反向OO实现自动微分(Pytroch核心机制) 写【自动微分】原理和实现系列文章,存粹是为了梳理在 MindSpore 当SE时候最核心的自动微分原理。网上看了很多文章,基本上都是很零
工科学生都能看懂的梯度下降和反向传播!
工科学生都能看懂的梯度下降和反向传播!要想训练一个网络,对于梯度的理解是必不可少的,下面首先介绍梯度的一些基础概念。
吴恩达机器学习:神经网络 | 反向传播算法
炼丹学习记录,Coursera 吴恩达机器学习课程第四周,课程作业使用 Python 实现。
神经网络学习笔记——反向传播
这是我参与11月更文挑战的第7天 反向传播 backpropagation —— 一种快速计算代价函数梯度的算法 使⽤矩阵快速计算输出 为了解释问题,首先给出神经网络中权重的清晰定义,如下图所示: 同
TensorFlowOnSpark 源码解析
这两天琢磨了下spark-deep-learning和spark-sklearn两个项目,但是感觉都不尽人如意。在training时,都需要把数据broadcast到各个节点进行并行训练,基本就失去实用价值了(tranning数据都会大于单节点内存的好么),而且spark-de…