首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
RAIS
掘友等级
https://ai.renyuzhuo.cn
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
65
文章 65
沸点 0
赞
65
返回
|
搜索文章
赞
文章( 65 )
沸点( 0 )
LSTM - 长短期记忆网络
人们不是每一秒都从头开始思考,就像你阅读本文时,不会从头去重新学习一个文字,人类的思维是有持续性的。传统的卷积神经网络没有记忆,不能解决这一个问题,循环神经网络(Recurrent Neural Networks)可以解决这一个问题,在循环神经网络中,通过循环可以解决没有记忆的…
三种梯度下降算法的区别(BGD, SGD, MBGD)
梯度下降算法一般用来最小化损失函数:把原始的数据网络喂给网络,网络会进行一定的计算,会求得一个损失函数,代表着网络的计算结果与实际的差距,梯度下降算法用来调整参数,使得训练出的结果与实际更好的拟合,这是梯度下降的含义。 批量梯度下降是梯度下降最原始的形式,它的思想是使用所有的训…
数据降维:主成分分析法
什么叫做主成分分析法,我们先看一张图椭圆的图,如果让你找一条线,使得椭圆上所有点在该线上映射的点最分散,保留下来的信息最多,你会怎么选择这条线?若是下图,会选择水平线,这是用一维的方式去尽可能多的表示二维的数据,那么多维的数据呢,是否可以用较低维的数据尽可能表示。 主成分分析法…
深度前馈网络
本文首发自公众号:RAIS,点击直接关注。 本系列文章为《Deep Learning》读书笔记,可以参看原书一起阅读,效果更佳。从本文开始将继续学习本书的第二部分,将从第一部分介绍深度学习所需要的基础知识过渡到构建深度网络,是理论的应用与提高。 也叫 多层感知机 或者是 前馈神…
Sigmoid 函数
Sigmoid 函数(Logistic 函数)是神经网络中非常常用的激活函数,我们今天来深入了解一下 Sigmoid 函数。 函数值 S(x) 的值域为 (0, 1),常用于二分类问题,函数平滑,易于求导。但是作为激活函数,其计算量大,反向传播求误差梯度时,求导有除法,容易出现…
估计、偏差和方差
本系列文章为 《Deep Learning》 读书笔记,可以参看原书一起阅读,效果更佳。 统计的目的是为了推断,大量的统计是为了更好的推断,这就是一种估计,一种根据现有信息对可能性的一种猜测。 点估计:点估计指的是用样本数据估计总体的参数,估计的结果是一个点的数值,因此叫做点估…
无监督学习算法
本文首发自公众号:RAIS,点击直接关注。 本系列文章为 《Deep Learning》 读书笔记,可以参看原书一起阅读,效果更佳。 就是无监督的一种学习方法,太抽象,有一种定义(这种定义其实不够准确,无监督和监督之间界限模糊)是说如果训练集有标签的就是有监督学习,无标签的就是…
随机梯度下降
本文首发自公众号:RAIS,点击直接关注。 本系列文章为 《Deep Learning》 读书笔记,可以参看原书一起阅读,效果更佳。 在机器学习或深度学习中,模型的训练在一般都会被转换为求使得目标函数函数值最小的参数组合的优化问题,简而言之就是优化参数,梯度下降法是优化参数的一…
构建机器学习算法
本文首发自公众号:RAIS,点击直接关注。 本系列文章为《Deep Learning》读书笔记,可以参看原书一起阅读,效果更佳。我们前面也介绍了一些构建机器学习或深度学习的一些内容,理解了其中部分原理和这么做的原因,接下来我们总结一下,跳出来从更高一点的方面去概括的看一看,也许…
监督学习算法
本文首发自公众号:RAIS,点击直接关注。 本系列文章为 《Deep Learning》 读书笔记,可以参看原书一起阅读,效果更佳。由于各平台 Markdown 解析差异,有些公式显示效果不好,请到我 个人维护网站 查看。 监督学习算法的定义是,给定一组输入 x 和输出 y,学…
下一页
个人成就
文章被点赞
106
文章被阅读
38,997
掘力值
1,153
关注了
600
关注者
1,795
收藏集
0
关注标签
22
加入于
2016-11-23