首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
SuperFeng67602
掘友等级
学生
机器学习爱好者
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
10
文章 10
沸点 0
赞
10
返回
|
搜索文章
最新
热门
吴恩达机器学习系列6:正规方程
求一个函数的参数,例如下面这个方程,我们一般都会用梯度下降法去求。 Equation)去求参数。 那么问题来了,什么是正规方程呢?这个方程长什么样子,就让我们来见识一下。 其中 X 是一个矩阵,这个矩阵的每一行都是一组特征值,y 是数据集结果的向量。 就代表常数项。在这个例子中…
吴恩达机器学习系列5:特征缩放
首先我们应该了解一下多元线性回归。相比于单变量线性回归,该函数拥有多个变量值,那么他所拥有的参数就不仅仅是一个或者两个,而是多个。 如果你想预测房价,现在有两个变量 x1 和 x2 来控制房子的价格。 x1 为房子的大小,范围在 0 到 2000,x2 为房子中卧室的数目,范围…
吴恩达机器学习系列4:线性回归的梯度下降算法
之前我们已经学过了线性回归、代价函数和梯度下降,但是他们就像一个人的胳膊和腿,只有组合在一起才会成为一个「完整的人」,这个「完整的人」就是一个机器学习算法,让我们一起来学习第一个机器学习算法吧。 这个算法也叫做「Batch」梯度下降(「Batch」 Gradient Desce…
吴恩达机器学习系列3:梯度下降
梯度下降(Gradient descent)是一个用来求代价函数最小值的算法。梯度下降算法的思想就是首先从一组参数值(θ0, θ1)开始,不断地去尝试各种(θ0, θ1),直到使得代价函数 J(θ0, θ1) 最小为止。以下图代价函数为例,从不同起始点开始,到达的局部最优位置不…
吴恩达机器学习系列2:代价函数
现在我有一些数据集,就像左图中的叉。 其中 θ0 和 θ1 都是未知量。现在关键就是如何求 θ0 和 θ1 这两个参数。θ0 和 θ1 可以取任意值,怎么取值才能让这条直线最佳地拟合这些数据呢?这就是代价函数登场的时刻了。 这就是一次函数的代价函数 J(θ0, θ1)。看到这个…
吴恩达机器学习系列1:监督学习和无监督学习
欢迎大家跟我一起步入机器学习之路。在学习之前,我们首先是不是应该知道什么是机器学习呢? P, improves with experience E. 我一猜你们就跳过英文直接往下读了,那我为什么还要把这段英文写上去呢?因为感觉这段英文定义特别有趣,你读出来就像一段绕口令似的。我…
个人成就
文章被点赞
45
文章被阅读
20,651
掘力值
663
关注了
7
关注者
49
收藏集
0
关注标签
3
加入于
2019-02-02