首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
鸭鸭世界第一可爱
掘友等级
java
|
ξ†(ᗜ ˰ ᗜ)†ξ
干java死路一条
获得徽章 15
动态
文章
专栏
沸点
收藏集
关注
作品
赞
572
文章 151
沸点 421
赞
572
返回
|
搜索文章
赞
文章( 151 )
沸点( 421 )
梯度下降
这是我参与8月更文挑战的第12天,活动详情查看:8月更文挑战 前边的代价函数就是使用梯度下降而得到其最小值的。梯度下降当然也可以用于其他的代价函数J。 梯度下降是什么? 对于一个代价函数$J(\the
多元梯度下降 | Linear regression with multiple variables
这是我参与8月更文挑战的第14天,活动详情查看:8月更文挑战 Practice 1 feature scalling 特征缩放 Idea:Make sure features are on a sim
Octave简明教程
这是我参与8月更文挑战的第15天,活动详情查看:8月更文挑战 高人工智能最简单入手的是octave,用它写出来之后再转用python、c++会更方便。 简介 GNU Octave is a high-
深度学习公式 向量化
这是我参与8月更文挑战的第18天,活动详情查看:8月更文挑战 Σ( ° △ °|||)︴开局先来说几句废话。作为一个生物学的学生(当年所有专业选的都是计算机,结果被迫学生物了),无奈只好自学。我是用C
深度学习 正规方程
这是我参与8月更文挑战的第19天,活动详情查看:8月更文挑战 这个正规方程是放在多元线性回归里边讲的。之前线性回归我们讲的是梯度下降,循环执行一个公式逐步下降,而正规方程与之相反,是直接对θ求最优解。
逻辑回归 | Logistic Regression
这是我参与8月更文挑战的第20天,活动详情查看:8月更文挑战 Logistic Regression 跟线性回归不同,在这里要预测的y是离散值。 用到的 Logistic Regression 算法是
深度学习 正则化原理
这是我参与8月更文挑战的第22天,活动详情查看:8月更文挑战 在某些回归问题中会遇到过度拟合的问题而导致他们的表现欠佳。 什么是过度拟合? 对于线性回归中的房价问题,我们给出一个数据集: 如果对其进行
深度学习 正则化应用
这是我参与8月更文挑战的第24天,活动详情查看:8月更文挑战 线性回归的正则化 对于线性回归我们之前讨论过两种算法: 梯度下降 正规方程 Regularized linear regression $
神经网络
这是我参与8月更文挑战的第31天,活动详情查看:8月更文挑战 神经网络的表示 都有线性回归和逻辑回归了为什么还要学神经网络呢? 现在举几个例子。 这是一个监督学习的分类问题。 如果你使用逻辑回归,那你
下一页
个人成就
文章被点赞
157
文章被阅读
12,505
掘力值
561
关注了
173
关注者
545
收藏集
28
关注标签
26
加入于
2019-10-09