首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
两米
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
4
文章 4
沸点 0
赞
4
返回
|
搜索文章
赞
文章( 4 )
沸点( 0 )
诞生即有理---CART(Classification And Regression Tree)
我将CART独立于其他经典决策树算法的原因是CART相对来说较为复杂。因为它不仅仅可以作为分类树,还可以作为回归树。 对于对于CART分类树,这就和我们之前所说的《经典决策树算法》中的ID3与C4.5非常类似,但是与他们不同的是,我们在CART中并不采用信息增益或者是信息增益比…
经典的决策树算法
我们在机器学习中一直会遇到两种问题,一种是回归问题,一种是分类问题。我们从字面上理解,很容易知道分类问题其实是将我们现有的数据分成若干类,然后对于新的数据,我们根据所分得类而进行划分;而回归问题是将现有数据拟合成一条函数,根据所拟合的函数来预测新的数据。 这两者的区别就在于输出…
GBDT(Gradient Boosting Decision Tree)基本原理
GBDT相对于经典的决策树,算是一种比较成熟而且可以实际应用的决策树算法了。我们想要理解GBDT这种决策树,得先从感性上理解这棵树的工作方式。 首先我们要了解到,DBDT是一种回归树(Regression Decision tree)。回归树与分类树的差距请看我的文章《经典的回…
XGBoost基本原理
最基本的差距就在于XGBoost比GBDT多了两项泰勒展开式。具体这个泰勒展开式是怎么得到的,是对于什么展开的呢?我们看: 其中F为所有树组成的函数空间(这里的回归树也就是一个分段函数,不同分段的不同取值就构成了一颗树),与一般机器学习算法不同的是,加法模型不是学习d维空间的权…
关注了
13
关注者
0
收藏集
0
关注标签
11
加入于
2018-05-17