# 分类,聚类及其回归的区别

306 阅读4分钟

分类,聚类及其回归的区别

蜘蛛侠不会飞 2018-05-06 19:38:06  12148  收藏 37

分类专栏: DataMining Python数据分析与数据挖掘 文章标签: 分类 聚类 回归 数据挖掘

版权

from:blog.csdn.net/u011630575/…

以前偶然找到过下图,该图对分类,聚类及其回归表达的很清晰。

这里写图片描述

由上图我们可以看到,机器学习分为四大块,分别是

** classification (分类),**

** regression (回归), **

** clustering (聚类), **

** dimensionality reduction (降维)。**

1,给定一个样本特征 , 我们希望预测其对应的属性值 , 如果 **** 是离散的, 那么这就是一个分类问题,反之,如果 **** 是连续的实数, 这就是一个回归问题**。**

2,如果给定一组样本特征, 我们没有对应的属性值 , 而是想发掘这组样本在 二****维空间的分布, 比如分析哪些样本靠的更近,哪些样本之间离得很远, 这就是属于聚类问题。

3,如果我们想用维数更低的子空间来表示原来高维的特征空间, 那么这就是降维问题

  1. 聚类(clustering)

    无监督学习的结果。聚类的结果将产生一组集合,集合中的对象与同集合中的对象彼此相似,与其他集合中的对象相异

    没有标准参考的学生给书本分的类别,表示自己认为这些书可能是同一类别的(具体什么类别不知道,没有标签和目标,即不是判断书的好坏(目标,标签),只能凭借特征而分类)。

  2. 分类(classification)

    有监督学习的两大应用之一,产生离散的结果。

    例如向模型输入人的各种数据的训练样本,产生“输入一个人的数据,判断是否患有癌症”的结果,结果必定是离散的,只有**“是”或“否”。(即有目标和标签,能判断目标特征是属于哪一个类型)**

  3. 回归(regression)

    有监督学习的两大应用之一,产生连续的结果。

    例如向模型输入人的各种数据的训练样本,产生“输入一个人的数据,判断此人20年后今后的经济能力”的结果,结果是连续的,往往得到一条回归曲线。当输入自变量不同时,输出的因变量非离散分布(不仅仅是一条线性直线,多项曲线也是回归曲线)。

classification & regression:分类与回归

       无论是分类还是回归,都是想建立一个预测模型 ,给定一个输入  , 可以得到一个输出 : 

**     不同的只是在分类问题中,  是离散的; 而在回归问题中  是连续的**。所以总得来说,两种问题的学习算法都很类似。所以在这个图谱上,我们看到在分类问题中用到的学习算法,在回归问题中也能使用。分类问题最常用的学习算法包括

** SVM (支持向量机) , SGD (随机梯度下降算法), Bayes (贝叶斯估计), Ensemble, KNN 等。回归问题也能使用 **

SVR, SGD, Ensemble 等算法,以及其它线性回归算法。

clustering:聚类

    **  聚类也是分析样本的属性, 有点类似classification, 不同的就是classification 在预测之前是知道  的范围, 或者说知道到底有几个类别, 而聚类是不知道属性的范围的。所以 classification 也常常被称为 supervised learning(有监督学习)分类和回归都是监督学习**, 而clustering就被称为unsupervised learning(无监督学习)常见的有聚类和关联规则。 
clustering 事先不知道样本的属性范围,只能凭借样本在特征空间的分布来分析样本的属性。这种问题一般更复杂。而常用的算法包括 k-means (K-均值), GMM (高斯混合模型) 等。

dimensionality reduction:降维

      降维是机器学习另一个重要的领域, 降维有很多重要的应用,** 特征的维数过高, 会增加训练的负担与存储空间, 降维就是希望去除特征的冗余, 用更加少的维数来表示特征.**降维算法最基础的就是PCA了, 后面的很多算法都是以PCA为基础演化而来。