机器学习-支持向量机

115 阅读8分钟

支持向量机(Support Vector Machine,SVM)是一种强大的机器学习算法,主要用于分类和回归问题。

一、基本原理

1. 最大间隔分类:SVM 的核心思想是寻找一个能够将不同类别数据点分隔开的超平面,使得该超平面与最近的数据点之间的距离(称为间隔)最大。这些距离最近的数据点被称为支持向量。

2. 核技巧:对于线性不可分的数据,SVM 引入核函数,将数据映射到高维空间,使其在高维空间中变得线性可分。常见的核函数有线性核、多项式核、径向基函数(RBF)核等。

二、对偶问题

在支持向量机及很多优化问题中,对偶问题是一个重要的概念。

a.定义

对偶问题是通过对原始优化问题进行特定的数学变换得到的另一个优化问题。对于支持向量机,原始问题是求解一个带约束条件的优化问题,通过引入拉格朗日乘子,构建拉格朗日函数,再对拉格朗日函数关于原始变量求极小,关于拉格朗日乘子求极大,得到对偶问题。

b.优点

1. 计算方便:在某些情况下,对偶问题比原始问题更容易求解。例如,对于支持向量机,对偶问题的求解通常可以转化为一个二次规划问题,而有很多成熟的算法可以高效地求解二次规划问题。

2. 提供关于问题的更多信息:对偶问题的解可以给出原始问题解的一些性质和约束条件的松弛程度等信息。

3. 核函数的使用更方便:在对偶形式下,可以很容易地引入核函数,将数据映射到高维空间,从而处理非线性分类问题。

c.求解过程

1. 构建拉格朗日函数:对于原始的支持向量机问题,根据约束条件构建拉格朗日函数。

2. 求关于原始变量的极小:对拉格朗日函数分别关于原始变量(如支持向量机中的权重向量和偏置)求极小。

3. 求关于拉格朗日乘子的极大:将关于原始变量求极小后的结果作为新的函数,再关于拉格朗日乘子求极大,得到对偶问题。

4. 求解对偶问题:使用合适的算法(如序列最小优化算法)求解对偶问题,得到拉格朗日乘子的值。

5. 根据拉格朗日乘子的值确定原始问题的解:通过拉格朗日乘子的值以及支持向量,确定支持向量机的决策函数。

三、核函数

在支持向量机中,核函数起着至关重要的作用。

a.定义

核函数是一种将低维空间中的数据映射到高维空间的函数,它通过计算两个数据点在高维空间中的内积来实现,而无需显式地进行高维空间的映射计算。

b.作用

1. 处理非线性问题:当数据在原始低维空间中线性不可分时,通过核函数将数据映射到高维空间,可能使数据在高维空间中变得线性可分,从而可以使用支持向量机进行有效的分类或回归。

2. 降低计算复杂度:如果直接在高维空间中进行计算,会面临维度灾难和巨大的计算量。而核函数只需要在低维空间中计算两个数据点的函数值,就可以得到它们在高维空间中的内积,大大降低了计算复杂度。

c.常见的核函数类型

1. 线性核函数:

  • 这是最简单的核函数,当数据本身接近线性可分时可以使用。计算速度快,但对于复杂的非线性数据效果有限。

2. 多项式核函数:

  • 可以捕捉数据中的非线性关系,通过调整参数可以控制多项式的次数和复杂度。

3. 径向基函数(RBF)核函数,也称为高斯核函数:

  • 具有很强的非线性映射能力,对各种类型的数据都有较好的适应性。

四、软间隔与正则化

在支持向量机中,软间隔和正则化是两个重要的概念。

a.软间隔

1. 定义:在标准的支持向量机中,要求数据完全线性可分,即存在一个超平面能够将不同类别的数据点完全正确地分开,且间隔最大化。然而在实际应用中,数据往往存在噪声或异常点,很难满足完全线性可分的条件。软间隔就是为了解决这个问题而引入的概念,它允许一些数据点被错误分类或者位于间隔区域内,从而使支持向量机在处理带有噪声或异常点的数据时更加鲁棒。

2. 实现方式:通过在优化目标函数中加入一个松弛变量(通常用 表示)来实现软间隔。对于线性支持向量机。

3. 作用:软间隔使得支持向量机能够适应现实中不完美的数据,提高模型的泛化能力。

b.正则化

1. 定义:正则化是一种防止过拟合的技术。在支持向量机中,正则化通过对模型的复杂度进行惩罚来实现。其基本思想是在优化目标函数中加入一个正则项,使得模型在拟合数据的同时,尽量保持简单,避免过度复杂而导致过拟合。

2. 实现方式:对于支持向量机,正则化通常是通过控制权重向量 的范数来实现的。例如,在线性支持向量机中,目标函数中的  就是一种正则化项。惩罚参数 在软间隔中也起到了正则化的作用,较大的 值会使模型对错误分类的惩罚更严厉,从而导致模型更倾向于拟合训练数据,但可能会降低泛化能力;较小的 值则会使模型更加容忍错误分类,更加注重模型的简单性和泛化能力。

3. 作用:正则化可以有效地防止支持向量机过拟合,提高模型在未知数据上的预测性能。它通过限制模型的复杂度,使得模型更加稳定,不容易受到噪声和异常点的影响。

五、支持向量回归

支持向量回归(Support Vector Regression,SVR)是支持向量机在回归问题上的应用。

a.基本原理

1. 核心思想:SVR 的目标是找到一个函数,使得输入数据点与该函数的预测值之间的误差尽可能小。与传统的回归方法不同,SVR 不是试图最小化所有数据点的误差之和,而是通过寻找一个能够容忍一定误差的回归函数,同时使得支持向量到该函数的距离最小。

2. 引入松弛变量:类似于支持向量机在分类问题中的软间隔,SVR 也引入松弛变量 和 来允许一定程度的误差。

b.优点

1. 泛化能力强:通过控制误差容忍度和惩罚参数,SVR 能够在训练数据上进行合理的拟合,同时在未知数据上具有较好的预测能力,有效避免过拟合。

2. 适用于高维数据:与支持向量机分类一样,SVR 可以借助核函数将数据映射到高维空间,从而处理高维数据中的回归问题。

3. 对异常值不敏感:由于允许一定程度的误差,SVR 对数据中的异常值具有一定的抵抗能力。

c.缺点

1. 计算复杂度较高:特别是在处理大规模数据集时,训练时间较长。

2. 参数选择困难:惩罚参数 、不敏感损失参数 以及核函数的参数都需要进行调整,以获得较好的性能,这需要一定的经验和大量的实验。

d.应用场景

1. 金融时间序列预测:如股票价格预测、汇率预测等。

2. 工程领域的参数预测:如机械性能预测、电路参数预测等。

3. 生物信息学中的基因表达数据回归分析等。

六、支持向量机优点

1. 泛化能力强:通过最大化间隔,SVM 能够在训练数据较少的情况下也具有较好的泛化能力,降低过拟合的风险。

2. 适用于高维数据:借助核技巧,SVM 可以有效地处理高维数据,而不会受到“维数灾难”的影响。

3. 鲁棒性好:对异常值和噪声具有一定的抵抗能力。

七、支持向量机缺点

1. 计算复杂度高:特别是在处理大规模数据集时,训练时间较长。

2. 参数选择困难:核函数的选择以及相关参数的调整对 SVM 的性能有很大影响,需要进行大量的实验和调参。

八、支持向量机应用场景

1. 图像分类:可以区分不同类别的图像,如识别数字、物体等。

2. 生物信息学:用于蛋白质分类、基因表达数据分析等。

3. 文本分类:对文档进行分类,如新闻分类、邮件分类等。