根据菜菜的课程进行整理,方便记忆理解
代码位置如下:
特征选择 feature_selection
| 特征提取 (feature extraction) | 特征创造 (feature creation) | 特征选择 (feature selection) |
|---|---|---|
| 从文字,图像,声音等其他非结构化数据中提取新信息作为特征。比如说,从淘宝宝贝的名称中提取出产品类别,产品颜色,是否是网红产品等等。 | 把现有特征进行组合,或互相计算,得到新的特征。比如说,我们有一列特征是速度,一列特征是距离,我们就可以通过让两列相处,创造新的特征:通过距离所花的时间。 | 从所有的特征中,选择出有意义,对模型有帮助的特征,以避免必须将所有特征都导入模型去训练的情况。 |
特征工程的第一步是:理解业务
当然了,在真正的数据应用领域,比如金融,医疗,电商,我们的数据不可能像泰坦尼克号数据的特征这样少,这样明显,那如果遇见极端情况,我们无法依赖对业务的理解来选择特征,该怎么办呢?我们有四种方法可以用来选择特征:过滤法,嵌入法,包装法,和降维算法。
# 数据准备
import pandas as pd
data = pd.read_csv("digit recognizor.csv")
data.head()
x = data.iloc[:,1:]
y = data.iloc[:,0]
x.shape # (42000, 784)
Filter过滤法
过滤方法通常用作预处理步骤,特征选择完全独立于任何机器学习算法。它是根据各种统计检验分数以及相关性的各项指标来选择特征。
方差过滤(VarianceThreshold)
这是通过特征本身的方差来筛选特征的类。比如一个特征本身的方差很小,就表示样本在这个特征上基本没有差异,可能特征中的大多数值都一样,甚至整个特征的取值都相同,那这个特征对于样本区分没有什么作用。所以无论接下来的特征工程要做什么,都要优先消除方差为0的特征。VarianceThreshold有重要参数threshold,表示方差的阈值,表示舍弃所有方差小于threshold的特征,不填默认为0,即删除所有的记录都相同的特征。
过滤法的主要对象是:需要遍历特征或升维的算法们,而过滤法的主要目的是:在维持算法表现的前提下,帮助算法们降低计算成本。
from sklearn.feature_selection import VarianceThreshold
vt = VarianceThreshold().fit(x)
x_var0 = vt.transform(x)
x_var0
"""
array([[0, 0, 0, ..., 0, 0, 0],
[0, 0, 0, ..., 0, 0, 0],
[0, 0, 0, ..., 0, 0, 0],
...,
[0, 0, 0, ..., 0, 0, 0],
[0, 0, 0, ..., 0, 0, 0],
[0, 0, 0, ..., 0, 0, 0]], dtype=int64)
"""
# 我们可以看到消除了方差为0的特征之后,我们的特征从784变成了708维
x_var0.shape # (42000, 708)
# 也可以一步完成训练和拟合
VarianceThreshold().fit_transform(x).shape
- 只保留一半的特征
# 只留下一半的特征数量的话,我们可以找到方差的中位数进行过滤
import numpy as np
x_var_median = VarianceThreshold(threshold=np.median(x.var().values)).fit_transform(x)
x_var_median.shape # (42000, 392)
- 特征是二分类时,特征的取值就是伯努利随机变量,这些变量的方差可以计算为:
# 特征是二分类,为1的概率是p,则方差的计算是p(1-p)
# 若特征是伯努利随机变量,假设p=0.8,即二分类特征中某种分类占到80%以上的时候删除特征
x_bvar = VarianceThreshold(.8 * (1 - .8)).fit_transform(x)
x_bvar.shape
方差过滤对模型的影响
- 使用随机森林
# 我们来看进行方差过滤和非方差过滤的数据预测效果对比
from sklearn.ensemble import RandomForestClassifier as RFC
from sklearn.neighbors import KNeighborsClassifier as KNN
from sklearn.model_selection import cross_val_score
import numpy as np
X = data.iloc[:,1:]
y = data.iloc[:,0]
X_fsvar = VarianceThreshold(np.median(X.var().values)).fit_transform(X)
cross_val_score(RFC(n_estimators=10,random_state=0),X,y,cv=5).mean()
# 0.9373571428571429
%%timeit
# python中的魔法命令,可以直接使用%%timeit来计算运行这个cell中的代码所需的时间
# 为了计算所需的时间,需要将这个cell中的代码运行很多次(通常是7次)后求平均值,因此运行%%timeit的时间会远远超过cell中的代码单独运行的时间
cross_val_score(RFC(n_estimators=10,random_state=0),X,y,cv=5).mean()
cross_val_score(RFC(n_estimators=10,random_state=0),X_fsvar,y,cv=5).mean()
# 0.9390476190476191
KNN的实验时间太长,并没有运行,直接使用课程结论:
-
现象
- 随机森林的准确率略逊于KNN,但运行时间却连KNN的1%都不到,只需要十几秒钟。其次,方差过滤后,随机森林的准确率也微弱上升,但运行时间却几乎是没什么变化,依然是11秒钟
- 对于KNN,过滤后的效果十分明显:准确率稍有提升,但平均运行时间减少了10分钟,特征选择过后算法的效率上升了1/3
-
问题
- 为什么随机森林运行如此之快?为什么方差过滤对随机森林没很大的有影响?
-
答案
- 最近邻算法KNN,单棵决策树,支持向量机SVM,神经网络,回归算法,都需要遍历特征或升维来进行运算,所以他们本身的运算量就很大,需要的时间就很长,因此方差过滤这样的特征选择对他们来说就尤为重要。最近邻算法就不同了,特征越少,距离计算的维度就越少,模型明显会随着特征的减少变得轻量
- 对于不需要遍历特征的算法,比如随机森林,它随机选取特征进行分枝,本身运算就非常快速,因此特征选择对它来说效果平平,无论过滤法如何降低特征的数量,随机森林也只会选取固定数量的特征 来建模
-
结论
- 过滤法的主要对象是:需要遍历特征或升维的算法们
- 过滤法的主要目的是:在维持算法表现的前提下,帮助算法们降低计算成本
思考:过滤法对随机森林无效,却对树模型有效?
从算法原理上来说,传统决策树需要遍历所有特征,计算不纯度后进行分枝,而随机森林却是随机选择特征进行计算和分枝,因此随机森林的运算更快,过滤法对随机森林无用,对决策树却有用
在sklearn中,决策树和随机森林都是随机选择特征进行分枝(不记得的小伙伴可以去复习第一章:决策树,参数random_state),但决策树在建模过程中随机抽取的特征数目却远远超过随机森林当中每棵树随机抽取的特征数目(比如说对于这个780维的数据,随机森林每棵树只会抽取10 ~ 20个特征,而决策树可能会抽取300 ~ 400个特征),因此,过滤法对随机森林无用,却对决策树有用
也因此,在sklearn中,随机森林中的每棵树都比单独的一棵决策树简单得多,高维数据下的随机森林的计算比决策树快很多。
对受影响的算法来说,我们可以将方差过滤的影响总结
| 阈值很小 被过滤掉得特征比较少 | 阈值比较大 被过滤掉的特征有很多 | |
|---|---|---|
| 模型表现 | 不会有太大影响 | 可能变更好,代表被滤掉的特征大部分是噪音 也可能变糟糕,代表被滤掉的特征中很多都是有效特征 |
| 运行时间 | 可能降低模型的运行时间 基于方差很小的特征有多少 当方差很小的特征不多时 对模型没有太大影响 | 一定能够降低模型的运行时间 算法在遍历特征时的计算越复杂,运行时间下降得越多 |
我们可以观察到,无论是KNN还是随机森林,在过滤掉一半特征之后,模型的精确度都上升了。这说明被我们过滤掉的特征在当前随机模式(random_state = 0)下大部分是噪音。那我们就可以保留这个去掉了一半特征的数据,来为之后的特征选择做准备。当然,如果过滤之后模型的效果反而变差了,我们就可以认为,被我们过滤掉的特征中有很多都有有效特征,那我们就放弃过滤,使用其他手段来进行特征选择
选取超参数threshold
只会使用阈值为0或者阈值很小的方差过滤,来为我们优先消除一些明显用不到的特征,然后我们会选择更优的特征选择方法继续削减特征数量
相关性过滤
希望选出与标签相关且有意义的特征,因为这样的特征能够为我们提供大量信息
卡方过滤
- 卡方过滤是专门针对离散型标签(即分类问题)的相关性过滤。卡方检验类feature_selection.chi2计算每个非负特征和标签之间的卡方统计量,并依照卡方统计量由高到低为特征排名。再结合feature_selection.SelectKBest这个可以输入”评分标准“来选出前K个分数最高的特征的类
- 如果卡方检验检测到某个特征中所有的值都相同,会提示我们使用方差先进行方差过滤
from sklearn.feature_selection import chi2
from sklearn.feature_selection import SelectKBest
# 使用卡方检验结合SelectKBest选出指定数量的特征
x_chi = SelectKBest(chi2,k=300).fit_transform(X_fsvar,y)
cross_val_score(RFC(n_estimators=10,random_state=0),x_chi,y,cv=5).mean() # 0.9344761904761905
- 选取超参数K
# 选取k的学习曲线
%matplotlib inline
import matplotlib.pyplot as plt
score = []
for i in range(390,200,-10):
X_fschi = SelectKBest(chi2, k=i).fit_transform(X_fsvar, y)
once = cross_val_score(RFC(n_estimators=10,random_state=0),X_fschi,y,cv=5).mean()
score.append(once)
plt.plot(range(390,200,-10),score)
plt.show()
随着K值的不断增加,模型的表现不断上升,这说明,K越大越好,数据中所有的特征都是与标签相关的。但是运行这条曲线的时间同样也是非常地长,更换更加高效的K的数值的选取
- 获取各个特征对应的卡方值和P值
卡方检验的本质是推测两组数据之间的差异,其检验的原假设是”两组数据是相互独立的”。
卡方检验返回
卡方值和P值两个统计量,其中卡方值很难界定有效的范围,而p值,我们一般使用0.01或0.05作为显著性水平,即p值判断的边界
P值 <=0.05或0.01 >0.05或0.01 数据差异 差异不是自然形成的 这些差异是很自然的样本误差 相关性 两组数据是相关的 两组数据是相互独立的 原假设 拒绝原假设 接受备择假设接受原假设 从特征工程的角度,我们希望选取卡方值很大,p值小于0.05的特征,即和标签是相关联的特征。而调用SelectKBest之前,我们可以直接从chi2实例化后的模型中获得各个特征所对应的卡方值和P值。
# 我们可以直接从chi2实例化后的模型中获得各个特征所对应的卡方值和P值
chivalue, pvalues_chi = chi2(X_fsvar,y)
# 只展示部分数据
# 卡方的值
chivalue
"""
array([ 945664.84392643, 1244766.05139164, 1554872.30384525,
1834161.78305343, 1903618.94085294, 1845226.62427198,
1602117.23307537, 708535.17489837, 974050.20513718,
1188092.19961931, 1319151.43467036, 1397847.8836796 ,
1433554.26798015, 1429043.15373433, 1332663.17213405,
1101423.25372261, 809989.56940485, 519266.71772284,
285681.88297156, 191589.23696468, 902883.1255264 ,
1237265.16042373, 1503477.73699155, 1625807.41495542])
"""
# p值 实际上就是我们所说的置信区间
pvalues_chi
"""
array([0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0.])
所有特征的p值都是0,这说明对于digit recognizor这个数据集来说,方差验证已经把所有和标签无关的特征都剔除了,或者这个数据集本身就不含与标签无关的特征
舍弃任何一个特征,都会舍弃对模型有用的信息,而使模型表现下降
"""
- 消除所有p值大于设定值
#k取多少?我们想要消除所有p值大于设定值,比如0.05或0.01的特征:
k = chivalue.shape[0] - (pvalues_chi > 0.05).sum()
#X_fschi = SelectKBest(chi2, k=填写具体的k).fit_transform(X_fsvar, y)
#cross_val_score(RFC(n_estimators=10,random_state=0),X_fschi,y,cv=5).mean()
k
# 392
F检验
- F检验,又称ANOVA,方差齐性检验,是用来捕捉每个特征与标签之间的线性关系的过滤方法
- 它即可以做回归也可以做分类,因此包含feature_selection.f_classif(F检验分类)和feature_selection.f_regression(F检验回归)两个类。
- 和卡方检验一样,这两个类需要和类SelectKBest连用
- F检验在数据服从正态分布时效果会非常稳定,因此如果使用F检验过滤,我们会先将数据转换成服从正态分布的方式
- F检验的本质是寻找两组数据之间的线性关系,其原假设是”数据不存在显著的线性关系“
- 返回F值和p值两个统计量。和卡方过滤一样,我们希望选取p值小于0.05或0.01的特征,这些特征与标签时显著线性相关的,而p值大于0.05或0.01的特征则被我们认为是和标签没有显著线性关系的特征,应该被删除.
from sklearn.feature_selection import f_classif
F, pvalues_f = f_classif(X_fsvar,y)
F
"""
array([ 618.65383492, 846.18897012, 1115.40617051, 1362.3677305 ,
1452.03355369, 1381.09095571, 1138.26505266, 464.29616121,
660.00977785, 849.66393412, 1004.7450309 , 1124.76177588,
1200.99190762, 1209.29489877, 1110.4944286 , 854.66183292])
"""
pvalues_f
"""
array([0.00000000e+000, 0.00000000e+000, 0.00000000e+000, 0.00000000e+000,
0.00000000e+000, 0.00000000e+000, 0.00000000e+000, 0.00000000e+000,
0.00000000e+000, 0.00000000e+000, 0.00000000e+000, 0.00000000e+000,
0.00000000e+000, 0.00000000e+000, 0.00000000e+000, 0.00000000e+000,
0.00000000e+000, 0.00000000e+000, 0.00000000e+000, 4.71193533e-220])
"""
- 消除所有p值大于设定值
k = F.shape[0] - (pvalues_f > 0.05).sum()
#X_fsF = SelectKBest(f_classif, k=填写具体的k).fit_transform(X_fsvar, y)
#cross_val_score(RFC(n_estimators=10,random_state=0),X_fsF,y,cv=5).mean()
k
# 392
结论:没有任何特征的p值大于0.01,所有的特征都是和标签相关的,因此我们不需要相关性过滤。
互信息法
- 互信息法是用来捕捉每个特征与标签之间的任意关系(包括线性和非线性关系)的过滤方法。和F检验相似,它既可以做回归也可以做分类,并且包含两个类feature_selection.mutual_info_classif(互信息分类)和feature_selection.mutual_info_regression(互信息回归)。这两个类的用法和参数都和F检验一模一样,不过互信息法比F检验更加强大,F检验只能够找出线性关系,而互信息法可以找出任意关系。
- 互信息法不返回p值或F值类似的统计量,它返回“每个特征与目标之间的互信息量的估计”,这个估计量在[0,1]之间取值,为0则表示两个变量独立,为1则表示两个变量完全相关
先使用方差过滤,然后使用互信息法来捕捉相关性
from sklearn.feature_selection import mutual_info_classif as MIC
result = MIC(X_fsvar,y)
k = result.shape[0] - sum(result <= 0)
#X_fsmic = SelectKBest(MIC, k=填写具体的k).fit_transform(X_fsvar, y)
#cross_val_score(RFC(n_estimators=10,random_state=0),X_fsmic,y,cv=5).mean()
k
# 392
result
"""
array([0.06856281, 0.08537288, 0.10136025, 0.11894704, 0.11814078,
0.10706415, 0.08048326, 0.05988725, 0.07155435, 0.09834998,
0.12184202, 0.13838346, 0.15802973, 0.16587182, 0.15797782,
0.12580089, 0.0930487 , 0.06306778, 0.03866032, 0.02573745,
0.07509492, 0.09736124, 0.12767976, 0.15726768, 0.17412172,
0.20325424, 0.22726651, 0.23224523, 0.21545092, 0.17617995,
0.13794031, 0.09759047, 0.07643197, 0.05726743, 0.0446435])
"""
结论:所有特征的互信息量估计都大于0,因此所有特征都与标签相关
总结
先使用方差过滤,然后使用互信息法来捕捉相关性
| 类 | 说明 | 超参数的选择 |
|---|---|---|
| VarianceThreshold | 方差过滤,可输入方差阈值,返回方差大于 阈值的新特征矩阵 | 看具体数据究竟是含有更多噪 声还是更多有效特征 一般就使用0或1来筛选 也可以画学习曲线或取中位数 跑模型来帮助确认 |
| SelectKBest | 用来选取K个统计量结果最佳的特征,生成 符合统计量要求的新特征矩阵 | 看配合使用的统计量 |
| chi2 | 卡方检验,专用于分类算法,捕捉相关性 | 追求p小于显著性水平的特征 |
| f_classif | F检验分类,只能捕捉线性相关性 要求数据服从正态分布 | 追求p小于显著性水平的特征 |
| f_regression | F检验回归,只能捕捉线性相关性 要求数据服从正态分布 | 追求p小于显著性水平的特征 |
| mutual_info_classif | 互信息分类,可以捕捉任何相关性 不能用于稀疏矩阵 | 追求互信息估计大于0的特征 |
| mutual_info_regression | 互信息回归,可以捕捉任何相关性 不能用于稀疏矩阵 | 追求互信息估计大于0的特征 |