持续创作,加速成长!这是我参与「掘金日新计划 · 10 月更文挑战」的第7天,点击查看活动详情
解决过拟合问题有三种思路:加数据、正则化、降维,降维的思路来自于维度灾难
已知一个正方形边长为2R,则面积为22R2,对应最大内接圆的面积为π⋅R2;一个正方体边长为2R,则体积为23R3,对应最大内接球的体积为34π⋅R3。因此,对于更高维度D,对应超正方体,我们可以认为它的体积为2DRD,超球体它的体积为C⋅RD,就有
D→+∞lim2DRDC⋅RD=0
其中C为常数
也就是,在高维空间中的数据点大多分布在立方体的边缘,数据集更加稀疏
我们也可以计算一个D(D→∞)维空间,半径为1的超球体的体积,以及该超球体与半径为1−ϵ(0<ϵ<1)的超球体间球壳的体积之差,发现二者体积都为1,也就是在球壳内部是几乎没有体积的,这也能说明在高维空间中的数据点大多分布在立方体的边缘,数据集更加稀疏
降维⎩⎨⎧直接降维:特征选择线性降维:PCA,MDS非线性降维:流形{IsomapLLE
虽然白班推导里没有,但大概根据自己的理解写了一下决策树的笔记
关于k近邻法(KNN),这个我有一点没太看明白,可能需要看一下源码,晚一点再发笔记,这里只能先撂下了
下周应该会发关于sklearn使用的一点笔记,主要是关于决策树的,最近把决策树看完了
这里有个关于决策树的疑问,关于决策树CART算法剪枝,Breiman等人证明:可以用递归的方法对树进行剪枝,将α从小到大排列,0=α0<α1<⋯<αn<+∞,产生一系列的区间,剪枝得到的子树序列对应着区间α∈[αi,αi+1),i=0,1,...,n的最优子树序列{T0,T1,T2,...,Tn},序列中的子树是嵌套的(即T1是T0的子树、T2是T1的子树)根据这个原理,是否我们只需要计算每一个枝条最下面的叶结点的α,然后对比,谁小剪谁