3 Rademacher复杂度和VC维

1,849 阅读35分钟

3    Rademacher复杂度和VC维

机器学习中通常使用的假设集是无限的。但是,在处理无限假设集时,上一章的样本复杂性边界是没有信息的。有人可能会问,当假设集 H\mathcal H 为无穷大时,从有限样本进行有效学习是否可能。我们对轴对齐矩形族(例2.4)的分析表明,至少在某些情况下,这确实是可能的,因为我们证明了无限概念类是可压缩的。我们在本章中的目标是推广这个结果,并得出无限假设集的一般学习保证。
    这样做的总体思路是将无限情况简化为对有限组假设的分析,然后按照上一章的步骤进行。这种简化有不同的技术,每种技术都依赖于一系列假设的不同复杂性概念。我们将使用的第一个复杂性概念是Rademacher复杂性。这将有助于我们使用基于McDiarmid不等式的相对简单的证明来获得学习保证,同时获得高质量的边界,包括我们将在未来章节中经常使用的数据相关边界。然而,对于某些假设集,用有证明了的Rademacher复杂性的估算结果是NP-Hard。因此,我们随后介绍了另外两个纯粹的组合概念,增长函数VC维。我们首先将Rademacher复杂度与增长函数联系起来,然后根据VC维对增长函数进行约束。VC维度通常更容易绑定或估计。我们将回顾一系列示例,展示如何计算或绑定它,然后将增长函数与VC维度联系起来。这将导致基于VC维度的泛化边界。最后,我们给出了两种不同设置下基于VC维度的下限:可实现设置,其中考虑的假设集中至少有一个假设达到零预期误差,以及非可实现设置,其中假设集中没有任何假设达到零预期误差。

3.1    Rademacher复杂度

我们将继续使用 H\mathcal H 来表示前面章节中的假设集。本节的许多结果是普遍的,适用于任意损失函数L:Y×YRL:\mathcal Y × \mathcal Y\to \mathbb R。在下文中, G\mathcal G 通常被解释为与 Z=X×YZ=X×YR\mathbb RH\mathcal H 映射相关的损失函数族:

G={g:(x,y)L(h(x),y):hH}.\mathcal G=\{g:(x,y)\to L(h(x),y):h\in \mathcal H\}.

然而,定义是在函数族 G\mathcal G 从任意输入空间 Z\mathcal Z 映射到 R\mathbb R 的一般情况下给出的。

Rademacher复杂度通过测量假设集与随机噪声的匹配程度来捕获函数族的丰富性。以下陈述了经验和平均Rademacher复杂性的正式定义。

定义 3.1:(Empirical Rademacher complexity)

G\mathcal G 是一个从 Z\mathcal Z 映射到 [ab][a,b] 的函数族, S=z1zm\mathcal S=(z_1,…,z_m) 是一个大小为 m\mathcal m 且元素在 Z\mathcal Z 中的固定样本。然后, G\mathcal G 相对于样本 SS 的经验Rademacher复杂度定义为:

R^S(G)=Eϵ[supgG1mi=1mϵig(zi)],(3.1)\hat {\mathcal R}_S(\mathcal G)=\underset{\epsilon}{\mathbb E}[\underset{g\in \mathcal G}{\sup}\frac{1}{m}\sum^m_{i=1}\epsilon_ig(z_i)], \tag{3.1}

式中,ϵ=(σi,...,σm)T\epsilon=(\sigma_i,...,\sigma_m)^{T},其中 σ\sigma 是取{1,+1}\{−1, +1\}. 随机变量σi\sigma_i称为Rademacher变量。

gSg_S 表示函数g在样本S上取的值向量: gS=gz1),gzmTg_S=(g(z_1),…,g(z_m))^T 。然后,经验的Rademacher复杂性可以改写为

R^S(G)=Eϵ[supgGσgSm].\hat {\mathcal R}_S(\mathcal G)=\underset{\epsilon}{\mathbb E}[\underset{g\in \mathcal G}{\sup}\frac{\sigma g_S}{m}].

内积σgS\sigma·g_S测量 gSg_S 与随机噪声向量 σ\sigma 的相关性。上确界 supgGσgSm\sup_{g\in\mathcal G\frac{\sigma g_S}{m}} 是衡量函数类 G\mathcal G 在样本 S\mathcal S 上与 σ\sigma 相关程度的指标。因此,经验Rademacher复杂度平均衡量函数类 G\mathcal GS\mathcal S 上随机噪声的相关性。这描述了族G\mathcal G的丰富性:更丰富或更复杂的族G\mathcal G可以生成更多的向量gSg_S,从而平均更好地与随机噪声相关。

定义 3.2(Rademacher复杂度)

D\mathcal D表示抽取样本所依据的分布。对于任意整数 m1m\ge 1G\mathcal G的Rademacher复杂度是根据D\mathcal D绘制的尺寸为mm的所有样本的经验Rademacher复杂度的期望值:

Rm(G)=ESDm[R^S(G)](3.2)\mathcal R_m(\mathcal G)=\underset{\mathcal S\sim\mathcal D^m}{\mathbb E}[\hat{\mathcal R}_S(\mathcal G)]\qquad\qquad\qquad(3.2)

现在,我们准备基于Rademacher复杂度给出我们的第一个泛化边界。

定理 3.3

G\mathcal G 是从Z\mathcal Z映射到 [0,1][0,1] 的函数族。然后,对于任何 δ>0\delta>0 ,概率至少为 1δ1−\delta 在尺寸为 mm 的i.i.d.样品S\mathcal S的拉伸上,以下各项均适用于所有 gGg\in\mathcal G :

E[g(z)]1mi=1mg(zi)+2Rm(G)+log1δ2m(3.3)\mathbb E[g(z)]\le\frac{1}{m}\sum^m_{i=1}g(z_i)+2\mathcal R_m(\mathcal G)+\sqrt{\frac{\log\frac{1}{\delta}}{2m}} \qquad\qquad\qquad(3.3)
andE[g(z)]1mi=1mg(zi)+2Rm(G)+3log1δ2m(3.4)and\qquad\mathbb E[g(z)]\le\frac{1}{m}\sum^m_{i=1}g(z_i)+2\mathcal R_m(\mathcal G)+3\sqrt{\frac{\log\frac{1}{\delta}}{2m}}\qquad\qquad\qquad(3.4)

证明:对于任何样品S=z1zmS=(z_1,…,z_m)和任何 gGg\in \mathcal G ,我们用 E^S[g]\hat{\mathbb E}_S[g] 表示覆盖物的经验平均值: E^S[g]=1mi=1mg(zi)\hat{\mathbb E}_S[g]=\frac{1}{m}\sum^m_{i=1}g(z_i) 。证明方法是将McDiarmid不等式应用于任意样本 SS 的函数 Φ\Phi ,其中定义函数为:

Φ(S)=supgG(E[g]E^S[g]).(3.5)\Phi (S)=\underset{g\in\mathcal G}{\sup}(\mathbb E[g]-\hat{\mathbb E}_S[g]).\qquad\qquad\qquad(3.5)

SSSS' 是两个只差一点的样本,设 SS 中的 zmz_mSS' 中的 zmz'_m 。那么,由于上确界的差不超过差的上确界,我们有了

Φ(S)Φ(S)supgG(E^S[g]E^S[g])=supgGg(zm)g(zm)m1m(3.6)\Phi (S')-\Phi (S)\le\sup_{g\in\mathcal G}(\hat{\mathbb E}_S[g]-\hat{\mathbb E}_{S'}[g])=\sup_{g\in\mathcal G}\frac{g(z_m)-g(z'_m)}{m}\le\frac{1}{m}\qquad\qquad\qquad(3.6)

同样,我们可以得到 Φ(S)Φ(S)1m\Phi(S)−\Phi(S')\le\frac{1}{m} ,因此 Φ(S)Φ(S)1m|\Phi(S)−\Phi(S')|\le\frac{1}{m} 。然后,根据McDiarmid不等式,对于任何 δ>0\delta>0 ,概率至少为1δ21−\frac{\delta}{2},以下公式成立:

Φ(S)ES[Φ(S)]+log2δ2m(3.7)\Phi(S)\le\underset{S}{\mathbb E}[\Phi(S)]+\sqrt{\frac{\log\frac{2}{\delta}}{2m}}\qquad\qquad\qquad(3.7)

接下来,我们将右侧的期望值限定为:

ES[Φ(S)]=ES[supgG(E[g]E^S(g))]\qquad\qquad\underset{S}{\mathbb E}[\Phi (S)]=\underset{S}{\mathbb E}[\underset{g\in \mathcal G}{\sup}(\mathbb E[g]-\hat{\mathbb E}_S(g))]

=ES[supgGES[E^S(g)E^S(g)]](3.8)=\underset{S}{\mathbb E}[\underset{g\in \mathcal G}{\sup}\underset{S'}{\mathbb E}[\hat{\mathbb E}_{S'}(g)-\hat{\mathbb E}_S(g)]]\qquad\qquad\qquad(3.8)
ES,S[supgG(E^S(g)E^S(g))](3.9)\le\underset{S,S'}{\mathbb E}[\underset{g\in \mathcal G}{\sup}(\hat{\mathbb E}_{S'}(g)-\hat{\mathbb E}_S(g))]\qquad\qquad\qquad(3.9)
=ES,S[supgG1mi=1m(g(zi)g(zi))](3.10)=\underset{S,S'}{\mathbb E}[\underset{g\in \mathcal G}{\sup}\frac{1}{m}\sum^m_{i=1}(g(z'_i)-g(z_i))]\qquad\qquad\qquad(3.10)
=Eσ,S,S[supgG1mi=1mσi(g(zi)g(zi))](3.11)=\underset{\sigma,S,S'}{\mathbb E}[\underset{g\in \mathcal G}{\sup}\frac{1}{m}\sum^m_{i=1}\sigma_i(g(z'_i)-g(z_i))]\qquad\qquad\qquad(3.11)
Eσ,S[supgG1mi=1mσig(zi)]+Eσ,S[supgG1mi=1mσig(zi)](3.12)\le\underset{\sigma,S'}{\mathbb E}[\underset{g\in \mathcal G}{\sup}\frac{1}{m}\sum^m_{i=1}\sigma_ig(z'_i)]+\underset{\sigma,S}{\mathbb E}[\underset{g\in \mathcal G}{\sup}\frac{1}{m}\sum^m_{i=1}-\sigma_ig(z_i)]\qquad\qquad\qquad(3.12)
=2Eσ,S[supgG1mi=1mσig(zi)]=2Rm(G).(3.13)=2\underset{\sigma,S}{\mathbb E}[\underset{g\in \mathcal G}{\sup}\frac{1}{m}\sum^m_{i=1}\sigma_ig(z_i)]=2\mathcal R_m(\mathcal G).\qquad\qquad\qquad(3.13)

方程式(3.8)使用了这样一个事实,即 SS' 中的点以 i.i.d.方式采样,因此 E[g]=ES[E^S(g)]\mathbb E[g]=\mathbb E_{S'}[\hat{\mathbb E}_{S'}(g)] ,如(2.3)所示。不平等 3.9 由于上确界函数的次可加性而成立。

    在方程(3.11)中,我们引入了Rademacher变量 σi\sigma_i ,它是均匀分布的独立随机变量,取值于{−1,1}如定义3.2所示。这不会改变(3.10)中出现的期望值:当 σi=1\sigma_i=1 时,相关的和保持不变;当 σi=1\sigma_i=−1 ,相关的总和和翻转符号,这相当于在 SSS0S_0 之间交换 ziz_iz0z_0 。由于我们对所有可能的 SSS0S_0 进行预期,因此该掉期不会影响总体预期;我们只是在期望范围内改变求和的顺序。

    方程(3.12)由上确界函数的次可加性决定,即不等式 sup(U+V)sup(U)+sup(V)\sup (U+V)\le\sup(U)+\sup(V)。 最后,(3.13)源于Rademacher复杂性的定义以及变量 σi\sigma_iσi−\sigma_i 以相同的方式分布。

方程(3.13)中的 Rm(G)\mathcal R_m(\mathcal G) 的约化得到方程(3.3)中的界,使用 δ\delta 代替 δ/2\delta/2 。为了推导 R^S(G)\hat{\mathcal R}_S(\mathcal G) 的界,我们观察到,根据定义3.1,改变 SS 中的一个点最多改变 1/m1/mR^S(G)\hat{\mathcal R}_S(\mathcal G) 。然后,再次使用McDiarmid不等式,概率为 1δ/21− \delta/2 如下所示:

Eσji\underset{\sigma}{\mathbb E}\sum^i_j
Rm(G)R^S(G)+log2δ2m.(3.14)\mathcal R_m(\mathcal G)\le\hat {\mathcal R}_S(\mathcal G)+\sqrt{\frac{\log\frac{2}{\delta}}{2m}}.\qquad\qquad\qquad(3.14)

最后,我们使用并集界来组合不等式3.7和3.14,其概率至少为 1δ1-\delta :

Φ(S)2R^S(G)+3log2δ2m(3.15)\Phi(S)\le2\hat {\mathcal R}_S(\mathcal G)+3\sqrt{\frac{\log\frac{2}{\delta}}{2m}}\qquad\qquad\qquad(3.15)

以上这个匹配(3.4).

下面的结果将假设集 H\mathcal H 的经验Rademacher复杂性与二进制损失(zero-one loss)情况下与 H\mathcal H 相关的损失函数族 G\mathcal G 联系起来。

引理 3.4

H\mathcal H 为取值在 {1,+1}\{−1,+1\} 中的函数族,设G为与H相关的zero-one损失函数族: G={(x,y)1h(x)y:hH}\mathcal G=\{(x,y)\to 1_{h(x)\neq y}:h\in\mathcal H\}。 对于 X×{1,+1}\mathcal X\times\{-1,+1\} 中任意元素的样本 S=((x1,y1),...,(xm,ym))S=((x_1,y_1),...,(x_m,y_m)) ,设 SXS_\mathcal X 表示其在 X:SX=(x1,...,xm)\mathcal X:S_\mathcal X=(x_1,...,x_m) 上的投影:。那么, G\mathcal GH\mathcal H 的经验Rademacher复杂性之间有以下关系:

R^S(G)=12R^Sx(H).(3.16)\hat {\mathcal R}_S(\mathcal G)=\frac{1}{2}\hat {\mathcal R}_{S_x} (\mathcal H).\qquad\qquad\qquad(3.16)

证明: 对于 X×{1,+1}\mathcal X \times \{-1,+1\} 中任意元素的样本 S=((x1,y1),...,(xm,ym))S=((x_1,y_1),...,(x_m,y_m)) ,根据定义, G\mathcal G 的经验Rademacher复杂度可表示为:

R^S(G)=Eσ[suphH1mi=1mσi1h(xi)yi]\hat{\mathcal R}_S(\mathcal G)=\underset{\sigma}{\mathbb E}[\sup_{h\in\mathcal H}\frac{1}{m}\sum^m_{i=1}\sigma_i1_{h(x_i)\neq y_i}]
=Eσ[suphH1mi=1mσi1yih(xi)2]\qquad\qquad=\underset{\sigma}{\mathbb E}[\sup_{h\in\mathcal H}\frac{1}{m}\sum^m_{i=1}\sigma_i\frac{1-y_ih(x_i)}{2}]
=12Eσ[suphH1mi=1mσiyih(xi)]\qquad\qquad=\frac{1}{2}\underset{\sigma}{\mathbb E}[\sup_{h\in\mathcal H}\frac{1}{m}\sum^m_{i=1}-\sigma_iy_ih(x_i)]
=12Eσ[suphH1mi=1mσih(xi)]=12R^Sx(H),\qquad\qquad\qquad\qquad=\frac{1}{2}\underset{\sigma}{\mathbb E}[\sup_{h\in\mathcal H}\frac{1}{m}\sum^m_{i=1}\sigma_ih(x_i)]=\frac{1}{2}\hat{\mathcal R}_{S_x}(\mathcal H),

这里我们使用了 1h(xi)yi=(1yih(xi)/2)1_{h(x_i)\neq y_i}=(1-y_ih(xi)/2) 的事实,以及对于固定的 yi{1,+1}y_i\in\{-1,+1\}σi\sigma_iyiσi-y_i\sigma_i 以相同的方式分布的事实。

注意,这个引理暗示,通过取期望,对于任意 m1m\ge1 , Rm(G)=12Rm(H)\mathcal R_m(\mathcal G)=\frac{1}{2}\mathcal R_m(\mathcal H) 。这些经验Rademacher复杂性和平均Rademacher复杂性之间的联系可以用来根据假设集 H\mathcal H 的Rademacher复杂性推导二元分类的泛化界。


定理 3.5 (Rademacher复杂度界限-二元分类)

H\mathcal H 为函数族,取值范围为 {1+1}\{−1,+1\} ;设 D\mathcal D 为输入空间 X\mathcal X 上的分布。然后,对于任何δ>0,通过根据 D\mathcal D 绘制尺寸为m的样本 SS 且其概率至少为 1δ1-\delta ,则对任意 hHh\in \mathcal H 均成立:

R(h)R^S(h)+Rm(H)+log1δ2m(3.17)R(h)\le\hat R_S(h)+\mathcal R_m(\mathcal H)+\sqrt{\frac{\log\frac{1}{\delta}}{2m}}\qquad\qquad\qquad(3.17)
andR(h)R^S(h)+RS(H)+3log1δ2m(3.18)and\qquad R(h)\le\hat R_S(h)+\mathcal R_S(\mathcal H)+3\sqrt{\frac{\log\frac{1}{\delta}}{2m}}\qquad\qquad\qquad(3.18)

证明:结果紧跟定理3.3和引理3.4。

该定理为基于Rademacher复杂度的二元分类提供了两个推广界。请注意,第二个界限(3.18)与数据有关:经验Rademacher复杂度 R^S(H)\hat{\mathcal R}_S(\mathcal H) 是特定样本 SS 的函数。因此,如果我们能够计算 R^S(H)\hat{\mathcal R}_S(\mathcal H) ,这个界限可能是特别有用的。但是,我们如何计算经验Rademacher复杂性?再次使用 σi\sigma_iσi−\sigma_i 以同样的方式分布,我们可以写

R^S(H)=Eσ[suphH1mi=1mσih(xi)]=Eσ[infhH1mi=1mσih(xi)].\hat{\mathcal R}_S(\mathcal H)=\underset{\sigma}{\mathbb E}[\underset{h\in\mathcal H}{\sup}\frac{1}{m}\sum^m_{i=1}-\sigma_ih(x_i)]=-\underset{\sigma}{\mathbb E}[\underset{h\in\mathcal H}{\inf}\frac{1}{m}\sum^m_{i=1}\sigma_ih(x_i)].

现在,对于 σ\sigma 的固定值,计算 infhH1mi=1mσih(xi)\inf_{h\in\mathcal H}\frac{1}{m}\sum^m_{i=1}\sigma_ih(x_i) 相当于一个 经验风险最小化 问题,这对于某些假设集来说是很难计算的。因此,在某些情况下,计算 R^S(H)\hat{\mathcal R}_S(\mathcal H) 可能在计算上很困难。在下一节中,我们将把Rademacher复杂性与组合度量联系起来,这些组合度量更易于计算,并且在许多环境下的学习分析中具有独立的用途。

3.2    增长函数

在这里,我们将展示Rademacher复杂度如何根据 增长函数 来限定。

定义 3.6(增长函数)

假设集 ΠH:HH\Pi_\mathcal H:\mathbb H\to\mathbb H 的增长函数 H\mathcal H 定义如下:

mH,ΠH(m)=max{x1,...,xm}X{(h(x1),...,h(xm)):hH}.(3.19)\forall m\in\mathbb H,\Pi_\mathcal H(m)=\underset{\{x_1,...,x_m\}\subseteq X}{\max}|\{(h(x_1),...,h(x_m)):h\in\mathcal H\}|.\qquad\qquad\qquad(3.19)

换句话说, H(m)\prod_\mathcal H(m) 是使用 H\mathcal H 中的假设对 mm 个点进行分类的不同方式的最大数量。这些不同的分类中的每一种都被称为二元分类,因此,生长函数计算了由假设实现的二分法的数量。这提供了假设集 H\mathcal H 丰富性的另一个度量。然而,与Rademacher复杂度不同,该度量不依赖于分布,它是纯组合的。

    为了将Rademacher复杂性与增长函数联系起来,我们将使用Massart引理。

定理3.7(Massart引理)

ARm\mathcal A\subseteq\mathbb R^m 为有限集,以及 r=maxxAX2r=\max_{x\in A}||X||_2 ,则以下等式成立:

Eσ[1msupXAi=1mσixi]r2logAm,(3.20)\underset{\sigma}{\mathbb E}[\frac{1}{m}\sup_{X\in\mathcal A}\sum^m_{i=1}\sigma_ix_i]\le\frac{r\sqrt{2\log|\mathcal A|}}{m},\qquad\qquad\qquad(3.20)

式中, σisσ_is 为独立均匀随机变量,取值为 11{−1,1}x1,...,xmx_1,...,x_m 是向量 XX 的分量。


证明: 由于随机变量 σixi\sigma_ix_i 是独立的,且每个 σixi\sigma_ix_i 取的值在 [xi,xi][−|x_i |,| x_i |]i=1mxi2r2\sqrt{\sum^m_{i=1}x^2_i}\le r^2 中。 因此结果直接由推论D.11给出的最大值期望界得出。

利用这个结果,我们现在可以用增长函数来限制Rademacher的复杂性。


推论 3.8

G\mathcal G 是一个取值函数族 {1,+1}\{−1,+1\} . 那么,以下观点成立:

Rm(G)2logΠG(m)m.(3.21)\mathcal R_m(\mathcal G)\le \sqrt{\frac{2\log\Pi_{\mathcal G(m)}}{m}}.\qquad\qquad\qquad(3.21)

证明: 对于固定样本 S=(x1xm)S=(x_1,…,x_m) ,我们用 GS\mathcal G_{|S} 表示函数值的向量集 (g(x1)g(xm))(g(x_1),…,g(x_m)) ,其中 ggG\mathcal G 中。自 gGg\in\mathcal G 接受值 {1+1}\{−1,+1\} ,这些向量的范数有界于 m\sqrt m 。然后我们可以应用Massart引理如下:

Rm(G)=ES[Eσ[supuGS1mi=1mσiui]]ES[m2logGSm].\mathcal R_m(\mathcal G)=\underset{S}{\mathbb E}[\underset{\sigma}{\mathbb E}[\sup_{u\in{\mathcal G|S}}\frac{1}{m}\sum^m_{i=1}\sigma_iu_i]]\le \underset{S}{\mathbb E}[\frac{\sqrt{m}\sqrt{2\log|\mathcal G_{|S}|}}{m}].

根据定义, GS|\mathcal G_{|S}| 受增长函数的约束,因此,

Rm(G)ES[m2logΠG(m)m]=2logΠG(m)m,\mathcal R_m(\mathcal G)\le \underset{S}{\mathbb E}[\frac{\sqrt{m}\sqrt{2\log\Pi_\mathcal G(m)}}{m}]=\sqrt{\frac{2\log\Pi\mathcal G(m)}{m}},

这就是证明的结论。

将定理3.5的推广界(3.17)与推论3.8相结合,就增长函数而言,立即产生以下推广界。


推论3.9(增长函数推广界)

H\mathcal H 是一个取值函数族 {1,+1}\{−1, +1\} 。然后,对于任何 δ>0\delta>0 ,概率至少为 1δ1−\delta 、 对于任何 hHh\in\mathcal H ,

R(h)R^S(h)+2logΠH(m)m+log1δ2m.(3.22)R(h)\le\hat R_S(h)+\sqrt{\frac{2\log\Pi_\mathcal H(m)}{m}}+\sqrt{\frac{\log\frac{1}{\delta}}{2m}}.\qquad\qquad\qquad(3.22)

3.1.png

图 3.1 实线上区间的VC维数。(a)任何两点都可能被打破。(b)三个点中的任何一个样本都不能被粉碎,因为(+,−,+) 无法实现标记。

增长函数边界也可以直接导出(不首先使用Rademacher复杂度边界)。由此产生的界限如下所示:

P[R(h)R^S(h)>ϵ]4ΠH(2m)exp(mϵ28),(3.23)\mathbb P[|R(h)-\hat R_S(h)|>\epsilon]\le4\Pi_\mathcal H(2m)\exp(-\frac{m\epsilon^2}{8}),\qquad\qquad\qquad(3.23)

它和(3.22)只有常数不同。

    增长函数的计算可能并不总是方便的,因为根据定义,它需要计算所有 m1m\ge1ΠH(m)\Pi_\mathcal H(m) 。下一节将介绍假设集 H\mathcal H 复杂性的另一种度量方法,该方法基于单个标量,事实证明,它与增长函数的行为密切相关。

3.3    VC维数

这里,我们介绍了VC维(Vapnik-Chervonenkis维)的概念。VC维也是一个纯粹的组合概念,但它通常比增长函数(或Rademacher复杂性)更容易计算。正如我们将看到的,VC维度是学习中的一个关键数量,与增长函数直接相关。

    为了定义假设集 H\mathcal H 的VC维数,我们首先引入破碎的概念。回想上一节,假设集合 H\mathcal H ,集合 SS 的二分法是使用 H\mathcal H 中的假设标记 SS 点的可能方法之一。当 H\mathcal H 实现S的所有可能二分法时,即 ΠH(m)=2m\Pi_\mathcal H(m)=2^m 时, m>1m>1 点集 SS 被假设集 H\mathcal H 打破。

定义 3.10(VC维数)

假设集 H\mathcal H 的VC维是可被 H\mathcal H 粉碎的最大集的大小:

VCdim(H)=max{m:ΠH(m)=2m}.(3.24)VC\dim(\mathcal H)=\max\{m:\Pi_\mathcal H(m)=2^m\}.\qquad\qquad\qquad(3.24)

请注意,根据定义,如果是 VCdim(H)=dVC\dim(\mathcal H)=d ,则存在一组可被粉碎的大小。然而,这并不意味着所有尺寸为 dd 或更小的集合都被粉碎,事实上,情况通常并非如此。

3.2.png

图 3.2 利用 R2\mathbb R^2 中的超平面对四个点进行不可实现的二分法。(a) 所有四个点都位于凸面外壳上。(b) 三个点位于凸面外壳上,而其余点位于内部。

  为了进一步说明这一概念,我们将检查一系列假设集的示例,并确定每种情况下的VC维度。为了计算VC维度,我们通常会显示其值的下限,然后是匹配的上限。为了给 VCdim(H)VCdim(\mathcal H) 一个下界,只需证明基数 dd 的集合 SS 可以被 H\mathcal H 破坏。为了给上界,我们需要证明没有基数 d+1d+1 的集合 SS 可以被 H\mathcal H 破坏,这通常更困难。

例3.11(实线上的间隔)

我们的第一个例子涉及实线上区间的假设类。很明显,VC维度至少是两个,因为所有四个二分法 (+,+),(,),(+,),(,+)(+,+),(-,-),(+,-),(-,+) 都可以实现,如图3.1(a)所示。相反,根据间隔的定义,由于无法实现 (+,,+)(+,-,+) 标记,因此三个点的集合不能被打破。因此,VCdim(intervalinR)=2VC\dim(interval\quad in\quad\mathbb R)=2

例3.12(超平面)

考虑 R2\mathbb R^2 中的超平面集合,我们首先观察到 R2\mathbb R^2 中的任意三个非共线点可以被粉碎。为了得到前三个二分法,我们选择一个超平面,它的一侧有两个点,另一侧有第三个点。为了得到第四个二分法,我们将所有三个点都放在超平面的同一侧。剩下的四个二分法是通过简单地切换符号来实现的。接下来,通过考虑两种情况,我们证明了四个点不能被破坏:(i)四个点位于由四个点定义的凸壳上,以及(ii)四个点中的三个位于凸壳上,其余点是内部的。在第一种情况下,无法实现一个对角线对的正标签和另一个对角线对的负标签,如图3.2(a)所示。在第二种情况下,无法实现凸壳上点为正、内点为负的标签,如图3.2(b)所示。因此, VCdim(hyperplanesinR2)=3VC\dim(hyperplanes\quad in\quad\mathbb R^2)=3

  更一般地,在 Rd\mathbb R^d 中,我们从 Rd\mathbb R^d 中的一组d点开始,将 X0\Chi_0 设置为原点,并将 Xi\Chi_i 定义为 i{1,...,d}i\in\{1,...,d\} ,即坐标为1且所有其他点均为0的点,从而得出下限。设 y0,y1,...ydy_0,y_1,...y_dX0,X1,...,Xd\Chi_0,\Chi_1,...,\Chi_d 的任意标签集。设 WW 为第 ii 个坐标为 yiy_i 的向量。然后,由方程 WX+y02=0W\cdot\Chi+\frac{y_0}{2}=0 的超平面定义的分类器分解 X0,X1,...,Xd\Chi_0,\Chi_1,...,\Chi_d ,因为对于任何 i{0,...,d}i\in\{0,...,d\}

sgn(WXi+y02)=sgn(yi+y02)=yi.(3.25)sgn(W\cdot\Chi_i+\frac{y_0}{2})=sgn(y_i+\frac{y_0}{2})=y_i.\qquad\qquad\qquad(3.25)

为了得到一个上界,只要证明没有一组 d+2d+2 点可以被半空间破坏就足够了。为了证明这一点,我们将使用以下一般定理。

定理3.13(拉东定理)

d+2d+2 点的任意集合 X\mathcal X 可以划分为两个子集 X1\mathcal X_1X2\mathcal X_2 ,使得 X1\mathcal X_1X2\mathcal X_2 的凸包相交。

证明:X={X1,...,Xd+2}Rd\mathcal X=\{X_1,...,X_{d+2}\}\subset\mathbb R^d 。以下是 α1,...,αd+2\alpha_1,...,\alpha_{d+2} 中的 d+1d+1 线性方程组:

i=1d+2αiXi=0andi=1d+2αi=0,(3.26) \sum^{d+2}_{i=1}\alpha_iX_i=0\qquad and\qquad\sum^{d+2}_{i=1}\alpha_i=0,\qquad\qquad\qquad(3.26)

由于第一个等式引出一个等式,因此每个分量对应一个等式。未知数的数量 d+2d+2 大于方程的数量 d+1d+1 ,因此系统允许非零解 β1,...,βd+2\beta_1,...,\beta_{d+2} 。因为 i=1d+2βi=0\sum^{d+2}_{i=1}\beta_i=0J1={i[d+2]:βi>0}\mathcal J_1=\{i\in[d+2]:\beta_i>0\}J1={i[d+2]:βi0}\mathcal J_1=\{i\in[d+2]:\beta_i\le0\} 都是非空集, X1={Xi:iJ1}\mathcal X_1=\{X_i:i\in\mathcal J_1\}X2={Xi:iJ2}\mathcal X_2=\{X_i:i\in\mathcal J_2\} 构成X的一个分区。根据(3.26)的最后一个方程式, iJ1βi=iJ2βi\sum_{i\in\mathcal J_1}\beta_i=-\sum_{i\in\mathcal J_2}\beta_i 。设 β=iJ1\beta=\sum_{i\in\mathcal J_1} 。然后(3.26)的第一部分暗示

iJ1βiβXi=iJ2βiβXi,\sum_{i\in\mathcal J_1}\frac{\beta_i}{\beta}X_i=\sum_{i\in\mathcal J_2}\frac{-\beta_i}{\beta}X_i,

iJ1βiβ=iJ2ββ=1\sum_{i\in\mathcal J_1}\frac{\beta_i}{\beta}=\sum_{i\in\mathcal J_2}\frac{-\beta}{\beta}=1 表示,和 βiβ0\frac{\beta_i}{\beta}\ge0 表示 iJ2i\in\mathcal J_2βiβ0\frac{-\beta_i}{\beta}\ge0 表示 iJ2i\in\mathcal J_2 。根据凸包的定义(B.6),这意味着 iJ1βiβXi\sum_{i\in\mathcal J_1}\frac{\beta_i}{\beta}X_i 既属于 X1\mathcal X1 的凸包,也属于 X2\mathcal X_2 的凸包。
现在,让 X\mathcal X 是一组 d+2d+2 点。根据Radon定理,可以将其划分为两个集 X1\mathcal X_1X2\mathcal X_2 ,使它们的凸包相交。

现在,让 X\mathcal X 是一组 d+2d+2 点。根据Radon定理,可以将其划分为两个集 X1\mathcal X_1X2\mathcal X_2 ,使它们的凸包相交。请注意,当两组点 X1\mathcal X_1X2\mathcal X_2 由超平面分隔时,它们的凸包也由该超平面分隔。因此, X1\mathcal X_1X2\mathcal X_2 不能被超平面分开, X\mathcal X 也不会破碎。结合我们的上下界,我们证明了VCdim(Rd中的超平面)=d+1VC\dim(\mathbb R^d中的超平面)=d+1

例3.14(轴对齐矩形):

通过考虑菱形图案中的四个点,我们首先证明了VC维数至少为四。然后,很明显,所有16种二分法都可以实现,其中一些如图3.3(a)所示。相反,对于任何一组五个不同的点,如果我们构造包含这些点的最小轴对齐矩形,则其中一个点位于该矩形的内部。

3.3.png

图3.3 VC轴对齐矩形的尺寸。(a) 菱形图案中四个点的可实现二分法示例。(b) 如果内部点和其余点具有相反的标签,则无法实现五个点的采样。

想象一下,我们为这个内部点指定一个负标签,为其余四个点中的每个点指定一个正标签,如图3所示。3(b)。没有轴对齐的矩形可以实现此标记。因此,没有一组五个不同的点可以被粉碎和 VCdim(轴对齐矩形)=4VC\dim(轴对齐矩形)=4

例3.15(凸多边形)

我们主要研究平面上的凸d-角类。为了得到一个下限,我们证明了任何一组 2d+12d+1 点都可以被粉碎。为此,我们选择位于圆上的 2d+12d+1 点,对于特定的标签,如果负标签多于正标签,则带有正标签的点将用作多边形的顶点,如图3.4(a)所示。否则,负点的切线将用作多边形的边,如(3.4)(b)所示。为了推导上界,可以证明选择圆上的点可以最大化可能的二分法的数量,因此 VCdim(凸面)=2d+1VC\dim(凸面)=2d+1 。还要注意 VCdim(凸多边形)=+VCdim(凸多边形)=+\infty

例3.16(正弦函数)

前面的例子表明, H\mathcal H 的VC维数与定义 H\mathcal H 的自由参数的数量一致。例如,定义超平面的参数数量与其VC维度匹配。然而,这并不适用于一般情况。本章中的几个练习说明了这一事实。下面从这个角度提供了一个引人注目的例子。考虑下面的正弦函数族: {tsin(ωt)ωR}\{t\to\sin(\omega t):\omega\in\mathbb R\} 。这个函数类的一个实例如图3.5所示。这些正弦函数可用于对实线上的点进行分类:

3.4.png

图3.4 平面上的凸面 dd 形角可以破碎 2d+12d+1 个点。(a) 当有更多的负标签时,d形构造。(b) 有更多正面标签时的 dd 形构造。

3.5.png

图3.5 用于分类的正弦函数 (ω=50)(\omega=50) 示例。

用于对实线上的点进行分类:如果点位于曲线上方,则标记为正,否则标记为负。虽然这个正弦函数族是通过一个参数ω定义的,但可以证明 VCdim(sin)=+VC\dim(sin)=+\infty (练习3.20)。

  许多其他假设集的VC维度可以通过类似的方式确定或上界(参见本章练习)。特别是,维数为 r<r<\infty 的任何向量空间的 VCVC 维数最多可以显示为 rr (练习3.19)。下一个结果,即阿索尔引理,澄清了增长函数概念与 VCVC 维度之间的联系。

3.6.png

图3.6 Sauer引理证明中 G1\mathcal G_1G2\mathcal G_2 如何构造的图解。

定理3.17(Sauer引理)

H\mathcal HVCdim(H)=dVC\dim(\mathcal H)=d 的假设集。然后,对于所有 m]mathbbNm\in]mathbb N ,以下不等式成立:

ΠH(m)i=0dim.(3.27)\Pi_\mathcal H(m)\le\sum^d_{i=0}\lgroup^m_i\rgroup.\qquad\qquad\qquad(3.27)

证明: 证明是通过归纳法在 m+dm+d 上进行的。该声明显然适用于 m=1m=1d=0d=0d=1d=1 。 现在,假设它适用于 (m1,d1)(m-1,d-1)(m1,d)(m-1,d) 。固定一个具有 ΠH(m)\Pi\mathcal H(m) 二分法的集合 S={x1,...,xm}\mathcal S=\{x_1,...,x_m\} ,并设 G=HS\mathcal G=\mathcal H_{|S} 是由对 S\mathcal S 的限制所导出的概念 H\mathcal H 的集合。

  现在考虑 S={x1,...,xm1}S'=\{x_1,...,x_{m-1}\} 上的下列数族。我们将 G1=GS\mathcal G_1=\mathcal G_{|\mathcal S'} 定义为约束 SS' 而产生的概念 H\mathcal H 的集合。接下来,通过将每个概念标识为 SS'SS 中它是非零的点的集合,我们可以定义为

G2={gS:(gG)(g{xm}G)}.\mathcal G_2=\{g'\subseteq\mathcal S:(g'\in\mathcal G)\wedge(g'\cup\{x_m\}\in\mathcal G)\}.

由于 gSg'\subseteq\mathcal S' , gGg'\in\mathcal G 意味着不添加 xmx_m ,它是 G\mathcal G 的一个概念。此外,约束 g{xm}Gg'\cup\{x_m\}\in\mathcal G 意味着将 xmx_m 添加到 gg' 也使其成为 G\mathcal G 的概念。 G1\mathcal G_1G2\mathcal G_2 的结构如图3.6所示。观察 G1+G2=G|\mathcal G_1|+|\mathcal G_2|=|\mathcal G| 得到 G1\mathcal G_1G2\mathcal G_2 的定义。

  由于 VCdim(G1)VCdim(G)dVC\dim(\mathcal G_1)\le VC\dim(\mathcal G)\le d ,则通过生长函数的定义,利用归纳假设,

G1ΠG1(m1)i=0dim1.|\mathcal G_1|\le\Pi_{\mathcal G_1}(m-1)\le\sum^d_{i=0}\lgroup^{m-1}_i\rgroup.

此外,根据 G2\mathcal G_2 的定义,如果集合 ZS\mathcal Z\subseteq\mathcal S'G\mathcal G' 粉碎,然后集合 Z{xm}\mathcal Z\cup\{x_m\}G\mathcal G 粉碎。因此,

VCdim(G2)VCdim(G)1=d1,VC\dim(\mathcal G_2)\le VC\dim(\mathcal G)-1=d-1,

根据生长函数的定义和归纳假设,

G2ΠG2(m1)i=0d1im1.|\mathcal G_2|\le\Pi_{\mathcal G_2}(m-1)\le\sum^{d-1}_{i=0}\lgroup^{m-1}_i\rgroup.

因此,

G=G1+G2i=0d(im1)+i=0d+1(im1)=i=0d(im1)+(i1m1)=i=0d(im),|\mathcal G|=|\mathcal G_1|+|\mathcal G_2|\le\sum^d_{i=0}(^{m-1}_i)+\sum^{d+1}_{i=0}(^{m-1}_i)=\sum^d_{i=0}(^{m-1}_i)+(^{m-1}_{i-1})=\sum^d_{i=0}(^m_i),

这就完成了归纳证明。

  Sauer引理的重要性可以从推论3.18中看出,它显著地表明生长函数只表现出两种类型的行为: VCdim(H)=d<+VC\dim(\mathcal H)=d<+\infty ,在这种情况下 ΠH(m)=O(md)\Pi_\mathcal H(m)=O(m^d) ,或 VCdim(H)=+VC\dim(\mathcal H)=+\infty ,在这种情况下 ΠH(m)=2m\Pi_\mathcal H(m)=2^m

推论3.18

H\mathcal HVCdim(H)=dVC\dim(\mathcal H)=d 的假设集。那么对于所有的 mdm\ge d 来说,

ΠH(m)(emd)d=O(md).(3.28)\Pi_\mathcal H(m)\le(\frac{em}{d})^d=O(m^d).\qquad\qquad\qquad(3.28)

证明: 证明从Sauer引理开始。第一个不等式将每个和乘以一个从 mdm\ge d 开始大于或等于1的因子,而第二个不等式将非负和与之相加。

ΠH(m)i=0d(im)i=0d(im)(md)dii=0m(im)(md)di=(md)di=0m(im)(dm)i=(md)d(1+dm)m(md)ded.\begin{aligned} \Pi_\mathcal H(m) &\le\sum^d_{i=0}(^m_i)\\ &\le\sum^d_{i=0}(^m_i)(\frac{m}{d})^{d-i}\\ &\le\sum^m_{i=0}(^m_i)(\frac{m}{d})^{d-i}\\ &=(\frac{m}{d})^d\sum^m_{i=0}(^m_i)(\frac{d}{m})^i\\ &=(\frac{m}{d})^d(1+\frac{d}{m})^m\le(\frac{m}{d})^de^d. \end{aligned}

在使用二项式定理简化表达式后,使用一般不等式 (1x)ex(1-x)\le e^{-x} 得到最终不等式。

刚建立的VC维和生长函数之间的显式关系,结合推论3.9,立即导致以下基于VC维的泛化边界。

推论3.19(VC维泛化界)

H\mathcal H 是一个取值函数族 {11}\{−1,1\} 与VC维数 dd 。然后,对于任何 δ>0δ>0 ,概率至少为 1δ1−\delta 、 以下适用于所有 hHh\in\mathcal H :

R(h)R^S(h)+2dlogemdm+log1δ2m.(3.29)R(h)\le\hat R_S(h)+\sqrt{\frac{2d\log\frac{em}{d}}{m}}+\sqrt{\frac{\log\frac{1}{\delta}}{2m}}.\qquad\qquad\qquad(3.29)

因此,这个推广界的形式是

R(h)R^S(h)+O(log(m/d)(m/d)),(3.30)R(h)\le\hat R_S(h)+O(\sqrt{\frac{\log(m/d)}{(m/d)}}),\qquad\qquad\qquad(3.30)

它强调了泛化的比率/数据的重要性。该定理提供了奥卡姆剃刀原理的另一个实例,其中简单性是用更小的VC维度来衡量的。

VC维度边界可以直接导出,而无需使用中间的Rademacher复杂度边界,如(3.23):将Sauer引理与(3.23)相结合,得到以下高概率边界

R(h)R^S(h)+8dlog2emd+8log4δm,R(h)\le\hat R_S(h)+\sqrt{\frac{8d\log\frac{2em}{d}+8\log\frac{4}{\delta}}{m}},

它的一般形式是(3.30)。对数因子在这些界限中只起次要作用。事实上,可以使用更精细的分析来消除该因素。

3.4    下界

在上一节中,我们给出了泛化误差的几个上界。相比之下,本节根据所用假设集的VC维度提供了任何学习算法的泛化误差的下界。

  通过发现任何算法的“坏”分布来显示这些下界。由于学习算法是任意的,因此很难指定特定的分布。相反,它足以非建设性地证明它的存在。在高层次上,用来实现这一点的证明技术是保罗·埃尔多的概率论方法。在下面的证明中,首先给出了定义分布的参数的期望误差的下界。由此可知,下限至少适用于一组参数,即一个分布。

定理3.20(下限,可实现情况)

H\mathcal H 为vc维数 d>1d>1 的假设集。那么,对于任何 m1m\ge1 和任何学习算法 A\mathcal A ,都存在一个分布 D\mathcal D 除以 X\mathcal X 和一个目标函数 fHf\in\mathcal H 以致

PSDm[RD(hS,f)>d132m]1/100.(3.31)\underset{S\sim\mathcal D^m}{\mathbb P}[R_\mathcal D(h_S,f)>\frac{d-1}{32m}]\ge1/100.\qquad\qquad\qquad(3.31)

证明:Xˉ={x0,x1,...,xd1}X\bar X=\{x_0,x_1,...,x_{d-1}\}\subseteq X 是一个被 H\mathcal H 打碎的集合。对于任何 ϵ>0\epsilon>0 ,我们选择 D\mathcal D ,使其支持度减少到 Xˉ\bar X ,因此一个点 x0x_0 具有非常高的概率 (18ϵ)(1-8\epsilon) ,其余概率质量均匀分布在其他点之间:

PD[x0]=18ϵandi[d1],PD[xi]=8ϵd1.(3.32)\underset{\mathcal D}{\mathbb P}[x_0]=1-8\epsilon\qquad and\qquad\forall_i\in[d-1],\underset{\mathcal D}{\mathbb P}[x_i]=\frac{8\epsilon}{d-1}.\qquad\qquad\qquad(3.32)

有了这个定义,大多数样本都包含 X0X_0 ,因为 XX 被粉碎,当确定 xix_i 席上没有落在训练集中的标签时, A\mathcal A 基本上不能比抛掷硬币更好。

  我们假设 A\mathcal Ax0x_0 上没有错误,但不失一般性。对于一个样本 SS ,我们让 Sˉ\bar S 表示其元素在 {x1,...,xd1}\{x_1,...,x_{d-1}\} 中的集合,让 S\mathcal S 是大小为 mm 的样本 SS 的集合,使得 Sˉ(d1)/2|\bar S|\le(d-1)/2 。现在,固定一个样本 SSS\in\mathcal S ,并考虑在所有标号 f:Xˉ{0,1}f:\bar X\to\{0,1\} 上的均匀分布 U\mathcal U ,因为集合被破坏,所有的标号都在 H\mathcal H 中。然后,以下下限成立:

EfU[RD(hS,f)]=fxXˉ1hS(x)f(x)P[x]P[f]fxSˉ1hS(x)f(x)P[x]P[f]=xSˉ(f1hS(x)f(x)P[x])P[f]=12xSˉP[f]12d128ϵd1=2ϵ.(3.33)\begin{aligned} \underset{f\sim\mathcal U}{\mathbb E}[R_\mathcal D(h_S,f)] &=\sum_f\sum_{x\in\bar X}1_{h_S(x)\neq f(x)}\mathbb P[x]\mathbb P[f]\\ &\ge\sum_f\sum_{x\notin\bar S}1_{h_S(x)\neq f(x)}\mathbb P[x]\mathbb P[f]\\ &=\sum_{x\notin\bar S}(\sum_f1_{h_S(x)\neq f(x)}\mathbb P[x])\mathbb P[f]\\ &=\frac{1}{2}\sum_{x\notin\bar S}\mathbb P[f]\ge\frac{1}{2}\frac{d-1}{2}\frac{8\epsilon}{d-1}=2\epsilon.\qquad\qquad\qquad(3.33) \end{aligned}

第一个下界成立,因为当我们只考虑 xSˉx\notin\bar S 而不是 Xˉ\bar X 中的所有 XSˉX\notin\bar S 时,我们从求和中去除非负项。在重新排列项之后,随后的等式成立,因为我们对 fHf\in\mathcal H 取一个期望值,每个 ffH\mathcal H 上的权重相等, H\mathcal H 粉碎 Xˉ\bar X 。由于 D\mathcal DSˉ\bar S 的定义,最后的下限成立,后者意味着 XˉSˉ(d1)/2|\bar X-\bar S|\ge(d-1)/2

  由于(3.33)适用于所有 SSS\in\mathcal S ,因此它也适用于所有 SSS\in\mathcal SESS[EfU[RD(hS,f)]]2ϵ\mathbb E_{S\in\mathcal S}[\mathbb E_{f\sim\mathcal U}[R_\mathcal D(h_S,f)]]\ge 2\epsilon 。根据Fubini定理,期望值可以置换,因此,

EfU[ESS[RD(hS,f)]]2ϵ.(3.34)\underset{f\sim\mathcal U}{\mathbb E}[\underset{S\in\mathcal S}{\mathbb E}[R_\mathcal D(h_S,f)]]\ge2\epsilon.\qquad\qquad\qquad(3.34)

这意味着 EfU[ESS[RD(hS,f)]]2ϵ\underset{f\sim\mathcal U}{\mathbb E}[\underset{S\in\mathcal S}{\mathbb E}[R_\mathcal D(h_S,f)]]\ge2\epsilon 至少用于一个标记 f0Hf_0\in\mathcal H 。将该期望分解为两部分,并使用 RD(hS,f0)PD[Xˉ{x0}]R_\mathcal D(h_S,f_0)\le\mathbb P_\mathcal D[\bar X-\{x_0\}] ,我们得到:

ESS[RD(hS,f0)]=S:RD(hS,f0)ϵRD(hS,f0)P[RD(hS,f0)]+S:RD(hS,f0)<ϵRD(hS,f0)P[RD(hS,f0)]PD[Xˉ{x0}]PSS[RD(hS,f0)ϵ]+ϵPSS[RD(hS,f0)<ϵ]8ϵPSS[RD(hS,f0)ϵ]+ϵ(1PSS[RD(hS,f0)ϵ]).\begin{aligned} \underset{S\in\mathcal S}{\mathbb E}[R_\mathcal D(h_S,f_0)] &=\sum_{S:R_\mathcal D(h_S,f_0)\ge\epsilon}R_\mathcal D(h_S,f_0)\mathbb P[R_\mathcal D(h_S,f_0)]+\sum_{S:R_\mathcal D(h_S,f_0)<\epsilon}R_\mathcal D(h_S,f_0)\mathbb P[R_\mathcal D(h_S,f_0)]\\ &\le\underset{\mathcal D}{\mathbb P}[\bar X-\{x_0\}]\underset{S\in\mathcal S}{\mathbb P}[R_\mathcal D(h_S,f_0)\ge\epsilon]+\epsilon\underset{S\in\mathcal S}{\mathbb P}[R_\mathcal D(h_S,f_0)<\epsilon]\\ &\le8\epsilon\underset{S\in\mathcal S}{\mathbb P}[R_\mathcal D(h_S,f_0)\ge\epsilon]+\epsilon(1-\underset{S\in\mathcal S}{\mathbb P}[R_\mathcal D(h_S,f_0)\ge\epsilon]). \end{aligned}

PSS[RD(hS,f0)ϵ]\mathbb P_{S\in\mathcal S}[R_\mathcal D(h_S,f_0)\ge\epsilon] 收益率中的集合项

PSS[RD(hS,f0)ϵ]17ϵ(2ϵϵ)=17.(3.35) \underset{S\in\mathcal S}{\mathbb P}[R_\mathcal D(h_S,f_0)\ge\epsilon]\ge\frac{1}{7\epsilon}(2\epsilon-\epsilon)=\frac{1}{7}.\qquad\qquad\qquad(3.35)

因此,所有样本 SS (不一定在 SS 中)上的概率可以是下限,如下所示:

PS[RD(hS,f0)ϵ]PSS[RD(hS,f0)ϵ]P[S]17P[S].(3.36) \underset{S}{\mathbb P}[R_\mathcal D(h_S,f_0)\ge\epsilon]\ge\underset{S\in\mathcal S}{\mathbb P}[R_\mathcal D(h_S,f_0)\ge\epsilon]\mathbb P[\mathcal S]\ge\frac{1}{7}\mathbb P[\mathcal S].\qquad\qquad\qquad(3.36)

这使我们找到了 P[S]\mathbb P[S] 的一个下界。根据乘法Chernoff界(定理D.4),对于任何 γ>0\gamma>0 ,大于 (d1)/2(d−1)/2 点在尺寸为 mm 的样本中绘制:

1P[S]=P[Sm8ϵm(1+γ)]e8ϵmγ23.(3.37) 1-\mathbb P[\mathcal S]=\mathbb P[S_m\ge8\epsilon m(1+\gamma)]\le e^{-8\epsilon m\frac{\gamma^2}{3}}.\qquad\qquad\qquad(3.37)

因此,对于 ϵ=(d1)/(32m)\epsilon=(d-1)/(32m)γ=1\gamma=1

P[Smd12]e(d1)/12e1/1217δ,(3.38) \mathbb P[S_m\ge\frac{d-1}{2}]\le e^{-(d-1)/12}\le e^{-1/12}\le1-7\delta,\qquad\qquad\qquad(3.38)

对于 δ.01.\delta\le.01. 得到 P[S]7δ\mathbb P[\mathcal S]\ge7\deltaPS[RD(hS,f0)ϵ]δ\mathbb P_S[R_\mathcal D(h_S,f_0)\ge\epsilon]\ge\delta
该定理表明,对于任何算法 A\mathcal A ,都存在 XX 上的“坏”分布和一个目标函数 ff ,其由 A\mathcal A 返回的假设误差是一个常数乘以 dm\frac{d}{m} ,具有一定的常数概率。这进一步证明了VC维度在学习中所起的关键作用。结果表明,当VC维数为无穷大时,在可实现的情况下,PAC学习是不可能的。
  请注意,该证明显示了比定理陈述更强的结果:分布 D\mathcal D 的选择独立于算法 A\mathcal A 。现在我们给出了一个定理,给出了不可实现情况下的下界。需要以下两个引理来证明。

引理3.21

α\alpha 为均匀分布的随机变量,取 {α,α+}\{\alpha_-,\alpha_+\} 中的值,其中 α=12ϵ2\alpha_-=\frac{1}{2}-\frac{\epsilon}{2}α+=12+ϵ2\alpha_+=\frac{1}{2}+\frac{\epsilon}{2} ,设 SSm1m\ge1 个随机变量的样本, X1,...,XmX_1,...,X_m{0,1}\{0,1\} 中的值,并根据 PDα[X=1]=α\mathbb P_{\mathcal D_\alpha}[X=1]=\alpha 定义的分布 Dα\mathcal D_\alpha 独立且均匀分布。设 hh 是从 XmX^mα,α+\alpha_-,\alpha_+ 的函数,则以下公式成立:

αE[SDαmP[h(S)α]]Φ(2m/2,ϵ),(3.39)\underset{\mathbb E}{\alpha}[\underset{\mathbb P}{S\sim\mathcal D^m_\alpha}[h(S)\neq\alpha]]\ge\Phi(2\lceil m/2\rceil,\epsilon),\qquad\qquad\qquad(3.39)

其中 Φ(m,ϵ)=14(11exp(mϵ21ϵ2))\Phi(m,\epsilon)=\frac{1}{4}(1-\sqrt{1-\exp(-\frac{m\epsilon^2}{1-\epsilon^2})}) 表示所有 mmϵ\epsilon
证明: 这个引理可以用两枚带有 α\alpha_-α+\alpha_+ 偏差的硬币的实验来解释。这意味着,对于基于从 Dα\mathcal D_{\alpha_-}Dα+D_{\alpha_+} 中抽取的样本 SS 的判别规则 h(S)h(S) ,要确定投掷了哪枚硬币,样本大小 mm 必须至少为 Ω(1/ϵ2)\Omega(1/\epsilon^2) 。这个证明留作练习(练习D.3)。我们将利用这样一个事实,即对于任何固定的 ϵ\epsilon ,函数 mΦ(m,x)m\mapsto\Phi(m,x) 是凸的,这并不难建立。

引理3.22

ZZ 为取 [0,1][0,1] 值的随机变量。然后,对于任意 γ[0,1)\gamma\in[0,1) ,

P[z>γ]E[Z]γ1γ>E[Z]γ.(3.40)\mathbb P[z>\gamma]\ge\frac{\mathbb E[Z]-\gamma}{1-\gamma}>\mathbb E[Z]-\gamma.\qquad\qquad\qquad(3.40)

证明: 由于 ZZ 取的值在 [0,1][0,1] 中,

E[Z]=zγP[Z=z]z+z>γP[Z=z]zzγP[Z=z]γ+z>γP[Z=z]=γP[Zγ]+P[Z>γ]=γ(1P[Z>γ])+P[Z>γ]=(1γ)P[Z>γ]+γ,\begin{aligned} \mathbb E[Z] &=\sum_{z\le\gamma}\mathbb P[Z=z]z+\sum_{z>\gamma}\mathbb P[Z=z]z\\ &\le\sum_{z\le\gamma}\mathbb P[Z=z]\gamma+\sum_{z>\gamma}\mathbb P[Z=z]\\ &=\gamma\mathbb P[Z\le\gamma]+P[Z>\gamma]\\ &=\gamma(1-\mathbb P[Z>\gamma])+\mathbb P[Z>\gamma]\\ &=(1-\gamma)\mathbb P[Z>\gamma]+\gamma, \end{aligned}

这就是证据的结论。

定理3.23(下限,不可变现情况)

H\mathcal HVCVCd>1d>1 的假设集。然后,对于任意 m1m\ge1 和任意学习算法 A\mathcal A ,存在分布 D\mathcal D 除以 X×{0,1}X\times\{0,1\} ,从而:

PSDm[RD(hS)infhHRD(h)>d320m]1/64.(3.41)\underset{S\sim\mathcal D^m}{\mathbb P}[R_\mathcal D(h_S)-\underset{h\in\mathcal H}{\inf}R_\mathcal D(h)>\sqrt{\frac{d}{320m}}]\ge1/64.\qquad\qquad\qquad(3.41)

等价地,对于任何学习算法,样本复杂度验证

md320ϵ2.(3.42)m\ge\frac{d}{320\epsilon^2}.\qquad\qquad\qquad(3.42)

证明:Xˉ={x1,...,xd}X\bar X=\{x_1,...,x_d\}\subseteq X为一组被 H\mathcal H 击碎的粒子。对于任意 α[0,1]\alpha\in[0,1] 和任意向量 σ=(σ1,...,σd)T{1,+1}d\sigma=(\sigma_1,...,\sigma_d)^T\in\{-1,+1\}^d ,我们定义了一个分布 Dσ\mathcal D_\sigma ,其支持度 Xˉ×{0,1}\bar X\times\{0,1\} 如下:

i[d],PDσ[(xi,1)]=1d(12+σiα2).(3.43)\forall_i\in[d],\quad\underset{\mathcal D_\sigma}{\mathbb P}[(x_i,1)]=\frac{1}{d}(\frac{1}{2}+\frac{\sigma_i\alpha}{2}).\qquad\qquad\qquad(3.43)

因此,每个点 xi,i[d]x_i,i\in[d] 的标签遵循有偏硬币的分布 PDσ[xi]\mathbb P_{\mathcal D_\sigma}[\cdot|x_i] ,其中偏差由 σi\sigma_i 的符号和 α\alpha 的大小决定。为了确定每个点 xix_i 的最可能标签,学习算法因此需要以比 α\alpha 更高的精度估计 PDσ[1xi]\mathbb P_{\mathcal D_\sigma}[1|x_i] 。为了进一步增加难度,将根据算法选择 α\alphaσ\sigma ,如引理3.21所示, Ω(1/α2)\Omega(1/\alpha^2) 训练样本中每个点 xix_i 的实例。

  显然,对于所有 i[d]i\in[d] ,贝叶斯分类器 hDσh^*_{\mathcal D_\sigma}hDσ(xi)=argmaxy{0,1}P[yxi]=1σi>0h^*_{\mathcal D_\sigma}(x_i)=\arg\max_{y\in\{0,1\}}\mathbb P[y|x_i]=1_{\sigma_i>0} 定义。因为 Xˉ\bar X 被粉碎,所以 hDσh^*_{\mathcal D_\sigma}H\mathcal H 中。对于所有的 hHh\in\mathcal H ,

RDσ(h)RDσ(hDσ)=1dxXˉ(α2+α2)1h(x)hDσ(x)=αdxXˉ1h(x)hDσ(x).(3.44)R_{\mathcal D_\sigma}(h)-R_{\mathcal D_\sigma}(h^*_{\mathcal D_\sigma})=\frac{1}{d}\sum_{x\in\bar X}(\frac{\alpha}{2}+\frac{\alpha}{2})1_{h(x)\neq h^*_{\mathcal D_\sigma}(x)}=\frac{\alpha}{d}\sum_{x\in\bar X}1_{h(x)\neq h^*_{\mathcal D_\sigma}(x)}.\quad(3.44)

hSh_S 表示学习算法 A\mathcal A 在接收到根据 Dσ\mathcal D_\sigma 绘制的标记样本 SS 后返回的假设。我们将用 Sx|S|_x 表示点 xxSS 中的出现次数。设 U\mathcal U 表示 {1,+1}d\{-1,+1\}^d 上的均匀分布。然后,鉴于 (3.44)(3.44) ,以下观点成立:

EσUSDσm[1α[RDσ(hS)RDσ(hDσ)]]=1dxXˉEσUSDσm[1hS(x)hDσ(x)]=1dxXˉEσU[PSDσm[hS(x)hDσ(x)]]=1dxXˉn=0mEσU[PSDσm[hS(x)hDσ(x)Sx=n]P[Sx=n]]1dxXˉn=0mΩ(n+1,α)P[Sx=n](引理3.21)1dxXˉΩ(m/d,α)(Φ(,α)的凸性与Jensen不等式。)\begin{aligned} &\underset{\underset{S\sim\mathcal D^m_\sigma}{\sigma\sim\mathcal U}}{\mathbb E}[\frac{1}{\alpha}[R_{\mathcal D_\sigma}(h_S)-R_{\mathcal D_\sigma}(h^*_{\mathcal D_\sigma})]]\\ &=\frac{1}{d}\sum_{x\in\bar X}\underset{\underset{S\sim\mathcal D^m_\sigma}{\sigma\sim\mathcal U}}{\mathbb E}[1_{h_S(x)\neq h^*_{\mathcal D_\sigma}(x)}]\\ &=\frac{1}{d}\sum_{x\in\bar X}\underset{\sigma\sim\mathcal U}{\mathbb E}[\underset{S\sim\mathcal D^m_\sigma}{\mathbb P}[h_S(x)\neq h^*_{\mathcal D_\sigma}(x)]]\\ &=\frac{1}{d}\sum_{x\in\bar X}\sum^m_{n=0}\underset{\sigma\sim\mathcal U}{\mathbb E}[\underset{S\sim\mathcal D^m_\sigma}{\mathbb P}[h_S(x)\neq h^*_{\mathcal D_\sigma}(x)||S|_x=n]\mathbb P[|S|_x=n]]\\ &\ge\frac{1}{d}\sum_{x\in\bar X}\sum^m_{n=0}\Omega(n+1,\alpha)\mathbb P[|S|_x=n]\qquad\qquad\qquad\qquad\qquad(引理 3.21)\\ &\ge\frac{1}{d}\sum_{x\in\bar X}\Omega(m/d,\alpha)\qquad\qquad\qquad\qquad\qquad(\Phi(\cdot,\alpha)的凸性与Jensen不等式。) \end{aligned}

由于 σ\sigma 上的期望值是 Φ(m/d+1,α)\Phi(m/d+1,\alpha) 的下界,因此必然存在某个 σ{1,+1}d\sigma\in\{-1,+1\}^d

ESDσm[1α[RDσ(hS)RDσ(hDσ)]]>Φ(m/d+1,α).(3.45)\underset{S\sim\mathcal D^m_\sigma}{\mathbb E}[\frac{1}{\alpha}[R_{\mathcal D_\sigma}(h_S)-R_{\mathcal D_\sigma}(h^*_{\mathcal D_\sigma})]]>\Phi(m/d+1,\alpha).\qquad\qquad\qquad(3.45)

然后,通过引理3.22,对于 σ\sigma ,对于任何 γ[0,1]\gamma\in[0,1]

PSDσm[1α[RDσ(hS)RDσ(hDσ)]>γu]>(1γ)u,(3.46)\underset{S\sim\mathcal D^m_\sigma}{\mathbb P}[\frac{1}{\alpha}[R_{\mathcal D_\sigma}(h_S)-R_{\mathcal D_\sigma}(h^*_{\mathcal D_\sigma})]>\gamma u]>(1-\gamma)u,\qquad\qquad\qquad(3.46)

其中 u=Φ(m/d+1,α)u=\Phi(m/d+1,\alpha) 。选择 δ\deltaϵ\epsilon ,使得 δ(1γ)u\delta\le(1-\gamma)uϵγαu\epsilon\le\gamma\alpha u

PSDσm[RDσ(hS)RDσ(hDσ)>ϵ]>δ.(3.47)\underset{S\sim\mathcal D^m_\sigma}{\mathbb P}[R_{\mathcal D_\sigma}(h_S)-R_{\mathcal D_\sigma}(h^*_{\mathcal D_\sigma})>\epsilon]>\delta.\qquad\qquad\qquad(3.47)

为了满足定义 ϵ\epsilonδ\delta 的不等式,设 γ=18δ\gamma=1-8\delta 。然后

δ(1γ)uu18(3.48)14(11exp((m/d+1)α21α2))18(3.49)(m/d+1)α21α2log43(3.50)md(1α1)log431.(3.51)\begin{aligned} \delta\le(1-\gamma)u &\Longleftrightarrow u\ge\frac{1}{8}\qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad\qquad(3.48)\\ &\Longleftrightarrow\frac{1}{4}(1-\sqrt{1-\exp(-\frac{(m/d+1)\alpha^2}{1-\alpha^2})})\ge\frac{1}{8}\qquad\qquad\qquad(3.49)\\ &\Longleftrightarrow\frac{(m/d+1)\alpha^2}{1-\alpha^2}\le\log\frac{4}{3}\qquad\qquad\qquad\qquad\qquad\qquad\quad(3.50)\\ &\Longleftrightarrow\frac{m}{d}\le(\frac{1}{\alpha}-1)\log\frac{4}{3}-1.\qquad\qquad\qquad\qquad\qquad\qquad(3.51) \end{aligned}

选择 α=8ϵ/(18δ)\alpha=8\epsilon/(1-8\delta) 给出了 ϵ=γα/8\epsilon=\gamma\alpha/8 和条件

md((18δ)264ϵ21)log431.(3.52) \frac{m}{d}\le(\frac{(1-8\delta)^2}{64\epsilon^2}-1)\log\frac{4}{3}-1.\qquad\qquad\qquad(3.52)

f(1/ϵ2)f(1/\epsilon^2) 表示右侧。我们正在寻求形式为 m/dω/ϵ2m/d\le\omega/\epsilon^2 的一个充分条件。从 ϵ1/64\epsilon\le1/64 开始,为了确保 ω/ϵ2f(1/ϵ2)\omega/\epsilon^2\le f(1/\epsilon^2) ,施加 ω(1/64)2=f(1(1/62)2)\frac{\omega}{(1/64)^2}=f(\frac{1}{(1/62)^2}) 就足够了。这个条件给出了

ω=(7/64)2log(4/3)(1/64)2(log(4/3)+1).0031271/320=.003125.\omega=(7/64)^2\log(4/3)-(1/64)^2(\log(4/3)+1)\approx.003127\ge1/320=.003125.

因此, ϵ21320(m/d)\epsilon^2\le\frac{1}{320(m/d)} 足以确保不等式。 该定理表明,对于任何算法 A\mathcal A ,在不可实现的情况下, X×{0,1}X\times\{0,1\} 上存在一个“坏”分布,使得 A\mathcal A 返回的假设误差是一个常数乘以 dm\sqrt{\frac{d}{m}} ,具有一些常数概率。在这种一般情况下,VCD维度也是学习中的一个关键量。特别是,在VC维度无限的情况下,不可知PAC学习是不可能的。

3.5  章注释

Koltchinskii[2001]、Koltchinskii和Panchenko[2000]以及Bartlett、Boucheron和Lugosi[2002a]首先提倡使用Rademacher复杂性来推导学习中的泛化边界,另见[Koltchinskii和Panchenko,2002年,Bartlett和Mendelson,2002年]。Bartlett、Bousquet和Mendelson[2002b]引入了局部Rademacher复杂度的概念,也就是说,Rademacher复杂度限制在假设集的一个子集上,该假设集受到方差界的限制。这可用于在有关噪声的某些规则性假设下得出更好的保证。

  定理3.7应提交给马萨特[2000]。Vapnik和Chervonenkis[1971]引入了VC维度的概念,并对其进行了广泛的研究[Vapnik,2006年,Vapnik和Chervonenkis,1974年,Blumer等人,1989年,Assouad,1983年,Dudley,1999年]。除了在机器学习中发挥关键作用外,VC维度还广泛应用于计算机科学和数学的其他领域(例如,见Shelah[1972],Chazelle[2000])。定理3。17是学习社区中已知的asSauer引理,但其结果首先由Vapnik和Chervonenkis[1971](版本稍有不同)给出,随后由Sauer[1972]和Shelah[1972]独立给出。

&emps; 在可实现的情况下,Vapnik和Chervonenkis[1974]以及Haussler等人[1988]给出了VCD方面预期误差的下界。随后,给出了误差概率的下限,如定理3.20由Blumer等人[1989]给出。定理3.20和它的证明,改进了之前的结果,是由于Ehrenfeucht,Haussler,Kearns和Valiant[1988]。Devroye和Lugosi[1995]用更复杂的表达式对同一问题给出了更严格的界限。定理3.23在不可实现的情况下给出一个下界,给出的证明应归功于Anthony和Bartlett[1999]。关于证明其全部能力的概率方法应用的其他示例,请参阅Alon和Spencer的参考书[1992]。

&emps; 对于机器学习中使用的一系列函数的复杂性,还有其他几种度量方法,包括覆盖数、包装数以及第11章中讨论的一些其他复杂性度量方法。每个复杂性度量自然地将无限假设集简化为有限假设集,从而产生无限假设集的泛化边界。练习3.31说明了使用覆盖数来使用一个非常简单的证明来推导泛化边界。这些复杂度度量之间也有密切的关系:例如,根据达德利定理,经验拉德马赫复杂度可以用 N2(G,ϵ)\mathcal N_2(\mathcal G,\epsilon) 来界定[Dudley,1967,1987],覆盖数和包装数可以用VC维来界定[Haussler,1995]。另请参见[Ledoux和Talagrand,1991年,Alon等人,1997年,Anthony和Bartlett,1999年,Cucker和Smale,2001年,Vidyasagar,1997年],了解覆盖数在其他复杂性度量方面的一些上界。

3.6  练习

1、 R\mathbb R 中区间的增长函数。设 H\mathcal HR\mathbb R 中区间的集合。 H\mathcal H 的VC维数为2。计算其破碎系数 ΠH(m),m0\Pi_\mathcal H(m),m\ge0 。将结果与增长函数的一般界限进行比较。

2、 R\mathbb R 中阈值的生长函数和Rademacher复杂度。设 H\mathcal H 为实直线上的阈值函数族: H={x1xθ:θR}{x1xθ:θR}\mathcal H=\{x\mapsto1_{x\le\theta}:\theta\in\mathbb R\}\cup\{x\mapsto1_{x\ge\theta}:\theta\in\mathbb R\} 。给出生长函数 Πm(H)\Pi_m(\mathcal H) 的上界。用它来推导 m(H)\Re_m(\mathcal H) 的上界。

3、线性组合的生长函数。 Rd\mathbb R^d 中向量集合 X\mathcal X 的线性可分标记是将 X\mathcal X 分类为两个集合 X+\mathcal X^+X\mathcal X^-X+={XX:WX>0}\mathcal X^+=\{X\in\mathcal X:W\cdot X>0\}X={XX:WX<0}\mathcal X^-=\{X\in\mathcal X:W\cdot X<0\} 对于某个 WRdW\in\mathbb R^d

X={X1,...,Xm}\mathcal X=\{X_1,...,X-m\}Rd\mathbb R^d 的子集。

  • (a)设 {X+,X}\{\mathcal X^+,\mathcal X^−\}X\mathcal X 的二分法,设 Xm+1RdX_{m+1}\in\mathbb R^d 。证明 {X+{Xm+1},X}\{\mathcal X^+\cup\{X_{m+1}\},\mathcal X^−\}{X+X{Xm+1}}\{\mathcal X^+,\mathcal X^−\cup\{X_{m+1}\}\} 是经过原点的超平面可线性分离的,当且仅当 {X+,X}\{\mathcal X^+,\mathcal X^−\} 是经过原点和 Xm+1X_{m+1} 的超平面可线性分离的。
  • (b)设 X={X1,...,Xm}\mathcal X=\{X_1,...,X_m\}Rd\mathbb R^d 的子集使得 Xd\mathcal X\le d 的任何 kk 元素子集与 kdk\le d是线性无关的。然后,证明了 X\mathcal X 的线性可分标记数为 C(m,d)=2k=0d1(km1)C(m,d)=2\sum^{d-1}_{k=0}(^{m-1}_k) 。(提示:通过归纳证明 C(m+1,d)=C(m,d)+C(m,d1)C(m+1,d)=C(m,d)+C(m,d-1) )
  • (c)设 f1,...,fpf_1,...,f_ppp 个把 Rd\mathbb R^d 映射到 R\mathbb R 的函数。定义 F\mathcal F 为基于这些函数的线性组合的分类器族:
F={xsgn(k=1pakfk(x)):a1,...,apR}.\mathcal F=\{x\mapsto sgn(\sum^p_{k=1}a_kf_k(x)):a_1,...,a_p\in\mathbb R\}.

通过 Ψ(x)=(f1(x),...fp(x))\Psi(x)=(f_1(x),...f_p(x)) 定义 Ψ\Psi 。假设存在 x1,...,xmRdx_1,...,x_m\in\mathbb R^d ,使得 {Ψ(x1),Ψ(xm)}\{\Psi(x_1),\Psi(x_m)\} 的每个 pp 子集都是线性无关的。然后,得到

ΠF(m)=2i=0p1(im1).\Pi_\mathcal F(m)=2\sum^{p-1}_{i=0}(^{m-1}_i).

4、生长函数的下界。证明绍尔引理(定理3.17)是严密的。证明存在vc维 dd 的假设类 H\mathcal H ,使 ΠH(m)=i=0d(im)\Pi_\mathcal H(m)=\sum^d_{i=0}(^m_i)

5、更好的拉德马赫上界。证明可以用ES[Π(G, S)]给出 G\mathcal G 族Rademacher复杂度的一个更精细的上界,其中Π(G, S)是标记样本S中点的方法的个数。

6、单例假设类。考虑平凡的假设集 H\mathcal H

  • (a)证明任意 m>0m>0m(H)=0\Re_m(\mathcal H)=0
  • (b)用一个类似的结构来证明Massart的引理(定理3.7)是严密的。

7、二函数假设类。设 H\mathcal H 是一个简化为两个函数的假设集: H={h1,h+1}\mathcal H=\{h_{-1},h_{+1}\} , S=(x1,...,xm)S=(x_1,...,x_m) 是规模为m的样本。

  • (a)假设 h1h-1 是取值为−1的常函数, h+1h+1 是取值为+1的常函数。vc维d是多少?经验Rademacher复杂度RS(H)的上界(提示:用Rademacher变量和的绝对值表示RS(H),并应用Jensen不等式),并用 d/m\sqrt{d/m}比较你的上界。
  • (b)假设 h1h-1 是取值为-1的常函数,而 h+1h+1 是除x1处取值为+1外其他地方取值为-1的函数。vc维d是多少?计算经验Rademacher复杂度RS(H)。

8、Rademacher身份。修复 m1m≥1 。证明函数从 X\mathcal X 映射到 R\mathbb R 的任意 αR\alpha\in\mathbb R 和任意两个假设集 H\mathcal HH\mathcal H' 的下列恒等式:

  • (a) ^(αH)=αm(H)\hat\Re(\alpha\mathcal H)=|\alpha|\Re_m(\mathcal H)
  • (b) ^(H+H)=m(H)+m(H)\hat\Re(\mathcal H+\mathcal H)=\Re_m(\mathcal H)+\Re_m(\mathcal H')
  • (c) ^({max(h,h):hH,hH})m(H)+m(H)\hat\Re(\{\max(h,h'):h\in\mathcal H,h'\in\mathcal H'\})\le\Re_m(\mathcal H)+\Re_m(\mathcal H')

9、Rademacher概念交集的复杂性。设 H1\mathcal H_1H2\mathcal H_2 是将 X\mathcal X 映射到 {0,1}\{0,1\} 的两组函数,设 H={h1h2:h1H1,h2H2}\mathcal H=\{h_1h_2:h_1\in\mathcal H_1,h_2\in\mathcal H_2\} 。证明对于任意大小为 mm 的样本 SS , H\mathcal H 的经验Rademacher复杂度可以有以下界限:

^(H)^S(H1)+^S(H2).\hat\Re(H)\le\hat\Re_S(\mathcal H_1)+\hat\Re_S(\mathcal H_2).

提示:使用Lipschitz函数 xmax(0,x1)x\mapsto\max(0,x-1) 和Talagrand的收缩引理。

用这个来限定 c1c_1c2c_2c1ϱ1c_1\in\varrho_1c2ϱ2c_2\in\varrho_2 的交点 U\mathcal U 族的Rademacher复杂度 m(U)\Re_m(\mathcal U) ,根据 c1c_1c2c_2 的Rademacher复杂度。

10、Rademacher复杂度预测向量。设 S=(x1,...,xm)S=(x_1,...,x_m) 是大小为 mm 的样本,固定为 hRh\to\mathbb R

  • (a)用 uu 表示 hhS:u=[h(x1)h(xm)]S:u=[\begin{array}{cc}&h(x_1)\\&\dots\\&h(x_m)\end{array}] 的预测向量。给出 H\mathcal H 的经验Rademacher复杂度 ^S(H)\hat\Re_S(\mathcal H) 的上界,用 u2||u||_2 表示(提示:用绝对值的期望表示 ^S(H)\hat\Re_S(\mathcal H) ,并应用Jensen不等式)。假设 h(xi){0,1,+1}h(x_i)\in\{0,-1,+1\} 对于所有 i[m]i\in[m] 。用稀疏测度 n={ih(xi)0}n=|\{i|h(x_i)\neq0\}| 表示Rademacher复杂度的界。稀疏性度量的极值上限是多少?
  • (b)设 F\mathcal F 是将 X\mathcal X 映射到 R\mathbb R 的函数族。用 ^S(F)\hat\Re_S(\mathcal F)u2||u||_2 给出 F+h={f+h:fF}\mathcal F+h=\{f+h:f\in\mathcal F\}F±h=(F+h)(Fh)\mathcal F\pm h=(\mathcal F+h)\cup(\mathcal F-h) 的经验Rademacher复杂度的上界。

11、正则化神经网络的Rademacher复杂度。设输入空间为 X=Rn1\mathcal X=\mathbb R^{n_1} 。在这个问题中,我们考虑由映射 X\mathcal XR\mathbb R 的函数集定义的正则化神经网络族:

H={Xj=1n2ωjσ(ujX):W1Λ,uj2Λ,j[n2]},\mathcal H=\{X\mapsto\sum^{n_2}_{j=1}\omega_j\sigma(u_j\cdot X):||W||_1\le\Lambda',||u_j||_2\le\Lambda,\forall_j\in[n_2]\},

其中 σσ 为L-Lipschitz函数。例如, σσ 可以是s型函数,即1-Lipschitz。

  • (a)证明 ^S(H)=ΛmEσ[supu2Λi=1mσiσ(uXi)]\hat\Re_S(\mathcal H)=\frac{\Lambda'}{m}\mathbb E_\sigma[\sup_{||u||_2\le\Lambda}|\sum^m_{i=1}\sigma_i\sigma(u\cdot X_i)|]
  • (b)使用Talagrand的引理对所有假设集 H\mathcal H 和l - lipschitz函数 Φ\Phi 有效:
1mσE[suphHi=1mσi(Φh)(xi)]LmσE[suphHi=1mσih(xi)],\frac{1}{m}\underset{\mathbb E}{\sigma}[\sup_{h\in\mathcal H}|\sum^m_{i=1}\sigma_i(\Phi\circ h)(x_i)|]\le\frac{L}{m}\underset{\mathbb E}{\sigma}[\sup_{h\in\mathcal H}|\sum^m_{i=1}\sigma_i h(x_i)|],

到上界 ^S(H)\hat \Re_S(\mathcal H) ,根据H'的经验Rademacher复杂度,其中H'定义为

H={Xs(uX):u2Λ,s{1,+1}}.\mathcal H'=\{X\mapsto s(u\cdot X):||u||_2\le\Lambda,s\in\{-1,+1\}\}.
  • (c)用Cauchy-Schwarz不等式来证明
^S(H)=ΛmEσ[i=1mσiXi2].\hat\Re_S(\mathcal H')=\frac{\Lambda}{m}\mathbb E_\sigma[||\sum^m_{i=1}\sigma_i X_i||_2].
  • (d)利用不等式 EV[V2]EV[V22]\mathbb E_V[||V||_2]\le\sqrt{\mathbb E_V[||V||^2_2]} ,它由Jensen不等式保持到上界 ^S(H)\hat\Re_S(\mathcal H')

*(e)假设对于所有的 XSX\in S , X2r||X||_2\le r 对于某个 r>0r>0 。利用前面的问题,用 rr 来推导 H\mathcal H 的Rademacher复杂度的上界。

12、随处的复杂性。Jesetoo教授声称,根据其vc维 VCdim(H)VC\dim(\mathcal H) ,已经发现了任何假设setHof函数在 {1,+1}\{−1,+1\} 取值时Rademacher复杂度的一个更好的界。他的界是 m(H)O(VCdim(H)m)\Re_m(\mathcal H)\le O(\frac{VC\dim(\mathcal H)}{m}) 的形式。你能证明杰斯图教授的说法不正确吗?(提示:考虑一个假设sethreed只是两个简单的函数。)

13、k区间并集的vc维。由k个区间的并集组成的实线子集的vc维是多少?

14、有限假设集的vc维。证明有限假设的vc维最大值为 log2H\log_2|\mathcal H|

15、vc维的子集。由单个参数 α:Iα=[α,α+1][α+2,+)\alpha:I_\alpha=[\alpha,\alpha+1]\cup[\alpha+2,+\infty) 参数化的实线的子集 IαI_α 的vc维是什么

16、对轴正方形和三角形的vc维。

  • (a)平面中轴向正方形的vc维是多少?
  • (b)考虑平面上的直角三角形,它们的边与直角平行于坐标轴,并且直角位于左下角。这个家族的风险维度是多少?

17、 Rn\mathbb R^n 中闭球的vc维数。证明 Rn\mathbb R^n 中所有闭球集合的vc维,

18、椭圆体的vc维。 Rn\mathbb R^n 中所有椭球集合的vc维是多少?

19、实函数向量空间的vc维数。是 Rn\mathbb R^n 上实函数的有限维向量空间, dim(F)=r<\dim(F)=r<\infty 。设 H\mathcal H 为假设集:

H={{x:f(x)0}:fF}.\mathcal H=\{\{x:f(x)\ge0\}:f\in F\}.

20、正弦函数的vc维数。考虑正弦函数的假设族(例3.16): {xsin(ωx):ωR}\{x\to\sin(\omega x):\omega\in\mathbb R\}

  • (a)证明对于任意 xRx\in\mathbb Rx,2x,3x,4xx,2x,3x,4x 不能被正弦函数族分解。
  • (b)证明正弦函数族的vc维是无限的。(提示:证明{2−i:i≤m}可以被任意m>0粉碎)

21、半空间并集的vc维数。给出由 kk 个半空间并集所描述的一类假设的vc维的上界。

22、半空间交点的vc维数。考虑 kk 半空间的凸交的 ϱk\varrho_k 类。给出了 VCdim(ϱk)VCdim(\varrho_k) 的上下界估计。

23、交点概念的vc维。

  • (a)设 ϱ1\varrho_1ϱ2\varrho_2 是两个概念类。对于任何概念类 ϱ={c1c2:c1ϱ1,c2ϱ}\varrho=\{c_1\cap c_2:c_1\in\varrho_1,c_2\in\varrho\}
Πϱ(m)Πϱ1(m)Πϱ2(m).(3.53)\Pi_\varrho(m)\le\Pi_{\varrho_1}(m)\Pi_{\varrho_2}(m).\qquad\qquad\qquad(3.53)
  • (b)设 ϱ\varrho 为vc维d的概念类,设 ϱ\varrho 为s的所有概念从 ϱ\varrho ,s≥1的交点构成的概念类。证明了 ϱs\varrho_s 的vc维为 2dslog2(3s)2ds\log_2(3s) 。(提示:对于任意x2,log2(3x)<9x/(2e)x≥2,\log_2(3x)< 9x/(2e) )

24、vc维的概念并集。设A和B是两个从X映射到{0,1}的函数集,并假设A和B的VCdimension都是有限的,VCdim(A) =dA, VCdim(B) =dB。设C=A∪B是A与B的并集。

  • (a)证明对于所有的m, Πϱ(m)ΠA(m)+ΠB(m)\Pi_\varrho(m)\le\Pi_\mathcal A(m)+\Pi_\mathcal B(m)
  • (b)利用Sauer引理证明了当 mdA+dB+2m\ge d_\mathcal A+d_\mathcal B+2 时, Πϱ(m)<2m\Pi_\varrho(m)<2^m ,并给出了 ϱ\varrho 的vc维的一个界。

25、概念对称差分的vc维数。对于两个集合 A\mathcal AB\mathcal B ,设 AΔB\mathcal A\Delta\mathcal B 表示 A\mathcal AB\mathcal B 的对称差,也就是, AΔB=(AB)(AB)\mathcal A\Delta\mathcal B=(\mathcal A\cup\mathcal B)-(\mathcal A\cap\mathcal B) 。设 H\mathcal H 是具有有限vc维的 X\mathcal X 子集的非空族。设 A\mathcal AH\mathcal H 的一个元素,定义 HΔA={XΔA:XH}\mathcal H\Delta\mathcal A=\{X\Delta\mathcal A:X\in\mathcal H\} 。表明,

VCdim(HΔA)=VCdim(H).VC\dim(\mathcal H\Delta\mathcal A)=VC\dim(\mathcal H).

26、对称的功能。函数: {0,1}n{0,1}\{0,1\}^n\to\{0,1\} 是对称的,如果它的值是由输入中的1的数量唯一决定的。设 ϱ\varrho 表示所有对称函数的集合。

  • (a)确定 ϱ\varrho 的vc维数。
  • (b)给出了 ϱ\varrho 的任意一致PAC学习算法的样本复杂度的上下限。
  • (c)注意,任何假设 hϱh\in\varrho 都可以用向量 (y0,y1,...,yn){0,1}n+1(y_0,y_1,...,y_n)\in\{0,1\}^{n+1} 表示,其中 yiy_i 是具有 i1i 1 的例子中的 hh 值。在此基础上设计 ϱ\varrho 的一致学习算法。

27、神经网络的vc维。

ϱ\varrhoRr\mathbb R^r 上vc维的概念类。带有一个中间层的 ϱ\varrho 神经网络是一个定义在 Rn\mathbb R^n 上的概念,可以用一个有向无环图来表示,如图3.7所示,输入节点为底部的节点,每个节点之间用一个概念 cϱc\in\varrho 来标记。

给定输入向量 (x1,...,xn)(x_1,...,x_n) 的表达式如下。首先,每个 nn 个输入节点都被标记为 xiRx_i\in\mathbb R 。接下来,对允许以 uu 结尾的边的输入节点的值应用 cc ,得到上层节点 uu 处标记为 cc 的值。

3.7.png

图 3.7 有一个中间层的神经网络。

注意,由于 cc 的值在 {0,1}\{0,1\} 中,所以 uu 的值在 {0,1}\{0,1\} 中。顶部节点或输出节点的值同样通过将对应的概念应用于向输出节点承认一条边的节点的值得到。

  • (a)设 H\mathcal H 表示上述定义的 k2k\ge2 个内部节点的所有神经网络的集合。证明生长函数 ΠH(m)\Pi_\mathcal H(m) 可以由定义在每个中间层的假设集的生长函数乘积的形式上界。

  • (b)用它来上界 ϱ\varrho 神经网络的vc维(提示:你可以使用 m=2xlog2(xy)m>xlog2(ym)m=2x\log_2(xy)\Longrightarrow m>x\log_2(ym)m1m≥1 有效, x,y>0x, y>0xy>4xy>4 有效)。

  • (c)设 ϱ\varrho 是由阈值函数 ϱ={sgn(j=1rwixj):WRr}\varrho=\{sgn(\sum^r_{j=1}w_ix_j):W\in\mathbb R^r\} 定义的概念类族。给出用 kkrr 表示的 H\mathcal H 的vc维的上界。

28、凸组合的vc维数。设 H\mathcal H 为从输入空间 X\mathcal X 映射到 {1,+1}\{−1,+1\} 的函数族,设 TT 为正整数。给出定义的函数族 FT\mathcal F_T 的vc维的上界

F={sgn(t=1Tαtht):htH,αt0,t=1Tαt1}.\mathcal F=\{sgn(\sum^T_{t=1}\alpha_th_t):h_t\in\mathcal H,\alpha_t\ge0,\sum^T_{t=1}\alpha_t\le1\}.

(提示:您可以使用练习3.27及其解决方案)。

29、无限的vc维。

  • (a)证明如果一个概念类 ϱ\varrho 有无限vc维,那么它不是pac可学习的。
  • (b)在标准PAC-learning场景中,学习算法首先接收所有的例子,然后计算它的假设。在这种情况下,如前所述,无法进行无限vc维的概念类PAClearning。
    现在想象一个不同的场景,学习算法可以在绘制更多的例子和计算之间切换。这个问题的目的是证明PAC-learning对于一些具有无限vc维的概念类是可能的。
    例如,考虑所有自然数子集的概念类 ϱ\varrho 的特殊情况。Vitres教授对学习算法的第一阶段有一个想法。在第一阶段,L画出足够多的点,使得在观测到的最大值M之外画出点的概率很小,且具有很高的可信度。你能通过描述算法的第二阶段来完成Vitres教授的想法吗?还应该证明L可以通过pac学习 ϱ\varrho

30、vc维泛化有界可实现的情况。在这个练习中,我们证明了在可实现的设置下,推论3.19中给出的界可以改进为 O(dlog(m/d)m)O(\frac{d\log(m/d)}{m}) 。假设我们在可实现的场景中,也就是。目标概念包含在我们的假设类 H\mathcal H 中。我们将证明,如果一个假设与样本 SDmS\sim\mathcal D^m 一致,那么对于任意 ϵ>0\epsilon>0 , mϵ8m\epsilon\ge8

P[R(h)>ϵ]2[2emd]d2mϵ/2.(3.54)\mathbb P[R(h)>\epsilon]\le2[\frac{2em}{d}]^d2^{-m\epsilon/2}.\qquad\qquad\qquad(3.54)
  • (a)设 HSH\mathcal H_S\subseteq\mathcal H是与样本 SS 一致的假设子集,设 R^S(h)\hat R_S(h) 表示相对于样本 SS 的经验误差,并将 SS' 定义为另一个从 Dm\mathcal D^m 中抽取的独立样本。证明下列不等式对任意 h0HSh_0\in\mathcal H_S 成立:
P[suphHSR^S(h)R^S(h)>ϵ2]P[B(m,ϵ)>mϵ2]P[R(h0)>ϵ],\mathbb P[\sup_{h\in\mathcal H_S}|\hat R_S(h)-\hat R_{S'}(h)|>\frac{\epsilon}{2}]\ge\mathbb P[B(m,\epsilon)>\frac{m\epsilon}{2}]\mathbb P[R(h_0)>\epsilon],
  • (b)证明 P[B(m,ϵ)>mϵ2]12\mathbb P[B(m,\epsilon)>\frac{m\epsilon}{2}]\ge\frac{1}{2} 。用这个不等式和(a)的结果来证明对于任意 h0HSh_0\in\mathcal H_S
P[R(h0)>ϵ]2P[suphHSR^S(h)R^S(h)>ϵ2].\mathbb P[R(h_0)>\epsilon]\le2\mathbb P[\sup_{h\in\mathcal H_S}|\hat R_S(h)-\hat R_{S'}(h)|>\frac{\epsilon}{2}].
  • (c)我们可以不画两个样本,而是画一个大小为2m的样本T,然后均匀随机地将其分割为S和S'。(b)部分的右手边可以重写为:
P[suphHSR^S(h)R^S(h)>ϵ2]=PTD2m:T[S,S][hH:R^S(h)=0R^S(h)>ϵ2].\mathbb P[\sup_{h\in\mathcal H_S}|\hat R_S(h)-\hat R_{S'}(h)|>\frac{\epsilon}{2}]=\underset{\underset{T\to[S,S']}{T\sim\mathcal D^{2m}:}}{\mathbb P}[\exists h\in\mathcal H:\hat R_S(h)=0\wedge\hat R_{S'}(h)>\frac{\epsilon}{2}].

h0h_0R^T(h0)>ϵ2\hat R_T(h_0)>\frac{\epsilon}{2} 的假设, l>mϵ2l>\frac{m\epsilon}{2}h0h_0 对T的错误总数,表明所有错误落入 SS' 的概率上界为 2l2^{-l}

  • (d)部分(b)表明,对于任意 hHh\in\mathcal H
PTD2m:T[S,S][R^S(h)=0R^S(h)>ϵ2R^T(h0)]2l.\underset{\underset{T\to[S,S']}{T\sim\mathcal D^{2m}:}}{\mathbb P}[\hat R_S(h)=0\wedge\hat R_{S'}(h)>\frac{\epsilon}{2}|\hat R_T(h_0)]\le2^{-l}.

用这个界来证明任意 hHh\in\mathcal H

PTD2m:T[S,S][R^S(h)=0R^S(h)>ϵ2]2ϵm2.\underset{\underset{T\to[S,S']}{T\sim\mathcal D^{2m}:}}{\mathbb P}[\hat R_S(h)=0\wedge\hat R_{S'}(h)>\frac{\epsilon}{2}]\le2^{-\frac{\epsilon m}{2}}.
  • (e)利用并界到上界 PTD2m:T[S,S][hH:R^S(h)=0R^S(h)>ϵ2]\underset{\underset{T\to[S,S']}{T\sim\mathcal D^{2m}:}}{\mathbb P}[\exists h\in\mathcal H:\hat R_S(h)=0\wedge\hat R_{S'}(h)>\frac{\epsilon}{2}] 完成不等式(3.54)的证明,证明我们可以得到一个 O(dlog(m/d)m)O(\frac{d\log(m/d)}{m}) 阶的高概率泛化界。

31、基于覆盖数的泛化界。设 H\mathcal H 是将 X\mathcal X 映射到实数 yR\mathcal y\subseteq\mathbb R 的子集的函数族。对于任意 ϵ>0\epsilon>0 , LL_\infty 范数 H\mathcal H 的覆盖数 N(H,ϵ)\mathcal N(\mathcal H,\epsilon) 为极小 kNk\in\mathbb N ,使得 hHh\in\mathcal H 可以被半径为 ϵ\epsilonkk 个球覆盖,即存在 {h1,...,hk}H\{h_1,...,h_k\}\subseteq\mathcal H ,使得对于所有 hHh\in\mathcal H ,存在 iki≤khhi=maxxXh(x)hi(x)ϵ||h-h_i||_\infty=\max_{x\in\mathcal X}|h(x)-h_i(x)|\le\epsilon 。特别地,当 H\mathcal H 是紧集时,可以从半径为 ϵ\epsilon 的球的 H\mathcal H 覆盖中提取有限覆盖,因此 N\mathcal N 是有限的。
覆盖数字提供了一种衡量一类函数复杂性的方法:覆盖数越大,函数族越丰富。这个问题的目的是通过证明平方损失情况下的学习界限来说明这一点。让 D\mathcal D 表示 X×Y\mathcal X\times\mathcal Y 上的一个分布,根据这个分布可以绘制有标记的例子。然后, hHh\in\mathcal H 对于平方损失的概化误差由 R(h)=R(x,y)D[(h(x)y)2]R(h)=\mathbb R_{(x,y)\sim\mathcal D}[(h(x)-y)^2] 定义,其对于标记样本 S=((x1,y1),...,(xm,ym))S=((x_1,y_1),...,(x_m,y_m)) 的经验误差由 R^S(h)1mi=1m(h(xi)yi)2\hat R_S(h)-\frac{1}{m}\sum^m_{i=1}(h(x_i)-y_i)^2 定义。我们假设这个有界,即存在 M>0M>0 使得 h(x)yM|h(x)−y|\le M 对于所有 (x,y)X×Y(x,y)\in\mathcal X\times\mathcal Y 。该问题证明的概化界如下:

PSDm[suphHR(h)R^S(h)ϵ]N(H,ϵ8M)2exp(mϵ22M4).(3.55)\underset{S\sim\mathcal D^m}{\mathbb P}[\sup_{h\in\mathcal H}|R(h)-\hat R_S(h)|\ge\epsilon]\le\mathcal N(\mathcal H,\frac{\epsilon}{8M})2\exp(\frac{-m\epsilon^2}{2M^4}).\qquad\qquad\qquad(3.55)

证明是基于以下步骤。

  • (a)设 LS=R(h)R^S(h)L_S=R(h)−\hat R_S(h) ,则对于所有的 h1,h2Hh_1,h_2\in\mathcal H 以及任意标记的样本,有如下不等式:
LS(h1)LS(h2)4Mh1h2.|L_S(h_1)-L_S(h_2)|\le4M||h_1-h_2||_\infty.
  • (b)假设 H\mathcal H 可以被 kk 个子集 B1,...,Bk\mathcal B_1,...,\mathcal B_k 覆盖,也就是 H=B1...Bk\mathcal H=\mathcal B_1\cup...\cup\mathcal B_k 。然后,证明对于任意 ϵ\epsilon ,下列上界成立:
PSDm[suphBiR(h)R^S(h)ϵ]i=1kPSDm[hBiLS(h)ϵ].\underset{S\sim\mathcal D^m}{\mathbb P}[\sup_{h\in\mathcal B_i}|R(h)-\hat R_S(h)|\ge\epsilon]\le\sum^k_{i=1}\underset{S\sim\mathcal D^m}{\mathbb P}[\sum_{h\in\mathcal B_i}|L_S(h)\ge\epsilon|].
  • (c)最后,设 k=N(H,ϵ8M)k=\mathcal N(\mathcal H,\frac{\epsilon}{8M}) 为半径为 ϵ/(8M)\epsilon/(8M) ,以 H\mathcal H 为中心,覆盖 h1,...,hkh_1,...,h_k 的球,用部分(a)表示对于所有 i[k]i\in[k]
PSDm[R(h)R^S(h)ϵ2]PSDm[LS(hi)ϵ2]\underset{S\sim\mathcal D^m}{\mathbb P}[|R(h)-\hat R_S(h)|\ge\frac{\epsilon}{2}]\le\underset{S\sim\mathcal D^m}{\mathbb P}[|L_S(h_i)|\ge\frac{\epsilon}{2}]

并应用Hoeffding不等式(定理D.2)证明(3.55)。