核密度估计(KDE)(一)

243 阅读16分钟

核密度估计(KDE)(一)

Author: Rotch
Date: 2025-08-28
Update: 2025-09-03

1. 算法简介

1.1 核密度估计算法介绍

S=(x(1),x(2),...,x(n))\mathcal{S} = (x^{(1)}, x^{(2)}, ..., x^{(n)}) 是从总体中抽取的一组独立同分布(i.i.d.)样本数据,在统计分析中,我们通常需要通过这组有限样本,推断出总体的概率分布特征,而核密度估计正是实现这一目标的非参数方法.

1.2 核密度估计算法基本思路

核密度估计的核心思想是:每个样本点都会对其周围区域的概率密度产生一定的 “影响”,将所有样本点的贡献叠加起来,就能得到整个数据空间的概率密度分布,具体可拆解为以下两个步骤:

  1. 为每个样本点分配一个“影响衰减函数”:它用于描述单个样本点对周围区域密度的“影响范围”和“影响强度”. 距离样本点越近的位置受到的影响越强,函数值越大;反之受到的影响越弱,函数值越小.

  2. 叠加各样本的“影响衰减函数”:将每个样本点对应的缩放核函数在整个数据空间中进行叠加,叠加后的结果就是核密度估计得到的总体概率密度函数.

上述“影响衰减函数”通常用核函数来定义,因此本算法称为“核密度估计”. 从直观上理解,核密度估计相当于用无数个 “小的概率密度峰”(每个样本点对应的核函数)共同构建出一个 “整体的概率密度山”,这个 “山” 的形状完全由样本点的分布和核函数的特性决定,既能避免参数估计对分布假设的依赖,又能有效平滑数据中的噪声.

2. 核函数

2.1 核函数的定义

在介绍核密度估计前我们先引入对核函数的介绍.

Def 2.1 核函数: \color{blue}{\textbf{Def 2.1 核函数: }} 一个核函数 K:R[0,+)K: \mathbb{R} \to [0, +\infty) 是一个实值函数,满足以下三条性质:

  1. 非负性K(u)0K(u) \geq 0 对任意的 uRu \in \mathbb{R}
  2. 归一性RK(u)du=1\int_{\mathbb{R}} K(u) \mathrm{d}u = 1
  3. 对称性K(u)=K(u)K(-u) = K(u) 对任意的 uRu \in \mathbb{R}.

非负性确保核函数对周围区域的密度贡献是正向的;归一性保证单个样本点对整体密度的总贡献为 11;对称性则确保样本点对其左侧、右侧区域的密度贡献对称,避免引入方向偏差.

以下给出了常见的核函数及其公式:

核函数公式
高斯核(Gaussian)K(u)=12πexp(u22)K(u) = \frac{1}{\sqrt{2 \pi}} \exp(-\frac{u^2}{2})
Epanechnikov 核K(u)={34(1u2),if u<10,otherwiseK(u) = \begin{cases} \frac{3}{4}(1 - u^2), & \text{if } \vert u \vert < 1 \\ 0, & \text{otherwise}\end{cases}
均匀核(Uniform / Rectangular)K(u)={12,if u<10,otherwiseK(u) = \begin{cases} \frac{1}{2}, & \text{if } \vert u \vert < 1 \\ 0, & \text{otherwise}\end{cases}
三角核(Triangular)K(u)={1u,if u<10,otherwiseK(u) = \begin{cases} 1 - \vert u \vert, & \text{if } \vert u \vert < 1 \\ 0, & \text{otherwise}\end{cases}
双权核(Biweight / Quartic)K(u)={1516(1u2)2,if u<10,otherwiseK(u) = \begin{cases}\frac{15}{16}(1 - u^2)^2, & \text{if } \vert u \vert < 1 \\ 0, & \text{otherwise}\end{cases}
三权核(Triweight)K(u)={3532(1u2)3,if u<10,otherwiseK(u) = \begin{cases} \frac{35}{32}(1 - u^2)^3, & \text{if } \vert u \vert < 1 \\ 0, & \text{otherwise}\end{cases}

2.2 缩放核函数的定义与应用

在上述核函数中存在带宽的概念. 以 Epanechnikov 核为例,其默认带宽(bandwidth)为 h=1h = 1,即对 u<1\vert u \vert < 1 的区域产生影响,对 u1\vert u \vert \geq 1 的区域不产生影响. 这在实际应用中会产生“尺度不匹配”的问题,即样本的分布范围可能与带宽不符.

例如:某身高样本的相邻间隔约为 55(单位:厘米,下同),而 Epanechnikov 核函数的带宽默认为 11,导致核函数的影响范围无法覆盖相邻样本,进而使密度曲线"断裂";为解决这一问题,我们可以缩放带宽至 h=5h = 5,将核函数影响范围扩展到 ±5\pm 5,从而有效衔接相邻样本的贡献.

Def 2.2 缩放核函数: \color{blue}{\textbf{Def 2.2 缩放核函数: }}K:R[0,+)K: \mathbb{R} \to [0, +\infty) 是一给定的核函数,对带宽 h>0h > 0,定义其缩放核函数

Kh(u)=1hK(uh).\begin{equation} K_h(u) = \frac{1}{h}K(\frac{u}{h}). \end{equation}

显然,RKh(u)du=1hRK(uh)du=1\int_\mathbb{R} K_h(u) \mathrm{d}u = \frac{1}{h} \int_\mathbb{R} K(\frac{u}{h}) \mathrm{d}u = 1,即缩放后的核函数不影响核函数的基本性质.

3. 核密度估计算法

3.1 从直方图估计到核密度估计

对于该类问题,最值观的解法是“直方图法”. 例如,设有 nn11 维样本点 x(1),x(2),,x(n)x^{(1)}, x^{(2)}, \dots, x^{(n)}x(i)[a,b]x^{(i)} \in [a, b],其分布服从概率密度函数 p(x)p(x). 作 [a,b][a, b] 的等距分划 T:a=a0<a1<a2<<an=bT: a = a_0 < a_1 < a_2 < \dots < a_n = bai=a0+ina_i = a_0 + \frac{i}{n}T=akak1=ban\parallel T \parallel = a_k - a_{k - 1} = \frac{b - a}{n}. 则可以估计密度函数:

p^(x)=1nTi=1n1(x(i)[ak1,ak)).\begin{equation} \hat{p}(x) = \frac{1}{n \parallel T \parallel} \sum\limits_{i = 1}^{n} \mathbb{1}\left( x^{(i)} \in [a_{k - 1}, a_k) \right). \end{equation}

pk=P[x(i)[ak1,ak)]p_k = \mathbb{P} \left[ x^{(i)} \in [a_{k - 1}, a_k) \right],若 pC(R)p \in C\left( \mathbb{R} \right),则:

pk=Tp(ξk), ξk[ak1,ak).\begin{equation} p_k = \parallel T \parallel \cdot p(\xi_k), \space \exist \xi_k \in [a_{k - 1}, a_k). \end{equation}

计算 p^\hat{p} 的期望为:

E[p^(x)]=1nTi=1nE[1(x(i)[ak1,ak))]=1nTnpk=p(ξk), x[ak1,ak).\begin{align} \mathbb{E} \left[ \hat{p}(x) \right] &= \frac{1}{n \parallel T \parallel} \sum\limits_{i = 1}^{n} \mathbb{E} \left[ \mathbb{1}\left( x^{(i)} \in [a_{k - 1}, a_k) \right) \right] \nonumber \\ &= \frac{1}{n \parallel T \parallel} \cdot n p_k \nonumber \\ &= p(\xi_k), \space x \in [a_{k - 1}, a_k). \end{align}

计算 p^\hat{p} 的方差为:

Var[p^(x)]=1(nT)2i=1nVar[1(x(i)[ak1,ak))]=1(nT)2npk(1pk)=p(ξk)(1Tp(ξk))nT, x[ak1,ak).\begin{align} \mathrm{Var} \left[ \hat{p}(x) \right] &= \frac{1}{(n \parallel T \parallel)^2} \sum\limits_{i = 1}^{n} \mathrm{Var} \left[ \mathbb{1}\left( x^{(i)} \in [a_{k - 1}, a_k) \right) \right] \nonumber \\ &= \frac{1}{(n \parallel T \parallel)^2} \cdot n p_k(1 - p_k) \nonumber \\ &= \frac{p(\xi_k) \left(1 - \parallel T \parallel\cdot p(\xi_k) \right)}{n \parallel T \parallel}, \space x \in [a_{k - 1}, a_k). \end{align}

T0+\parallel T \parallel \rightarrow 0^+ 时,ξkx, x[ak1,ak)\xi_k \rightarrow x, \space x \in [a_{k - 1}, a_k),有:

E[p^(x)]=p(ξk)p(x),\begin{equation} \mathbb{E} \left[ \hat{p}(x) \right] = p(\xi_k) \rightarrow p(x), \end{equation}

即:p^\hat{p}pp 的无偏估计. 但注意到此时 Var[p^(x)]\mathrm{Var} \left[ \hat{p}(x) \right] 会增大,若要减小方差,还需保证 nT+n \parallel T \parallel \rightarrow +\infty,即 n1hn \gg \frac{1}{h}.

显然,该方法存在以下缺陷:

  1. 区间的位置和宽度会严重影响估计结果:例如,改变区间的端点或改变分划 TT 都会对结果产生影响;
  2. 密度函数不连续p^(x)\hat{p}(x) 不连续,无法反映数据分布的平滑性;
  3. 难以推广到高维空间:当数据维度增加时,区间数量会呈指数级增长;且大多数区间内无样本点,致使其密度估计为 00.

核密度估计正是为解决这些问题而提出的:它将直方图的 “区间贡献” 替换为 “样本点的核函数贡献”,用连续的核函数替代离散的区间,从而实现平滑、连续的密度估计.

3.2 核密度估计算法推导

首先我们解决第一个问题:摆脱对 TT 的依赖,其核心思想是不再将 xxTT 作关联,而是直接计算 xx 附近的点的密度. 设总体的随机变量为 XX,其概率分布函数为 F(x)=P(Xx)F(x) = P(X \leq x),概率密度函数为 f(x)f(x),则有:

f(x)=ddxF(x)=F(x+h)F(xh)2h+ο(h)=P(xh<Xx+h)2h+ο(h). (h0+)\begin{align} f(x) = \frac{\mathrm{d}}{\mathrm{d}x} F(x) &= \frac{F(x + h) - F(x - h)}{2h} + \omicron(h) \nonumber \\ &= \frac{\mathbb{P}(x - h < X \leq x + h)}{2h} + \omicron(h). \space (h \rightarrow 0^+) \end{align}

根据大数定律,当样本空间足够大时,可以用频率近似概率,得到:

P(xh<Xx+h)1ni=1n1(xx(i)h1)\begin{equation} \mathbb{P}(x - h < X \leq x + h) \approx \frac{1}{n} \cdot \sum\limits_{i = 1}^{n} \mathbb{1} \left( \frac{\vert x - x^{(i)} \vert}{h} \leq 1 \right) \end{equation}

(8)(8) 带入 (7)(7),得:

f(x)12nhi=1n1(xx(i)h1)=1ni=1n1hK(xx(i)h)= ⁣=deff^(x),\begin{align} f(x) &\approx \frac{1}{2nh} \cdot \sum\limits_{i = 1}^{n} \mathbb{1} \left( \frac{\vert x - x^{(i)} \vert}{h} \leq 1 \right) \nonumber \\ &= \frac{1}{n} \cdot \sum\limits_{i = 1}^{n} \frac{1}{h} \cdot K \left(\frac{x - x^{(i)}}{h} \right) \overset{\text{def}}{=\!=} \hat{f}(x), \end{align}

其中 K(u)=121(u1)K(u) = \frac{1}{2} \mathbb{1} ( \vert u \vert \leq 1),即均匀核函数. 下面我们验证 f(x)f(x) 是概率密度函数,事实上:

Rf^(x)dx=1ni=1nR1hK(xx(i)h)dx=1.\begin{equation} \int_\mathbb{R} \hat{f}(x) \mathrm{d}x = \frac{1}{n} \sum\limits_{i = 1}^{n} \int_\mathbb{R} \frac{1}{h} K\left(\frac{x - x^{(i)}}{h} \right) \mathrm{d}x = 1. \end{equation}

为解决第二个问题,只需将不连续的均匀核函数替换为其它连续核函数即可. 根据归一性,替换后得到的 f^(x)\hat{f}(x) 仍为概率密度函数. 在此基础上,问题三也得以解决,我们称这样的方法为核密度估计.

3.3 核密度估计算法

Algorithm: Kernel Density Estimation\color{blue}{\textbf{Algorithm: Kernel Density Estimation}}(x(1),x(2),,x(n))\left( x^{(1)}, x^{(2)}, \dots, x^{(n)} \right) 是一组给定的独立同分布的简单随机样本,K(x)K(x) 是给定的核函数,h>0h > 0 为给定带宽,则核密度估计给出的概率密度估计函数为:

f^(x)=1nhi=1nK(xx(i)h)=1ni=1nKh(xx(i)).\begin{equation} \hat{f}(x) = \frac{1}{nh} \sum\limits_{i = 1}^{n} K \left( \frac{x - x^{(i)}}{h} \right) = \frac{1}{n} \sum\limits_{i = 1}^{n}K_h(x - x^{(i)}). \end{equation}

其中核函数 K(x)K(x) 即为样本点的“影响衰减函数”,不同样本点的影响衰减函数彼此相同. 通过选取不同的核函数和带宽,可以改变样本点的影响衰减效应,从而改变概率密度估计. 本文剩余内容将介绍如何选取合适的核函数与带宽,但在此之前,我们先讨论核密度估计的期望、方差及其渐进性质. 为此,我们给出三条假设:

  1. 假设 fC2(R)f \in C^2(\mathbb{R}) 且其二阶导数 2f\nabla^2f 平方可积,记为 R(2f)=R[2f(x)]2dxR(\nabla^2 f) = \int_\mathbb{R} \left [ \nabla^2f(x) \right]^2 \mathrm{d}x

  2. 假设核函数 KK 二阶矩存在且平方可积,分别记为μ2(K)=Ru2K(u)du\mu_2(K) = \int_{\mathbb{R}} u^2 K(u) \mathrm{d}uR(K)=RK2(u)duR(K) = \int_{\mathbb{R}} K^2(u) \mathrm{d}u

  3. h=hnh = h_n,假设 nn \rightarrow \inftyh0+h \rightarrow 0^+ 时满足 nh+nh \rightarrow +\infty.

计算 f^\hat{f} 的期望为:

E[f^(x)]=1nhi=1nE[K(xx(i)h)]=1hRK(xth)f(t)dt= ⁣= ⁣= ⁣=u=xthRK(u)f(xhu)du.\begin{align} \mathbb{E}\left[ \hat{f}(x) \right] &= \frac{1}{nh} \sum\limits_{i = 1}^{n} \mathbb{E} \left[ K \left( \frac{x - x^{(i)}}{h} \right) \right] \nonumber \\ &= \frac{1}{h} \int_{\mathbb{R}} K \left( \frac{x - t}{h} \right) f(t) \mathrm{d}t \nonumber \\ &\overset{u = \frac{x - t}{h}}{=\!=\!=\!=} \int_{\mathbb{R}} K(u) f(x - hu) \mathrm{d}u. \end{align}

f(xhu)f(x - hu) 作二阶 Taylor 展开:

f(xhu)=f(x)hzf(x)+12(hu)22f(x)+o(h2),\begin{equation} f(x - hu) = f(x) - hz \cdot\nabla f(x) + \frac{1}{2} (hu)^2 \nabla^2f(x) + o(h^2), \end{equation}

带入到 E[f^(x)]\mathbb{E}\left[ \hat{f}(x) \right] 中得到渐进等式:

E[f^(x)]=RK(u)[f(x)huf(x)+12(hu)22f(x)+o(h2)]du=f(x)RK(u)duhf(x)RuK(u)du+12h22f(x)Ru2K(u)du+o(h2)=f(x)+12h2μ2(K)2f(x)+o(h2).\begin{align} \mathbb{E}\left[ \hat{f}(x) \right] &= \int_{\mathbb{R}} K(u) \left[ f(x) - hu \cdot \nabla f(x) + \frac{1}{2} (hu)^2 \nabla^2 f(x) + o(h^2)\right] \mathrm{d}u \nonumber \\ &= f(x) \int_\mathbb{R} K(u) \mathrm{d}u - h \cdot \nabla f(x) \int_\mathbb{R} u K(u) \mathrm{d}u + \frac{1}{2}h^2 \nabla^2 f(x) \int_\mathbb{R} u^2 K(u) \mathrm{d}u + o(h^2)\nonumber \\ &= f(x) + \frac{1}{2} h^2 \mu_2(K) \nabla^2 f(x) + o(h^2). \end{align}

注意到 f(xhu)=f(x)+O(hu)f(x - hu) = f(x) + O(hu),计算 f^\hat{f} 的方差为:

Var[f^(x)]=1nh2(E[K2(xx(i)h)]E2[K(xx(i)h)])=1nh2[hRK2(u)f(xhu)du(hRK(u)f(xhu)du)2]=1nh2[hRK2(u)[f(x)+O(hu)]duO(h2)]=1nh2[hf(x)R(K)+O(h2)O(h2)]=f(x)R(K)nh+O(1n)=f(x)R(K)nh+o(1nh).\begin{align} \mathrm{Var} \left[ \hat{f}(x) \right] &= \frac{1}{nh^2} \left( \mathbb{E}\left[ K^2 \left( \frac{x - x^{(i)}}{h} \right) \right] - \mathbb{E}^2 \left[ K \left( \frac{x - x^{(i)}}{h} \right) \right] \right) \nonumber \\ &= \frac{1}{nh^2} \left[ h\int_{\mathbb{R}} K^2(u) f(x - hu) \mathrm{d}u - \left( h \int_{\mathbb{R}} K(u) f(x - hu) \mathrm{d}u \right)^2 \right] \nonumber \\ &= \frac{1}{nh^2} \left[ h\int_{\mathbb{R}} K^2(u) [f(x) + O(hu)] \mathrm{d}u - O(h^2) \right] \nonumber \\ &= \frac{1}{nh^2} \left[ h f(x) R(K) + O(h^2) - O(h^2) \right] \nonumber \\ &= \frac{f(x)R(K)}{nh} + O(\frac{1}{n}) \nonumber \\ &= \frac{f(x)R(K)}{nh} + o(\frac{1}{nh}). \end{align}

其中用到了如下渐进等式:

Prop 3.1: \color{blue}{\textbf{Prop 3.1: }} RK2(u)O(hu)du=O(h)\int_{\mathbb{R}} K^2(u) O(hu) \mathrm{d}u = O(h).

Proof: \color{brown}{\textbf{Proof: }} 对于 O(z)O(z),存在 C>0C > 0,使得 O(z)<Cz\vert O(z) \vert < C \vert z \vert,于是有:

RK2(u)O(hu)duRK2(u)O(hu)duRK2(u)Chudu=ChRK2(u)udu=O(h).\begin{align} \lvert \int_{\mathbb{R}} K^2(u) O(hu) \mathrm{d}u \rvert &\leq \int_{\mathbb{R}} K^2(u) \vert O(hu) \vert \mathrm{d}u \nonumber \\ &\leq \int_{\mathbb{R}} K^2(u) Ch\vert u \vert \mathrm{d}u \nonumber \\ &= Ch \int_{\mathbb{R}} K^2(u) \vert u \vert \mathrm{d}u \nonumber \\ &= O(h). \square \end{align}

最后我们给出 Bias[f^(x)]\mathrm{Bias} \left[ \hat{f}(x) \right] 的渐进等式:

Bias[f^(x)]=E[f^(x)]f(x)=12h22f(x)μ2(K)+o(h2).\begin{equation} \mathrm{Bias} \left[ \hat{f}(x) \right] = \mathbb{E} \left[ \hat{f}(x) \right] - f(x) = \frac{1}{2}h^2 \nabla^2 f(x) \mu_2(K) + o(h^2). \\ \end{equation}

可以发现,Bias[f^(x)]\mathrm{Bias} \left[ \hat{f}(x) \right]h2h^22f(x)\nabla^2 f(x) 有关. 在 f(x)f(x) 为凸函数的区域,2f(x)>0\nabla^2 f(x) > 0,有 Bias[f^(x)]>0\mathrm{Bias} \left[ \hat{f}(x) \right] > 0,即核密度估计会高估 ff;反之在 f(x)f(x) 为凹函数的区域,2f(x)<0\nabla^2 f(x) < 0,有 Bias[f^(x)]<0\mathrm{Bias} \left[ \hat{f}(x) \right] < 0,即核密度估计会低估 ff.

4. 带宽的选择

4.1 带宽评价指标

要选取合适的带宽,首先要给出带宽的评价指标. 我们发现当带宽 hh 增大时,影响衰减函数图像越“扁”、曲线越平滑,此时方差减小、偏差增大;反之当带宽 hh 减小时,影响衰减函数图像越“尖”、曲线越陡峭,此时方差增大、偏差减小. 因此,要评价带宽,必须给出对方差和偏差的综合评价指标.

Def 4.1 均方误差: \color{blue}{\textbf{Def 4.1 均方误差: }} 函数 MSE[f^(x)]=E[(f^(x)f(x))2]\mathrm{MSE} \left[ \hat{f}(x) \right] = \mathbb{E}\left[ \left( \hat{f}(x) - f(x) \right)^2 \right] 称为均方误差(Mean Squared Error).

Prop 4.2: \color{blue}{\textbf{Prop 4.2: }} MSE[f^(x)]=Var[f^(x)]+Bias2[f^(x)]\mathrm{MSE} \left[ \hat{f}(x) \right] = \mathrm{Var} \left[ \hat{f}(x) \right] + \mathrm{Bias}^2 \left[ \hat{f}(x) \right].

Proof: \color{brown}{\textbf{Proof: }} 易知 E[f^(x)E(f^(x))]=0\mathbb{E} \left[ \hat{f}(x) - \mathbb{E} \left( \hat{f}(x) \right) \right] = 0,则有:

MSE[f^(x)]=E[(f^(x)f(x))2]=E[[(f^(x)E[f^(x)])+(E[f^(x)]f(x))]2]=E[(f^(x)E[f^(x)])2]+2E[(f^(x)E[f^(x)])(E[f^(x)]f(x))]+E[(E[f^(x)]f(x))2]=Var(f^(x))+2(E[f^(x)]f(x))E[f^(x)E[f^(x)]]+(E[f^(x)]f(x))2=Var[f^(x)]+Bias2[f^(x)].\begin{align} \mathrm{MSE} \left[ \hat{f}(x) \right] &= \mathbb{E}\left[ \left( \hat{f}(x) - f(x) \right)^2 \right] \nonumber \\ &= \mathbb{E} \left[ \left[ \left( \hat{f}(x) - \mathbb{E} \left[ \hat{f}(x) \right] \right) + \left( \mathbb{E} \left[ \hat{f}(x) \right] - f(x) \right) \right]^2 \right] \nonumber \\ &= \mathbb{E} \left[ \left( \hat{f}(x) - \mathbb{E} \left[ \hat{f}(x) \right] \right)^2 \right] + 2 \mathbb{E} \left[ \left( \hat{f}(x) - \mathbb{E} \left[ \hat{f}(x) \right] \right) \left( \mathbb{E} \left[ \hat{f}(x) \right] - f(x) \right) \right] \nonumber \\ & \quad + \mathbb{E} \left[ \left(\mathbb{E} \left[ \hat{f}(x) \right] - f(x)\right)^2 \right]\nonumber \\ &= \mathrm{Var} \left( \hat{f}(x) \right) + 2 \left( \mathbb{E} \left[ \hat{f}(x) \right] - f(x) \right) \mathbb{E} \left[ \hat{f}(x) - \mathbb{E} \left[ \hat{f}(x) \right] \right] + \left(\mathbb{E} \left[ \hat{f}(x) \right] - f(x)\right)^2 \nonumber \\ &= \mathrm{Var} \left[ \hat{f}(x) \right] + \mathrm{Bias}^2 \left[ \hat{f}(x) \right]. \square \end{align}

Def 4.3 均方积分误差: \color{blue}{\textbf{Def 4.3 均方积分误差: }} 积分值 MISE[f^(x)]=RMSE[f^(x)]dx\mathrm{MISE} \left[ \hat{f}(x) \right] = \int_\mathbb{R} \mathrm{MSE} \left[ \hat{f}(x) \right] \mathrm{d}x 称为均方积分误差(Mean Integrated Squared Error).

最优带宽 hopth_{\mathrm{opt}} 理论上是使均方积分误差最小的带宽,即:

hopt=argminhMISE[f^(x)]\begin{equation} h_{\mathrm{opt}} = \arg \mathop{\min}\limits_{h} \mathrm{MISE}\left[ \hat{f}(x) \right] \end{equation}

4.2 渐进最优带宽

首先给出 KDE 中 MSE\mathrm{MSE}MISE\mathrm{MISE} 的渐进形式:

MSE[f^(x)]=Var[f^(x)]+Bias2[f^(x)]=f(x)nhR(K)+o(1nh)+14h4[2f(x)]2μ22(K)+o(h4).    AMSE[f^(x)]=f(x)nhR(K)+14h4[2f(x)]2μ22(K),AMISE[f^(x)]=RAMSE(x)dx=14h4μ22(K)R(2f)+R(K)nh.\begin{align} \mathrm{MSE} \left[ \hat{f}(x) \right] &= \mathrm{Var} \left[ \hat{f}(x) \right] + \mathrm{Bias}^2 \left[ \hat{f}(x) \right] \nonumber \\ &= \frac{f(x)}{nh} R(K) + o(\frac{1}{nh}) + \frac{1}{4}h^4 [\nabla^2 f(x)]^2 \mu_2^2(K) + o(h^4). \\ \implies & \mathrm{AMSE} \left[ \hat{f}(x) \right] = \frac{f(x)}{nh} R(K) + \frac{1}{4}h^4 [\nabla^2 f(x)]^2 \mu_2^2(K), \\ &\mathrm{AMISE} \left[ \hat{f}(x) \right] = \int_{\mathbb{R}} \mathrm{AMSE}(x) \mathrm{d}x = \frac{1}{4}h^4 \mu_2^2(K) R(\nabla^2 f) + \frac{R(K)}{nh}. \end{align}

Prop 4.4: \color{blue}{\textbf{Prop 4.4: }} f^(x)2f(x)\hat{f}(x) \xrightarrow{2} f(x).

Proof: \color{brown}{\textbf{Proof: }} 只需注意到 MSE[f^(x)]=O(1nh)+O(h4)=o(1)\mathrm{MSE} \left[ \hat{f}(x) \right] = O(\frac{1}{nh}) + O(h^4) = o(1). \square

Cor 4.5: \color{blue}{\textbf{Cor 4.5: }} f^(x)2,P,df(x)\hat{f}(x) \xrightarrow{2, \mathbb{P}, d} f(x).

下面讨论渐进意义下求解最优带宽,即:

hasymopt=argminhAMISE[f^(x)]\begin{equation} h_{\mathrm{asym-opt}} = \arg \mathop{\min}\limits_{h} \mathrm{AMISE}\left[ \hat{f}(x) \right] \end{equation}

AMISE[f^(x)]\mathrm{AMISE} \left[ \hat{f}(x) \right] 关于 hh 求导,得:

hAMISE[f^(x)]=h3μ22(K)R(2f)R(K)nh2.\begin{equation} \nabla_h \mathrm{AMISE} \left[ \hat{f}(x) \right] = h^3 \mu_2^2(K) R(\nabla^2 f) - \frac{R(K)}{nh^2}. \end{equation}

ddhAMISE[f^(x)]=0\frac{\mathrm{d}}{\mathrm{d}h} \mathrm{AMISE} \left[ \hat{f}(x) \right] = 0,有:

hasymopt=R(K)μ22(K)R(2f)1n5,AMISE[f^(x)]min=54(R4(K)μ22(K)R(2f)n4)1/5.\begin{align} h_{\mathrm{asym-opt}} &= \sqrt[5]{\frac{R(K)}{\mu_2^2(K)R(\nabla^2 f)} \cdot \frac{1}{n}}, \\ \mathrm{AMISE} \left[ \hat{f}(x) \right]_{\min} &= \frac{5}{4} \left( R^4(K) \cdot \mu_2^2(K) \cdot R(\nabla^2 f) \cdot n^{-4} \right)^{1/5}. \end{align}

在实际应用中,由于不清楚 ff 的真实面貌,无法直接求解 hasymopth_{\mathrm{asym-opt}}. 下面给出一些常用方法.

4.3 Silverman 方法

Silverman 方法假定 ff 服从正态分布 N(μ,σ2)\mathcal{N}(\mu, \sigma^2),即:

f(x)=12πσe(xμ)22σ2.\begin{equation} f(x) = \frac{1}{\sqrt{2 \pi} \sigma} \mathrm{e}^{-\frac{(x - \mu)^2}{2\sigma^2}}. \end{equation}

易知:

2f(x)=f(x)((xμ)2σ41σ2).\begin{equation} \nabla^2 f(x) = f(x) \cdot \left( \frac{(x - \mu)^2}{\sigma^4} - \frac{1}{\sigma^2} \right). \end{equation}

求解 R(2f)R(\nabla^2 f)

R(2f)=R[2f(x)]2dx=12πσ10[R(xμ)4e(xμ)2σ2dx2σ2R(xμ)2e(xμ)2σ2dx+σ4Re(xμ)2σ2dx]=12πσ10[3π4σ52π2σ5+πσ5]=38πσ5.\begin{align} R(\nabla^2 f) &= \int_{\mathbb{R}} \left[ \nabla^2 f(x) \right]^2 \mathrm{d}x \nonumber \\ &= \frac{1}{2 \pi \sigma^{10}} \left[ \int_{\mathbb{R}} (x - \mu)^4 \mathrm{e}^{-\frac{(x - \mu)^2}{\sigma^2}} \mathrm{d}x - 2\sigma^2 \int_{\mathbb{R}} (x - \mu)^2 \mathrm{e}^{-\frac{(x - \mu)^2}{\sigma^2}} \mathrm{d}x + \sigma^4 \int_{\mathbb{R}} \mathrm{e}^{-\frac{(x - \mu)^2}{\sigma^2}} \mathrm{d}x \right] \nonumber \\ &= \frac{1}{2 \pi \sigma^{10}} \left[ \frac{3 \sqrt{\pi}}{4} \sigma^5 - 2 \cdot \frac{\sqrt{\pi}}{2} \sigma^5 + \sqrt{\pi} \sigma^5 \nonumber \right] \\ &= \frac{3}{8\sqrt{\pi} \sigma^5}. \end{align}

C=8πR(K)3μ22(K)5C = \sqrt[5]{\frac{8 \sqrt{\pi} R(K)}{3 \mu_2^2(K)}},于是有:

hsilverman=Cσn1/5.\begin{equation} h_{\mathrm{silverman}} = C \cdot \sigma \cdot n^{-1/5}. \end{equation}

最后,我们对 σ\sigma 进行估计. 最直接的方法是使用样本的标准差 ss 估计 σ\sigma

σ^s=s.\begin{equation} \hat{\sigma}_s = s. \end{equation}

这是因为 E[s2]=σ2\mathbb{E} \left[ s^2 \right] = \sigma^2. 然而,如果样本点中包含极端值,会导致 σ\sigma 被严重高估. 为解决这一问题,我们考虑变换 X=μ+σZ, ZN(0,1)X = \mu + \sigma Z, \space Z \sim \mathcal{N}(0, 1),再将样本点进行排序,得到其上四分位数 Q0.75Q_{0.75} 和下四分位数 Q0.25Q_{0.25}. 根据正态分布的性质,可得:

Q0.75=μ+σΦ1(0.75)Q0.25=μ+σΦ1(0.25)\begin{align} Q_{0.75} = \mu + \sigma \cdot \Phi^{-1}(0.75) \\ Q_{0.25} = \mu + \sigma \cdot \Phi^{-1}(0.25) \end{align}

其中 Φ=12πexp(12x2)\Phi = \frac{1}{\sqrt{2 \pi}} \exp(-\frac{1}{2}x^2) 是标准正态函数. 两式相减,得:

σ^Q=Q0.75Q0.25Φ1(0.75)Φ1(0.25).\begin{equation} \hat{\sigma}_Q = \frac{Q_{0.75} - Q_{0.25}}{\Phi^{-1}(0.75) - \Phi^{-1}(0.25)}. \end{equation}

尽管 σ^Q\hat{\sigma}_Q 相较于 σ^s\hat{\sigma}_s 更能避免极端值的影响,但其之运用到了 50%50\% 的数据,信息利用不完整. 在数据符合正态分布时,σ^s\hat{\sigma}_s 是最优估计,σ^Q\hat{\sigma}_Q 会略大;而数据中出现极端值时,σ^s\hat{\sigma}_s 会大幅增大,而 σ^Q\hat{\sigma}_Q 不受影响. 基于此,我们给出如下对 σ\sigma 进行估计的经验公式:

σ^=min{σ^s,σ^Q}.\begin{equation} \hat{\sigma} = \min \{ \hat{\sigma}_s, \hat{\sigma}_Q \}. \end{equation}

于是得到 Silverman 方法的最终带宽公式:

hsilverman=Cσ^n1/5.\begin{equation} h_{\mathrm{silverman}} = C \cdot \hat{\sigma} \cdot n^{-1/5}. \end{equation}

若选择 Gauss 核,则 CG1.06C_\mathrm{G} \approx 1.06(这也是著名的经验带宽公式);若选择 Epanechnikov 核,则 CE2.34C_\mathrm{E} \approx 2.34;若选择均匀核,则 CU1/36C_{\mathrm{U}} \approx 1/36. 具体计算过程略.

4.3 插入法(Plug-in)

Def 4.6 k 阶核函数: \color{blue}{\textbf{Def 4.6 } \boldsymbol{k} \textbf{ 阶核函数: }}KK 是一个核函数,kN+k \in \mathbb{N}_+. 若对任意的 r=1,2,,k1r = 1, 2, \dots, k - 1 满足 RurK(u)du=0\int_{\mathbb{R}} u^rK(u) \mathrm{d}u = 0,且 RukK(u)du>0\int_{\mathbb{R}} u^kK(u) \mathrm{d}u > 0,则称 KK 是一个 kk 阶核函数.

Prop 4.7: \color{blue}{\textbf{Prop 4.7: }} KKkk 阶核函数,则 kk 是偶数.

Proof: \color{brown}{\textbf{Proof: }} 只需注意到 r<kr < k 是奇数时,urK(u)u^r K(u) 是奇函数即可. \square

下面,我们介绍一个重要的推导思路,引理 4.84.8 是其最简单的形式. 后续我们将利用其思想推导各等式,不作单独证明.

Lem 4.8: \color{blue}{\textbf{Lem 4.8: }} sN+s \in \mathbb{N}_+fC2s(R)f \in C^{2s}(\mathbb{R})limxrf(x)=0, r=1,2,,2s\lim\limits_{x \rightarrow \infty} \nabla^r f(x) = 0, \space \forall r = 1, 2, \dots, 2s,则:

R[sf(x)]2dx=(1)sR2sf(x)f(x)dx.\begin{equation} \int_{\mathbb{R}} [\nabla^s f(x)]^2 \mathrm{d}x = (-1)^s \int_{\mathbb{R}} \nabla^{2s} f(x) \cdot f(x) \mathrm{d}x. \end{equation}

Proof: \color{brown}{\textbf{Proof: }}

R[sf(x)]2dx=Rsf(x)d[s1f(x)]=[sf(x)s1f(x)]+Rs1f(x)d[sf(x)]=Rs1f(x)s+1f(x)dx==(1)sR2sf(x)f(x)dx.\begin{align} \int_{\mathbb{R}} [\nabla^s f(x)]^2 \mathrm{d}x &= \int_{\mathbb{R}} \nabla^s f(x) \mathrm{d}[\nabla^{s - 1} f(x)] \nonumber \\ &= \left[ \nabla^s f(x) \nabla^{s - 1} f(x) \right]^{+\infty}_{-\infty} - \int_{\mathbb{R}} \nabla^{s - 1} f(x) \mathrm{d}[\nabla^s f(x)] \nonumber \\ &= -\int_{\mathbb{R}} \nabla^{s - 1} f(x) \cdot \nabla^{s + 1} f(x) \mathrm{d}x \nonumber \\ &= \dots \nonumber \\ &=(-1)^s \int_{\mathbb{R}} \nabla^{2s} f(x) \cdot f(x) \mathrm{d}x. \square \end{align}

记:

ψr=Rrf(x)f(x)dx=E[rf(X)],\begin{equation} \psi_r = \int_{\mathbb{R}} \nabla^{r} f(x) \cdot f(x) \mathrm{d}x = \mathbb{E} \left[ \nabla^r f(X) \right], \end{equation}

基于引理 4.84.8,我们可以将对 R(2f)R(\nabla^2 f) 的计算转化为对 ψ4\psi_4 的计算. 下面我们给出 ψr\psi_r 的一种非参数估计方式:

ψ^r(g)=1nj=1nrf^g(x(j))=1n2i=1nj=1nrLg(x(j)x(i)).\begin{align} \hat{\psi}_r(g) &= \frac{1}{n} \sum\limits_{j = 1}^{n} \nabla^r \hat{f}_g \left( x^{(j)} \right) \nonumber \\ &= \frac{1}{n^2} \sum\limits_{i = 1}^{n} \sum\limits_{j = 1}^{n} \nabla^r L_g \left( x^{(j)} - x^{(i)} \right). \end{align}

其中 gg 是带宽,LL 是核函数. 注意这里的带宽和核函数可以与 KDE 的带宽与核函数不同. 于是问题转化为求解 gg 使得 AMSE[ψ^r(g)]\mathrm{AMSE} \left[ \hat{\psi}_r(g) \right] 最小. 其中:

MSE[ψ^r(g)]=E[(ψ^r(g)ψr)2].\begin{equation} \mathrm{MSE} \left[ \hat{\psi}_r(g) \right] = \mathbb{E} \left[ \left( \hat{\psi}_r(g) - \psi_r \right)^2 \right]. \end{equation}

利用和前文一样的思想,先给出 E[ψ^r(g)]\mathbb{E} \left[ \hat{\psi}_r(g) \right]

E[ψ^r(g)]=E[1n2i,j=1nrLg(x(j)x(i))]=E[1nrLg(0)+1n2ijrLg(x(j)x(i))]=1nrLg(0)+n1nE[rLg(x(j)x(i))].\begin{align} \mathbb{E} \left[ \hat{\psi}_r(g) \right] &= \mathbb{E} \left[ \frac{1}{n^2} \sum\limits_{i, j = 1}^{n} \nabla^r L_g \left( x^{(j)} - x^{(i)} \right) \right] \nonumber \\ &= \mathbb{E} \left[\frac{1}{n} \nabla^r L_g(0) + \frac{1}{n^2} \sum\limits_{i \not= j} \nabla^r L_g \left( x^{(j)} - x^{(i)} \right) \right] \nonumber \\ &= \frac{1}{n} \nabla^r L_g(0) + \frac{n - 1}{n} \mathbb{E} \left[ \nabla^r L_g \left( x^{(j)} - x^{(i)} \right) \right]. \end{align}

LLkk 阶核函数,其中:

E[rLg(x(j)x(i))]=R2rLg(xy)f(x)f(y)dxdy=Rf(x)dxRrLg(xy)f(y)dy=Rf(x)dxRLg(xy)rf(y)dy=R2Lg(xy)f(x)rf(y)dxdy= ⁣= ⁣= ⁣=u=xygR2L(u)f(y+gu)rf(y)dudy=R2L(u)[l=0k1l!(gu)llf(x)+o(gk)]rf(y)dudy=Rf(y)rf(y)dy+1k!gkμk(L)Rkf(y)rf(y)dy+o(gk)Rrf(y)dy=ψr(g)+1k!gkμk(L)ψk+r(g)+o(gk).\begin{align} \mathbb{E} \left[ \nabla^r L_g \left( x^{(j)} - x^{(i)} \right) \right] &= \iint_{\mathbb{R}^2} \nabla^r L_g(x - y) f(x) f(y) \mathrm{d}x \mathrm{d}y \nonumber \\ &= \int_{\mathbb{R}} f(x) \mathrm{d}x \cdot \int_{\mathbb{R}}\nabla^r L_g(x - y) f(y) \mathrm{d}y \nonumber \\ &= \int_{\mathbb{R}} f(x) \mathrm{d}x \cdot \int_{\mathbb{R}} L_g(x - y) \nabla^r f(y) \mathrm{d}y \nonumber \\ &= \iint_{\mathbb{R}^2} L_g(x - y) f(x) \nabla^r f(y) \mathrm{d}x \mathrm{d}y \nonumber \\ &\overset{u = \frac{x - y}{g}}{=\!=\!=\!=} \iint_{\mathbb{R}^2} L(u) f(y + gu) \nabla^r f(y) \mathrm{d}u \mathrm{d}y \nonumber \\ &= \iint_{\mathbb{R}^2} L(u) \left[ \sum\limits_{l = 0}^{k} \frac{1}{l!} (gu)^l \nabla^l f(x) + o(g^k) \right] \nabla^r f(y) \mathrm{d}u \mathrm{d}y \nonumber \\ &= \int_{\mathbb{R}} f(y) \nabla^r f(y) \mathrm{d}y + \frac{1}{k!} g^k \mu_k(L) \int_{\mathbb{R}} \nabla^k f(y) \nabla^r f(y) \mathrm{d}y \nonumber \\ &\quad + o(g^k) \int_{\mathbb{R}} \nabla^r f(y) \mathrm{d}y \nonumber \\ &= \psi_r(g) + \frac{1}{k!} g^k \mu_k(L) \psi_{k + r}(g) + o(g^k). \end{align}

注意到 n1n1\frac{n - 1}{n} \sim 1,得到:

E[ψ^r(g)]=1nrLg(0)+ψr(g)+1k!gkμk(L)ψr+k(g)+o(gk)=1ngr+1rL(0)+ψr(g)+1k!gkμk(L)ψr+k(g)+o(gk)\begin{align} \mathbb{E} \left[ \hat{\psi}_r(g) \right] &= \frac{1}{n} \nabla^r L_g(0) + \psi_r(g) + \frac{1}{k!} g^k \mu_k(L) \psi_{r + k}(g) + o(g^k) \nonumber \\ &= \frac{1}{ng^{r + 1}} \nabla^r L(0) + \psi_r(g) + \frac{1}{k!} g^k \mu_k(L) \psi_{r + k}(g) + o(g^k) \end{align}

故偏差为:

Bias[ψ^r(g)]=1ngr+1rL(0)+1k!gkμk(L)ψr+k(g)+o(gk).\begin{equation} \mathrm{Bias} \left[ \hat{\psi}_r(g) \right] = \frac{1}{ng^{r + 1}} \nabla^r L(0) + \frac{1}{k!} g^k \mu_k(L) \psi_{r + k}(g) + o(g^k). \end{equation}

接下来,我们推导 Var[ψ^r(g)]\mathrm{Var} \left[ \hat{\psi}_r(g) \right],记 rLg(x(i)x(j))=Lij\nabla^r L_g(x^{(i)} - x^{(j)}) = L_{ij},对 Var[ψ^r(g)]\mathrm{Var} \left[ \hat{\psi}_r(g) \right] 进行展开:

Var[ψ^r(g)]=1n4Var[i=1nj=1nrLg(x(j)x(i))]=1n4i,jk,lCov(Lij,Lkl).\begin{align} \mathrm{Var} \left[ \hat{\psi}_r(g) \right] &= \frac{1}{n^4} \mathrm{Var} \left[ \sum\limits_{i = 1}^{n} \sum\limits_{j = 1}^{n} \nabla^r L_g \left( x^{(j)} - x^{(i)} \right) \right] \nonumber \\ &= \frac{1}{n^4} \sum\limits_{i, j} \sum\limits_{k, l} \mathrm{Cov}(L_{ij}, L_{kl}). \end{align}

Cov(Lij,Lkl)\mathrm{Cov}(L_{ij}, L_{kl}) 进行分类讨论:

  1. i=ji = jk=lk = l,此时 Cov(Lij,Lkl)\mathrm{Cov}(L_{ij}, L_{kl}) 退化为 Cov(Lg(0),Lg(0))=0\mathrm{Cov}\left( L_g(0), L_g(0) \right) = 0.
  2. iji \not= jklk \not= l,则:
    1. {i,j}{k,l}=2\vert \{i, j\} \cap \{k, l\} \vert = 2,这样的情况有 2An2=2n(n1)2 A_n^2 = 2n(n - 1) 种,根据核函数的对称性,有:Cov(Lij,Lkl)=Var(Lij,Lij)\mathrm{Cov}(L_{ij}, L_{kl}) = \mathrm{Var}(L_{ij}, L_{ij}).
    2. {i,j}{k,l}=1\vert \{i, j\} \cap \{k, l\} \vert = 1,不妨设 j=lj = l,这样的情况有 4An3=4n(n1)(n2)4A_n^3 = 4n(n - 1)(n - 2) 种,根据核函数的对称性,有:Cov(Lij,Lkl)=Var(Lij,Ljk)\mathrm{Cov}(L_{ij}, L_{kl}) = \mathrm{Var}(L_{ij}, L_{jk}).
    3. {i,j}{k,l}=0\vert \{i, j\} \cap \{k, l\} \vert = 0LijL_{ij}LjkL_{jk} 独立,此时有 Cov(Lij,Lkl)=0\mathrm{Cov}(L_{ij}, L_{kl}) = 0.

于是,得到 Var[ψ^r(g)]\mathrm{Var} \left[ \hat{\psi}_r(g) \right] 的展开式:

Var[ψ^r(g)]=2(n1)n3Var(L1,2)+4(n1)(n2)n3Cov(L1,2,L2,3).\begin{equation} \mathrm{Var} \left[ \hat{\psi}_r(g) \right] = \frac{2(n - 1)}{n^3} \mathrm{Var} \left( L_{1, 2} \right) + \frac{4(n - 1)(n - 2)}{n^3} \mathrm{Cov} \left( L_{1, 2}, L_{2, 3} \right). \end{equation}

其中:

E(L1,22)=R2[rLg(xy)]2f(x)f(y)dxdy=1g2r+1R2[rL(u)]2f(y+ug)f(y)dudy=1g2r+1R2[rL(u)]2[f(y)+o(1)]f(y)dudy=1g2r+1ψ0R(rL)+o(1g2r+1).\begin{align} \mathbb{E} \left( L_{1, 2}^2 \right) &= \iint_{\mathbb{R}^2} \left[ \nabla^r L_g (x - y) \right]^2 f(x) f(y) \mathrm{d}x \mathrm{d}y \nonumber \\ &= \frac{1}{g^{2r + 1}} \iint_{\mathbb{R}^2} \left[ \nabla^r L (u) \right]^2 f(y + ug) f(y) \mathrm{d}u \mathrm{d}y \nonumber \\ &= \frac{1}{g^{2r + 1}} \iint_{\mathbb{R}^2} \left[ \nabla^r L (u) \right]^2 \left[ f(y) + o(1) \right] f(y) \mathrm{d}u \mathrm{d}y \nonumber \\ &= \frac{1}{g^{2r + 1}} \psi_0 R(\nabla^r L) + o(\frac{1}{g^{2r + 1}}). \end{align}
E(L1,2L2,3)=R3rLg(xy)rLg(yz)f(x)f(y)f(z)dxdydz=R3Lg(xy)Lg(yz)rf(x)f(y)rf(z)dxdydz=R3Lg(u)Lg(v)rf(y+ug)f(y)rf(yvg)dudvdy=R3Lg(u)Lg(v)f(y)[rf(y)+o(1)]2dudvdy=R[rf(y)]2f(y)dy+o(1).\begin{align} \mathbb{E} \left( L_{1, 2} \cdot L_{2, 3} \right) &= \iiint_{\mathbb{R}^3} \nabla^r L_g (x - y) \nabla^r L_g (y - z) f(x) f(y) f(z) \mathrm{d}x \mathrm{d}y \mathrm{d}z \nonumber \\ &= \iiint_{\mathbb{R}^3} L_g (x - y) L_g (y - z) \nabla^r f(x) f(y) \nabla^r f(z) \mathrm{d}x \mathrm{d}y \mathrm{d}z \nonumber \\ &= \iiint_{\mathbb{R}^3} L_g (u) L_g (v) \nabla^r f(y + ug) f(y) \nabla^r f(y - vg) \mathrm{d}u \mathrm{d}v \mathrm{d}y \nonumber \\ &= \iiint_{\mathbb{R}^3} L_g (u) L_g (v) f(y) \left[ \nabla^r f(y) + o(1) \right]^2 \mathrm{d}u \mathrm{d}v \mathrm{d}y \nonumber \\ &= \int_{\mathbb{R}} \left[ \nabla^r f(y) \right]^2 f(y) \mathrm{d}y + o(1). \end{align}

最后,注意到 E(L1,2)=ψr+o(1)\mathbb{E}(L_{1, 2}) = \psi_r + o(1),有:

Var[ψ^r(g)]=2n2[E(L1,22)E2(L1,2)]+4n[E(L1,2L2,3)E2(L1,2)]=2n2g2r+1ψ0R(rL)+o(2n2g2r+1)2n2ψr2+o(1n2)+4nR[rf(y)]2f(y)dy+o(1n)4nψr2+o(1n)=2n2g2r+1ψ0R(rL)+4n[R[rf(y)]2f(y)dyψr2]+o(2n2g2r+1+1n).\begin{align} \mathrm{Var} \left[ \hat{\psi}_r(g) \right] &= \frac{2}{n^2} \left[ \mathbb{E}(L_{1, 2}^2) - \mathbb{E}^2(L_{1, 2}) \right] + \frac{4}{n} \left[ \mathbb{E}(L_{1, 2} \cdot L_{2, 3}) - \mathbb{E}^2(L_{1, 2}) \right] \nonumber \\ &= \frac{2}{n^2 g^{2r + 1}} \psi_0 R(\nabla^r L) + o(\frac{2}{n^2 g^{2r + 1}}) - \frac{2}{n^2} \psi_r^2 + o(\frac{1}{n^2}) \nonumber \\ &\quad + \frac{4}{n} \int_{\mathbb{R}} \left[ \nabla^r f(y) \right]^2 f(y) \mathrm{d}y + o(\frac{1}{n}) - \frac{4}{n} \psi_r^2 + o(\frac{1}{n}) \nonumber \\ &= \frac{2}{n^2 g^{2r + 1}} \psi_0 R(\nabla^r L) + \frac{4}{n} \left[ \int_{\mathbb{R}} \left[ \nabla^r f(y) \right]^2 f(y) \mathrm{d}y - \psi_r^2 \right] + o(\frac{2}{n^2 g^{2r + 1}} + \frac{1}{n}). \end{align}

从而得到渐进均方误差:

AMSE[ψ^r(g)]=[1ngr+1rL(0)+1k!gkμk(L)ψr+k(g)]2+2n2g2r+1ψ0R(rL)+4n[R[rf(x)]2f(x)dxψr2].\begin{align} \mathrm{AMSE} \left[ \hat{\psi}_r(g) \right] &= \left[ \frac{1}{ng^{r + 1}} \nabla^r L(0) + \frac{1}{k!} g^k \mu_k(L) \psi_{r + k}(g) \right]^2 \nonumber \\ &\quad + \frac{2}{n^2 g^{2r + 1}} \psi_0 R(\nabla^r L) + \frac{4}{n} \left[ \int_{\mathbb{R}} \left[ \nabla^r f(x) \right]^2 f(x) \mathrm{d}x - \psi_r^2 \right]. \end{align}

这一式子十分复杂,难以通过求偏导并令导数为 00 的方法求解理论最优带宽,但是我们可以计算其近似最优带宽:通过分析发现,当 gg 增大时,g2kg^{2k} 成为主导项,AMSE[ψ^r(g)]\mathrm{AMSE} \left[ \hat{\psi}_r(g) \right] 显著增高;gg 减小时,1g2r+2\frac{1}{g^{2r + 2}} 成主导项,AMSE[ψ^r(g)]\mathrm{AMSE} \left[ \hat{\psi}_r(g) \right] 也会显著增高. 因此,减小 AMSE[ψ^r(g)]\mathrm{AMSE} \left[ \hat{\psi}_r(g) \right] 的关键在于选取一个平衡的 gg,使得 AMSE[ψ^r(g)]\mathrm{AMSE} \left[ \hat{\psi}_r(g) \right] 既不会太大也不会太小. 我们根据这样的思想,忽略不占据主导位置的 2n2g2r+1ψ0R(rL)\frac{2}{n^2 g^{2r + 1}} \psi_0 R(\nabla^r L) 项和不含 gg4n[R[rf(x)]2f(x)dxψr2]\frac{4}{n} \left[ \int_{\mathbb{R}} \left[ \nabla^r f(x) \right]^2 f(x) \mathrm{d}x - \psi_r^2 \right] 项,令:

1ngr+1rL(0)+1k!gkμk(L)ψr+k(g)=0,\begin{equation} \frac{1}{ng^{r + 1}} \nabla^r L(0) + \frac{1}{k!} g^k \mu_k(L) \psi_{r + k}(g) = 0, \end{equation}

得到:

gapproxopt=[k!rL(0)μk(L)ψr+kn]1/(r+k+1).\begin{equation} g_{\mathrm{approx-opt}} = \left[ \frac{k! \nabla^r L(0)}{-\mu_k(L) \psi_{r + k} n} \right]^{1/(r + k + 1)}. \end{equation}

gapproxoptg_{\mathrm{approx-opt}} 带入到 (51)(51) 中,仅保留 nn 最高次数项(主导项,其他项省略):

infg>0AMSE{2R(rL)ψ0[μk(L)ψr+krL(0)k!](2r+1)/(r+k+1)n(2k+1)/(r+k+1),k<r4n[R[rf(x)]2f(x)dxψr2]=4nVar[rf(x)],k>rthe sum of the above two terms,k=r.\begin{equation} \inf\limits_{g > 0} \mathrm{AMSE} \sim \begin{cases} 2 R(\nabla^r L) \psi_0 \left[ \frac{\mu_k(L) \psi_{r + k}}{-\nabla^r L(0) k!} \right]^{(2r + 1) / (r + k + 1)} \cdot n^{-(2k + 1) / (r + k + 1)}, & k < r \\ \frac{4}{n} \left[ \int_{\mathbb{R}} \left[ \nabla^r f(x) \right]^2 f(x) \mathrm{d}x - \psi_r^2 \right] = \frac{4}{n} \mathrm{Var} \left[ \nabla^r f(x) \right], & k > r \\ \text{the sum of the above two terms}, & k = r. \end{cases} \end{equation}

一般来讲,我们使用的核函数是 22 阶核函数,以下也仅以 k=2k = 2 为例进行讨论. 带入 k=2k = 2,得:

gapproxopt=[2rL(0)μ2(L)ψr+2n]1/(r+3).\begin{equation} g_{\mathrm{approx-opt}} = \left[ \frac{2 \nabla^r L(0)}{-\mu_2(L) \psi_{r + 2} n} \right]^{1/(r + 3)}. \end{equation}

我们先回到问题本身,我们的目标是计算 KDE 的最优带宽,即:

hasymopt=[R(K)μ22(K)ψ4n]1/5.\begin{equation} h_{\mathrm{asym-opt}} = \left[ \frac{R(K)}{\mu_2^2(K) \psi_4 n} \right]^{1/5}. \end{equation}

ψ4\psi_4 替换为核估计量 ψ^4(g)\hat{\psi}_4(g),便得到插入法的最优带宽计算公式:

hplugein=[R(K)μ22(K)ψ^4n]1/5.\begin{equation} h_{\mathrm{pluge-in}} = \left[ \frac{R(K)}{\mu_2^2(K) \hat{\psi}_4 n} \right]^{1/5}. \end{equation}

然而,ψ^4(g)\hat{\psi}_4(g) 的计算依赖于 gapproxopt,4g_{\mathrm{approx-opt}, 4},根据公式,gapproxopt,4g_{\mathrm{approx-opt}, 4} 的计算又依赖于 ψ6\psi_6. 依次类推,最终会导致无限的循环:对 ψr\psi_r 的估计总是依赖于 ψr+2\psi_{r + 2}. 解决这一问题的方法为:选取一个上限 lN+\mathscr{l} \in \mathbb{N}_+,在计算到 ψ2l+4\psi_{2\mathscr{l} + 4}(或者更一般地,计算到 ψkl+4\psi_{k\mathscr{l} + 4})时停止,转而用另一种方法进行估计(推导过程将放在本节末尾处):

ψ^NS,r=(1)r/2r!(2σ)r+1(r/2)!π1/2.\begin{equation} \hat{\psi}_{\mathrm{NS}, r} = \frac{(-1)^{r / 2} r!}{(2\sigma)^{r + 1}(r / 2)! \pi^{1 / 2}}. \end{equation}

例如,我们选取 l=2\mathscr{l} = 2,先估计 ψ^8=ψ^NS,8\hat{\psi}_8 = \hat{\psi}_{\mathrm{NS}, 8},利用 ψ^8\hat{\psi}_8 计算 gapproxopt,6g_{\mathrm{approx-opt}, 6},进而得到 ψ^6\hat{\psi}_6. 利用 ψ^6\hat{\psi}_6 我们可以计算 gapproxopt,4g_{\mathrm{approx-opt}, 4},进而得到 ψ^4\hat{\psi}_4,最终得到 hplugein,2h_{\mathrm{pluge-in}, 2}. 我们将上述方法综合记为(在 k=2k = 2 意义下):

hplugein,l=[R(K)μ22(K)ψ^4n]1/5,ψ^2s+4=1nj=1nrf^g2s+4(x(j)),ψ^2l+4=(1)l+2(2l+4)!(2σ)2l+5(l+2)!π1/2,g2s+4=[22s+4L(0)μ2(L)ψ2s+6n]1/(2s+7), s=0,1,2,,l1.\begin{align} h_{\mathrm{pluge-in}, \mathscr{l}} &= \left[ \frac{R(K)}{\mu_2^2(K) \hat{\psi}_4 n} \right]^{1/5}, \\ \hat{\psi}_{2s + 4} &= \frac{1}{n} \sum\limits_{j = 1}^{n} \nabla^r \hat{f}_{g_{2s + 4}} \left( x^{(j)} \right), \\ \hat{\psi}_{2\mathscr{l} + 4} &= \frac{(-1)^{\mathscr{l} + 2} (2\mathscr{l} + 4)!}{(2\sigma)^{2\mathscr{l} + 5}(\mathscr{l} + 2)! \pi^{1 / 2}}, \\ g_{2s + 4} &= \left[ \frac{2 \nabla^{2s + 4} L(0)}{-\mu_2(L) \psi_{2s + 6} n} \right]^{1/(2s + 7)}, \\ \space s &= 0, 1, 2, \dots, \mathscr{l} - 1. \nonumber \end{align}

以上方法称为 l\mathscr{l} 阶段插入法. 目前尚未存在一个客观选择 l\mathscr{l} 的标准方法,一般而言,取 l=2\mathscr{l} = 2 即可.

现在来推导式子 (58)(58),假设 ff 服从正态分布 N(μ,σ2)\mathcal{N}(\mu, \sigma^2),则:

rf(x)=f(x)(1)rσrHer(xμσ),\begin{equation} \nabla^r f(x) = f(x) \cdot \frac{(-1)^r}{\sigma^r} \mathrm{He}_r \left( \frac{x - \mu}{\sigma} \right), \end{equation}

其中 Her(z)\mathrm{He}_r (z) 是概率论的埃尔米特多项式(Hermite Polynomial, HP),其相关知识这里不作叙述.

ψr=Rrf(x)f(x)dx=R[f(x)(1)rσrHer(xμσ)]f(x)dx=(1)rσrRf2(x)Her(xμσ)dx.\begin{align} \psi_r = \int_{\mathbb{R}} \nabla^r f(x) f(x) \mathrm{d}x &= \int_{\mathbb{R}} \left[ f(x) \cdot \frac{(-1)^r}{\sigma^r} \mathrm{He}_r \left( \frac{x - \mu}{\sigma} \right) \right] f(x) \mathrm{d}x \nonumber \\ &= \frac{(-1)^r}{\sigma^r} \int_{\mathbb{R}} f^2(x) \cdot \mathrm{He}_r \left( \frac{x - \mu}{\sigma} \right) \mathrm{d}x. \end{align}

记标准正态分布函数为 Φ\Phi,对式子 (64)(64) 进行变量代换,得:

ψr=(1)rσr+1RΦ2(z)Her(z)dz=(1)r2πσr+1Rez2Her(z)dz= ⁣=def(1)r2πσr+1Ir.\begin{align} \psi_r &= \frac{(-1)^r}{\sigma^{r + 1}} \int_{\mathbb{R}} \Phi^2(z) \cdot \mathrm{He}_r \left( z \right) \mathrm{d}z \nonumber \\ &= \frac{(-1)^r}{2\pi \sigma^{r + 1}} \int_{\mathbb{R}} \mathrm{e}^{-z^2} \mathrm{He}_r \left( z \right) \mathrm{d}z \nonumber \\ &\overset{\text{def}}{=\!=} \frac{(-1)^r}{2\pi \sigma^{r + 1}} I_r. \end{align}

利用 HP 的生成函数:

eztt22=r=0trr!Her(z),\begin{equation} \mathrm{e}^{zt - \frac{t^2}{2}} = \sum\limits_{r = 0}^{\infty} \frac{t^r}{r!} \mathrm{He}_r (z), \end{equation}

一方面:

Rez2eztt22dz=et24Re(zt2)2dz=et24π=πr=0(1)rr!(t24)r=πr=0(1)r4rr!t2r,\begin{align} \int_{\mathbb{R}} \mathrm{e}^{-z^2} \cdot \mathrm{e}^{zt - \frac{t^2}{2}} \mathrm{d}z &= \mathrm{e}^{-\frac{t^2}{4}} \int_{\mathbb{R}} \mathrm{e}^{-(\frac{z - t}{2})^2} \mathrm{d}z \nonumber \\ &= \mathrm{e}^{-\frac{t^2}{4}} \cdot \sqrt{\pi} \nonumber \\ &= \sqrt{\pi} \sum\limits_{r = 0}^{\infty} \frac{(-1)^r}{r!} \left( \frac{t^2}{4} \right)^r \nonumber \\ &= \sqrt{\pi} \sum\limits_{r = 0}^{\infty} \frac{(-1)^r}{4^r r!} t^{2r}, \end{align}

另一方面:

Rez2eztt22dz=Rez2r=0trr!Her(z)dz=r=0[Rez2Her(z)dz]trr!=r=0trr!Ir.\begin{align} \int_{\mathbb{R}} \mathrm{e}^{-z^2} \cdot \mathrm{e}^{zt - \frac{t^2}{2}} \mathrm{d}z &= \int_{\mathbb{R}} \mathrm{e}^{-z^2} \cdot \sum\limits_{r = 0}^{\infty} \frac{t^r}{r!} \mathrm{He}_r (z) \mathrm{d}z \nonumber \\ &= \sum\limits_{r = 0}^{\infty} \left[ \int_{\mathbb{R}} \mathrm{e}^{-z^2} \mathrm{He}_r (z) \mathrm{d}z \right] \cdot \frac{t^r}{r!} \nonumber \\ &= \sum\limits_{r = 0}^{\infty} \frac{t^r}{r!} I_r. \end{align}

比较式子 (67)(67)(68)(68) 可得:

Ir={(1)r/2r!2r(r/2)!π,r is even0,r is odd.\begin{equation} I_r = \begin{cases} \frac{(-1)^{r / 2} r!}{2^r (r/2)!} \cdot \sqrt{\pi}, & r \text{ is even} \\ 0, & r \text{ is odd}. \end{cases} \end{equation}

于是当 rr 是偶数时:

ψr=(1)r2πσr+1Ir=(1)r/2r!(2σ)r+1(r/2)!π1/2.\begin{align} \psi_r = \frac{(-1)^r}{2\pi \sigma^{r + 1}} I_r = \frac{(-1)^{r / 2} r!}{(2\sigma)^{r + 1}(r / 2)! \pi^{1 / 2}}. \end{align}

4.4 留一交叉验证法(Leave-One-Out CV, LOO-CV)

留一交叉验证法同样使用 MISE\mathrm{MISE} 作为最优带宽的选择标准. 不同的是,留一交叉验证法构建了 LOOCV\mathrm{LOOCV} 函数,

首先,回顾 MISE\mathrm{MISE} 的公式:

MISE(f^(x))=RE[(f^(x)f(x))2]dx=E[Rf^2(x)dx]2E[Rf^(x)f(x)dx]+Rf2(x)dx.\begin{align} \mathrm{MISE}(\hat{f}(x)) &= \int_{\mathbb{R}} \mathbb{E}\left[ \left( \hat{f}(x) - f(x) \right)^2 \right] \mathrm{d}x \nonumber \\ &= \mathbb{E}\left[ \int_{\mathbb{R}} \hat{f}^2 (x) \mathrm{d}x \right] - 2 \mathbb{E}\left[ \int_{\mathbb{R}} \hat{f}(x) f(x) \mathrm{d}x \right] + \int_{\mathbb{R}} f^2(x) \mathrm{d}x. \end{align}

其中 Rf2(x)dx\int_{\mathbb{R}} f^2(x) \mathrm{d}xhh 无关. 因此最小化 MISE\mathrm{MISE} 等价于最小化 E[Rf^2(x)dx]2E[Rf^(x)f(x)dx]\mathbb{E}\left[ \int_{\mathbb{R}} \hat{f}^2 (x) \mathrm{d}x \right] - 2 \mathbb{E}\left[ \int_{\mathbb{R}} \hat{f}(x) f(x) \mathrm{d}x \right]. 由于 f(x)f(x) 未知,无法直接求解. 下面采用 Monte-Carlo 算法的思想,对其进行近似.

对于每个 j=1,2,,nj = 1, 2, \dots, n,作训练集 Sj=S{x(j)}\mathcal{S}_{-j} = \mathcal{S} \setminus \{x^{(j)}\},利用 Sj\mathcal{S}_{-j} 作函数 f^h,j(x)\hat{f}_{h, -j}(x)

f^h,j(x)=1(n1)hi=1,ijnK(xx(i)h).\begin{equation} \hat{f}_{h, -j}(x) = \frac{1}{(n - 1)h} \sum\limits_{i = 1, i \not= j}^{n} K \left( \frac{x - x^{(i)}}{h} \right). \end{equation}

显然有:

Rf^h(x)f(x)dx1nj=1nf^h,j(x(j))\begin{equation} \int_{\mathbb{R}} \hat{f}_h(x) f(x) \mathrm{d}x \approx \frac{1}{n} \sum\limits_{j = 1}^{n} \hat{f}_{h, -j}(x^{(j)}) \end{equation}

定义 LOOCV\mathrm{LOOCV} 函数:

LOOCV(h)=Rf^h2(x)dx2nj=1nf^h,j(x(j)).\begin{equation} \mathrm{LOOCV}(h) = \int_{\mathbb{R}} \hat{f}_h^2 (x) \mathrm{d}x - \frac{2}{n} \sum\limits_{j = 1}^{n} \hat{f}_{h, -j}(x^{(j)}). \end{equation}

容易验证:

E[LOOCV(h)]=MISE(f^h(x))R(f)\begin{equation} \mathbb{E} \left[ \mathrm{LOOCV}(h) \right] = \mathrm{MISE}(\hat{f}_h(x)) - R(f) \end{equation}

因此最小化 LOOCV(h)\mathrm{LOOCV}(h) 等价于最小化 MISE(f^(x))\mathrm{MISE}(\hat{f}(x)). 即:

hLOOCV=argminhLOOCV(h).\begin{equation} h_{\mathrm{LOOCV}} = \arg \mathop{\min}\limits_{h} \mathrm{LOOCV}\left( h \right). \end{equation}

下面补充 LOOCV\mathrm{LOOCV}Rf^2(x)dx\int_{\mathbb{R}} \hat{f}^2 (x) \mathrm{d}x 的计算方法:

Rf^h(x)2dx=1n2h2i=1nj=1nRK(xx(i)h)K(xx(j)h)dx= ⁣= ⁣=u=xx(i)h1n2h2i=1nj=1nRK(u)K(u+x(i)x(j)h)hdu.=1n2hi=1nj=1n(KK)(x(i)x(j)h).\begin{align} \int_{\mathbb{R}} \hat{f}_h(x)^2 dx &= \frac{1}{n^2 h^2} \sum_{i = 1}^{n} \sum_{j = 1}^{n} \int_{\mathbb{R}} K\left( \frac{x - x^{(i)}}{h} \right) K\left( \frac{x - x^{(j)}}{h} \right) \mathrm{d}x \nonumber \\ &\overset{u = \frac{x - x^{(i)}}{h}}{=\!=\!=} \frac{1}{n^2 h^2} \sum_{i = 1}^{n} \sum_{j = 1}^{n} \int_{\mathbb{R}} K(u) K \left( u + \frac{x^{(i)} - x^{(j)}}{h} \right) h \mathrm{d}u. \nonumber \\ &= \frac{1}{n^2 h} \sum_{i = 1}^{n} \sum_{j = 1}^{n} (K * K) \left( \frac{x^{(i)} - x^{(j)}}{h} \right) \end{align}.

例如对于 Gauss 核,可直接利用其卷积公式 (KGKG)(t)=12πet2/4(K_{\mathrm{G}} * K_{\mathrm{G}} )(t) = \frac{1}{2\sqrt{\pi}}e^{-t^2/4} 快速计算.

4.5 有偏交叉验证法(Biased CV, BCV)

有偏交叉验证的核心思想是用 R(2f^)R(\nabla^2 \hat{f}) 来估计 R(2f)R(\nabla^2 f). 事实上,前者是后者的有偏估计,我们先计算 R(2f^)R(\nabla^2 \hat{f}) 的期望:

E[R(2f^)]=E[R[2f^(x)]2dx]=E[1n2i=1nj=1nR2Kh(xx(i))2Kh(xx(j))dx]=1n2i=1nj=1nE[(2Kh2Kh)(x(i)x(j))].\begin{align} \mathbb{E} \left[ R(\nabla^2 \hat{f}) \right] &= \mathbb{E} \left[ \int_{\mathbb{R}} \left[ \nabla^2 \hat{f}(x) \right]^2 \mathrm{d}x \right] \nonumber \\ &= \mathbb{E} \left[ \frac{1}{n^2} \sum\limits_{i = 1}^{n} \sum\limits_{j = 1}^{n} \int_{\mathbb{R}} \nabla^2 K_h \left( x - x^{(i)} \right) \cdot \nabla^2 K_h \left( x - x^{(j)} \right) \mathrm{d}x \right] \nonumber \\ &= \frac{1}{n^2} \sum\limits_{i = 1}^{n} \sum\limits_{j = 1}^{n} \mathbb{E} \left[ \left( \nabla^2 K_h \ast \nabla^2K_h \right) \left( x^{(i)} - x^{(j)} \right) \right]. \end{align}
  1. i=ji = jE[(2Kh2Kh)(x(i)x(j))]=E[h5R(2K)]=h5R(2K)\mathbb{E} \left[ \left( \nabla^2 K_h \ast \nabla^2K_h \right) \left( x^{(i)} - x^{(j)} \right) \right] = \mathbb{E} \left[ h^{-5}R(\nabla^2 K) \right] = h^{-5}R(\nabla^2 K)

  2. iji \not= j,有:

    E[(2Kh2Kh)(x(i)x(j))]=R2(2Kh2Kh)(st)f(s)f(t)dsdt=R(2Kh2Kh)(u)(ff)(u)du.\begin{align} \mathbb{E} \left[ \left( \nabla^2 K_h \ast \nabla^2K_h \right) \left( x^{(i)} - x^{(j)} \right) \right] &= \iint_{\mathbb{R^2}} \left( \nabla^2 K_h \ast \nabla^2K_h \right) \left( s - t \right) f(s) f(t) \mathrm{d}s \mathrm{d}t \nonumber \\ &= \int_{\mathbb{R}} \left( \nabla^2 K_h \ast \nabla^2K_h \right) \left( u \right) \left( f \ast f \right) \left( u \right) \mathrm{d}u. \end{align}

    带入,得:

    E[R(2f^)]=1nh5R(2K)+n1nR(2Kh2Kh)(u)(ff)(u)du.\begin{align} \mathbb{E} \left[ R(\nabla^2 \hat{f}) \right] &= \frac{1}{nh^5} R(\nabla^2 K) + \frac{n - 1}{n} \int_{\mathbb{R}} \left( \nabla^2 K_h \ast \nabla^2K_h \right) \left( u \right) \left( f \ast f \right) \left( u \right) \mathrm{d}u . \end{align}

    下面证明 limh0+R(2Kh2Kh)(u)(ff)(u)du=R(2f)\lim\limits_{h \rightarrow 0^+} \int_{\mathbb{R}} \left( \nabla^2 K_h \ast \nabla^2K_h \right) \left( u \right) \left( f \ast f \right) \left( u \right) \mathrm{d}u = R(\nabla^2 f),根据 Parseval 定理及卷积定理,有:

     R(2Kh2Kh)(u)(ff)(u)du=RF[2Kh2Kh](t)F[ff](t)dt=R[F[2Kh](t)]2[F[f](t)]2dt=Rt4[F[K](ht)]2[F[f](t)]2dt.\begin{align} &\quad \space \int_{\mathbb{R}} \left( \nabla^2 K_h \ast \nabla^2K_h \right) \left( u \right) \left( f \ast f \right) \left( u \right) \mathrm{d}u \nonumber \\ &= \int_{\mathbb{R}} \mathcal{F} \left[ \nabla^2 K_h \ast \nabla^2K_h \right] (t) \cdot \mathcal{F} \left[ f \ast f \right] (t) \mathrm{d}t \nonumber \\ &= \int_{\mathbb{R}} \left[ \mathcal{F} \left[ \nabla^2 K_h\right] (t) \right]^2 \cdot \left[ \mathcal{F} \left[ f \right] (t) \right]^2 \mathrm{d}t \nonumber \\ &= \int_{\mathbb{R}} t^4\left[ \mathcal{F} \left[ K \right] (ht) \right]^2 \cdot \left[ \mathcal{F} \left[ f \right] (t) \right]^2 \mathrm{d}t. \end{align}

    F[K](ht)F[K](0)=1\mathcal{F} [K] (ht) \rightarrow \mathcal{F} [K](0) = 1 得:

     R(2Kh2Kh)(u)(ff)(u)du=Rt4[F[f](t)]2dt=R[F[2f](t)]2dt=R[2f(t)]2dt=R(2f).\begin{align} &\quad \space \int_{\mathbb{R}} \left( \nabla^2 K_h \ast \nabla^2K_h \right) \left( u \right) \left( f \ast f \right) \left( u \right) \mathrm{d}u \nonumber \\ &= \int_{\mathbb{R}} t^4 \left[ \mathcal{F} \left[ f \right] (t) \right]^2 \mathrm{d}t \nonumber \\ &= \int_{\mathbb{R}} \left[ \mathcal{F} \left[ \nabla^2 f \right] (t) \right]^2 \mathrm{d}t \nonumber \\ &= \int_{\mathbb{R}} \left[ \nabla^2 f(t) \right]^2 \mathrm{d}t \nonumber \\ &= R(\nabla^2 f). \end{align}

    于是:

    E[R(2f^)]=1nh5R(2K)+R(2f)+o(1n).\begin{align} \mathbb{E} \left[ R(\nabla^2 \hat{f}) \right] &= \frac{1}{nh^5} R(\nabla^2 K) + R(\nabla^2 f) + o(\frac{1}{n}). \end{align}

    因此,R(2f)R(\nabla^2 f) 的一个良好的无偏估计为:

    R(2f)~=R(2f^)1nh5R(2K).\begin{equation} \widetilde{R(\nabla^2 f)} = R(\nabla^2 \hat{f}) - \frac{1}{nh^5} R(\nabla^2 K). \end{equation}

    类似 Silverman 方法,给出有偏交叉验证函数:

    BCV(h)=14h4μ22(K)R(2f)~+R(K)nh,hBCV=argminhBCV(h).\begin{align} \mathrm{BCV}(h) &= \frac{1}{4}h^4 \mu_2^2(K) \widetilde{R(\nabla^2 f)} + \frac{R(K)}{nh}, \\ h_{\mathrm{BCV}} &= \arg \mathop{\min}\limits_{h} \mathrm{BCV}\left( h \right). \end{align}

    容易得出:

    hBCV=(R(K)μ22(K)[R(2f^)1nh5R(2K)]n)1/5\begin{equation} h_{\mathrm{BCV}} = \left(\frac{R(K)}{\mu_2^2(K) [R(\nabla^2 \hat{f}) - \frac{1}{nh^5} R(\nabla^2 K)] n} \right)^{1/5} \end{equation}

4.6 直观法

直观法是核密度估计中带宽选择的 “经验驱动型方法”,核心思路是通过可视化密度曲线形态主观判断平滑性与细节的平衡选择带宽,无需复杂的数学推导或迭代计算,适用于对估计精度要求不高、数据结构简单或需快速探索的场景.

直观法一般给出一系列可选择的带宽 H={hkk=1,2,,m}\mathcal{H} = \{h_k \mid k = 1, 2, \dots, m\},生成多组密度函数,进而选取最优带宽(此处的最优指最适合展示或计算的带宽,非理论最优带宽). 例如,在处理小样本问题过程中,Silverman 方法和 LOO-CV 法都有较大误差. 此时可以使用直观法,确定较为合适的带宽. 此外,在数据分析初期,也可通过直观法生成多组带宽的密度曲线,辅助分析数据分布趋势.

5. 核函数的选择

5.1 Epanechnikov 核:理论最优核

在讨论最优核之前,我们先对核函数补充两个限制:

  1. 要求任意核函数 KK 必须有紧支集,即 supp(K)=K1(R{0})\mathrm{supp}(K) = \overline{K^{-1}(\mathbb{R} \setminus \{0\})} 有界,不妨设 supp(K)=[1,1]\mathrm{supp}(K) = [-1, 1].
  2. 核函数连续.

不符合上述两个限制的核包含 Gauss 核及均匀核,我们将在后面进行讨论. 而在选择最优带宽下,满足上述两个限制的最优核函数是 Epanechnikov 核. 我们将继续在最小化 AMISE\mathrm{AMISE} 下讨论.

在前文中我们计算了 AMISE[f^(x)]\mathrm{AMISE} \left[ \hat{f}(x) \right] 的最小值:

AMISE[f^(x)]min=54(R4(K)μ22(K)R(2f)n4)1/5.\begin{equation} \mathrm{AMISE} \left[ \hat{f}(x) \right]_{\min} = \frac{5}{4} \left( R^4(K) \cdot \mu_2^2(K) \cdot R(\nabla^2 f) \cdot n^{-4} \right)^{1/5}. \end{equation}

这表明在最优化带宽下最小化 AMISE\mathrm{AMISE} 等价于最小化 R2(K)μ2(K)R^2(K) \mu_2(K). 接下来我们使用变分法求解.

由于核函数 KK 具有紧支集,故对 KK 的各种积分的界限都可以改为 [1,1][-1, 1],仍记为原符号. 设 μ2(K)=A\mu_2(K) = A,在 μ2(K)=A\mu_2(K) = A[1,1]K(u)du\int_{[-1, 1]} K(u) \mathrm{d}u 的约束下,最小化 R(K)R(K),可以建立 Lagrange 函数:

L(K,λ1,λ2)=[1,1]K2(u)du+λ1(1[1,1]K(u)du)+λ2(A[1,1]u2K(u)du).\begin{equation} \mathcal{L}(K,\lambda_1,\lambda_2)=\int_{[-1, 1]} K^2(u) \mathrm{d}u + \lambda_1 \left( 1 - \int_{[-1, 1]} K(u) \mathrm{d}u \right) + \lambda_2 \left( A - \int_{[-1, 1]} u^2K(u) \mathrm{d}u \right). \end{equation}

L\mathcal{L} 关于 KK 求变分:

δLδK(u)=2K(u)λ1λ2u2.\begin{equation} \frac{\delta \mathcal{L}}{\delta K(u)} = 2K(u) - \lambda_1 - \lambda_2 u^2. \end{equation}

令其泛函导数为 00,解得:

K(u)=12λ1+12λ2u2.\begin{equation} K(u) = \frac{1}{2} \lambda_1 + \frac{1}{2} \lambda_2 u^2. \end{equation}

考虑到约束 K(1)=K(1)=0K(-1) = K(1) = 0,得:

λ1=λ2.\begin{equation} \lambda_1 = -\lambda_2. \end{equation}

再考虑到 KK 的归一性,有:

[1,1]K(u)du=λ12[1,1](1u2)du=1,    λ1=32, K(u)=34(1u2).\begin{align} \int_{[-1, 1]} K(u) \mathrm{d}u = \frac{\lambda_1}{2} \int_{[-1, 1]} \left( 1 - u^2 \right) \mathrm{d}u = 1, \\ \implies \lambda_1 = \frac{3}{2}, \space K(u) = \frac{3}{4} \left( 1 - u^2 \right). \end{align}

上式中 K(u)K(u) 即为 Epanechnikov 核.

5.2 Gauss 核:实践最优核

Gauss 核因适配多数实践场景需求,被广泛视为‘实践最优核”.

首先我们讨论 Gauss 核的有效区域. 虽然 Gauss 核不具有紧支集,但是对于 h>0h > 0

  1. x>3h\vert x \vert > 3h 时,exp(x22h2)<exp(92)0.011\exp\left(-\frac{x^2}{2h^2}\right) < \exp\left(-\frac{9}{2}\right) \approx 0.011,贡献已不足 1%;
  2. x>5h \vert x \vert > 5h 时,exp(x22h2)<exp(252)3×106\exp\left(-\frac{x^2}{2h^2}\right) < \exp\left(-\frac{25}{2}\right) \approx 3 \times 10^{-6},贡献几乎可忽略.

即:Gauss 核的实际有效区域是 [5h,5h][-5h, 5h],在实际计算中完全可将有效区域外样本的权重视为 00,计算效率与紧支集核几乎无差异. Gauss 核的广泛应用还离不开以下三个个关键特质:

  1. 无线光滑性KGC(R)K_{\mathrm{G}} \in C^{\infty}(\mathbb{R}),其生成的密度函数 f^\hat{f} 也继承了这一优良数学性质,能完美匹配真实密度的光滑特性. 而其它核(如:Epanechnikov 核)在需要高阶导数条件下(如:峰值分析、梯度分析)表现不佳.
  2. 抗干扰性:由于 Gauss 核的权重是连续平滑的,且对远离待估计点的 “异常值样本” 赋予极低的权重,因此在数据存在少量噪声或异常值时,Gauss 核的密度估计结果不易被干扰. 而其它核若恰好将异常值纳入支集内,会直接影响局部密度估计,抗干扰性相对较弱.
  3. 高维稳定性:高维数据中,“距离” 的定义会因维度灾难导致样本分布稀疏,紧支集核可能因支集内样本过少而无法有效估计密度(甚至支集内无样本,导致估计值为 00). 而 Gauss 核的指数衰减特性能通过带宽调整,灵活适配高维数据的稀疏性——即使局部样本少,也能通过平滑的权重分配维持密度估计的连续性,避免出现 “零密度区域” 的不合理结果.

此外,在其它分析中,Gauss 核还具有严格正定性等优良性质,是核分析中的常用函数.

5.3 均匀核

均匀核既非理论最优核,也没有 Gauss 核的优良数学性质,反而缺点重重. 但是均匀核在特定情况下有其作用. 例如,在认为“某点周围 KK 个样本的类别完全同等重要”时,可以使用均匀核. 此外,在一些低计算成本场景下(如:嵌入式开发、实时数据处理),均匀核因其计算简单而受青睐.

总而言之,不同核有其各自的优缺点,实际应用中要根据应用场景的特点,选择合适的核函数.


更新日志

[2025.09.03]:

  1. 调整了学习顺序,优化叙述逻辑;
  2. 添加“插入法”、“有偏交叉验证法”.