2 PAC学习框架 (page 18 19)

290 阅读2分钟

示例2.2布尔文字的连接

考虑学习最多nn个布尔文字x1xnx_1,…,x_n的连接的概念类CnC_n.布尔文字是变量xix_ii[1n]i∈ [1,n],或其否定xi\overline x_i。对于n=4n=4,一个例子是合取:x1x2x4x_1∧ \overline x_2∧ x_4,其中x2\overline x_2表示布尔文字x2x_2的否定。(1,0,0,1)(1,0,0,1)是这个概念的正面例子,而(1,0,0,0)(1,0,0,0)是负面例子。

请注意,对于 n = 4n = 4,正例 (1,0,1,0)(1,0,1,0) 意味着目标概念不能包含文字 x1\overline x_1 和 x3\overline x_3,也不能包含文字 x2x2 和 x4x4。相比之下,一个反面例子没有那么丰富,因为它不知道它的 nn 位中的哪一个是不正确的。因此,一个用于寻找一致假设的简单算法基于正例,包括以下内容:对于每个正例 (b1,...,bn)(b_1,...,b_n) 和 i  [1,n]i ∈ [1,n],如果 bi = 1b_i = 1 则 xi\overline x_i 被排除作为概念类中可能的文字,如果 bi = 0b_i = 0,则排除 xix_i。因此,未排除的所有文字的合取是与目标一致的假设。图 2.4 显示了示例训练样本以及 n = 6 n = 6 情况下的一致假设。

我们有 H = Cn = 3n|H| = |Cn| = 3^n,因为每个文字都可以肯定包含,否定包含或不包含。将其插入到一致假设的样本复杂度界限中,对于任何 ϵ> 0\epsilon > 0δ>0 δ > 0 产生以下样本复杂度界限:

m1ϵ((log3)n+log1δ).(2.10)m\ge\frac{1}{\epsilon}\big((log3)n+log\frac{1}{δ}\big).(2.10)

因此,最多 nn 个布尔文字的连接类是 PAC 可学习的。请注意,计算复杂度也是多项式的,因为每个示例的训练成本为 O(n)O(n)。对于 δ = 0.02δ = 0.02ϵ = 0.1\epsilon = 0.1 和 n = 10n = 10,界限变为 m  149m ≥ 149。因此,对于至少有 149149 个样本的标记样本,界限保证 99%99\% 的准确度和至少 98%98\% 的置信度。

2.4.PNG
图片2.4 表格的前六行中的每一行都代表一个训练示例,其标签 ++ 或 - 在最后一列中指示。如果所有正例的第 ii 个条目为 00(或者 11),则最后一行在列 i  [1, 6]i ∈ [1, 6] 中包含 00(或者 11)。如果 00 和 11 都作为某个正面示例的第 ii 个条目出现,那么它包含 '' ''。因此,对于这个训练样本,文中描述的一致性算法返回的假设是 x1 x2 x5 x6 \overline x_1 ∧x_2 ∧x_5 ∧x_6

示例 2.3 通用概念类

考虑具有 nn 个分量的所有布尔向量的集合 X = {0, 1}nX = \{0, 1\}^n,并让 UnU_n 是由 XX 的所有子集形成的概念类。这个概念课是 PAC 可学习的吗?为了保证一致的假设,假设类必须包括概念类,因此 H  Un = 2(2n)|H| ≥ |U_n| = 2^{(2^n)}。定理 2.1 给出了以下样本复杂度界限:

m1ϵ((log2)2n+log1δ).(2.11)m\ge\frac{1}{\epsilon}\big((log2)2^n+log\frac{1}{δ}\big).(2.11)

这里,所需的训练样本数量是 nn 的指数,这是 XX 中点的表示的成本。因此,PAC 学习不能由定理保证。事实上,不难证明这个通用概念类不是 PAC 可学习的。