2. 感知机

475 阅读8分钟

在这里插入图片描述

感知机原理

  • 感知机是二分类的线性模型,其输入是实例的特征向量,输出的是事例的类别,分别是+1和-1,属于判别模型。 假设训练数据集是线性可分的,感知机学习的目标是求得一个能够将训练数据集 正实例点和负实例点完全正确分开的分离超平面 。如果是非线性可分的数据,则最后无法获得超平面

  • 点到线的距离

    • 公式中的直线方程为 Ax+By+C=0A x+B y+C=0 , 点 PP 的坐标为 (x0,y0)\left(x_{0}, y_{0}\right)d=Ax0+By0+CA2+B2d=\frac{A x_{0}+B y_{0}+C}{\sqrt{A{2}+B{2}}}
  • 样本到超平面距离

    • 我们假设超平面是 h=wx+bh=w \cdot x+b , 其中 w=(w0,w1,wm),x=(x0,x1,xm)w=\left(w_{0}, w_{1}, \ldots w_{m}\right), x=\left(x_{0}, x_{1}, \ldots x_{m}\right) , 样本点 xx^{\prime} 到超平面的距离如下: d=wx+bwd=\frac{w \cdot x^{\prime}+b}{\|w\|}
  • 超平面(Hyperplanes)

    • 超平面是在空间RdR^d中的一个子空间Rd1R^{d-1}。在2维空间中的超平面是一条线,在3维空间中的超平面是-一个平面。

感知机模型

  • 定义 2.1(感知机)\left(\right. 感知机) 假设输入空间(特征空间)是 XRnX \subseteq R^{n} , 输出空间是 y={+1,1}\mathrm{y}=\{+1,-1\}_{\circ} 输入 xXx \in X 表示实例的特征向量, 对应于输入空间(特征空间)的点; 输出 yYy \in Y 表示实例的类别。有输入空间到输出空间的如下函数f(x)=sign(wx+b)(2.1)f(x)=\operatorname{sign}(w \bullet x+b)\quad(2.1)称为感知机。其中wwbb为感知机模型参数, wRnw \in R^{n} 叫做权值(weight)或权值向量(weight vector), bRb \in R 叫作偏置(bias), wxw \bullet x 表示 w\mathrm{w}x\mathrm{x} 的内积。 sign\operatorname{sign} 是符号函数,即: ​sign(x)={+1,x01,xlt;0\operatorname{sign}(x)=\left\{\begin{array}{l}+1, x \geq 0 \\ -1, x<0\end{array} \quad\right.
  • 感知机是一种线性分类模型,属于判别模型
  • 感知机的几何解释是线性方程: wx+b=0w \bullet x+b=0 对应于特征空间RnR^{n}中的一个超平面SS,其中ww是从超平面的法向量,bb是超平面的截距。 这个超平面将特征空间划分为两个部分。位于两部分的点(特征向量)分别被分为 正、负两类 。 因此,超平面S成为分离超平面(separating hyperplane),如图2.1所示。 感知机学习,由训练数据集(实例的特征向量及类别) T={(x1,y1),(x2,y2),,(xN,yN)}}T=\left\{\left(x_{1}, y_{1}\right),\left(x_{2}, y_{2}\right), \ldots,\left(x_{N}, y_{N}\right)\right\}\} 其中 xiX=Rn,yiY={+1,1},i=1,2,,Nx_{i} \in X=R^{n}, y_{i} \in Y=\{+1,-1\}, i=1,2, \ldots, N , 求得感知机模型 (2.1)(2.1) , 即求得模型参数 w,bw, b_{\circ} 感知机预测, 通过学习得到的感知机模型, 对于新的输入实例给出其对应的输出类别。
    • 证明为什么w是直线(高维空间下为超平面)的法向量 在这里插入图片描述

感知机的学习策略

损失函数

  • 损失函数的一个自然选择是误分类点的总数, 但是这样损失函数不是参数wwbb的连续可到函数, 不易优化。 损失函数的另一个选择是误分类点到超平面SS的总距离, 这是感知机所采用的。为此,首先写出输入空间 RnR^{n} 中任一点 x0x_{0} 到超平面S的距离 1wwx0+b\frac{1}{\|w\|}\left|w \bullet x_{0}+b\right|,这里, w\|w\| 是w的 L2L_{2} 范数。其次, 对于误分类的数据 (xi,yi)\left(x_{i}, y_{i}\right) 来说, yi(wxi+b)>0-y_{i}\left(w \bullet x_{i}+b\right)>0 成立。因为当 wxi+b>0w \bullet x_{i}+b>0 时, yi=1y_{i}=-1, 而当 wxi+b<0w \bullet x_{i}+b<0 时, yi=+1y_{i}=+ 1 。因此, 误分类点 xix_{i} 到超平面S的距离是 1wyi(wxi+b)\frac{1}{\|w\|} y_{i}\left(w \bullet x_{i}+b\right) 这样, 假设超平面SS的误分类点集合为M,M, 那么所有误分类点到超平面S的总距离为 1wxiMyi(wxi+b)\frac{1}{\|w\|} \sum_{x_{i}\in M} y_{i}\left(w \bullet x_{i}+b\right)不考虑 1w\frac{1}{\|w\|}, 就得到感知机学习的损失函数。

  • 为什么不考虑1w\frac{1}{\|w\|}?? 有人说 1w\frac{1}{\|w\|} 是个定值, 但是我觉得平面不唯一, 这个值肯定也会变。通过参考他人观点结合思考, 觉得原因可以列为以下两点。

    1. 1w\frac{1}{\|w\|} 不影响 yi(wxi+b)y_{i}\left(w \cdot x_{i}+b\right) 正负的判断, 即不影响学习算法的中间过程。因为感知机学习算法是误分类驱幼的, 这里需要注意 的是所谓的 “误分类驱动" 指的是我们只需要判断yi(wxi+b)- y_{i}\left(w \cdot x_{i}+b\right) 的正负来判断分关的正确与否, 而 1w\frac{1}{\|w\|} 并不影响正负值的 判断。所以 1w\frac{1}{\|w\|} 对感知机学习算法的中间过程可以不考虑。
    2. 1w\frac{1}{\|w\|} 不影响感知机学习算法的最终结果。因为感知机学习算法最终的终止条件是所有的输入都被正确分关, 即不存在误分类的点。则此时损失函数为 0 . 对应于1wiMyi(wxi+b)-\frac{1}{\|w\|} \sum_{i \in M} y_{i}\left(w \cdot x_{i}+b\right) , 即分子为 0 . 则可以看出 1w\frac{1}{\|w\|} 对最终结果也无影响。

    综上所述, 即使忽略 1w\frac{1}{\|w\|} , 也不会对感知机学习算法的执行过程产生任何影响。反而还能简化运算, 提高算法执行效率。

感知机学习算法

原始形式

  • 算法 2.1 (感知机学习算法的原始形式) 输入: 训练数据集 T={(x1,y1),(x2,y2),,(xN,yN)},其中xiX=Rn,yiY=1,+1,i=1,2,,NT=\left\{\left(x_{1}, y_{1}\right),\left(x_{2}, y_{2}\right), \ldots,\left(x_{N}, y_{N}\right)\right\} , 其中 x_{i} \in X=R^{n}, y_{i} \in Y=-1,+1, i=1,2, \ldots, N ; 学习率 η(0<η1)\eta(0<\eta \leq 1) ; 输出: ww, bb; 感知机模型 f(x)=sign(wx+b)f(x)=\operatorname{sign}(w \bullet x+b)
    1. 选取初值 w0w_{0}, b0b_{0}
    2. 在训练集中选取数据 (xi,yi)\left(x_{i}, y_{i}\right)
    3. 如果 yi(wxi+b)0y_{i}\left(w \bullet x_{i}+b\right) \leq 0 w<w+ηyixiw<-w+\eta y_{i} x_{i} b<b+ηyib<-b+\eta y_{i}
    4. 转至22,直至训练集中没有误分类点。
  • 当一个实例点被误分类,及位于分离超平面的错误一侧时,则调整w, b的值,使分离超平面向该误分类点的一侧移动,以减少该误分类点与超平面的距离,直至超平面越过该误分类点使其被正确分类。

对偶形式

  • 算法 2.2 (感知机学习算法的对偶形式) 输入:线性可分的数据集T={(x1,y1),(x2,y2),,(xN,yN)}T=\left\{\left(x_{1}, y_{1}\right),\left(x_{2}, y_{2}\right), \ldots,\left(x_{N}, y_{N}\right)\right\}, 其中 xiR,yi{1,+1},i=1,2,,Nx_{i} \in R, y_{i} \in\{-1,+1\}, i=1,2, \ldots, N ; 学习率η(0<η1) ; \eta(0<\eta \leq 1) \text { ; } 输出:α,b;\alpha, b ;感知机模型f(x)=sign(j=1Nαjyjxjx+b)f(x)=\operatorname{sign}\left(\sum_{j=1}^{N} \alpha_{j} y_{j} x_{j} \bullet x+b\right) 其中α=(α1,α2,,αN)T\alpha=\left(\alpha_{1}, \alpha_{2}, \ldots, \alpha_{N}\right)^{T}

    1. α0,b0\alpha \leftarrow 0, b \leftarrow 0
    2. 在训练集中选取数据 (xi,yi)\left(x_{i}, y_{i}\right)
    3. 如果yi(j=1Nαjyjxjxi+b)0y_{i}\left(\sum_{j=1}^{N} \alpha_{j} y_{j} x_{j} \bullet x_{i}+b\right) \leq 0αi<αi+η\alpha_{i}<\alpha_{i}+\etabb+ηyib \leftarrow b+\eta y_{i}
    4. 转至22直到没有误分类数据。

    对偶形式中训练实例仅以内积的形式出现,为了方便,可以预先将训练集中实例间的内积计算出来并以矩阵形式存储,这个矩阵就是所谓的Gram矩阵(Gram matrix) G=[xixj]M×NG=\left[x_{i} \bullet x_{j}\right]_{M \times N}

  • 问题

    1. Gram矩阵是如何计算的? 在这里插入图片描述

    2. 对偶形式求得的浮点数如何处理? ww不用必须是整数,浮点数也可以

    3. 怎么理解ηi\eta_{i}?? ηi\eta_{i}表示的是第 ii 个样本点被误判的次数,而感知机一般形式中的 ww 其实就是每个样本点被误判的次数乘以xiyix_{i}y_{i}的累加和,也就是i=1Nηiηxiyi\sum _ { i = 1 } ^ { N } \eta_{i}{\eta}x_{i}y_{i}。在每次迭代的时候,ηi\eta_{i}表示的是到当前为止,第 ii 个样本点被误判的次数,这个很重要。因为要反复让样本点中的输入xx两两相乘(这个在一般形式中计算ww的时候也要这样,自己模拟一遍就发现了),所以提前搞成一个矩阵存起来,类似于平时刷算法题说的打表。所以两个形式本质上是一样的,不过把ww用另外一种形式表示。

思考

NN为训练集大小,nn为特征数量

  1. 对偶形式:扫一遍NN,计算每条数据在之前被加了几个(aia_{i})次(当η\eta11时,aia_{i}相当于第i组数据的梯度xiyix_{i}y_{i}被加了几次,找到一个误分点后直接加上,而不是每次加),因为xixjx_{i}x_{j}已经被提前计算在Gram矩阵中,所以每次是O1O(1),那么扫一遍NN就是ONO(N)
  2. 原始形式:每次计算wxw*x,计算此内积复杂度为OnO(n)

所以看下来,选择哪种计算方法取决于训练集和特征数量的大小。

代码实现

原始形式

  • 对于输入空间,感知机通过以下函数将其映射至 {+1,1}}\{+1,-1\}\} 的输出空间 f(x)=sign(wx+b)f(x)=\operatorname{sign}(w \cdot x+b)
    1. 对于所有的错分类点 iM i \in M , 都有 yi(wxi+b)>0-y_{i}\left(w \cdot x_{i}+b\right)>0 , 因此我们可以定义如下的损失函数作为优化准则: L(w,b)=xiMyi(wxi+b)L(w, b)=-\sum_{x_{i} \in M} y_{i}\left(w \cdot x_{i}+b\right)
    2. 通过求解损失函数的梯度, ​wL(w,b)=xiMyixibL(w,b)=xiMyi\begin{array}{l}\nabla_{w} L(w, b)=-\sum_{x_{i} \in M} y_{i} x_{i} \\\nabla_{b} L(w, b)=-\sum_{x_{i} \in M} y_{i}\end{array}
    3. 很容易就可以得到感知机学习算法的原始形式 ​ww+ηyixibb+ηyi\begin{array}{l} w \leftarrow w+\eta y_{i} x_{i} \\ b \leftarrow b+\eta y_{i} \end{array}
    4. 整个算法流程如下:
      1. 选取初值w0,b0w_{0}, b_{0}
      2. 在训练集中任意选取点(xi,yi)(x_{i},y_{i})
      3. 如果yi(wxi+b)>0- y_{i}\left(w \cdot x_{i}+b\right)>0 则按照33式更新 w,b\mathrm{w}, \mathrm{b}
      4. 重复22直到没有被误分的点
  •   from __future__ import division
      import random
      import numpy as np
      import matplotlib.pyplot as plt  
    
    
      def sign(v):
          if v>=0:
              return 1
          else:
              return -1
    
      def train(train_num,train_datas,lr):
          w=[0,0]
          b=0
          for i in range(train_num):
              x=random.choice(train_datas)
              x1,x2,y=x
              if(y*sign((w[0]*x1+w[1]*x2+b))<=0):
                  w[0]+=lr*y*x1
                  w[1]+=lr*y*x2
                  b+=lr*y
          return w,b
      def plot_points(train_datas,w,b):
          plt.figure()
          x1 = np.linspace(0, 8, 100)  
          x2 = (-b-w[0]*x1)/w[1]
          plt.plot(x1, x2, color='r', label='y1 data')
          datas_len=len(train_datas)
          for i in range(datas_len):
              if(train_datas[i][-1]==1):
                  plt.scatter(train_datas[i][0],train_datas[i][1],s=50)  
              else:
                  plt.scatter(train_datas[i][0],train_datas[i][1],marker='x',s=50)  
          plt.show()
    
    
      if __name__=='__main__':
          train_data1 = [[1, 3, 1], [2, 2, 1], [3, 8, 1], [2, 6, 1]]  # 正样本
          train_data2 = [[2, 1, -1], [4, 1, -1], [6, 2, -1], [7, 3, -1]]  # 负样本
          train_datas = train_data1 + train_data2  # 样本集
          w,b=train(train_num=800,train_datas=train_datas,lr=0.01)
          plot_points(train_datas,w,b)
    

在这里插入图片描述

对偶形式

  • 简而言之,感知机的对偶形式就是把对 w,bw, b 的学习变成了对 α,b\alpha, b 的学习,原始形式中, ww 在每一轮迭代错分时都需要更新, 而采用对偶式时,对于某一点(xi,yi)(x_{i},y_{i})发生错分时,我们只需要更新其对应的 αi\alpha_{i} 即可,最后按照55式即可一次计算出 ww. 同时我们上述步骤33中的 yi(j=1Nαjyjxjxi+b)0y_{i}\left(\sum_{j=1}^{N} \alpha_{j} y_{j} x_{j} \cdot x_{i}+b\right) \leq 0 可以看出, xjxix_{j} \cdot x_{i} 仅以内积的形式出现, 因此我们可以是先计算出xxgramgram矩阵存 储起来,这样正式训练时只需要查表就可以得到 xjxix_{j} \cdot x_{i} 的值, 这样做可以方便程序的优化, 提高运算的速度。 原始形式和对偶形式对参数b的处理是相同的。 ​55式为 f(x)=sign(j=1Nαjyjxjx+b)f(x)=\operatorname{sign}\left(\sum_{j=1}^{N} \alpha_{j} y_{j} x_{j} \cdot x+b\right)
  • from __future__ import division
    import random
    import numpy as np
    import matplotlib.pyplot as plt  
    
    
    def train(train_num,train_datas,lr):
        w=0.0
        b=0
        datas_len = len(train_datas)
        alpha = [0 for i in range(datas_len)]
        train_array = np.array(train_datas)
        gram = np.dot(train_array[:,0:-1] , train_array[:,0:-1].T)
        for idx in range(train_num):
            tmp=0
            i = random.randint(0,datas_len-1)
            yi=train_array[i,-1]
            for j in range(datas_len):
                tmp+=alpha[j]*train_array[j,-1]*gram[i,j]
            tmp+=b
            if(yi*tmp<=0):
                alpha[i]=alpha[i]+lr
                b=b+lr*yi
        for i in range(datas_len):
            w+=alpha[i]*train_array[i,0:-1]*train_array[i,-1]
        return w,b,alpha,gram
    
    def plot_points(train_datas,w,b):
        plt.figure()
        x1 = np.linspace(0, 8, 100)
        x2 = (-b-w[0]*x1)/(w[1]+1e-10)
        plt.plot(x1, x2, color='r', label='y1 data')
        datas_len=len(train_datas)
        for i in range(datas_len):
            if(train_datas[i][-1]==1):
                plt.scatter(train_datas[i][0],train_datas[i][1],s=50)  
            else:
                plt.scatter(train_datas[i][0],train_datas[i][1],marker='x',s=50)  
        plt.show()
    
    if __name__=='__main__':
        train_data1 = [[1, 3, 1], [2, 2, 1], [3, 8, 1], [2, 6, 1]]  # 正样本
        train_data2 = [[2, 1, -1], [4, 1, -1], [6, 2, -1], [7, 3, -1]]  # 负样本
        train_datas = train_data1 + train_data2  # 样本集
        w,b,alpha,gram=train(train_num=500,train_datas=train_datas,lr=0.01)
        plot_points(train_datas,w,b)
    

在这里插入图片描述