机器学习之K-近邻算法

265 阅读2分钟
参与拿奖:本文已参与「新人创作礼」活动,一起开启掘金创作之路
K-近邻算法

工作原理:存在一个样本数据集合(训练样本集),并且样本集中每个数据都存在label(知道样本集中每一数据与所属分类的对应关系)。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中最相似数据(最近邻)的分类标签。一般只选择样本数据集中最相似的K个数据,通常K为大于20的整数。最后选择所选数据中出现次数最多的分类作为新数据的分类。

K-近邻算优点:精度高、对异常值不敏感、无数据输入假定;缺点:计算复杂度高、空间复杂度高。

适用场景:数据为数值型或者标称型(一般在有限的数据中取,而且只存在‘是’和‘否’两种不同的结果)

1.一般步骤
 1.计算已知类别数据集中的点与当前点的距离
 2.按照距离递增次序排序
 3.选取与当前案例距离最小的K个点
 4.确定前K个点出现频率
 5.返回前K个点中出现次数最多的类别作为当前案例的预测类别
2.一个简单例子
from numpy import *
# 导入运算符模块
import operator

def creatDataSet():
    group=array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])
    labels=['A','A','B','B']
    return group,labels


#构造分类器
def classify(inX,dataSet,labels,k):
    dataSetSize=dataSet.shape[0]
    # 求解矩阵欧式距离,inX是待分类向量
    diffMat=tile(inX,(dataSetSize,1))-dataSet
    sqDiffMat=diffMat**2
    # print(diffMat,sqDiffMat)
    # 按行相加
    sqDistances=sqDiffMat.sum(axis=1)
    distances=sqDistances**0.5
    # print(sqDistances,distances)
    # 按照距离大小排序
    sorteDistances=sqDistances.argsort()
    # print(sorteDistances)
    classCount={}
    for i in range(k):
        voteIlabel=labels[sorteDistances[i]]
        classCount[voteIlabel]=classCount.get(voteIlabel,0)+1
    # 按照类别次序排序
    sortedClassCount=sorted(classCount.items(),key=operator.itemgetter(1),reverse=True)
    # print(sortedClassCount)
    return sortedClassCount[0][0]

dataSet,labels=creatDataSet()
# 测试
print(classify([1,1],dataSet,labels,3))
3.小结
 1.K-近邻算法是分类数据最简单最有效的方法
 2.K-近邻算法是基于实例的学习,必须保存全部数据集,如果数据集过大,必须使用大量的存储空间
 3.K-近邻算法必须对每个数据计算距离值,实际使用时可能非常耗时
 4.K-近邻算法无法给出任何数据的基础结构信息,无法知晓平均实例样本和典型实例样本具有什么特征
4.参考资料

[1] 机器学习实战

[2] 书籍源码

[3] jupyter版本