参与拿奖:本文已参与「新人创作礼」活动,一起开启掘金创作之路
K-近邻算法
工作原理:存在一个样本数据集合(训练样本集),并且样本集中每个数据都存在label(知道样本集中每一数据与所属分类的对应关系)。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中最相似数据(最近邻)的分类标签。一般只选择样本数据集中最相似的K个数据,通常K为大于20的整数。最后选择所选数据中出现次数最多的分类作为新数据的分类。
K-近邻算优点:精度高、对异常值不敏感、无数据输入假定;缺点:计算复杂度高、空间复杂度高。
适用场景:数据为数值型或者标称型(一般在有限的数据中取,而且只存在‘是’和‘否’两种不同的结果)
1.一般步骤
1.计算已知类别数据集中的点与当前点的距离
2.按照距离递增次序排序
3.选取与当前案例距离最小的K个点
4.确定前K个点出现频率
5.返回前K个点中出现次数最多的类别作为当前案例的预测类别
2.一个简单例子
from numpy import *
# 导入运算符模块
import operator
def creatDataSet():
group=array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])
labels=['A','A','B','B']
return group,labels
#构造分类器
def classify(inX,dataSet,labels,k):
dataSetSize=dataSet.shape[0]
# 求解矩阵欧式距离,inX是待分类向量
diffMat=tile(inX,(dataSetSize,1))-dataSet
sqDiffMat=diffMat**2
# print(diffMat,sqDiffMat)
# 按行相加
sqDistances=sqDiffMat.sum(axis=1)
distances=sqDistances**0.5
# print(sqDistances,distances)
# 按照距离大小排序
sorteDistances=sqDistances.argsort()
# print(sorteDistances)
classCount={}
for i in range(k):
voteIlabel=labels[sorteDistances[i]]
classCount[voteIlabel]=classCount.get(voteIlabel,0)+1
# 按照类别次序排序
sortedClassCount=sorted(classCount.items(),key=operator.itemgetter(1),reverse=True)
# print(sortedClassCount)
return sortedClassCount[0][0]
dataSet,labels=creatDataSet()
# 测试
print(classify([1,1],dataSet,labels,3))
3.小结
1.K-近邻算法是分类数据最简单最有效的方法
2.K-近邻算法是基于实例的学习,必须保存全部数据集,如果数据集过大,必须使用大量的存储空间
3.K-近邻算法必须对每个数据计算距离值,实际使用时可能非常耗时
4.K-近邻算法无法给出任何数据的基础结构信息,无法知晓平均实例样本和典型实例样本具有什么特征
4.参考资料
[1] 机器学习实战
[2] 书籍源码
[3] jupyter版本