ICode9

精准搜索请尝试: 精确搜索
首页 > 编程语言> 文章详细

python运用sklearn实现KNN分类算法

2019-04-17 19:49:20  阅读:316  来源: 互联网

标签:KNN iris plt python clf train test data sklearn


KNN(K-Nearest-Neighbours Classiflication)分类算法

  • 最简单的分类算法,易于理解和实现
  • 实现步骤:通过选取与该点距离最近的k个样本,在这k个样本中哪一个类别的数量多,就把k归为哪一类。
  • 注意
    • 该算法需要保存训练集的观察值,以此判定待分类数据属于哪一类
    • k需要进行自定义,一般选取k<30
    • 距离一般用欧氏距离,即d=(x2x1)2+(y2y1)2d = \sqrt{(x_2-x_1)^2 + (y_2-y_1)^2}d=(x2​−x1​)2+(y2​−y1​)2

通过sklearn对数据使用KNN算法进行分类

代码如下:

## 导入鸢尾花数据集
iris = datasets.load_iris()
data = iris.data[:, :2]
target = iris.target

## 区分训练集和测试集,75%的训练集和25%的测试集
train_data, test_data = train_test_split(np.c_[data, target])
## 训练并预测,其中选取k=15
clf = neighbors.KNeighborsClassifier(15, 'distance')
clf.fit(train_data[:, :2], train_data[:, 2])
Z = clf.predict(test_data[:, :2])
print '准确率:' ,clf.score(test_data[:, :2], test_data[:, 2])

colormap = dict(zip(np.unique(target), sns.color_palette()[:3]))
plt.scatter(train_data[:, 0], train_data[:, 1], edgecolors=[colormap[x] for x in train_data[:, 2]],c='', s=80, label='all_data')
plt.scatter(test_data[:, 0], test_data[:, 1], marker='^',  color=[colormap[x] for x in Z], s=20, label='test_data')
plt.legend()
plt.show()

结果如下:
在这里插入图片描述

标签:KNN,iris,plt,python,clf,train,test,data,sklearn
来源: https://blog.csdn.net/weixin_44794704/article/details/89362803

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有