ICode9

精准搜索请尝试: 精确搜索
首页 > 编程语言> 文章详细

【机器学习】KNN算法实现手写板字迹识别

2021-10-10 11:03:38  阅读:181  来源: 互联网

标签:KNN 32 cv2 Train 手写板 result 字迹


文章目录

【机器学习】KNN算法实现手写板字迹识别

1. 前言

​ 上篇博客通过KNN算法实现鸢尾花数据集分类,在博客最后对KNN算法是否适合于图像分类进行了讨论。本篇博客通过KNN算法实现手写板字迹识别,通过人机交互的模式验证KNN算法是否合适于图像分类。

2. 实验背景

​ 在制作手写体数据集的过程中,常会出现训练数据和测试数据都是出自同一个人的笔迹,此时KNN模型对测试数据友好,但这其实并不符合实际情况。因此本次实验将不同人的笔迹作为训练集,为了增加人机交互性,我们实现了一个简单的手写板进行测试集的制作。

数据集类型数据集来源数据集个数
训练集收集不同人群的手写体,并转换成01矩阵的txt文件格式1974
测试集通过python实现手写板,将自己的手写体作为测试集进行预测1

在这里插入图片描述

3. 测试过程

测试步骤:
1. 设计手写板
2. 制作测试数据
3. 加载训练数据
4. 通过KNN算法进行训练
5. 得到预测结果

3.1 手写板及测试数据的制作

基本思路:通过手写板写入内容,将其保存为图片(512 x 512)。再将图片转换为01矩阵(32 x 32)并保存为txt文件格式作为测试数据。

# 手写板,通过opencv实现
def draw(event,x,y,flags,param):
    global ix,iy
    if event==cv2.EVENT_LBUTTONDOWN:
        drawing=True
        ix,iy=x,y
    elif event==cv2.EVENT_MOUSEMOVE:
        if drawing==True:
            cv2.circle(img,(x,y),30,(0,0,0),-1)
    elif event==cv2.EVENT_LBUTTONUP:
        drawing=False

if __name__ == "__main__":

    # 通过手写板制作图片测试集
	img=np.zeros((512,512,3),np.uint8)
	for i in range(512):
	    img[i,:]=255
	cv2.namedWindow('image')
	cv2.setMouseCallback('image',draw)
	while(1):
	    cv2.imshow('image',img)
	    if cv2.waitKey(1) & 0xFF == ord(' '):
	        cv2.imwrite('1.jpg',img)
	        break
	cv2.destroyAllWindows()

    # 将图片转换为0,1矩阵并记录在txt文件中
	img1 = cv2.imread('1.jpg', cv2.IMREAD_GRAYSCALE)
	res=cv2.resize(img1,(32,32),interpolation=cv2.INTER_CUBIC)
	pic=[]
	for i in range(32):
	    for j in range(32):
	        if res[i][j]<=200:
	            res[i][j]=1
	        else:
	            res[i][j]=0
	        pic.append(int(res[i][j]))

	filename = 'out.txt'
	with open(filename, 'w') as name:
		for i in range(32*32):
			name.write(str(pic[i]))
			if (i+1) % 32 == 0:
				name.write("\n")

在这里插入图片描述
在这里插入图片描述

3.2 加载训练数据并进行KNN模型搭建

​ 这里的KNN算法与之前鸢尾花分类的算法一样,首先将测试数据按照训练数据维度进行转换,并通过欧式距离进行排序(鸢尾花分类通过计算每条数据之间的距离;字迹识别通过计算每张图片之间的距离),最后选出K个最近的数据并筛选频率最高的标签作为预测结果。

​ 数据加载方式的差别有两个,第一是尺寸信息更丰富,需要将(32,32)维度转为(1,1024)维度方便欧氏距离的计算;第二是标签需要自己设置,这里采用常见的文件名分类法。

# 图像转向量,将(32,32)转为(1,1024),目的在于实现KNN算法的距离计算
def img2vector(filename):
    vector = np.zeros((1, 1024))
    file = open(filename)
    for i in range(32):
        str = file.readline()
        for j in range(32):
            vector[0, 32*i+j] = int(str[j])
    return vector
 
def KNN(Test, Train, labels, k):
    dataSetSize = Train.shape[0]

    # 求像素的欧氏距离
    distance = np.tile(Test, (dataSetSize, 1)) - Train    
    sqdistance = distance ** 2
    sqdistances = sqdistance.sum(axis=1)
    distances = sqdistances ** 0.5 

    # 得到训练集的下标
    sortedDistIndicies = distances.argsort()

    # 得到K个欧式距离最近的label
    result = []
    for i in range(k):
        voteIlabel = labels[sortedDistIndicies[i]]
        result.append(voteIlabel)
    print(result)
    collection = Counter(result)
    result = collection.most_common(1)

    return result[0][0]
 
def main():
    
    # 载入处理训练集和标签
    labels = []
    Train_list = listdir('knn/digits/trainingDigits')
    batch = len(Train_list)
    Train = np.zeros((batch, 1024))

    for i in range(batch):
        name = Train_list[i]    # name得到每个文件名称,"0_0.txt"
        filename = name.split('.')[0].split('_')[0]
        labels.append(filename)    # filename表示标签列表
        Train[i, :] = img2vector('knn/digits/trainingDigits/%s' % name)

    # 这里我设计的是将手写板的图像转换为0,1矩阵并记入txt中作为测试集
    Test = img2vector("out.txt")
    result = KNN(Test, Train, labels, 3)
    print(result)

3.3 结果预测

训练数据:
链接:https://pan.baidu.com/s/1Zh0rYwvovmm4drEOpjLS8A 
提取码:mjll 

全部代码:

import cv2
import numpy as np
from os import listdir
import operator
from collections import Counter

drawing=False

# 图像转向量,将(32,32)转为(1,1024),目的在于实现KNN算法的距离计算
def img2vector(filename):
    vector = np.zeros((1, 1024))
    file = open(filename)
    for i in range(32):
        str = file.readline()
        for j in range(32):
            vector[0, 32*i+j] = int(str[j])
    return vector
 
def KNN(Test, Train, labels, k):
    dataSetSize = Train.shape[0]

    # 求像素的欧氏距离
    distance = np.tile(Test, (dataSetSize, 1)) - Train    
    sqdistance = distance ** 2
    sqdistances = sqdistance.sum(axis=1)
    distances = sqdistances ** 0.5 

    # 得到训练集的下标
    sortedDistIndicies = distances.argsort()

    # 得到K个欧式距离最近的label
    result = []
    for i in range(k):
        voteIlabel = labels[sortedDistIndicies[i]]
        result.append(voteIlabel)
    print(result)
    collection = Counter(result)
    result = collection.most_common(1)

    return result[0][0]
 
def main():
    
    # 载入处理训练集和标签
    labels = []
    Train_list = listdir('knn/digits/trainingDigits')
    batch = len(Train_list)
    Train = np.zeros((batch, 1024))

    for i in range(batch):
        name = Train_list[i]    # name得到每个文件名称,"0_0.txt"
        filename = name.split('.')[0].split('_')[0]
        labels.append(filename)    # filename表示标签列表
        Train[i, :] = img2vector('knn/digits/trainingDigits/%s' % name)

    # 这里我设计的是将手写板的图像转换为0,1矩阵并记入txt中作为测试集
    Test = img2vector("out.txt")
    result = KNN(Test, Train, labels, 3)
    print("预测结果:", result)

# 手写板,通过opencv实现
def draw(event,x,y,flags,param):
    global ix,iy,drawing
    if event==cv2.EVENT_LBUTTONDOWN:
        drawing=True
        ix,iy=x,y
    elif event==cv2.EVENT_MOUSEMOVE:
        if drawing==True:
            cv2.circle(img,(x,y),30,(0,0,0),-1)
    elif event==cv2.EVENT_LBUTTONUP:
        drawing=False

if __name__ == "__main__":

    # 通过手写板制作图片测试集
	img=np.zeros((512,512,3),np.uint8)
	for i in range(512):
	    img[i,:]=255
	cv2.namedWindow('image')
	cv2.setMouseCallback('image',draw)
	while(1):
	    cv2.imshow('image',img)
	    if cv2.waitKey(1) & 0xFF == ord(' '):
	        cv2.imwrite('1.jpg',img)
	        break
	cv2.destroyAllWindows()

    # 将图片转换为0,1矩阵并记录在txt文件中
	img1 = cv2.imread('1.jpg', cv2.IMREAD_GRAYSCALE)
	res=cv2.resize(img1,(32,32),interpolation=cv2.INTER_CUBIC)
	pic=[]
	for i in range(32):
	    for j in range(32):
	        if res[i][j]<=200:
	            res[i][j]=1
	        else:
	            res[i][j]=0
	        pic.append(int(res[i][j]))

	filename = 'out.txt'
	with open(filename, 'w') as name:
		for i in range(32*32):
			name.write(str(pic[i]))
			if (i+1) % 32 == 0:
				name.write("\n")

    # 开始测试
	main()

4. 总结

​ 大家有兴趣可以直接copy运行看看,预测结果还算可观。但相比深度学习方法精度略显不足。这是因为图片的语义信息是高级信息,无法通过常规的聚类以及距离进行语义判定。我们在做KNN实验时可以尝试输出测试数据与每个训练数据之间的距离,当样本足够时会发现距离相同的样本并不少且标签还不同,这就体现除了KNN算法的一个bug。

​ 总结得出,KNN算法可以在简单的图像数据上进行测试(例如:灰度数据),但在RGB图像甚至更加高维的数据上并不适用。

标签:KNN,32,cv2,Train,手写板,result,字迹
来源: https://blog.csdn.net/qq_45603919/article/details/120683766

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有