摘要:項目介紹基于近鄰分類器的手寫識別系統這里構造的系統只能識別數字到。將圖像格式化處理為一個向量。
1 項目介紹
基于k-近鄰分類器(KNN)的手寫識別系統, 這里構造的系統只能識別數字0到9。
數據集和項目源代碼
難點: 圖形信息如何處理?
圖像轉換為文本格式
2 準備數據將圖像轉換為測試向量
訓練集:
目錄trainingDigits
大約2000個例子
每個數字大約有200個樣本;
測試集
目錄testDigits
大約900個測試數據。
將圖像格式化處理為一個向量。我們將把一個32×32的二進制圖像矩陣轉換為1×1024的向量, 如下圖所示,
import numpy as np def img2vector(filename): """ # 將圖像數據轉換為(1,1024)向量 :param filename: :return: (1,1024)向量 """ # 生成一個1*1024且值全為0的向量; returnVect = np.zeros((1, 1024)) # 讀取要轉換的信息; file = open(filename) # 依次填充 # 讀取每一行數據; for i in range(32): lineStr = file.readline() # 讀取每一列數據; for j in range(32): returnVect[0, 32 * i + j] = int(lineStr[j]) return returnVect3 實施 KNN 算法
對未知類別屬性的數據集中的每個點依次執行以下操作, 與上一個案例代碼相同:
(1) 計算已知類別數據集中的點與當前點之間的距離;
(2) 按照距離遞增次序排序;
(3) 選取與當前點距離最小的k個點;
(4) 確定前k個點所在類別的出現頻率;
(5) 返回前k個點出現頻率最高的類別作為當前點的預測分類。
def classify(inX, dataSet, labels, k): """ :param inX: 要預測的數據 :param dataSet: 我們要傳入的已知數據集 :param labels: 我們要傳入的標簽 :param k: KNN里的k, 也就是說我們要選幾個近鄰 :return: 排序的結果 """ dataSetSize = dataSet.shape[0] # (6,2) 6 # tile會重復inX, 把他重復成(datasetsize, 1)型的矩陣 # print(inX) # (x1 - y1), (x2- y2) diffMat = np.tile(inX, (dataSetSize, 1)) - dataSet # 平方 sqDiffMat = diffMat ** 2 # 相加, axis=1 行相加 sqDistance = sqDiffMat.sum(axis=1) # 開根號 distances = sqDistance ** 0.5 # print(distances) # 排序 輸出的是序列號index,并不是值 sortedDistIndicies = distances.argsort() # print(sortedDistIndicies) classCount = {} for i in range(k): voteLabel = labels[sortedDistIndicies[i]] classCount[voteLabel] = classCount.get(voteLabel, 0) + 1 # print(classCount) sortedClassCount = sorted(classCount.items(), key=lambda d: float(d[1]), reverse=True) return sortedClassCount[0]4 測試算法
使用 k-近鄰算法識別手寫數字
測試集里面的信息;
def handWritingClassTest(k): """ # 測試手寫數字識別錯誤率的代碼 :param k: :return: """ hwLabels = [] import os # 讀取所有的訓練集文件; trainingFileList = os.listdir("data/knn-digits/trainingDigits") # 獲取訓練集個數; m = len(trainingFileList) # 生成m行1024列全為0的矩陣; trainingMat = np.zeros((m, 1024)) # 填充訓練集矩陣; for i in range(m): fileNameStr = trainingFileList[i] # fileNameStr: 0_0.txt fileStr = fileNameStr.split(".")[0] # fileStr: 0_0 classNumStr = int(fileStr.split("_")[0]) # (數字分類的結果)classNumStr: 0 # 填寫真實的數字結果; hwLabels.append(classNumStr) # 圖形的數據: (1,1024)向量 trainingMat[i, :] = img2vector("data/knn-digits/trainingDigits/%s" % fileNameStr) # 填充測試集矩陣; testFileList = os.listdir("data/knn-digits/testDigits") # 默認錯誤率為0; errorCount = 0.0 # 測試集的總數; mTest = len(testFileList) # 填充測試集矩陣; for i in range(mTest): fileNameStr = testFileList[i] fileStr = fileNameStr.split(".")[0] classNumStr = int(fileStr.split("_")[0]) vectorTest = img2vector("data/knn-digits/testDigits/%s" % fileNameStr) # 判斷預測結果與真實結果是否一致? result = classify(vectorTest, trainingMat, hwLabels, k) if result != classNumStr: # 如果不一致,則統計出來, 計算錯誤率; errorCount += 1.0 print("[預測失誤]:分類結果是:%d, 真實結果是:%d" % (result, classNumStr)) print("錯誤總數:%d" % errorCount) print("錯誤率:%f" % (errorCount / mTest)) print("模型準確率:%f" %(1-errorCount / mTest)) return errorCount print(handWritingClassTest(2))
效果展示
5 KNN算法手寫識別的缺點算法的執行效率并不高。
每個測試向量做2000次距離計算,每個距離計算包括了1024個維度浮點運算,總計要執行900次;
需要為測試向量準備2MB的存儲空間
有沒有更好的方法?
k決策樹就是k-近鄰算法的優化版,可以節省大量的計算開銷。
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/19981.html
摘要:項目介紹基于近鄰分類器的手寫識別系統這里構造的系統只能識別數字到。將圖像格式化處理為一個向量。 1 項目介紹 基于k-近鄰分類器(KNN)的手寫識別系統, 這里構造的系統只能識別數字0到9。 數據集和項目源代碼 難點: 圖形信息如何處理? 圖像轉換為文本格式 2 準備數據 將圖像轉換為測試向量 訓練集: 目錄trainingDigits 大約2000個例子 每個數字大約有200個...
摘要:在本次課程中,著重講解的是傳統的機器學習技術及各種算法。回歸對連續型數據進行預測趨勢預測等除了分類之外,數據挖掘技術和機器學習技術還有一個非常經典的場景回歸。 摘要: 什么是數據挖掘?什么是機器學習?又如何進行Python數據預處理?本文將帶領大家一同了解數據挖掘和機器學習技術,通過淘寶商品案例進行數據預處理實戰,通過鳶尾花案例介紹各種分類算法。 課程主講簡介:韋瑋,企業家,資深IT領...
閱讀 2851·2021-11-22 15:22
閱讀 19212·2021-09-22 15:00
閱讀 1440·2021-09-07 09:58
閱讀 1242·2019-08-30 13:01
閱讀 2429·2019-08-29 16:27
閱讀 2350·2019-08-26 13:25
閱讀 1624·2019-08-26 12:13
閱讀 943·2019-08-26 11:53