Understanding k-Nearest Neighbour
我們將Red系列標記為Class-0(由0表示),將Blue 系列標記為Class-1(由1表示)。 我們創建了25個系列或25個訓練數據,并將它們標記為0級或1級.在Matplotlib的幫助下繪制它,紅色系列顯示為紅色三角形,藍色系列顯示為藍色方塊.
import numpy as np import cv2 import matplotlib.pyplot as plt # Feature set containing (x,y) values of 25 known/training data trainData = np.random.randint(0,100,(25,2)).astype(np.float32) # Labels each one either Red or Blue with numbers 0 and 1 responses = np.random.randint(0,2,(25,1)).astype(np.float32) # Take Red families and plot them red = trainData[responses.ravel()==0] plt.scatter(red[:,0],red[:,1],80,"r","^") # Take Blue families and plot them blue = trainData[responses.ravel()==1] plt.scatter(blue[:,0],blue[:,1],80,"b","s") plt.show()
接下來初始化kNN算法并傳遞trainData和響應以訓練kNN(它構造搜索樹).然后我們將對一個new-comer,并在OpenCV的kNN幫助下將它歸類為一個系列.KNN之前,我們需要了解一下我們的測試數據(new-comer),數據應該是一個浮點數組,其大小為numberoftestdata×numberoffeatures.然后找到new-comer的最近的鄰居并分類.
newcomer = np.random.randint(0,100,(1,2)).astype(np.float32) plt.scatter(newcomer[:,0],newcomer[:,1],80,"g","o") knn = cv2.ml.KNearest_create() knn.train(trainData, cv2.ml.ROW_SAMPLE, responses) ret, results, neighbours ,dist = knn.findNearest(newcomer, 3) print( "result: {} ".format(results) ) print( "neighbours: {} ".format(neighbours) ) print( "distance: {} ".format(dist) ) plt.show()
輸出:
result: [[1.]] neighbours: [[1. 1. 0.]] distance: [[ 29. 149. 160.]]
上面返回的是:
newcomer的標簽,如果最近鄰算法,k=1
k-Nearest Neighbors的標簽
從newcomer到每個最近鄰居的相應距離
如果newcomer有大量數據,則可以將其作為數組傳遞,相應的結果也作為矩陣獲得.
newcomers = np.random.randint(0,100,(10,2)).astype(np.float32) plt.scatter(newcomers[:,0],newcomers[:,1],80,"g","o") knn = cv2.ml.KNearest_create() knn.train(trainData, cv2.ml.ROW_SAMPLE, responses) ret, results, neighbours ,dist = knn.findNearest(newcomers, 3) print( "result: {} ".format(results) ) print( "neighbours: {} ".format(neighbours) ) print( "distance: {} ".format(dist) ) plt.show()
輸出:
result: [[1.] [0.] [1.] [0.] [0.] [0.] [0.] [0.] [0.] [0.]] neighbours: [[0. 1. 1.] [0. 0. 0.] [1. 1. 1.] [0. 1. 0.] [1. 0. 0.] [0. 1. 0.] [0. 0. 0.] [0. 1. 0.] [0. 0. 0.] [0. 0. 1.]] distance: [[ 229. 392. 397.] [ 4. 10. 233.] [ 73. 146. 185.] [ 130. 145. 1681.] [ 61. 100. 125.] [ 8. 29. 169.] [ 41. 41. 306.] [ 85. 505. 733.] [ 242. 244. 409.] [ 61. 260. 493.]]
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/42107.html
摘要:什么是算法鄰近算法,或者說最近鄰,分類算法是數據挖掘分類技術中最簡單的方法之一。方法在類別決策時,只與極少量的相鄰樣本有關。 什么是kNN算法 鄰近算法,或者說K最近鄰(kNN,k-NearestNeighbor)分類算法是數據挖掘分類技術中最簡單的方法之一。所謂K最近鄰,就是k個最近的鄰居的意思,說的是每個樣本都可以用它最接近的k個鄰居來代表。kNN算法的核心思想是如果一個樣本在特征...
摘要:匹配器匹配非常簡單,首先在第一幅圖像中選取一個關鍵點然后依次與第二幅圖像的每個關鍵點進行描述符距離測試,最后返回距離最近的關鍵點對于匹配器,首先我們必須使用創建對象。 Feature Matching Brute-Force匹配器 Brute-Force匹配非常簡單,首先在第一幅圖像中選取一個關鍵點然后依次與第二幅圖像的每個關鍵點進行(描述符)距離測試,最后返回距離最近的關鍵點. 對于...
閱讀 1039·2021-09-13 10:29
閱讀 3390·2019-08-29 18:31
閱讀 2633·2019-08-29 11:15
閱讀 3012·2019-08-26 13:25
閱讀 1369·2019-08-26 12:00
閱讀 2293·2019-08-26 11:41
閱讀 3377·2019-08-26 10:31
閱讀 1488·2019-08-26 10:25