生活随笔
收集整理的這篇文章主要介紹了
K-近邻分类算法KNN
小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
K-近鄰(K-Nearest Neighbors, KNN)是一種很好理解的分類算法,簡(jiǎn)單說(shuō)來(lái)就是從訓(xùn)練樣本中找出K個(gè)與其最相近的樣本,然后看這K個(gè)樣本中哪個(gè)類別的樣本多,則待判定的值(或說(shuō)抽樣)就屬于這個(gè)類別。
KNN算法的步驟
- 計(jì)算已知類別數(shù)據(jù)集中每個(gè)點(diǎn)與當(dāng)前點(diǎn)的距離;
- 選取與當(dāng)前點(diǎn)距離最小的K個(gè)點(diǎn);
- 統(tǒng)計(jì)前K個(gè)點(diǎn)中每個(gè)類別的樣本出現(xiàn)的頻率;
- 返回前K個(gè)點(diǎn)出現(xiàn)頻率最高的類別作為當(dāng)前點(diǎn)的預(yù)測(cè)分類。
OpenCV中使用CvKNearest
OpenCV中實(shí)現(xiàn)CvKNearest類可以實(shí)現(xiàn)簡(jiǎn)單的KNN訓(xùn)練和預(yù)測(cè)。
[cpp]?view plaincopy
int?main()?? {?? ????float?labels[10]?=?{0,0,0,0,0,1,1,1,1,1};?? ????Mat?labelsMat(10,?1,?CV_32FC1,?labels);?? ????cout<<labelsMat<<endl;?? ????float?trainingData[10][2];?? ????srand(time(0));??? ????for(int?i=0;i<5;i++){?? ????????trainingData[i][0]?=?rand()%255+1;?? ????????trainingData[i][1]?=?rand()%255+1;?? ????????trainingData[i+5][0]?=?rand()%255+255;?? ????????trainingData[i+5][1]?=?rand()%255+255;?? ????}?? ????Mat?trainingDataMat(10,?2,?CV_32FC1,?trainingData);?? ????cout<<trainingDataMat<<endl;?? ????CvKNearest?knn;?? ????knn.train(trainingDataMat,labelsMat,Mat(),?false,?2?);?? ?????? ????int?width?=?512,?height?=?512;?? ????Mat?image?=?Mat::zeros(height,?width,?CV_8UC3);?? ????Vec3b?green(0,255,0),?blue?(255,0,0);?? ?? ????for?(int?i?=?0;?i?<?image.rows;?++i){?? ????????for?(int?j?=?0;?j?<?image.cols;?++j){?? ????????????const?Mat?sampleMat?=?(Mat_<float>(1,2)?<<?i,j);?? ????????????Mat?response;?? ????????????float?result?=?knn.find_nearest(sampleMat,1);?? ????????????if?(result?!=0){?? ????????????????image.at<Vec3b>(j,?i)??=?green;?? ????????????}?? ????????????else???? ????????????????image.at<Vec3b>(j,?i)??=?blue;?? ????????}?? ????}?? ?? ?????????? ????????for(int?i=0;i<5;i++){?? ????????????circle(?image,?Point(trainingData[i][0],??trainingData[i][1]),??? ????????????????5,?Scalar(??0,???0,???0),?-1,?8);?? ????????????circle(?image,?Point(trainingData[i+5][0],??trainingData[i+5][1]),??? ????????????????5,?Scalar(255,?255,?255),?-1,?8);?? ????????}?? ????????imshow("KNN?Simple?Example",?image);??? ????????waitKey(10000);?? ?? }?? 使用的是之前BP神經(jīng)網(wǎng)絡(luò)中的例子,分類結(jié)果如下:
預(yù)測(cè)函數(shù)find_nearest()除了輸入sample參數(shù)外還有些其他的參數(shù):
[cpp]?view plaincopy
float?CvKNearest::find_nearest(const?Mat&?samples,?int?k,?Mat*?results=0,??? const?float**?neighbors=0,?Mat*?neighborResponses=0,?Mat*?dist=0?)??
即,samples為樣本數(shù)*特征數(shù)的浮點(diǎn)矩陣;K為尋找最近點(diǎn)的個(gè)數(shù);results與預(yù)測(cè)結(jié)果;neibhbors為k*樣本數(shù)的指針數(shù)組(輸入為const,實(shí)在不知為何如此設(shè)計(jì));neighborResponse為樣本數(shù)*k的每個(gè)樣本K個(gè)近鄰的輸出值;dist為樣本數(shù)*k的每個(gè)樣本K個(gè)近鄰的距離。
總結(jié)
以上是生活随笔為你收集整理的K-近邻分类算法KNN的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。