深度学习与计算机视觉(一)图像分类与KNN
- 1、圖像分類與KNN- 1.1 圖像分類
- 1.1.2 圖像識別的難點:類內形變+類間相似**
- 1.1.3 圖像識別的途徑
- 1.1.4 機器學習解決圖像分類的流程
- 1.2 最近鄰分類器(Nearest Neighbor Classifier)
- 1.2.1 CIFAR-10
- 1.2.2 基于最近鄰的簡單圖像類別判定
- 1.3 k近鄰分類器
- 1.3.1 交叉驗證與參數選擇
- 1.3.2 kNN算法的優缺點
 
 
- 1、圖像分類與KNN
 
1、圖像分類與KNN
1.1 圖像分類
對于一張輸入的圖像,判定其屬于哪個類別,圖像分類是計算機視覺的核心問題之一,且是很多高層視覺任務的基礎。
1.1.2 圖像識別的難點:類內形變+類間相似**
- 視角不同,每個事物旋轉或者側視最后的構圖都完全不同
- 尺寸大小不統一,相同內容的圖片也可大可小
- 變形,很多東西處于特殊的情形下,會有特殊的擺放和形狀
- 光影等干擾/幻象
- 背景干擾
- 同類內的差異(比如椅子有靠椅/吧椅/餐椅/躺椅…)
1.1.3 圖像識別的途徑
就是對于每個類別,我們都找一定量的圖片數據,『喂』給計算機,讓它自己去『學習和總結』每一類的圖片的特點。
1.1.4 機器學習解決圖像分類的流程
簡單來說,分為三步:
- 輸入:我們的給定K個類別的N張圖片,作為計算機學習的訓練集
- 學習:讓計算機逐張圖片地『觀察』和『學習』
- 評估:就像我們上學學了東西要考試檢測一樣,我們也得考考計算機學得如何,于是我們給定一些計算機不知道類別的圖片讓它判別,然后再比對我們已知的正確答案。
1.2 最近鄰分類器(Nearest Neighbor Classifier)
只是為了從基礎推進而已,和卷積網絡無關。
1.2.1 CIFAR-10
CIFAR-10是一個非常常用的圖像分類數據集。數據集包含60000張32*32像素的小圖片,每張圖片都有一個類別標注(總共有10類),分成了50000張的訓練集和10000張的測試集。如下是一些圖片示例: 
 
左圖是是個類別和對應的圖像示例,右圖是給定一張圖像之后,根據像素距離計算出來的最近的10張圖像。
1.2.2 基于最近鄰的簡單圖像類別判定
最近鄰的思想:
根據輸入圖像的像素值,計算其和訓練集中的圖像的距離,找到最近的圖像的類別作為預測的類別即可。
最近鄰的缺點:
用于圖像分類時效果很差。
距離度量方式:
L1距離,L2距離,余弦距離等等(scipy)
1.3 k近鄰分類器
將最近鄰擴展為最近的N個臨近點,然后統計出現類別最多的那一類作為預測的類別。
1.3.1 交叉驗證與參數選擇
哪些因素會影響KNN最后的識別結果:
- 距離度量方式
- k值的選取
當數據總量不大的時候,可以選擇k折交叉驗證,也就是將原始數據分為k份,輪流使用其中k-1份作為訓練數據,剩下的1份作為交叉驗證數據,我們可以得到k個準確率,取均值作為預測準確率。
1.3.2 kNN算法的優缺點
優點:
思路簡單,不需訓練
缺點:
- 計算準確率過程很耗時,因為要和全部訓練集中的圖像都對比一遍;
- 分類器必須記住全部的訓練數據,因為要遍歷找近鄰,而任何實際的圖像訓練集上,數據量很可能非常大,那么一次性載入內存,不管是對速度還是對硬件的要求,都是一個極大的挑戰。
重要的是:我們不是很在乎訓練時間,訓練時間長的話,只有后續識別的時候速度快,效果好即可,但是kNN測試過程很漫長,后續的深度神經網絡就是為了解決該問題,其訓練時間長,但是識別過程很快。
這里寫鏈接內容
總結
以上是生活随笔為你收集整理的深度学习与计算机视觉(一)图像分类与KNN的全部內容,希望文章能夠幫你解決所遇到的問題。
 
                            
                        - 上一篇: 十二、主题模型
- 下一篇: 历年暂停上市恢复上市的股票
