线性分类
1,基本概念
在機(jī)器學(xué)習(xí)領(lǐng)域,分類的目標(biāo)是指將具有相似特征的對象聚集。而一個線性分類器則透過特征的線性組合來做出分類決定,以達(dá)到此種目的。對象的特征通常被描述為特征值,而在向量中則描述為特征向量。
2,線性分類表達(dá)式
線性分類器用作圖像分類主要有兩部分組成:一個是假設(shè)函數(shù), 它是原始圖像數(shù)據(jù)到類別的映射。另一個是損失函數(shù),該方法可轉(zhuǎn)化為一個最優(yōu)化問題,在最優(yōu)化過程中,將通過更新假設(shè)函數(shù)的參數(shù)值來最小化損失函數(shù)值。
表達(dá)為矩陣形式如下:
x為數(shù)據(jù)(將三維矩陣轉(zhuǎn)化為一維矩陣(列向量)),W為一系列權(quán)重參數(shù)(反映了對應(yīng)數(shù)據(jù)對結(jié)果的影響),f(x,W)為每個類別的得分值(得分值高的類別為當(dāng)前輸入的類別),b為偏置項。
利用權(quán)重參數(shù)和數(shù)據(jù)的線性組合,完成線性分類:
3,損失函數(shù)
一個例子(利用簡單的標(biāo)準(zhǔn)評價當(dāng)前的損失):
sj代表錯誤的得分值,syi代表正確的得分值,1為錯誤容忍度,損失函數(shù)值較大表示分類效果不好。
損失函數(shù)的表達(dá)式(模型的評價指標(biāo),N為樣本個數(shù)):
對于相同的數(shù)據(jù),不同的模型,得到的得分值可能相同,如對于上式如果有以下兩個模型:
可以計算得到f(x,w)=1。而對于1號模型只關(guān)注局部值易產(chǎn)生過擬合現(xiàn)象。為了解決上述問題,引入正則化懲罰項。
4,正則化懲罰項
在原有的損失函數(shù)的基礎(chǔ)上加上正則化懲罰項:
對于L2正則化懲罰項:
通過懲罰項的計算可知,對于2號模型的懲罰較小,即認(rèn)為2號模型較好
總結(jié)
- 上一篇: 降维处理:PCA和LDA
- 下一篇: 这个值多少?必采纳