【机器学习】岭回归(L2正则在干嘛!)
在之前我們有介紹過貝葉斯線性回歸,貝葉斯線性回歸利用了最大后驗估計(MAP)加上權重的高斯分布先驗推導出帶有L2正則項的線性回歸。
其實這就是嶺回歸,即? ? ?嶺回歸=MAP+高斯先驗。
推導就參見貝葉斯線性回歸了,其實兩者就是一模一樣的東西,不過貝葉斯線性回歸更側重于推導這個過程,因為用了MAP方法,而提到嶺回歸我們就會更去研究強調其L2正則項的一些特性與作用。
直接給出嶺回歸的推導結果:
強烈建議閱讀其MAP+高斯分布先驗的推導過程
Normal Equation推導
接下來就按照之前在線性回歸之Normal Equation里講過的Normal Equation方法推導一下加入L2正則化之后的嶺回歸有什么不同。
對上面的目標函數做一些符號替換以及變形,我們記,,,
則得到新的目標函數:
向量化變形之后得到:
對其求導得:
最后可以得到:
我們記(后面會用到)
可以發現上述正規方程與一般線性回歸的正規方程相比,多了一項,其中表示單位矩陣。假如是一個奇異矩陣(不滿秩),添加這一項后可以保證該項可逆。由于單位矩陣的形狀是對角線上為1其他地方都為0,看起來像一條山嶺,因此而得名。
回顧一下,Normal Equation方法可以幫助我們求解得到誤差最小的向量,至于為什么加入之后可以解決矩陣病態等問題,會在之后新開一篇文章來詳細講解。先稍微提一嘴,單位矩陣是滿秩矩陣,故也是滿秩矩陣,所以可以求穩定的逆。
參見L2范數之解救矩陣病態
嶺回歸的幾何解釋
先來回顧一下偏差與方差:
偏差:預測數據和真實數據的差距
方差:預測出來數據的分散程度
下面以兩變量為例
沒有約束項時系數β1和β2已經經過標準化。殘差平方和RSS可以表示為β1和β2的一個二次函數,數學上可以用一個拋物面表示。
約束項對應著投影為β1和β2平面上的一個圓,即下圖中的圓柱
橢圓形拋物面為即平方差損失函數,圓柱形為,由最小二乘法求得的解釋拋物面的最低點,由嶺回歸得到的是黃色的點,一般來說,擬合的誤差值(偏差)越小,的各個元素(權值)的方差越高,所以嶺回歸是找到一個方差不會太大,誤差也不會太大的權衡的點。隨著t的增大,也就是圓柱的半徑,方差變大(對照上面偏差方差的圖仔細想一下)。
從β1,β2平面理解,即為拋物面等高線在水平面的投影和圓的交點,如下圖所示
這幅圖其實在之前講L1、L2正則化時出現過。
嶺回歸的性質:
?
嶺跡圖:
是的函數,嶺跡圖的橫坐標為,縱坐標為。而是一個向量,由、、…等很多分量組成,每一個分量都是的函數,將每一個分量分別用一條線。
當不存在奇異性時,嶺跡應是穩定地逐漸趨向于0
嶺跡圖(a要改成\theta)其實很好理解,當趨向于無窮的時候,所有參數都應該趨向于0,懲罰很大。
嶺跡圖作用:
在很小時,很大,且不穩定,當增大到一定程度時,系數迅速縮小,趨于穩定。
的選擇:一般通過觀察,選取喇叭口附近的值,此時各各分量已趨于穩定,但總的RSS又不是很大。?
選擇變量:刪除那些取值一直趨于0的變量。
嶺參數的一般選擇原則
選擇λ值,使得
取λ的方法比較多,但是結果差異較大。這是嶺回歸的弱點之一。
?
參考文章:
最小二乘法與嶺回歸的介紹與對比
最小二乘法和嶺回歸
嶺回歸
總結
以上是生活随笔為你收集整理的【机器学习】岭回归(L2正则在干嘛!)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 【机器学习】L1正则化与L2正则化详解及
- 下一篇: 【机器学习】Lasso回归(L1正则,M