R语言实战应用精讲50篇(二)-多重线性回归系列之稳健回归
前言
線性回歸的參數估計主要采用的是最小二乘法(又稱最小平方法),該法是將使觀測值與模型預測值之差的平方達到最小的值作為參數估計值。如果數據存在異常點或者異方差,最小二乘法估計會存在偏差,常用的處理策略就是改用穩健回歸(Robust Regression)。
穩健回歸就是采用更為穩健的參數估計方法來擬合模型,所謂穩健就是數據的波動對參數估計影響不大,比如不受異常值影響,或刪除某一觀測后對結果影響不大。穩健估計的方法有很多,主要有這么幾類:最小絕對值回歸(也稱最小一乘法回歸,lAV),最小中位數二乘法(LMS)、最小截尾二乘法(LTS)、M估計、S估計、MM估計,這些方法在R的軟件包{robustbase}均有提供。在這些方法中既能保證高的估計效率,崩潰點又可以接受的是MM法。
R中提供了大量的穩健估計方法,可參見介紹https://CRAN.R-project.org/view=Robust。
常用函數
在線性回歸的穩健估計中,能實現高效率高崩潰點估計的常用函數有rlm{MASS}、lmrob{robustbase}、lmRob{robust},但因具體算法有差異,結果也會不同。
lmrob() (robustbase) and lmRob() (robust) where the former uses the latest of the fast-S algorithms and heteroscedasticity and
總結
以上是生活随笔為你收集整理的R语言实战应用精讲50篇(二)-多重线性回归系列之稳健回归的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 数据中台建设是噱头还是黑科技?
- 下一篇: R语言实战应用精讲50篇(三)-多重线性