UA SIE545 优化理论基础0 优化建模3 线性回归的参数估计问题
UA SIE545 優化理論基礎0 優化建模3 線性回歸的參數估計問題
- OLS
- Least Absolute Deviation (LAD)
- Least Max Deviation (LMD)
- Least Weighted Deviation
考慮一元線性回歸問題,假設數據集為{(xi,yi),i=1,?,n}\{(x_i,y_i),i=1,\cdots,n\}{(xi?,yi?),i=1,?,n},假設被解釋變量為yyy,解釋變量為xxx,并且二者是線性關系:
y=β0+β1xy = \beta_0 + \beta_1 xy=β0?+β1?x
OLS
考慮最小二乘法,優化問題可以寫成
min?∑i=1n(yi?(β0+β1xi))2\min\ \ \sum_{i=1}^n (y_i-(\beta_0+\beta_1 x_i))^2min??i=1∑n?(yi??(β0?+β1?xi?))2
決策變量是系數β0\beta_0β0?與β1\beta_1β1?,目標函數是二次函數。由此是可以看出優化與統計的區別的,優化研究的是最優β0,β1\beta_0,\beta_1β0?,β1?的存在性,以及最優性條件、穩定性以及數值解法;統計在此基礎上研究在數據具有一定隨機性時,最優的β0,β1\beta_0,\beta_1β0?,β1?具有怎么樣的統計性質(無偏、有效、漸近分布等)以及怎樣基于這些性質做統計推斷(假設檢驗、區間估計)。
Least Absolute Deviation (LAD)
考慮最小一乘法,
min?∑i=1n∣yi?(β0+β1xi)∣\min\ \ \sum_{i=1}^n |y_i-(\beta_0+\beta_1 x_i)|min??i=1∑n?∣yi??(β0?+β1?xi?)∣
目標函數不可導,我們可以用一些技巧來重構這個優化問題:定義ui=∣yi?(β0+β1xi)∣u_i = |y_i-(\beta_0+\beta_1 x_i)|ui?=∣yi??(β0?+β1?xi?)∣,則這個優化問題等價于
min?∑i=1nuis.t.ui=∣yi?(β0+β1xi)∣\min\ \ \sum_{i=1}^n u_i \\ s.t.\ \ u_i=|y_i-(\beta_0+\beta_1 x_i)|min??i=1∑n?ui?s.t.??ui?=∣yi??(β0?+β1?xi?)∣
可以將這個優化問題等價地寫成:
min?∑i=1nuis.t.ui≥∣yi?(β0+β1xi)∣\min\ \ \sum_{i=1}^n u_i \\ s.t.\ \ u_i \ge |y_i-(\beta_0+\beta_1 x_i)|min??i=1∑n?ui?s.t.??ui?≥∣yi??(β0?+β1?xi?)∣
注意到ui≥0u_i \ge 0ui?≥0,目標函數是最小化uiu_iui?的和,因此uiu_iui?必定傾向于取等。這個結果可以進一步化簡為
min?∑i=1nuis.t.ui≥[yi?(β0+β1xi)]ui≤?[yi?(β0+β1xi)]\min\ \ \sum_{i=1}^n u_i \\ s.t.\ \ u_i \ge [y_i-(\beta_0+\beta_1 x_i)] \\ u_i \le -[y_i-(\beta_0+\beta_1 x_i)] min??i=1∑n?ui?s.t.??ui?≥[yi??(β0?+β1?xi?)]ui?≤?[yi??(β0?+β1?xi?)]
這就是一個典型的線性規劃問題。
Least Max Deviation (LMD)
LMD的優化問題為
min?β0,β1max?i∣yi?(β0+β1xi)∣\min_{\beta_0,\beta_1}\ \ \max_i |y_i-(\beta_0+\beta_1 x_i)|β0?,β1?min???imax?∣yi??(β0?+β1?xi?)∣
用LAD的思路,定義u=max?i∣yi?(β0+β1xi)∣u=\max_i |y_i-(\beta_0+\beta_1 x_i)|u=maxi?∣yi??(β0?+β1?xi?)∣,則優化問題可以等價變形為:
min?β0,β1us.t.u=max?i∣yi?(β0+β1xi)∣\min_{\beta_0,\beta_1}\ \ u \\ s.t.\ \ u=\max_i |y_i-(\beta_0+\beta_1 x_i)|β0?,β1?min???us.t.??u=imax?∣yi??(β0?+β1?xi?)∣
現在放松等式約束,
min?β0,β1us.t.u≥max?i∣yi?(β0+β1xi)∣?min?β0,β1us.t.u≥∣yi?(β0+β1xi)∣,?i?min?β0,β1us.t.u≥[yi?(β0+β1xi)],?iu≤?[yi?(β0+β1xi)],?i\min_{\beta_0,\beta_1}\ \ u \\ s.t.\ \ u \ge \max_i |y_i-(\beta_0+\beta_1 x_i)| \\ \Longleftrightarrow \\ \min_{\beta_0,\beta_1}\ \ u \\ s.t.\ \ u \ge |y_i-(\beta_0+\beta_1 x_i)|,\forall i \\ \Longleftrightarrow \\ \min_{\beta_0,\beta_1}\ \ u \\ s.t.\ \ u \ge [y_i-(\beta_0+\beta_1 x_i)],\forall i \\ u \le -[y_i-(\beta_0+\beta_1 x_i)],\forall iβ0?,β1?min???us.t.??u≥imax?∣yi??(β0?+β1?xi?)∣?β0?,β1?min???us.t.??u≥∣yi??(β0?+β1?xi?)∣,?i?β0?,β1?min???us.t.??u≥[yi??(β0?+β1?xi?)],?iu≤?[yi??(β0?+β1?xi?)],?i
Least Weighted Deviation
這種情形類似于UA MATH574提到的監督學習unequal cost的情況,因為yi?(β0+β1xi)y_i-(\beta_0+\beta_1 x_i)yi??(β0?+β1?xi?)的符號是有含義的,大于0表示低估;小于0表示高估。有時低估和高估的cost不一樣,可以分別定義為w+,w?w^+,w^{-}w+,w?,則最優化可以寫成:
min?w+∑i=1nmax?{0,yi?(β0+β1xi)}+w?∑i=1nmax?{0,?yi+(β0+β1xi)}\min w^+\sum_{i=1}^n \max\{0,y_i-(\beta_0+\beta_1 x_i)\}+w^-\sum_{i=1}^n \max\{0,-y_i+(\beta_0+\beta_1 x_i)\}minw+i=1∑n?max{0,yi??(β0?+β1?xi?)}+w?i=1∑n?max{0,?yi?+(β0?+β1?xi?)}
這個最優化問題也可以重寫成線性規劃:定義ui+=max?{0,yi?(β0+β1xi)},ui?=max?{0,?yi+(β0+β1xi)}u_i^+=\max\{0,y_i-(\beta_0+\beta_1 x_i)\},u_i^-=\max\{0,-y_i+(\beta_0+\beta_1 x_i)\}ui+?=max{0,yi??(β0?+β1?xi?)},ui??=max{0,?yi?+(β0?+β1?xi?)},把這兩個作為決策變量,可以把等式約束放松為
ui+≥max?{0,yi?(β0+β1xi)}ui?≥max?{0,?yi+(β0+β1xi)}u_i^+\ge \max\{0,y_i-(\beta_0+\beta_1 x_i)\} \\ u_i^-\ge \max\{0,-y_i+(\beta_0+\beta_1 x_i)\}ui+?≥max{0,yi??(β0?+β1?xi?)}ui??≥max{0,?yi?+(β0?+β1?xi?)}
進而
ui+≥0,ui+≥yi?(β0+β1xi)ui?≥0,ui?≥?yi+(β0+β1xi)u_i^+\ge 0,\ u_i^+\ge y_i-(\beta_0+\beta_1 x_i) \\ u_i^-\ge 0,\ u_i^-\ge -y_i+(\beta_0+\beta_1 x_i)ui+?≥0,?ui+?≥yi??(β0?+β1?xi?)ui??≥0,?ui??≥?yi?+(β0?+β1?xi?)
因此上面的優化問題可以表示為線性規劃:
min?w+∑i=1nui++w?∑i=1nui?s.t.ui+≥0,ui+≥yi?(β0+β1xi)ui?≥0,ui?≥?yi+(β0+β1xi)\min w^+\sum_{i=1}^n u_i^++w^-\sum_{i=1}^n u_i^- \\ s.t. \ \ u_i^+\ge 0,\ u_i^+\ge y_i-(\beta_0+\beta_1 x_i) \\ u_i^-\ge 0,\ u_i^-\ge -y_i+(\beta_0+\beta_1 x_i)minw+i=1∑n?ui+?+w?i=1∑n?ui??s.t.??ui+?≥0,?ui+?≥yi??(β0?+β1?xi?)ui??≥0,?ui??≥?yi?+(β0?+β1?xi?)
總結
以上是生活随笔為你收集整理的UA SIE545 优化理论基础0 优化建模3 线性回归的参数估计问题的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: UA MATH523A 实分析1 集合论
- 下一篇: UA MATH563 概率论的数学基础1