线性回归 linear regression
回歸一詞,指的是我們根據(jù)已有的數(shù)據(jù),預(yù)測(cè)出一個(gè)準(zhǔn)確的輸出值。
假設(shè)函數(shù)
一元線性回歸的假設(shè)函數(shù)模型:
hθ(x)=θ0+θ1?xh_{θ}(x) = θ_0 + θ_1 * xhθ?(x)=θ0?+θ1??x
-
xxx:表示輸入變量,表示輸入的特征。
-
yyy:表示目標(biāo)變量,也就是預(yù)測(cè)結(jié)果。
-
(x,y)(x,y)(x,y):表示一個(gè)訓(xùn)練樣本,用 x(i)x^{(i)}x(i) 與 y(i)y^{(i)}y(i) 來表示數(shù)據(jù)集中的第 iii 個(gè)訓(xùn)練樣本。
-
hθ(x)h_{θ}(x)hθ?(x):表示假設(shè)函數(shù)(hypothesis),hhh 根據(jù)輸入的 xxx 值來得出 yyy 值,是一個(gè)從 xxx 到 yyy 的函數(shù)映射。
-
θ0θ_0θ0? 和 θ1θ_1θ1?:這些 θiθ_iθi? 稱為模型參數(shù)。選擇不同的參數(shù)θ0θ_0θ0? 和 θ1θ_1θ1?,會(huì)得到不同的假設(shè)函數(shù)。
在線性回歸要做的就是求取最優(yōu)的 θ0θ_0θ0? 和 θ1θ_1θ1?,來讓 hθ(x)h_{θ}(x)hθ?(x) 表示的直線盡量地與這些數(shù)據(jù)集中的點(diǎn)很好的擬合。也許就像這里的這條線一樣:
代價(jià)函數(shù)
線性回歸的目標(biāo)是,選擇最優(yōu)的 θ0θ_0θ0? 和 θ1θ_1θ1?,來讓 hθ(x(i))h_{θ}(x^{(i)})hθ?(x(i)) 的值盡可能接近 y(i)y^{(i)}y(i) ,達(dá)到減少函數(shù)損失(誤差)的目的:
minimzeθ0θ1(hθ(x)?y)2\mathop{minimze}\limits_{θ_{0}θ_{1}} (h_{θ}(x) - y)^{2}θ0?θ1?minimze?(hθ?(x)?y)2
由于樣本數(shù)據(jù)集的總數(shù)是 mmm ,所以誤差總和的平均為:
minimzeθ0θ112m∑i=1m(hθ(x(i))?y(i))2\mathop{minimze}\limits_{θ_{0}θ_{1}} \frac{1}{2m} \sum_{i=1}^{m} (h_{θ}(x^{(i)}) - y^{(i)})^{2}θ0?θ1?minimze?2m1?i=1∑m?(hθ?(x(i))?y(i))2
表達(dá)式:
minimzeθ0θ1\mathop{minimze}\limits_{θ_{0}θ_{1}}θ0?θ1?minimze?
意味著我們要找到某個(gè) θ0θ_0θ0? 和 θ1θ_1θ1?的值來使這個(gè)表達(dá)式的值最小。
即,一元線性回歸的代價(jià)函數(shù)(Cost Function):
J(θ0,θ1)=12m∑i=1m(hθ(x(i))?y(i))2J(θ_{0},θ_{1}) = \frac{1}{2m} \sum_{i=1}^{m} (h_{θ}(x^{(i)}) - y^{(i)})^{2}J(θ0?,θ1?)=2m1?i=1∑m?(hθ?(x(i))?y(i))2
總結(jié)
以上是生活随笔為你收集整理的线性回归 linear regression的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 特征缩放 feature scaling
- 下一篇: 梯度下降 gradient descen