5.2 大间距分类器-机器学习笔记-斯坦福吴恩达教授
大間距分類器
在上節中,我們了解到了 SVM 最小化代價函數過程為:
min?θC[∑i=1my(i)cost1(θTx(i))+(1?y(i))cost0(θTx(i))]+12∑j=1nθj2\min _θC[∑_{i=1}^m y^{(i)} cost_1(θ^Tx^{(i)})+(1?y^{(i)})cost_0(θ^Tx^{(i)})]+\frac12∑_{j=1}^nθ^2_jθmin?C[i=1∑m?y(i)cost1?(θTx(i))+(1?y(i))cost0?(θTx(i))]+21?j=1∑n?θj2?
并且,當 y(i)=1y^{(i)}=1y(i)=1 時,SVM 希望 θTx(i)≥1θ^Tx^{(i)}≥1θTx(i)≥1 ;而當 y(i)=0y^{(i)}=0y(i)=0 時,SVM 希望 θTx(i)≤?1θ^Tx^{(i)}≤?1θTx(i)≤?1 。則最小化代價函數的過程就可以描述為:
min?12∑j=1nθj2\min \frac12∑_{j=1}^nθ^2_jmin21?j=1∑n?θj2?s.t.θTx(i)≥1ify(i)=1s.t.\quad θ^Tx^{(i)}≥1\quad if\ y^{(i)}=1s.t.θTx(i)≥1if?y(i)=1θTx(i)≤?1ify(i)=1θ^Tx^{(i)}≤-1\quad if\ y^{(i)}=1θTx(i)≤?1if?y(i)=1
SVM 最終找出的決策邊界會是下圖中黑色直線所示的決策邊界,而不是綠色或者紫色的決策邊界。該決策邊界保持了與正、負樣本都足夠大的距離,因此,SVM 是典型的大間距分類器(Large margin classifier)。
推導
假定有兩個 2 維向量:
u=(u1u2),v=(v1v2)u=\left( \begin{matrix} u_1\\ u_2 \end{matrix} \right), v=\left( \begin{matrix} v_1\\ v_2 \end{matrix} \right)u=(u1?u2??),v=(v1?v2??)
令 ppp 為 vvv 投影到 uuu 的線段長(該值可正可負),如下圖所示:
則 u、vu 、 vu、v 的內積為:
uTv=p?∣∣u∣∣=u1v1+u2v2u^Tv = p \ \cdot ||u||=u_1v_1+u_2v_2uTv=p??∣∣u∣∣=u1?v1?+u2?v2?
其中,∣∣u∣∣||u||∣∣u∣∣ 為 uuu 的范數,也是 uuu 的長度。
假定我們的 θ=(θ1θ2)θ=\left(\begin{matrix}θ_1\\θ_2 \end{matrix}\right)θ=(θ1?θ2??) ,且 θ0=0θ_0=0θ0?=0 ,以使得向量 θθθ 過原點,則:
min?θ12∑j=12θj2=min?θ12(θ1+θ2)2\min_θ\frac12∑_{j=1}^2θ_j^2 = \min_θ\frac12(θ_1+θ_2)^2θmin?21?j=1∑2?θj2?=θmin?21?(θ1?+θ2?)2=min?θ12(θ12+θ22)2=\min_θ\frac12(\sqrt{θ_1^2+θ_2^2})^2=θmin?21?(θ12?+θ22??)2=min?θ12∣∣θ∣∣2=\min_θ\frac12||θ||^2=θmin?21?∣∣θ∣∣2
由向量內積公式可得:
θTx(i)=p(i)?∣∣θ∣∣θ^Tx^{(i)}=p^{(i)} \cdot ||θ||θTx(i)=p(i)?∣∣θ∣∣
其中, p(i)p^{(i)}p(i) 為特征向量 x(i)x^{(i)}x(i) 在 θθθ 上的投影:
當 y(i)=1y^{(i)}=1y(i)=1 時,我們希望 θTx(i)≥1θ^Tx^{(i)}≥1θTx(i)≥1 ,亦即希望 p(i)?∣∣θ∣∣≥qp^{(i)}?||θ||≥qp(i)?∣∣θ∣∣≥q ,此時考慮兩種情況:
總結
以上是生活随笔為你收集整理的5.2 大间距分类器-机器学习笔记-斯坦福吴恩达教授的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 5.1 代价函数-机器学习笔记-斯坦福吴
- 下一篇: 5.3 核函数-机器学习笔记-斯坦福吴恩