支持向量机SVM原理(一)
生活随笔
收集整理的這篇文章主要介紹了
支持向量机SVM原理(一)
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
1 簡介
支持向量機基本上是最好的有監(jiān)督學習算法了。最開始接觸SVM是去年暑假的時候,老師要求交《統(tǒng)計學習理論》的報告,那時去網(wǎng)上下了一份入門教程,里面講的很通俗,當時只是大致了解了一些相關(guān)概念。這次斯坦福提供的學習材料,讓我重新學習了一些SVM知識。我看很多正統(tǒng)的講法都是從VC 維理論和結(jié)構(gòu)風險最小原理出發(fā),然后引出SVM什么的,還有些資料上來就講分類超平面什么的。這份材料從前幾節(jié)講的logistic回歸出發(fā),引出了SVM,既揭示了模型間的聯(lián)系,也讓人覺得過渡更自然。
2 重新審視logistic回歸
Logistic回歸目的是從特征學習出一個0/1分類模型,而這個模型是將特性的線性組合作為自變量,由于自變量的取值范圍是負無窮到正無窮。因此,使用logistic函數(shù)(或稱作sigmoid函數(shù))將自變量映射到(0,1)上,映射后的值被認為是屬于y=1的概率。
形式化表示就是
假設(shè)函數(shù)
其中x是n維特征向量,函數(shù)g就是logistic函數(shù)。
總結(jié)
以上是生活随笔為你收集整理的支持向量机SVM原理(一)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 过拟合(原因、解决方案、原理)
- 下一篇: 支持向量机原理(二)