SVM支持向量机-手写笔记(超详细:拉格朗日乘数法、KKT条件、对偶性质、最优化、合页损失、核函数...)
SVM支持向量機-手寫筆記
作者:某丁
日期:2021.05.21
寫完了,發現想要真正理解SVM還需要繼續深入學習,以上所寫只不過是冰山一角,我的管中窺豹而已。
參考
[1] 一文搞懂支持向量機(SVM)算法
https://zhuanlan.zhihu.com/p/52168498
[2] 標準化和歸一化,請勿混為一談,透徹理解數據變換
https://blog.csdn.net/weixin_36604953/article/details/102652160
[3] 數據標準化/歸一化normalization
https://blog.csdn.net/pipisorry/article/details/52247379
[4] L1歸一化和L2歸一化范數的詳解和區別
https://blog.csdn.net/u014381600/article/details/54341317
[5] 關于機器學習特征歸一化的理解
https://zhuanlan.zhihu.com/p/94696574
[6] 淺談最優化問題的KKT條件
https://zhuanlan.zhihu.com/p/26514613
[7] 凸優化中的強對偶性和弱對偶性的幾何解釋是怎樣的?
- 趙來福的回答 - 知乎
https://www.zhihu.com/question/26128817/answer/308180470 - shuhuai008的回答 - 知乎
https://www.zhihu.com/question/26128817/answer/756870131
[8] 矩陣求導、幾種重要的矩陣及常用的矩陣求導公式
https://blog.csdn.net/daaikuaichuan/article/details/80620518
[9] svm懲罰因子c的理解
https://blog.csdn.net/ustbbsy/article/details/82390281
[10] 怎么樣理解SVM中的hinge-loss?
- Slumbers的回答 - 知乎
https://www.zhihu.com/question/47746939/answer/570590275 - 十九的回答 - 知乎
https://www.zhihu.com/question/47746939/answer/512177694
[11] 機器學習理論—損失函數(三):Hinge Loss
https://zhuanlan.zhihu.com/p/347456667
[12] 機器學習中常常提到的正則化到底是什么意思? - 劉遙行的回答 - 知乎
https://www.zhihu.com/question/20924039/answer/240037674
[13] 支持向量機 (二): 軟間隔 svm 與 核函數
https://www.cnblogs.com/massquantity/p/11110397.html
[14] 對核函數(kernel)最通俗易懂的理解
https://blog.csdn.net/qq_39521554/article/details/80605178
END | 喜歡點個贊👍| ??
總結
以上是生活随笔為你收集整理的SVM支持向量机-手写笔记(超详细:拉格朗日乘数法、KKT条件、对偶性质、最优化、合页损失、核函数...)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 配置信息的优化,类型转换器
- 下一篇: 第一章 计算机系统概述 1.1 计算机发