斯坦福机器学习公开课学习笔记(2)—监督学习 梯度下降
生活随笔
收集整理的這篇文章主要介紹了
斯坦福机器学习公开课学习笔记(2)—监督学习 梯度下降
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
(轉(zhuǎn)載請注明出處:http://blog.csdn.net/buptgshengod)
1.感受
? ? ? ? 這一節(jié)課Andrew講的是監(jiān)督學習應(yīng)用中的梯度下降方法(Supervised-Learning,grading and descent)。 ? ? ? ? 公式比較多,不過還比較基礎(chǔ),主要是一些矩陣論的應(yīng)用。2.筆記 ??
? ? ? Grading and descent 主要用到的就是一個回歸的思路。整體的流程見下圖。? ? ? X1,X2....表示的不同的特征,經(jīng)過算法H的變化,輸出Y1,Y2......。可以用公式表達為,X邊上的變量就是我們要回歸得到的系數(shù)。 ? ? ?判斷公式。這個ml回歸中常用的判斷公式,當J函數(shù)取到最下情況就是我們所需要的結(jié)果。 ? ? ?Andrew形容梯度下降好比一個下山問題。我們首先隨機選擇出發(fā)點,也就是的取值,然后通過J函數(shù)求導,不斷改變的值,得到最終的回歸公式。這就類比于我們一步一步下山,直到山底,值不再變化。 ? ? 梯度下降還有一個特點就是最終的值根據(jù)不同的出發(fā)點而不同。 ? ??
總結(jié)
以上是生活随笔為你收集整理的斯坦福机器学习公开课学习笔记(2)—监督学习 梯度下降的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 斯坦福机器学习公开课学习笔记(1)—机器
- 下一篇: 斯坦福机器学习公开课学习笔记(3)—拟合