吴恩达机器学习笔记二之多变量线性回归
生活随笔
收集整理的這篇文章主要介紹了
吴恩达机器学习笔记二之多变量线性回归
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
本節目錄:
- 多維特征
- 多變量梯度下降
- 特征縮放
- 學習率
- 正規方程
1.多維特征
含有多個變量的模型,模型中的特征為(x1,x2,…xn),
比如對房價模型增加多個特征
這里,n代表特征的數量,
x(i)代表第i個訓練實例,是特征矩陣中的第i行,是一個向量。
2 多變量梯度下降
多變量線性回歸中,代價函數是所有建模誤差的平方和,即:
我們開始隨機選擇一系列參數值,計算所有預測結果,再給所有參數一個新值,如此循環直到收斂。
3 特征縮放
面對多維特征問題的時候,我們要保證這些特征都具有相近的尺度,這將幫助梯
度下降算法更快地收斂。
4.學習率
5 特征和多項式回歸
6 正規方程
更多內容詳情及代碼請見:https://github.com/fengdu78/Coursera-ML-AndrewNg-Notes
總結
以上是生活随笔為你收集整理的吴恩达机器学习笔记二之多变量线性回归的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Python Tutorial(六):模
- 下一篇: python中%符号详解