机器学习(二)Logistic回归(Logistic regression)算法
生活随笔
收集整理的這篇文章主要介紹了
机器学习(二)Logistic回归(Logistic regression)算法
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
首先學習二元分類問題(binary classification),y只有0,1兩個取值。對于分類問題使用線性回歸是一個十分糟糕的選擇,因為直線會由于數據因素而無法將樣本正確地分類。
因為y∈{0,1}y∈{0,1},我們也希望hθ(x)∈{0,1}所以就選擇了:
其中g(z)被稱作logistic函數或S型函數(logistic function/sigmoid function),圖像為:
?
對g(z)求導可得:
對假設和輸出進行概率意義上的解釋:
這里使用極大似然估計匹配參數。
?
我們也可以梯度下降算法來求函數的極值,只不過要將算法中的“-“改為“+“,“下降“改為“上升“,求函數的最大值。
同樣先假設一個訓練樣本,對函數l(θ)求偏導可得
待推導?
梯度上升算法的更新原則:
這和上一講中上一講的最小二乘法更新規則的表達式一樣,但是其中hθ(x)卻不同。最小二乘法中的hθ(x)是線性函數,而此表達式中的hθ(x)是logistic函數。?
總結
以上是生活随笔為你收集整理的机器学习(二)Logistic回归(Logistic regression)算法的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 华为鲁勇:云市场进入新阶段,千行百业数字
- 下一篇: 2012计算机一级考试试题,2012年计