FPGA机器学习之stanford机器学习第三堂1
? ? ? ?請注意:csdn那邊的博客http://blog.csdn.net/my_share。因為那邊審核的時間太長。搬遷入這里。stanford機器學習前2堂在CSDN的博客里面。
? ? ? ? 剛開始他寫了,這個公式第二堂講的,是梯度下降法,預測房價的那個。
? ? ? ?第二堂講的線性回歸,我們假設的房價的預測可以用線性方程來擬合。那只是一個假設量。其實可以用多次函數擬合。按照視頻的說法就是,如果你只有7個樣本,你就可以用一個6次函數完成擬合。這個結論可以記住,其實我csdn里面關于神經網絡中隱層數量設計的時候,也涉及到這一點。具體原因我不是很明白,可是這個現象理解。
? ? ? ?如果完全擬合的話,并不能說明你擬合的很好,也有可能是你的數據樣本采集的不正確。
? ? ? 過擬合就是說,僅僅是擬合了某種特定狀況的行為特征。而沒有反應出房價和面積的真正規律。
?? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??locally weighted linear regression ? ?
? ? ?局部加權線性回歸。從表面上看局部加權線性回歸還是線性回歸,所以基本結構還是一樣的。不過區別在于,
這個是上一堂線性回歸的要求。
這個是加權線性回歸。多了一個w是權系數。而這個w呢??
這里這個T呢。叫帶寬系數,是我們自己設定的。和a學習系數的性質差不多。從這個式子可以看出,其實是用周邊的點,來擬合當前的點。離的遠的貢獻就低一些,也就是關聯性不強。這樣擬合的就準確一些。
? ? ? ?按照老師的說法是,w的函數還在討論中,僅僅是e指數比較合適。
? ? ? ?這個函數每一次預測都需要重新局部訓練,具體怎么回事??還是看視頻吧。好像是每次都是局部擬合,而且線性。用周邊的來預測。說明局部加權回歸這里的i是當前附近的幾個點,在訓練的結果。而最終擬合成非線性函數。
? ? ? ?好像這個是每一次預測都需要重新學習重新擬合,所以數據量大的時候,代價很大。
? ? ? epsilon希臘字母,表示的是error,表示那些沒有被表示出來的特征。被遺忘的參考因素等。
? ? ? 這里的誤差模型為什么選用高斯分布,第一個它只是一個方便的討論模型,第二個,目前最合適的。
?
?
...............未完待續。
?
? ? ? 我能力有限,但是我努力的將學習成果分享。到這里就是我今天所學到的新知識,一起學習一起努力吧。
? ? ??
轉載于:https://www.cnblogs.com/maohuawang/p/3805209.html
總結
以上是生活随笔為你收集整理的FPGA机器学习之stanford机器学习第三堂1的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 【问题记录】RIDE-1.7.3.1控制
- 下一篇: JavaFX学习之Web