神经网络与机器学习 笔记—改善反向传播的性能试探法
改善反向傳播的性能試探法
整理8個能提高BP效率的方法:
?
反向傳播學習的隨機(串行)方式(涉及一個模式接一個模式的更新)要比批量方式
計算快。特別是當新聯(lián)數(shù)據(jù)集很大且高度冗余時,更是如此。(批量學習再高度冗余的時候Jacobi矩陣會很麻煩)
作為一個基本的規(guī)則,對呈現(xiàn)給反向傳播算法的每一個訓練樣本的挑選必須建立在其信息內(nèi)容對解決問題有很大可能的基礎上。達到這個目標的兩種方法是:
使用訓練誤差最大的樣本。
使用的樣本要與以前使用的有區(qū)別。
這兩個試探方法起因于對權(quán)空間進行更多搜索的愿望。
在模式分類的任務中使用串行反向傳播學習,經(jīng)常使用的一個簡單技巧是將樣本的每個回合呈現(xiàn)給多層感知器的順序隨機化(即弄亂)。理想情況下,隨機化可以確保一個回合中的相繼的樣本很少屬于同一類。
建議選擇奇函數(shù)的sigmoid激活函數(shù)即
F(-v)?=?-?F(v)
如下的雙曲正切函數(shù)滿足這個條件(logistic函數(shù)不滿足)
F(v)?=?a?tanh?(bv)???????其中a和b的合適值:a=1.7159???b=2/3
?
4.目標值。
在sigmoid激活函數(shù)的范圍內(nèi)選擇目標值(期望響應)是很重要的。更具體來說,多層感知器輸出層的神經(jīng)元j的期望響應dj必須與sigmoid激活函數(shù)的極限值偏離某個值,具體取決于極限值是正或負。否則反向傳播算法會使網(wǎng)絡的自由參數(shù)趨向于無窮大,驅(qū)使隱藏神經(jīng)元達到飽和從而減慢學習過程。
訓練集包含的輸入變量應該是不相關(guān)的;
區(qū)相關(guān)后的輸入變量應調(diào)整其長度使得它們的協(xié)方差近似相等,因此可以保證網(wǎng)絡中的不同突觸權(quán)值以大約相等的速度進行學習。
?
?
總結(jié)
以上是生活随笔為你收集整理的神经网络与机器学习 笔记—改善反向传播的性能试探法的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 设计模式复习-装饰模式
- 下一篇: 神经网络与机器学习 笔记—泛化和交叉验证