深度神经网络(DNN)损失函数和激活函数的选择
生活随笔
收集整理的這篇文章主要介紹了
深度神经网络(DNN)损失函数和激活函数的选择
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
在深度神經網絡(DNN)反向傳播算法(BP)中,我們對DNN的前向反向傳播算法的使用做了總結。里面使用的損失函數是均方差,而激活函數是Sigmoid。實際上DNN可以使用的損失函數和激活函數不少。這些損失函數和激活函數如何選擇呢?下面我們就對DNN損失函數和激活函數的選擇做一個總結。
1. 均方差損失函數+Sigmoid激活函數的問題
在講反向傳播算法時,我們用均方差損失函數和Sigmoid激活函數做了實例,首先我們就來看看均方差+Sigmoid的組合有什么問題。
首先我們回顧下Sigmoid激活函數的表達式為:
σ(z)=11+e?zσ(z)=11+e?z
σ(z)σ(z)的函數圖像如下:
從圖上可以看出,對于Sigmoid,當zz的取值越來越大后,函數曲線變得越來越平緩,意味著此時的導數σ′(z)σ′(z)也越來越小。同樣的,當zz的取值越來越小時,也有這個問題。僅僅在zz取值為0附近時,導數σ′(z)σ′(z)的取值較大。
在上篇講的均方差+Sigmoid的反向傳播算法中,每一層向前遞推都要乘以
總結
以上是生活随笔為你收集整理的深度神经网络(DNN)损失函数和激活函数的选择的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 深度神经网络(DNN)反向传播算法(BP
- 下一篇: 深度神经网络(DNN)的正则化