神经网络模型 基本概念 一文看懂
1. 神經(jīng)元
Xi為一項輸入,Wi為對應的參數(shù)
先求和W0*X0+W1*X1+W2*X2+....=sum
再使用激活函數(shù)得到f(sum)=y
2.?神經(jīng)網(wǎng)絡
-
輸入層?:負責將輸入向量傳遞給神經(jīng)網(wǎng)絡。如果我們有一個包含 3 個特征的矩陣(形狀 N x 3),則該層將 3 個數(shù)字作為輸入,并將相同的 3 個數(shù)字傳遞給下一層。
-
隱藏層?:代表中間節(jié)點,它們對數(shù)字進行多次變換以提高最終結果的準確性,輸出由神經(jīng)元的數(shù)量定義。
-
輸出層?:返回神經(jīng)網(wǎng)絡最終輸出的 如果我們進行簡單的二元分類或回歸,輸出層應該只有 1 個神經(jīng)元(因此它只返回 1 個數(shù)字)。在具有 5 個不同類別的多類別分類的情況下,輸出層應有 5 個神經(jīng)元。
3. 神經(jīng)網(wǎng)絡模型
標準神經(jīng)網(wǎng)絡、CNN、RNN
4. 激活函數(shù)
假設有一個包含 N 行、3 個特征和 1 個目標變量(二分類,取值0或1)的數(shù)據(jù)集,如下圖所示:
接下來我們要進行一個簡單的計算來對結果進行預估,下面的操作類似于單個神經(jīng)網(wǎng)絡的計算,f(WX+b),其中f函數(shù)叫做激活函數(shù)。
5. 激活函數(shù)類型
激活函數(shù)是非線性的映射函數(shù),使得神經(jīng)網(wǎng)絡具備強大的非線性擬合學習能力
6. 偏執(zhí)項(bias)
在每個神經(jīng)元內(nèi)部,輸入和權重的線性組合也包括一個偏差,類似于線性方程中的常數(shù),因此神經(jīng)元的完整公式是
7. 反向傳播
在訓練期間,模型通過將誤差傳播回節(jié)點并更新參數(shù)(權重和偏差)來學習以最小化損失。
8. 損失函數(shù)
常常利用梯度下降法來使損失函數(shù)Loss function的值盡可能小,即讓神經(jīng)網(wǎng)絡的預測值(實際輸出)和標簽值(預期的輸出)盡可能接近
如均方誤差損失函數(shù)(MSE):
9. 梯度下降
在最陡下降方向上重復步驟來找到損失函數(shù)的局部最小值。
?來源:
學習深度學習--深度學習中的一些基本概念
https://mp.weixin.qq.com/s/47g5qOTcoFPtHLsoDWarGw?forceh5=1
師妹問我怎么搭建神經(jīng)網(wǎng)絡
https://mp.weixin.qq.com/s/WbA9rdgFV482Q0giT-gU7A?forceh5=1
Keras-人工神經(jīng)網(wǎng)絡--隨機梯度下降法
https://www.jianshu.com/p/2d6bbebefd80
通俗易懂講解ML中的均方誤差 (MSE) - haltakov
https://www.jdon.com/57661
微程序學堂
總結
以上是生活随笔為你收集整理的神经网络模型 基本概念 一文看懂的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: FlexRay
- 下一篇: 使用Spark和Pig统计每秒钟微博数量