BP神经网络算法基本原理,bp神经网络算法公式
神經(jīng)網(wǎng)絡(luò)BP模型
一、BP模型概述誤差逆?zhèn)鞑?Error Back-Propagation)神經(jīng)網(wǎng)絡(luò)模型簡稱為BP(Back-Propagation)網(wǎng)絡(luò)模型。
Pall Werbas博士于1974年在他的博士論文中提出了誤差逆?zhèn)鞑W(xué)習(xí)算法。完整提出并被廣泛接受誤差逆?zhèn)鞑W(xué)習(xí)算法的是以Rumelhart和McCelland為首的科學(xué)家小組。
他們在1986年出版“Parallel Distributed Processing,Explorations in the Microstructure of Cognition”(《并行分布信息處理》)一書中,對誤差逆?zhèn)鞑W(xué)習(xí)算法進行了詳盡的分析與介紹,并對這一算法的潛在能力進行了深入探討。
BP網(wǎng)絡(luò)是一種具有3層或3層以上的階層型神經(jīng)網(wǎng)絡(luò)。上、下層之間各神經(jīng)元實現(xiàn)全連接,即下層的每一個神經(jīng)元與上層的每一個神經(jīng)元都實現(xiàn)權(quán)連接,而每一層各神經(jīng)元之間無連接。
網(wǎng)絡(luò)按有教師示教的方式進行學(xué)習(xí),當(dāng)一對學(xué)習(xí)模式提供給網(wǎng)絡(luò)后,神經(jīng)元的激活值從輸入層經(jīng)各隱含層向輸出層傳播,在輸出層的各神經(jīng)元獲得網(wǎng)絡(luò)的輸入響應(yīng)。
在這之后,按減小期望輸出與實際輸出的誤差的方向,從輸入層經(jīng)各隱含層逐層修正各連接權(quán),最后回到輸入層,故得名“誤差逆?zhèn)鞑W(xué)習(xí)算法”。
隨著這種誤差逆?zhèn)鞑バ拚牟粩噙M行,網(wǎng)絡(luò)對輸入模式響應(yīng)的正確率也不斷提高。
BP網(wǎng)絡(luò)主要應(yīng)用于以下幾個方面:1)函數(shù)逼近:用輸入模式與相應(yīng)的期望輸出模式學(xué)習(xí)一個網(wǎng)絡(luò)逼近一個函數(shù);2)模式識別:用一個特定的期望輸出模式將它與輸入模式聯(lián)系起來;3)分類:把輸入模式以所定義的合適方式進行分類;4)數(shù)據(jù)壓縮:減少輸出矢量的維數(shù)以便于傳輸或存儲。
在人工神經(jīng)網(wǎng)絡(luò)的實際應(yīng)用中,80%~90%的人工神經(jīng)網(wǎng)絡(luò)模型采用BP網(wǎng)絡(luò)或它的變化形式,它也是前向網(wǎng)絡(luò)的核心部分,體現(xiàn)了人工神經(jīng)網(wǎng)絡(luò)最精華的部分。
二、BP模型原理下面以三層BP網(wǎng)絡(luò)為例,說明學(xué)習(xí)和應(yīng)用的原理。
1.數(shù)據(jù)定義P對學(xué)習(xí)模式(xp,dp),p=1,2,…,P;輸入模式矩陣X[N][P]=(x1,x2,…,xP);目標(biāo)模式矩陣d[M][P]=(d1,d2,…,dP)。
三層BP網(wǎng)絡(luò)結(jié)構(gòu)輸入層神經(jīng)元節(jié)點數(shù)S0=N,i=1,2,…,S0;隱含層神經(jīng)元節(jié)點數(shù)S1,j=1,2,…,S1;神經(jīng)元激活函數(shù)f1[S1];權(quán)值矩陣W1[S1][S0];偏差向量b1[S1]。
輸出層神經(jīng)元節(jié)點數(shù)S2=M,k=1,2,…,S2;神經(jīng)元激活函數(shù)f2[S2];權(quán)值矩陣W2[S2][S1];偏差向量b2[S2]。
學(xué)習(xí)參數(shù)目標(biāo)誤差?;初始權(quán)更新值Δ0;最大權(quán)更新值Δmax;權(quán)更新值增大倍數(shù)η+;權(quán)更新值減小倍數(shù)η-。
2.誤差函數(shù)定義對第p個輸入模式的誤差的計算公式為中國礦產(chǎn)資源評價新技術(shù)與評價新模型y2kp為BP網(wǎng)的計算輸出。
3.BP網(wǎng)絡(luò)學(xué)習(xí)公式推導(dǎo)BP網(wǎng)絡(luò)學(xué)習(xí)公式推導(dǎo)的指導(dǎo)思想是,對網(wǎng)絡(luò)的權(quán)值W、偏差b修正,使誤差函數(shù)沿負梯度方向下降,直到網(wǎng)絡(luò)輸出誤差精度達到目標(biāo)精度要求,學(xué)習(xí)結(jié)束。
各層輸出計算公式輸入層y0i=xi,i=1,2,…,S0;隱含層中國礦產(chǎn)資源評價新技術(shù)與評價新模型y1j=f1(z1j),j=1,2,…,S1;輸出層中國礦產(chǎn)資源評價新技術(shù)與評價新模型y2k=f2(z2k),k=1,2,…,S2。
輸出節(jié)點的誤差公式中國礦產(chǎn)資源評價新技術(shù)與評價新模型對輸出層節(jié)點的梯度公式推導(dǎo)中國礦產(chǎn)資源評價新技術(shù)與評價新模型E是多個y2m的函數(shù),但只有一個y2k與wkj有關(guān),各y2m間相互獨立。
其中中國礦產(chǎn)資源評價新技術(shù)與評價新模型則中國礦產(chǎn)資源評價新技術(shù)與評價新模型設(shè)輸出層節(jié)點誤差為δ2k=(dk-y2k)·f2′(z2k),則中國礦產(chǎn)資源評價新技術(shù)與評價新模型同理可得中國礦產(chǎn)資源評價新技術(shù)與評價新模型對隱含層節(jié)點的梯度公式推導(dǎo)中國礦產(chǎn)資源評價新技術(shù)與評價新模型E是多個y2k的函數(shù),針對某一個w1ji,對應(yīng)一個y1j,它與所有的y2k有關(guān)。
因此,上式只存在對k的求和,其中中國礦產(chǎn)資源評價新技術(shù)與評價新模型則中國礦產(chǎn)資源評價新技術(shù)與評價新模型設(shè)隱含層節(jié)點誤差為中國礦產(chǎn)資源評價新技術(shù)與評價新模型則中國礦產(chǎn)資源評價新技術(shù)與評價新模型同理可得中國礦產(chǎn)資源評價新技術(shù)與評價新模型4.采用彈性BP算法(RPROP)計算權(quán)值W、偏差b的修正值ΔW,Δb1993年德國 Martin Riedmiller和Heinrich Braun 在他們的論文“A Direct Adaptive Method for Faster Backpropagation Learning:The RPROP Algorithm”中,提出Resilient Backpropagation算法——彈性BP算法(RPROP)。
這種方法試圖消除梯度的大小對權(quán)步的有害影響,因此,只有梯度的符號被認為表示權(quán)更新的方向。
權(quán)改變的大小僅僅由權(quán)專門的“更新值” 確定中國礦產(chǎn)資源評價新技術(shù)與評價新模型其中 表示在模式集的所有模式(批學(xué)習(xí))上求和的梯度信息,(t)表示t時刻或第t次學(xué)習(xí)。
權(quán)更新遵循規(guī)則:如果導(dǎo)數(shù)是正(增加誤差),這個權(quán)由它的更新值減少。如果導(dǎo)數(shù)是負,更新值增加。中國礦產(chǎn)資源評價新技術(shù)與評價新模型RPROP算法是根據(jù)局部梯度信息實現(xiàn)權(quán)步的直接修改。
對于每個權(quán),我們引入它的各自的更新值 ,它獨自確定權(quán)更新值的大小。
這是基于符號相關(guān)的自適應(yīng)過程,它基于在誤差函數(shù)E上的局部梯度信息,按照以下的學(xué)習(xí)規(guī)則更新中國礦產(chǎn)資源評價新技術(shù)與評價新模型其中0<η-<1<η+。
在每個時刻,如果目標(biāo)函數(shù)的梯度改變它的符號,它表示最后的更新太大,更新值 應(yīng)由權(quán)更新值減小倍數(shù)因子η-得到減少;如果目標(biāo)函數(shù)的梯度保持它的符號,更新值應(yīng)由權(quán)更新值增大倍數(shù)因子η+得到增大。
為了減少自由地可調(diào)參數(shù)的數(shù)目,增大倍數(shù)因子η+和減小倍數(shù)因子η–被設(shè)置到固定值η+=1.2,η-=0.5,這兩個值在大量的實踐中得到了很好的效果。
RPROP算法采用了兩個參數(shù):初始權(quán)更新值Δ0和最大權(quán)更新值Δmax當(dāng)學(xué)習(xí)開始時,所有的更新值被設(shè)置為初始值Δ0,因為它直接確定了前面權(quán)步的大小,它應(yīng)該按照權(quán)自身的初值進行選擇,例如,Δ0=0.1(默認設(shè)置)。
為了使權(quán)不至于變得太大,設(shè)置最大權(quán)更新值限制Δmax,默認上界設(shè)置為Δmax=50.0。在很多實驗中,發(fā)現(xiàn)通過設(shè)置最大權(quán)更新值Δmax到相當(dāng)小的值,例如Δmax=1.0。
我們可能達到誤差減小的平滑性能。5.計算修正權(quán)值W、偏差b第t次學(xué)習(xí),權(quán)值W、偏差b的的修正公式W(t)=W(t-1)+ΔW(t),b(t)=b(t-1)+Δb(t),其中,t為學(xué)習(xí)次數(shù)。
6.BP網(wǎng)絡(luò)學(xué)習(xí)成功結(jié)束條件每次學(xué)習(xí)累積誤差平方和中國礦產(chǎn)資源評價新技術(shù)與評價新模型每次學(xué)習(xí)平均誤差中國礦產(chǎn)資源評價新技術(shù)與評價新模型當(dāng)平均誤差MSE<ε,BP網(wǎng)絡(luò)學(xué)習(xí)成功結(jié)束。
7.BP網(wǎng)絡(luò)應(yīng)用預(yù)測在應(yīng)用BP網(wǎng)絡(luò)時,提供網(wǎng)絡(luò)輸入給輸入層,應(yīng)用給定的BP網(wǎng)絡(luò)及BP網(wǎng)絡(luò)學(xué)習(xí)得到的權(quán)值W、偏差b,網(wǎng)絡(luò)輸入經(jīng)過從輸入層經(jīng)各隱含層向輸出層的“順傳播”過程,計算出BP網(wǎng)的預(yù)測輸出。
8.神經(jīng)元激活函數(shù)f線性函數(shù)f(x)=x,f′(x)=1,f(x)的輸入范圍(-∞,+∞),輸出范圍(-∞,+∞)。一般用于輸出層,可使網(wǎng)絡(luò)輸出任何值。
S型函數(shù)S(x)中國礦產(chǎn)資源評價新技術(shù)與評價新模型f(x)的輸入范圍(-∞,+∞),輸出范圍(0,1)。f′(x)=f(x)[1-f(x)],f′(x)的輸入范圍(-∞,+∞),輸出范圍(0, ]。
一般用于隱含層,可使范圍(-∞,+∞)的輸入,變成(0,1)的網(wǎng)絡(luò)輸出,對較大的輸入,放大系數(shù)較小;而對較小的輸入,放大系數(shù)較大,所以可用來處理和逼近非線性的輸入/輸出關(guān)系。
在用于模式識別時,可用于輸出層,產(chǎn)生逼近于0或1的二值輸出。雙曲正切S型函數(shù)中國礦產(chǎn)資源評價新技術(shù)與評價新模型f(x)的輸入范圍(-∞,+∞),輸出范圍(-1,1)。
f′(x)=1-f(x)·f(x),f′(x)的輸入范圍(-∞,+∞),輸出范圍(0,1]。
一般用于隱含層,可使范圍(-∞,+∞)的輸入,變成(-1,1)的網(wǎng)絡(luò)輸出,對較大的輸入,放大系數(shù)較小;而對較小的輸入,放大系數(shù)較大,所以可用來處理和逼近非線性的輸入/輸出關(guān)系。
階梯函數(shù)類型1中國礦產(chǎn)資源評價新技術(shù)與評價新模型f(x)的輸入范圍(-∞,+∞),輸出范圍{0,1}。f′(x)=0。
類型2中國礦產(chǎn)資源評價新技術(shù)與評價新模型f(x)的輸入范圍(-∞,+∞),輸出范圍{-1,1}。f′(x)=0。
斜坡函數(shù)類型1中國礦產(chǎn)資源評價新技術(shù)與評價新模型f(x)的輸入范圍(-∞,+∞),輸出范圍[0,1]。中國礦產(chǎn)資源評價新技術(shù)與評價新模型f′(x)的輸入范圍(-∞,+∞),輸出范圍{0,1}。
類型2中國礦產(chǎn)資源評價新技術(shù)與評價新模型f(x)的輸入范圍(-∞,+∞),輸出范圍[-1,1]。中國礦產(chǎn)資源評價新技術(shù)與評價新模型f′(x)的輸入范圍(-∞,+∞),輸出范圍{0,1}。
三、總體算法1.三層BP網(wǎng)絡(luò)(含輸入層,隱含層,輸出層)權(quán)值W、偏差b初始化總體算法(1)輸入?yún)?shù)X[N][P],S0,S1,f1[S1],S2,f2[S2];(2)計算輸入模式X[N][P]各個變量的最大值,最小值矩陣 Xmax[N],Xmin[N];(3)隱含層的權(quán)值W1,偏差b1初始化。
情形1:隱含層激活函數(shù)f( )都是雙曲正切S型函數(shù)1)計算輸入模式X[N][P]的每個變量的范圍向量Xrng[N];2)計算輸入模式X的每個變量的范圍均值向量Xmid[N];3)計算W,b的幅度因子Wmag;4)產(chǎn)生[-1,1]之間均勻分布的S0×1維隨機數(shù)矩陣Rand[S1];5)產(chǎn)生均值為0,方差為1的正態(tài)分布的S1×S0維隨機數(shù)矩陣Randnr[S1][S0],隨機數(shù)范圍大致在[-1,1];6)計算W[S1][S0],b[S1];7)計算隱含層的初始化權(quán)值W1[S1][S0];8)計算隱含層的初始化偏差b1[S1];9))輸出W1[S1][S0],b1[S1]。
情形2:隱含層激活函數(shù)f( )都是S型函數(shù)1)計算輸入模式X[N][P]的每個變量的范圍向量Xrng[N];2)計算輸入模式X的每個變量的范圍均值向量Xmid[N];3)計算W,b的幅度因子Wmag;4)產(chǎn)生[-1,1]之間均勻分布的S0×1維隨機數(shù)矩陣Rand[S1];5)產(chǎn)生均值為0,方差為1的正態(tài)分布的S1×S0維隨機數(shù)矩陣Randnr[S1][S0],隨機數(shù)范圍大致在[-1,1];6)計算W[S1][S0],b[S1];7)計算隱含層的初始化權(quán)值W1[S1][S0];8)計算隱含層的初始化偏差b1[S1];9)輸出W1[S1][S0],b1[S1]。
情形3:隱含層激活函數(shù)f( )為其他函數(shù)的情形1)計算輸入模式X[N][P]的每個變量的范圍向量Xrng[N];2)計算輸入模式X的每個變量的范圍均值向量Xmid[N];3)計算W,b的幅度因子Wmag;4)產(chǎn)生[-1,1]之間均勻分布的S0×1維隨機數(shù)矩陣Rand[S1];5)產(chǎn)生均值為0,方差為1的正態(tài)分布的S1×S0維隨機數(shù)矩陣Randnr[S1][S0],隨機數(shù)范圍大致在[-1,1];6)計算W[S1][S0],b[S1];7)計算隱含層的初始化權(quán)值W1[S1][S0];8)計算隱含層的初始化偏差b1[S1];9)輸出W1[S1][S0],b1[S1]。
(4)輸出層的權(quán)值W2,偏差b2初始化1)產(chǎn)生[-1,1]之間均勻分布的S2×S1維隨機數(shù)矩陣W2[S2][S1];2)產(chǎn)生[-1,1]之間均勻分布的S2×1維隨機數(shù)矩陣b2[S2];3)輸出W2[S2][S1],b2[S2]。
2.應(yīng)用彈性BP算法(RPROP)學(xué)習(xí)三層BP網(wǎng)絡(luò)(含輸入層,隱含層,輸出層)權(quán)值W、偏差b總體算法函數(shù):Train3BP_RPROP(S0,X,P,S1,W1,b1,f1,S2,W2,b2,f2,d,TP)(1)輸入?yún)?shù)P對模式(xp,dp),p=1,2,…,P;三層BP網(wǎng)絡(luò)結(jié)構(gòu);學(xué)習(xí)參數(shù)。
(2)學(xué)習(xí)初始化1) ;2)各層W,b的梯度值 , 初始化為零矩陣。
(3)由輸入模式X求第一次學(xué)習(xí)各層輸出y0,y1,y2及第一次學(xué)習(xí)平均誤差MSE(4)進入學(xué)習(xí)循環(huán)epoch=1(5)判斷每次學(xué)習(xí)誤差是否達到目標(biāo)誤差要求如果MSE<?,則,跳出epoch循環(huán),轉(zhuǎn)到(12)。
(6)保存第epoch-1次學(xué)習(xí)產(chǎn)生的各層W,b的梯度值 , (7)求第epoch次學(xué)習(xí)各層W,b的梯度值 , 1)求各層誤差反向傳播值δ;2)求第p次各層W,b的梯度值 , ;3)求p=1,2,…,P次模式產(chǎn)生的W,b的梯度值 , 的累加。
(8)如果epoch=1,則將第epoch-1次學(xué)習(xí)的各層W,b的梯度值 , 設(shè)為第epoch次學(xué)習(xí)產(chǎn)生的各層W,b的梯度值 , 。
(9)求各層W,b的更新1)求權(quán)更新值Δij更新;2)求W,b的權(quán)更新值 , ;3)求第epoch次學(xué)習(xí)修正后的各層W,b。
(10)用修正后各層W、b,由X求第epoch次學(xué)習(xí)各層輸出y0,y1,y2及第epoch次學(xué)習(xí)誤差MSE(11)epoch=epoch+1,如果epoch≤MAX_EPOCH,轉(zhuǎn)到(5);否則,轉(zhuǎn)到(12)。
(12)輸出處理1)如果MSE<ε,則學(xué)習(xí)達到目標(biāo)誤差要求,輸出W1,b1,W2,b2。2)如果MSE≥ε,則學(xué)習(xí)沒有達到目標(biāo)誤差要求,再次學(xué)習(xí)。
(13)結(jié)束3.三層BP網(wǎng)絡(luò)(含輸入層,隱含層,輸出層)預(yù)測總體算法首先應(yīng)用Train3lBP_RPROP( )學(xué)習(xí)三層BP網(wǎng)絡(luò)(含輸入層,隱含層,輸出層)權(quán)值W、偏差b,然后應(yīng)用三層BP網(wǎng)絡(luò)(含輸入層,隱含層,輸出層)預(yù)測。
函數(shù):Simu3lBP( )。1)輸入?yún)?shù):P個需預(yù)測的輸入數(shù)據(jù)向量xp,p=1,2,…,P;三層BP網(wǎng)絡(luò)結(jié)構(gòu);學(xué)習(xí)得到的各層權(quán)值W、偏差b。
2)計算P個需預(yù)測的輸入數(shù)據(jù)向量xp(p=1,2,…,P)的網(wǎng)絡(luò)輸出 y2[S2][P],輸出預(yù)測結(jié)果y2[S2][P]。四、總體算法流程圖BP網(wǎng)絡(luò)總體算法流程圖見附圖2。
五、數(shù)據(jù)流圖BP網(wǎng)數(shù)據(jù)流圖見附圖1。
六、實例實例一 全國銅礦化探異常數(shù)據(jù)BP 模型分類1.全國銅礦化探異常數(shù)據(jù)準(zhǔn)備在全國銅礦化探數(shù)據(jù)上用穩(wěn)健統(tǒng)計學(xué)方法選取銅異常下限值33.1,生成全國銅礦化探異常數(shù)據(jù)。
2.模型數(shù)據(jù)準(zhǔn)備根據(jù)全國銅礦化探異常數(shù)據(jù),選取7類33個礦點的化探數(shù)據(jù)作為模型數(shù)據(jù)。
這7類分別是巖漿巖型銅礦、斑巖型銅礦、矽卡巖型、海相火山型銅礦、陸相火山型銅礦、受變質(zhì)型銅礦、海相沉積型銅礦,另添加了一類沒有銅異常的模型(表8-1)。3.測試數(shù)據(jù)準(zhǔn)備全國化探數(shù)據(jù)作為測試數(shù)據(jù)集。
4.BP網(wǎng)絡(luò)結(jié)構(gòu)隱層數(shù)2,輸入層到輸出層向量維數(shù)分別為14,9、5、1。學(xué)習(xí)率設(shè)置為0.9,系統(tǒng)誤差1e-5。沒有動量項。表8-1 模型數(shù)據(jù)表續(xù)表5.計算結(jié)果圖如圖8-2、圖8-3。
圖8-2圖8-3 全國銅礦礦床類型BP模型分類示意圖實例二 全國金礦礦石量品位數(shù)據(jù)BP 模型分類1.模型數(shù)據(jù)準(zhǔn)備根據(jù)全國金礦儲量品位數(shù)據(jù),選取4類34個礦床數(shù)據(jù)作為模型數(shù)據(jù),這4類分別是綠巖型金礦、與中酸性浸入巖有關(guān)的熱液型金礦、微細浸染型型金礦、火山熱液型金礦(表8-2)。
2.測試數(shù)據(jù)準(zhǔn)備模型樣本點和部分金礦點金屬量、礦石量、品位數(shù)據(jù)作為測試數(shù)據(jù)集。3.BP網(wǎng)絡(luò)結(jié)構(gòu)輸入層為三維,隱層1層,隱層為三維,輸出層為四維,學(xué)習(xí)率設(shè)置為0.8,系統(tǒng)誤差1e-4,迭代次數(shù)5000。
表8-2 模型數(shù)據(jù)4.計算結(jié)果結(jié)果見表8-3、8-4。表8-3 訓(xùn)練學(xué)習(xí)結(jié)果表8-4 預(yù)測結(jié)果(部分)續(xù)表。
谷歌人工智能寫作項目:神經(jīng)網(wǎng)絡(luò)偽原創(chuàng)
對如下BP神經(jīng)網(wǎng)絡(luò),寫出它的計算公式(含學(xué)習(xí)公式),并對其初始權(quán)值以及樣本x1=1,x
bp神經(jīng)網(wǎng)絡(luò)對輸入數(shù)據(jù)和輸出數(shù)據(jù)有什么要求
p神經(jīng)網(wǎng)絡(luò)的輸入數(shù)據(jù)越多越好,輸出數(shù)據(jù)需要反映網(wǎng)絡(luò)的聯(lián)想記憶和預(yù)測能力。BP網(wǎng)絡(luò)能學(xué)習(xí)和存貯大量的輸入-輸出模式映射關(guān)系,而無需事前揭示描述這種映射關(guān)系的數(shù)學(xué)方程。
它的學(xué)習(xí)規(guī)則是使用最速下降法,通過反向傳播來不斷調(diào)整網(wǎng)絡(luò)的權(quán)值和閾值,使網(wǎng)絡(luò)的誤差平方和最小。
BP神經(jīng)網(wǎng)絡(luò)模型拓撲結(jié)構(gòu)包括輸入層(input)、隱層(hide layer)和輸出層(output layer)。
BP網(wǎng)絡(luò)具有高度非線性和較強的泛化能力,但也存在收斂速度慢、迭代步數(shù)多、易于陷入局部極小和全局搜索能力差等缺點。
擴展資料:BP算法主要思想是:輸入學(xué)習(xí)樣本,使用反向傳播算法對網(wǎng)絡(luò)的權(quán)值和偏差進行反復(fù)的調(diào)整訓(xùn)練,使輸出的向量與期望向量盡可能地接近,當(dāng)網(wǎng)絡(luò)輸出層的誤差平方和小于指定的誤差時訓(xùn)練完成,保存網(wǎng)絡(luò)的權(quán)值和偏差。
1、初始化,隨機給定各連接權(quán)及閥值。
2、由給定的輸入輸出模式對計算隱層、輸出層各單元輸出3、計算新的連接權(quán)及閥值,計算公式如下:4、選取下一個輸入模式對返回第2步反復(fù)訓(xùn)練直到網(wǎng)絡(luò)設(shè)輸出誤差達到要求結(jié)束訓(xùn)練。
參考資料來源:百度百科-BP神經(jīng)網(wǎng)絡(luò)。
神經(jīng)網(wǎng)絡(luò)bp算法
用BP神經(jīng)網(wǎng)絡(luò)建立數(shù)學(xué)模型,MATLAB實現(xiàn),怎樣得到輸入到輸出的計算公式
%?計算S1與S2層的輸出A1=tansig(W1*p,B1);t=purelin(W2*A1,B2);這就是p到t的映射關(guān)系。
BP(Back Propagation)神經(jīng)網(wǎng)絡(luò)是1986年由Rumelhart和McCelland為首的科學(xué)家小組提出,是一種按誤差逆?zhèn)鞑ニ惴ㄓ?xùn)練的多層前饋網(wǎng)絡(luò),是目前應(yīng)用最廣泛的神經(jīng)網(wǎng)絡(luò)模型之一。
BP網(wǎng)絡(luò)能學(xué)習(xí)和存貯大量的輸入-輸出模式映射關(guān)系,而無需事前揭示描述這種映射關(guān)系的數(shù)學(xué)方程。它的學(xué)習(xí)規(guī)則是使用最速下降法,通過反向傳播來不斷調(diào)整網(wǎng)絡(luò)的權(quán)值和閾值,使網(wǎng)絡(luò)的誤差平方和最小。
BP神經(jīng)網(wǎng)絡(luò)模型拓撲結(jié)構(gòu)包括輸入層(input)、隱層(hidden layer)和輸出層(output layer)。
?
總結(jié)
以上是生活随笔為你收集整理的BP神经网络算法基本原理,bp神经网络算法公式的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: java 聊天工具源代码_简易聊天软件源
- 下一篇: 救救这个孩子.....