RBF神经网络
這里寫目錄標題
- 一、一維正態分布
- 二、徑向基函數
- 三、徑向基函數解決插值問題
- 四、RBF神經網絡簡介
- 五、RBF神經元模型
- 六、RBF神經網絡結構
一、一維正態分布
f(x)=12πσe?(x?μ)22σ2f(x)=\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x-\mu)^2}{2\sigma^2}}f(x)=2π?σ1?e?2σ2(x?μ)2? 記作X~N(μ,σ2)X \sim N(\mu,\sigma^2)X~N(μ,σ2)。
可以將一般正態分布轉化為標準正態分布:若X~N(μ,σ2),Y=X?μσ~N(0,1)X \sim N(\mu,\sigma^2),Y=\frac{X-\mu}{\sigma} \sim N(0,1)X~N(μ,σ2),Y=σX?μ?~N(0,1)
二、徑向基函數
徑向基函數(Radial Basis Function,RBF)是一個取值僅取決于到原點距離的實值函數,記作?(x)=?(∣∣x∣∣)\phi(x)=\phi(||x||)?(x)=?(∣∣x∣∣),也可以是到任意一中心點ccc的距離,即?(x,c)=?(∣∣x?c∣∣)\phi(x,c)=\phi(||x-c||)?(x,c)=?(∣∣x?c∣∣)。任何一個滿足上述特性的函數都可以稱為RPF。
 ?(x,c)=e?(x?c)2r2\phi(x,c)=e^{-\frac{(x-c)^2}{r^2}}?(x,c)=e?r2(x?c)2?
 
 
 高斯函數:
 f(x)=ae?(x?b)22c2f(x)=ae^{-\frac{(x-b)^2}{2c^2}}f(x)=ae?2c2(x?b)2?
- aaa:曲線高度
- bbb:即μ\muμ,指曲線在xxx軸的中心
-  ccc:即σ\sigmaσ,指width(與半峰全框有關)
 
三、徑向基函數解決插值問題
- 每個藍色的點是一個樣本
- 綠色虛線對應一個訓練樣本,對應一個高斯函數(高斯函數中心就是樣本點)
- 藍色實線表示真實擬合這些訓練數據的曲線
(1)樣本點(xn,yn)∈D,n=1,2,...,N(x_n,y_n) \in D ,n=1,2,...,N(xn?,yn?)∈D,n=1,2,...,N
(2)完全內插法要求插值函數經過每個樣本點,即F(xn)=ynF(x_n)=y_nF(xn?)=yn?,樣本點共有NNN個
(3)RBF的方法是選擇NNN個奇函數φ(∣∣x?xn∣∣)\varphi(||x-x_n||)φ(∣∣x?xn?∣∣) φ(∣∣x?xn∣∣)=e?12σ2∣∣x?xn∣∣2\varphi(||x-x_n||)=e^{-\frac{1}{2\sigma^2}||x-x_n||^2}φ(∣∣x?xn?∣∣)=e?2σ21?∣∣x?xn?∣∣2(4)基于徑向基函數的插值函數為: F(x)=∑n=1Nwnφn(∣∣x?xn∣∣)=w1φ1(∣∣x?x1∣∣)+w2φ2(∣∣x?x2∣∣)+...+wnφn(∣∣x?xn∣∣)F(x)=\sum_{n=1}^{N}w_n\varphi_n(||x-x_n||)=w_1\varphi_1(||x-x_1||)+w_2\varphi_2(||x-x_2||)+...+w_n\varphi_n(||x-x_n||)F(x)=n=1∑N?wn?φn?(∣∣x?xn?∣∣)=w1?φ1?(∣∣x?x1?∣∣)+w2?φ2?(∣∣x?x2?∣∣)+...+wn?φn?(∣∣x?xn?∣∣)
四、RBF神經網絡簡介
RBF神經網絡的結構與多層前向網絡類似,是一種具有單隱層的三層前向神經網絡。
- 輸入層:由信號源結點組成
- 隱含層:單神經元層,但神經元數可視所描述問題的需要而定
-  輸出層:對輸入的作用做出響應
 從輸入層到隱含層空間的變換是非線性的
從輸入層空間到隱含層空間的變換是非線性的,而從隱含層空間到輸出層空間的變換是線性的。隱含層神經元的變換函數是RBF,它是一種局部分布的中心徑向對稱衰減的非負非線性函數。
BP神經網絡用于函數逼近時,權值的調節采用負梯度下降法,這種權值調節的方法存在著收斂速度慢和局部極小等局限性。同時,BP 神經網絡在訓練過程中需要對網絡中的所有權值和閾值進行修正,屬于全局逼近的神經網絡。
而RBF 神經網絡在逼近能力、分類能力和學習速度等方面均優于BP神經網絡。另外,盡管RBF神經網絡比BP 神經網絡需要更多的神經元,但是它能夠按時間片來優化訓練網絡。因此,RBF神經網絡是一種局部逼近性能非常好的神經網絡結構,有學者證明它能以任意精度逼近任一連續函數。
RBF人工神經網絡以其獨特的信息處理能力在許多領域得到了成功的應用,它不僅具繼承了神經網絡強大的非線性映射能力,而且具有自適應、自學習和容錯性等,能夠從大量的歷史數據中進行聚類和學習,進而得到某些行為變化的規律。同時,RBF神經網絡是一種新穎有效的前饋式神經網絡,具有最佳局部逼近和全局最優的性能,且訓練方法快速易行,這些優點使得RBF神經網絡在非線性時間序列預測中得到了廣泛的應用。
- 全局逼近: 當神經網絡的一個或多個可調參數(權值和閾值)對任何一個輸出都有影響,則稱該神經網絡為全局逼近網絡
- 局部逼近:對網絡輸入空間的某個局部區域只有少數幾個連接權值影響網絡的輸出,則稱該網絡為局部逼近網絡
另外,RBF神經網絡能夠逼近任意的非線性函數,可以處理系統內難以解析的規律性,具有良好的泛化能力,并有很快的學習收斂速度。當有很多的訓練向量時,這種網絡很有效果。目前,RBF神經網絡已在非線性函數逼近、時間序列分析、數據分類、模式識別、信息處理、圖像處理、系統建模、控制和故障診斷等多種場合得到了成功應用。
五、RBF神經元模型
 ∣∣dist∣∣||dist||∣∣dist∣∣為歐氏距離,用函數式可表示為: ∣∣dist∣∣=∣∣w?x∣∣=∑iR(w1,i?xi2)=[(w?xT)(w?xT)T]12||dist||=||\boldsymbol{w-x}||=\sqrt{\sum_{i}^{R}(w_{1,i}-x_i^2)=[(\boldsymbol{w-x^T})(\boldsymbol{w-x^T})^T]^{\frac{1}{2}}}∣∣dist∣∣=∣∣w?x∣∣=i∑R?(w1,i??xi2?)=[(w?xT)(w?xT)T]21??
凈輸入nnn為RBF神經元的中間運算結果n=∣∣w?x∣∣bn=||\boldsymbol{w-x}||bn=∣∣w?x∣∣b
RBF神經元模型的輸出yyy為:y=rbf(n)=rbf(∣∣w?x∣∣b)y=rbf(n)=rbf(||\boldsymbol{w-x}||b)y=rbf(n)=rbf(∣∣w?x∣∣b)
rbf(x)rbf(x)rbf(x)為徑向基函數,常見形式有:rbf(x)=e?(xσ)2rbf(x)=e^{-(\frac{x}{\sigma})^2}rbf(x)=e?(σx?)2 rbf(x)=1(σ2+x2)α,α>0rbf(x)=\frac{1}{(\sigma^2+x^2)^{\alpha}},\alpha>0rbf(x)=(σ2+x2)α1?,α>0
六、RBF神經網絡結構
RBF神經網絡由輸入層、單隱含層、輸出層三層組成,如下圖所示:
 
 n1\boldsymbol{n^1}n1為RBF神經網絡隱含層的中間運算結果,n1=∣∣W1?x∣∣b1=[diag((W1?ones(S1,1)xT)(W1?ones(S1,1)xT)T)]12b1\boldsymbol{n^1}=\boldsymbol{||W^1-x||b^1}=[diag((\boldsymbol{W^1}-ones(S^1,1)\boldsymbol{x^T})(\boldsymbol{W^1}-ones(S^1,1)\boldsymbol{x^T})^T)]^{\frac{1}{2}}\boldsymbol{b^1}n1=∣∣W1?x∣∣b1=[diag((W1?ones(S1,1)xT)(W1?ones(S1,1)xT)T)]21?b1
 diag(x)diag(x)diag(x)表示取矩陣向量主對角線上的元素組成的列向量。
RBF神經網絡隱含層的輸出y1\boldsymbol{y^1}y1為:y1=rbf(n1)\boldsymbol{y^1}=rbf(\boldsymbol{n^1})y1=rbf(n1) n2\boldsymbol{n^2}n2為RBF輸出層的中間運算結果,表示為:n2=W2y1+b2\boldsymbol{n^2}=\boldsymbol{W^2y^1+b^2}n2=W2y1+b2 RBF神經網絡的輸出y2\boldsymbol{y^2}y2為:y2=purelin(n2)\boldsymbol{y^2}=purelin(\boldsymbol{n^2})y2=purelin(n2) 隱含層節點中的徑向基函數對輸入信號在局部產生響應,即當輸入信號靠近該函數的中央范圍時,隱含層節點將產生較大的輸出。因此,RBF神經網絡具有局部逼近能力,RBF神經網絡也被稱為局部感知場網絡
神經元的傳遞函數
總結
 
                            
                        - 上一篇: SwiftyJSON 如何使用
- 下一篇: Swift Alamofire Swif
