RBF(径向基)神经网络 非线性函数回归的实现
生活随笔
收集整理的這篇文章主要介紹了
RBF(径向基)神经网络 非线性函数回归的实现
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
徑向基神將網絡的神經元模型: ? 徑向基神經王闊的節點激活函數采用徑向基函數,通常定義空間任意一點到某一中心之間的歐氏距離的單調函數。
從模型可以得到,徑向基神經網絡的激活函數的輸入向量是 輸入向量和權重向量之間的距離作為自變量,隨著權值和輸入向量之間的距離減少,網絡的輸出時遞增的,當輸入向量和權重向量相等的時,達到最大值1,利用徑向基神經網絡和線性神經元可以建立廣義回歸神經網絡,此種神經網絡額可以適用函數的逼近方面的應用,徑向基神經網絡和競爭神經網絡可以建立被概率神經網絡,此種神經網絡適合解決分類問題。
RBF神經網絡的函數逼近問題:
% RBF網絡的回歸--非線性函數回歸的實現%% 清空環境變量 clc clear%% 產生輸入 輸出數據 % 設置步長 interval=0.01;% 產生x1 x2 x1=-1.5:interval:1.5; x2=-1.5:interval:1.5;% 按照函數先求得相應的函數值,作為網絡的輸出。 F =20+x1.^2-10*cos(2*pi*x1)+x2.^2-10*cos(2*pi*x2); %% 網絡建立和訓練 % 網絡建立 輸入為[x1;x2],輸出為F。Spread使用默認。 net=newrbe([x1;x2],F)%% 網絡的效果驗證% 我們將原數據回帶,測試網絡效果: ty=sim(net,[x1;x2]);% 我們使用圖像來看網絡對非線性函數的擬合效果 figure plot3(x1,x2,F,'rd'); hold on; plot3(x1,x2,ty,'b-.'); view(113,36) title('可視化的方法觀察準確RBF神經網絡的擬合效果') xlabel('x1') ylabel('x2') zlabel('F') grid onnewrb()函數-------------------------該函數用來設計一個徑向基神經網絡,
[net tr]=newrb(p,t,goal,spread,MN,DF)
? goal為均方誤差,sperad表示徑向基函數的擴展速度,spread越大,輸出結果月光花,但是太大耳朵spread值會導致數值計算的困難,MN表示你神經元的最大數目, ? DF為兩次顯示之間所添加的神經元數目, ? ? ? ?tr表示訓練記錄,
徑向基神經網絡對函數的擬合效果:
% RBF網絡的回歸--非線性函數回歸的實現%% 清空環境變量 clc clear %% 產生訓練樣本(訓練輸入,訓練輸出) % ld為樣本例數 ld=400; % 產生2*ld的矩陣 x=rand(2,ld); % 將x轉換到[-1.5 1.5]之間 x=(x-0.5)*1.5*2; % x的第一行為x1,第二行為x2. x1=x(1,:); x2=x(2,:);% 計算網絡輸出F值 F=20+x1.^2-10*cos(2*pi*x1)+x2.^2-10*cos(2*pi*x2);%% 建立RBF神經網絡 % 采用approximate RBF神經網絡。spread為默認值 net=newrb(x,F);%% 建立測試樣本% generate the testing data interval=0.1; [i, j]=meshgrid(-1.5:interval:1.5); row=size(i); tx1=i(:); tx1=tx1'; tx2=j(:); tx2=tx2'; tx=[tx1;tx2];%% 使用建立的RBF網絡進行模擬,得出網絡輸出 ty=sim(net,tx);%% 使用圖像,畫出3維圖% 真正的函數圖像 interval=0.1; [x1, x2]=meshgrid(-1.5:interval:1.5); F = 20+x1.^2-10*cos(2*pi*x1)+x2.^2-10*cos(2*pi*x2); subplot(1,3,1) mesh(x1,x2,F); zlim([0,60]) title('真正的函數圖像')% 網絡得出的函數圖像 v=reshape(ty,row); subplot(1,3,2) mesh(i,j,v); zlim([0,60]) title('RBF神經網絡結果')% 誤差圖像 subplot(1,3,3) mesh(x1,x2,F-v); zlim([0,60]) title('誤差圖像')set(gcf,'position',[300 ,250,900,400])總結
以上是生活随笔為你收集整理的RBF(径向基)神经网络 非线性函数回归的实现的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 基于BP弱分类器用Adaboost的强分
- 下一篇: 广义回归神经网络(GRNN)的数据预测