BP神經(jīng)網(wǎng)絡(luò)matlab實例簡單而經(jīng)典說課講解_第1頁
BP神經(jīng)網(wǎng)絡(luò)matlab實例簡單而經(jīng)典說課講解_第2頁
BP神經(jīng)網(wǎng)絡(luò)matlab實例簡單而經(jīng)典說課講解_第3頁
BP神經(jīng)網(wǎng)絡(luò)matlab實例簡單而經(jīng)典說課講解_第4頁
BP神經(jīng)網(wǎng)絡(luò)matlab實例簡單而經(jīng)典說課講解_第5頁
已閱讀5頁,還剩3頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、BP神經(jīng)網(wǎng)絡(luò)mat l ab實例(簡單而經(jīng)典)1、BP網(wǎng)絡(luò)構(gòu)建(1)生成BP網(wǎng)絡(luò)net newff (PR,S1 S2.SNl,TF 1 TF 2.TFN1, BTF, BLF , PF)PR:由R維的輸入樣本最小最大值構(gòu)成的 R 2維矩陣。S1 S2.SNl:各層的神經(jīng)元個數(shù)。TF1 TF2.TFNl:各層的神經(jīng)元傳遞函數(shù)。BTF :訓(xùn)練用函數(shù)的名稱。(2)網(wǎng)絡(luò)訓(xùn)練net,tr,Y,E, Pf, Af train (net, P,T,Pi, Ai,VV ,TV)(3)網(wǎng)絡(luò)仿真Y, Pf, Af, E, perf sim(net, P,Pi, Ai,T)BP網(wǎng)絡(luò)的訓(xùn)練函數(shù)訓(xùn)練方法訓(xùn)練函數(shù)梯度卜

2、.降法traingd有動量的梯度卜.降法traingdm自適應(yīng)lr梯度卜.降法traingda自適應(yīng)lr動量梯度卜降法traingdx彈性梯度卜.降法trainrpFletcher-Reeve戰(zhàn)腕梯度法traincgfPloak-Ribiere共腕梯度法traincgpPowell-Beale共腕梯度法traincgb量化共腕梯度法trainscg擬牛頓算法trainbfg一步正割算法trainossLevenberg-MarquardttrainlmBP網(wǎng)絡(luò)訓(xùn)練參數(shù)訓(xùn)練參數(shù)參數(shù)介紹訓(xùn)練函數(shù)net.trainParam.epochs最大訓(xùn)練次數(shù)(缺省為traingd、traingdm、10)t

3、raingda、traingdx、 trainrp、traincgf、 traincgp、traincgb、 trainscg、trainbfg、 trainoss、trainlmnet.trainParam.goal訓(xùn)練要求精度(缺省為0)traingd、traingdm、 traingda、traingdx、 trainrp、traincgf、 traincgp、traincgb、 trainscg、trainbfg、 trainoss、trainlmnet.trainParam.lr學(xué)習(xí)率(缺省為0.01)traingd、traingdm、 traingda、traingdx、 trai

4、nrp、traincgf、 traincgp、traincgb trainscg、trainbfg、 trainoss、trainlmnet.trainParam.max_fail最大失敗次數(shù)(缺省為5)traingd、traingdm、 traingda、traingdx、 trainrp、traincgf、 traincgp、traincgb trainscg、trainbfg、 trainoss、trainlmnet.trainParam.min_grad最小梯度要求(缺省為1e-10)traingd、traingdm、 traingda、traingdx、 trainrp、trainc

5、gf、 traincgp、traincgb trainscg、trainbfg、 trainoss、trainlmnet.trainParam.show顯示訓(xùn)練迭代過程(NaN表示不顯示,缺 省為25)traingd、traingdm、 traingda、traingdx、 trainrp、traincgf、 traincgp、traincgb trainscg、trainbfg、 trainoss、trainlmnet.trainParam.time最大訓(xùn)練時間(缺省為inf)traingd、traingdm、 traingda、traingdx、 trainrp、traincgf、 tra

6、incgp、traincgb trainscg、trainbfg、 trainoss、trainlmnet.trainParam.mc動量因子(缺省0.9)traingdm、traingdxnet.trainParam.lr_inc學(xué)習(xí)率lr增長比(缺省 為 1.05)traingda、traingdxnet.trainParam.lr_dec學(xué)習(xí)率lr下降比(缺省 為 0.7)traingda、traingdxnet.trainParam.max_perf_inc表現(xiàn)函數(shù)增加最大比 (缺省為1.04)traingda、traingdxnet.trainParam.delt_inc權(quán)值變化增加

7、量(缺省 為 1.2)trainrpnet.trainParam.delt_dec權(quán)值變化減小量(缺省 為 0.5)trainrpnet.trainParam.delt。初始權(quán)值變化(缺省為0.07)trainrpnet.trainParam.deltamax權(quán)值變化最大值(缺省 為 50.0)trainrpnet.trainParam.searchFcn一維線性搜索方法(缺省為 srchchaj)traincgf、traincgp、 traincgb、trainbfg、 trainossnet.trainParam.sigma因為二次求導(dǎo)對權(quán)值調(diào) 整的影響參數(shù)(缺省值5.0e-5)train

8、scgnet.trainParam.lambdaHessian矩陣不確定性調(diào) 節(jié)參數(shù)(缺省為5.0e- 7)trainscgnet.trainParam.men_reduc控制計算機內(nèi)存/速度的 參量,內(nèi)存較大設(shè)為1,否則設(shè)為2 (缺省為1)trainlmnet.trainParam.mu的初始值(缺省為0.001)trainlmnet.trainParam.mu_dec的減小率(缺省為0.1)trainlmnet.trainParam.mu_inc的增長率(缺省為10)trainlmnet.trainParam.mu_max的最大值(缺省為1e10)trainlm2、BP網(wǎng)絡(luò)舉例舉例1、%t

9、raingd clear;clc;P=-1 -1 2 2 4;0 5 0 5 7;T=-1 -1 1 1 -1;淅ij用minmax函數(shù)求輸入樣本范圍net = newff(minmax(P),5,1,'tansig','purelin','trainrp');net.trainParam.show=50;%net.trainParam.lr=0.05;net.trainParam.epochs=300;net.trainParam.goal=1e-5;net,tr=train(net,P,T);net.iw1,1%隱層權(quán)值net.b1%隱層閾值

10、net.lw2,1%輸出層權(quán)值net.b2%輸出層閾值sim(net,P)舉例2、利用三層BP神經(jīng)網(wǎng)絡(luò)來完成非線性函數(shù)的逼近任務(wù),其中隱層神經(jīng)元個數(shù)為五個。樣本數(shù)據(jù):輸入X輸出D輸入X輸出D輸入X輸出D-1.0000-0.9602-0.30000.1336P 0.40000.3072-0.9000-0.5770-0.2000-0.20130.50000.3960-0.8000-0.0729-0.1000-0.43440.60000.3449-0.70000.37710-0.50000.70000.1816-0.60000.64050.1000-0.39300.8000-0.3120-0.500

11、00.66000.2000-0.1647P 0.9000-0.2189-0.40000.46090.3000-0.09881.0000-0.3201解:看到期望輸出的范圍是1,1 ,所以利用雙極性Sigmoid函數(shù)作為轉(zhuǎn)移函數(shù)。程序如下:clear;clc;X=-1:0.1:1;D=-0.9602 -0.5770 -0.0729 0.3771 0.6405 0.6600 0.46090.1336 -0.2013 -0.4344 -0.5000 -0.3930 -0.1647 -.0988 0.3072 0.3960 0.3449 0.1816 -0.312 -0.2189 -0.3201;fi

12、gure;plot(X,D, '*' );%繪制原始數(shù)據(jù)分布圖(附錄:1-1 )net = newff(-1 1,5 1, net.trainParam.epochs = 100; net.trainParam.goal = 0.005; net = train(net,X,D);'tansig' , 'tansig'%訓(xùn)練的最大次數(shù)%全局最小誤差O = sim(net,X);figure;plot(X,D, '*' ,X,O);%繪制訓(xùn)練后得到的結(jié)果和誤差曲線);(附錄:1-2 、 1-3 )V = net.iw1,1 thet

13、a1 = net.b1 W = net.lw2,1 theta2 = net.b2%輸入層到中間層權(quán)值%用間層各神經(jīng)元閾值%中間層到輸出層權(quán)值%輸出層各神經(jīng)元閾值所得結(jié)果如下:輸入層到中間層的權(quán)值:中間層各神經(jīng)元的閾值:中間層到輸出層的權(quán)值:輸出層各神經(jīng)元的閾值:V -9.1669 7.34486.5885 -2.4019W 0.3427 0.2135T -1.52717.3761 4.8966 3.5409TT-0.9962 1.5303 3.27310.2981 -0.8840 1.9134舉例3、利用三層BP神經(jīng)網(wǎng)絡(luò)來完成非線性函數(shù)的逼近任務(wù),其中隱層神經(jīng)元個數(shù)為五個。樣本數(shù)據(jù):輸入X輸

14、出D輸入X輸出D輸入X輸出D01 0144P 821153932r 2 1621043371解:看到期望輸出的范圍超出 1,1 ,所以輸出層神經(jīng)元利用線性函數(shù)作為轉(zhuǎn)移函數(shù)。程序如下:clear;clc;X = 0 1 2 3 4 5 6 7 8 9 10;D = 0 1 2 3 4 3 2 1 2 3 4;figure;plot(X,D, '*' ); %繪制原始數(shù)據(jù)分布圖net = newff(0 10,5 1,'tansig' , 'purelin' )net.trainParam.epochs = 100;net.trainParam.go

15、al=0.005;net=train(net,X,D);O=sim(net,X);figure;2-2、2-3 )plot(X,D, '*' ,X,O);%繪制訓(xùn)練后得到的結(jié)果和誤差曲線(附錄:%輸入層到中間層權(quán)值%用間層各神經(jīng)元閾值%中間層到輸出層權(quán)值%輸出層各神經(jīng)元閾值V = net.iw1,1 theta1 = net.b1 W = net.lw2,1 theta2 = net.b2所得結(jié)果如下:輸入層到中間層的權(quán)值:V 0.8584 2.0890 -1.2166 0.2752 -0.391CT中間層各神經(jīng)元的閾值:-14.0302 -9.8340 7.4331 -2.0

16、135 0.561()中間層到輸出層的權(quán)值:W -0.4675 -1.1234 2.3208 4.6402 -2.2686輸出層各神經(jīng)元的閾值:T 1.7623問題:以下是上證指數(shù)2009年2月2日至IJ 3月27日的收盤價格,構(gòu)建一個三層BP神經(jīng)網(wǎng)絡(luò),利用該組信號的 6個過去值預(yù)測信號的將來值。日期價格日期價格2009/02/022011.6822009/03/022093.4522009/02/032060.8122009/03/032071.4322009/02/042107.7512009/03/042198.1122009/02/052098.0212009/03/052221.08

17、22009/02/062181.2412009/03/062193.0122009/02/092224.7112009/03/092118.7522009/02/102265.1612009/03/102158.5722009/02/112260.8222009/03/112139.0212009/02/122248.0922009/03/122133.8812009/02/132320.7922009/03/132128.8512009/02/162389.3922009/03/162153.2912009/02/172319.4422009/03/172218.3312009/02/182209.8622

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論