下載本文檔
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、matlab的BP神經(jīng)網(wǎng)絡(luò)講義一、RBF神經(jīng)網(wǎng)絡(luò)1985年,Powell提出了多變量插值的徑向基函數(shù)(Radical Basis Function,RBF)方法,1988年, Moody和Darken提出了一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),即RBF神經(jīng)網(wǎng)絡(luò)。RBF網(wǎng)絡(luò)是一種三層前向網(wǎng)絡(luò),其基本思想是:(1)用RBF作為隱單元的“基”構(gòu)成隱含層空間,將輸入矢量直接(即不需要通過權(quán)連接)映射到隱空間(2)當(dāng)RBF的中心點(diǎn)確定后,映射關(guān)系也就確定(3)隱含層空間到輸出空間的映射是線性的。newrb()函數(shù)功能 建立一個(gè)徑向基神經(jīng)網(wǎng)絡(luò)格式 net = newrb(P,T,GOAL,SPREAD,
2、MN,DF)說明 P為輸入向量,T為目標(biāo)向量,GOAL為圴方誤差,默認(rèn)為0,SPREAD為徑向基函數(shù)的分布密度,默認(rèn)為1,MN為神經(jīng)元的最大數(shù)目,DF為兩次顯示之間所添加的神經(jīng)元神經(jīng)元數(shù)目。 例子:設(shè)P,T是訓(xùn)練樣本,X,Y是測(cè)試樣本;net=newrb(P,T,err_goal,spread); %建立網(wǎng)絡(luò)q=sim(net,p);e=q-T;plot(p,q); %畫訓(xùn)練誤差曲線q=sim(net,X);e=q-Y;plot(X,q); %畫測(cè)試誤差曲線二、BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練前饋網(wǎng)絡(luò)的第一步是建立網(wǎng)絡(luò)對(duì)象。函數(shù)newff()建立一個(gè)可訓(xùn)練的前饋網(wǎng)絡(luò)。這需要4個(gè)輸入?yún)?shù)。
3、第一個(gè)參數(shù)是一個(gè)Rx2的矩陣以定義R個(gè)輸入向量的最小值和最大值。第二個(gè)參數(shù)是一個(gè)設(shè)定每層神經(jīng)元個(gè)數(shù)的數(shù)組。第三個(gè)參數(shù)是包含每層用到的傳遞函數(shù)名稱的細(xì)胞數(shù)組。最后一個(gè)參數(shù)是用到的訓(xùn)練函數(shù)的名稱。舉個(gè)例子,下面命令將創(chuàng)建一個(gè)二層網(wǎng)絡(luò)。它的輸入是兩個(gè)元素的向量,第一層有三個(gè)神經(jīng)元(3),第二層有一個(gè)神經(jīng)元(1)。第一層的傳遞函數(shù)是tan-sigmoid,輸出層的傳遞函數(shù)是linear。輸入向量的第一個(gè)元素的范圍是-1到2-1 2,輸入向量的第二個(gè)元素的范圍是0到50 5,訓(xùn)練函數(shù)是traingd。net=newff(-1 2; 0 5,3,1,'tansig','pureli
4、n','traingd');這個(gè)命令建立了網(wǎng)絡(luò)對(duì)象并且初始化了網(wǎng)絡(luò)權(quán)重和偏置,因此網(wǎng)絡(luò)就可以進(jìn)行訓(xùn)練了。我們可能要多次重新初始化權(quán)重或者進(jìn)行自定義的初始化。下面就是初始化的詳細(xì)步驟。在訓(xùn)練前饋網(wǎng)絡(luò)之前,權(quán)重和偏置必須被初始化。初始化權(quán)重和偏置的工作用命令init來實(shí)現(xiàn)。這個(gè)函數(shù)接收網(wǎng)絡(luò)對(duì)象并初始化權(quán)重和偏置后返回網(wǎng)絡(luò)對(duì)象。下面就是網(wǎng)絡(luò)如何初始化的:net = init(net);.initwb和initnw。initwb函數(shù)根據(jù)每一層自己的初始化參數(shù)(net.inputWeightsi,j.initFcn)初始化權(quán)重矩陣和偏置。前饋網(wǎng)絡(luò)的初始化權(quán)重通常設(shè)為rands,它
5、使權(quán)重在-1到1之間隨機(jī)取值。這種方式經(jīng)常用在轉(zhuǎn)換函數(shù)是線性函數(shù)時(shí)。initnw通常用于轉(zhuǎn)換函數(shù)是曲線函數(shù)。它根據(jù)Nguyen和WidrowNgWi90為層產(chǎn)生初始權(quán)重和偏置值,使得每層神經(jīng)元的活動(dòng)區(qū)域能大致平坦的分布在輸入空間。它比起單純的給權(quán)重和偏置隨機(jī)賦值有以下優(yōu)點(diǎn):(1)減少神經(jīng)元的浪費(fèi)(因?yàn)樗猩窠?jīng)元的活動(dòng)區(qū)域都在輸入空間內(nèi))。(2)有更快的訓(xùn)練速度(因?yàn)檩斎肟臻g的每個(gè)區(qū)域都在活動(dòng)的神經(jīng)元范圍中)。初始化函數(shù)被newff所調(diào)用。因此當(dāng)網(wǎng)絡(luò)創(chuàng)建時(shí),它根據(jù)缺省的參數(shù)自動(dòng)初始化。init不需要單獨(dú)的調(diào)用??墒俏覀兛赡芤匦鲁跏蓟瘷?quán)重和偏置或者進(jìn)行自定義的初始化。例如,我們用newff創(chuàng)建的
6、網(wǎng)絡(luò),它缺省用initnw來初始化第一層。如果我們想要用rands重新初始化第一層的權(quán)重和偏置,我們用以下命令:net.layers1.initFcn = 'initwb'net.inputWeights1,1.initFcn = 'rands'net.biases1,1.initFcn = 'rands'net.biases2,1.initFcn = 'rands'net = init(net);IW: 輸入層到隱含層的權(quán)重矩陣LW: 隱含層和輸出層間的權(quán)重矩陣b: 閥值向量如網(wǎng)絡(luò)為net, 輸入層和輸出均為一個(gè)接點(diǎn)情況下,則用
7、net.IW1,1可以看到第一個(gè)輸入接點(diǎn)到第一隱含層的權(quán)重向量;net.LW2,1可以看到隱含層到輸出層的權(quán)值向量;net.b1,1是隱含層的閥值向量,net.b2,1是輸出接點(diǎn)的閥值;在多輸入輸出下先用net.IWnet.LWnet.b查看各矩陣結(jié)構(gòu),再相應(yīng)用net.IW?,?等語句查到相關(guān)的向量_clear all;%define the input and outputp= 974 874 527;388 466 1764;1316 2439 2251;1836 2410 1860;1557 2301 1578;1490 1877 2749;1513 1278 2026;1070 156
8、1 2794;1347 2415 3306;1324 2746 1233;1383 1463 1847;1282 0 2347;t=19797 24282 34548;% 創(chuàng)建bp網(wǎng)絡(luò)_怎樣知道m(xù)atlab已經(jīng)訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)的權(quán)值、步長(zhǎng)以及闕值用matlab訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí)不需輸入權(quán)值、步長(zhǎng)以及闕值,如果我想知道m(xù)atlab已經(jīng)訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)的權(quán)值、步長(zhǎng)以及闕值該怎末操作?訓(xùn)練好的權(quán)值、閾值的輸出方法是:輸入到隱層權(quán)值: w1=net.iw1,1隱層閾值: theta1=net.b1隱層到輸出層權(quán)值: w2=net.lw2,1;輸出層閾值: theta2=net.b2_幫我看看matlab的
9、這段程序(有關(guān)神經(jīng)網(wǎng)絡(luò)BP算法)在一位老師的講義上看到的程序,但是有些東西不太明白,請(qǐng)求幫助程序如下:*clf;figure(gcf)echo on%NEWFF 建立一個(gè)BP網(wǎng)絡(luò)%TRAIN 對(duì)BP網(wǎng)絡(luò)進(jìn)行訓(xùn)練%SIM 對(duì)BP網(wǎng)絡(luò)進(jìn)行仿真pauseP = -1:0.1:1;T = -.9602 -.5770 -.0729 .3771 .6405 .6600 .4609 .1336 -.2013 -.4344 -.5000 -.3930 -.1647 .0988 .3072 .3960 .3449 .1816 -.0312 -.2189 -.3201;plot(P,T,'+');
10、title('Training Vectors');xlabel('Input Vector P');ylabel('Target Vector T');pausenet=newff(minmax(P),5 1,'tansig' 'purelin','traingd','learngd','sse');echo offk = pickic;if k = 2net.iw1,1 = 3.5000; 3.5000; 3.5000; 3.5000; 3.5000;net.b1 = -2.8562; 1.0774; -0.5880; 1.4083; 2.8722;net.lw2,1 = 0.2622 -0.2375 -0.4525 0.2361 -0.1718;net.b2 = 0.1326;endnet.i
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 暗物質(zhì)助力打造未來商業(yè)新模式
- 生態(tài)辦公空間設(shè)計(jì)-以室內(nèi)綠植為元素的辦公室改造實(shí)踐
- 2025年度臨建板房租賃與室內(nèi)裝飾一體化服務(wù)合同4篇
- 二零二五年度大數(shù)據(jù)分析與應(yīng)用服務(wù)合同集錦4篇
- 2025版新能源項(xiàng)目投資合作協(xié)議范本3篇
- 基于2025年度云計(jì)算平臺(tái)建設(shè)合同3篇
- 個(gè)人信用抵押借款合同(2024版)版B版
- 二零二五年度大學(xué)生國(guó)際交流資助借款合同4篇
- 二零二五年度公共交通設(shè)施承包商借款協(xié)議書4篇
- 二零二五版辦公室裝修與辦公家具定制采購(gòu)協(xié)議2篇
- 《酸堿罐區(qū)設(shè)計(jì)規(guī)范》編制說明
- 橋梁監(jiān)測(cè)監(jiān)控實(shí)施方案
- 書籍小兵張嘎課件
- 藝術(shù)哲學(xué):美是如何誕生的學(xué)習(xí)通超星期末考試答案章節(jié)答案2024年
- 北京海淀區(qū)2025屆高三下第一次模擬語文試題含解析
- 量子醫(yī)學(xué)治療學(xué)行業(yè)投資機(jī)會(huì)分析與策略研究報(bào)告
- 多重耐藥菌病人的管理-(1)課件
- (高清版)TDT 1056-2019 縣級(jí)國(guó)土資源調(diào)查生產(chǎn)成本定額
- 環(huán)境監(jiān)測(cè)對(duì)環(huán)境保護(hù)的意義
- 2023年數(shù)學(xué)競(jìng)賽AMC8試卷(含答案)
- 2023年十天突破公務(wù)員面試
評(píng)論
0/150
提交評(píng)論