神經(jīng)網(wǎng)絡(luò)實(shí)驗(yàn)指導(dǎo)書2013版[1]19頁_第1頁
神經(jīng)網(wǎng)絡(luò)實(shí)驗(yàn)指導(dǎo)書2013版[1]19頁_第2頁
神經(jīng)網(wǎng)絡(luò)實(shí)驗(yàn)指導(dǎo)書2013版[1]19頁_第3頁
神經(jīng)網(wǎng)絡(luò)實(shí)驗(yàn)指導(dǎo)書2013版[1]19頁_第4頁
神經(jīng)網(wǎng)絡(luò)實(shí)驗(yàn)指導(dǎo)書2013版[1]19頁_第5頁
已閱讀5頁,還剩14頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、北京信息科技大學(xué)自編實(shí)驗(yàn)講義神經(jīng)網(wǎng)絡(luò)實(shí)驗(yàn)指導(dǎo)書許曉飛 陳雯柏編著自動(dòng)化學(xué)院智能科學(xué)與技術(shù)系2013年1月實(shí)驗(yàn)指導(dǎo)實(shí)驗(yàn)?zāi)康?(1)熟悉Matlab/Simulink的使用. (2)掌握BP神經(jīng)網(wǎng)絡(luò)的基本原理和基本的設(shè)計(jì)步驟. (3)了解BP神經(jīng)網(wǎng)絡(luò)在實(shí)際中的應(yīng)用. (4)針對(duì)簡(jiǎn)單的實(shí)際系統(tǒng), 能夠建立BP神經(jīng)網(wǎng)絡(luò)控制模型.實(shí)驗(yàn)原理: 1.前饋型人工神經(jīng)網(wǎng)絡(luò)前饋型人工神經(jīng)網(wǎng)絡(luò)是整個(gè)神經(jīng)網(wǎng)絡(luò)體系中最常見的一種,其結(jié)構(gòu)模型如圖2所示。網(wǎng)絡(luò)結(jié)構(gòu)包含輸入層、隱層(可能是多層)和輸出層,它的連接方式是同層之間不相連接,相鄰層之間單元為全連接型。這種網(wǎng)絡(luò)沒有反饋存在,實(shí)際運(yùn)行是單向的,學(xué)習(xí)方式是一種監(jiān)督式學(xué)習(xí)

2、。前饋型神經(jīng)網(wǎng)絡(luò)具有很強(qiáng)的非線性映射能力,尋找其映射是靠學(xué)習(xí)實(shí)踐的,只要學(xué)習(xí)數(shù)據(jù)足夠完備,就能夠描述任意未知的復(fù)雜系統(tǒng)。因此前饋神經(jīng)網(wǎng)絡(luò)為非線性系統(tǒng)的建模和控制提供了有力的工具。圖1 前饋型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)2.BP算法原理BP(Back Propagation)神經(jīng)網(wǎng)絡(luò)是一種利用誤差反向傳播訓(xùn)練算法的前饋型網(wǎng)絡(luò),BP學(xué)習(xí)算法實(shí)質(zhì)是求取網(wǎng)絡(luò)總誤差函數(shù)的最小值問題2。這種算法采用非線性規(guī)劃中的最速下降方法,按誤差函數(shù)的負(fù)梯度方向修改權(quán)系數(shù),它是梯度下降法在多層前饋網(wǎng)絡(luò)中的應(yīng)用。具體學(xué)習(xí)算法包括兩大過程,其一是輸入信號(hào)的正向傳播過程,其二是輸出誤差信號(hào)的反向傳播過程。1.正向傳播輸入的樣本從輸入層經(jīng)過隱

3、層單元一層一層進(jìn)行處理,通過所有的隱層之后,則傳向輸出層;在逐層處理的過程中,每一層神經(jīng)元的狀態(tài)只對(duì)下一層神經(jīng)元的狀態(tài)產(chǎn)生影響。在輸出層把現(xiàn)行輸出和期望輸出進(jìn)行比較,如果現(xiàn)行輸出不等于期望輸出,則進(jìn)入反向傳播過程。2.反向傳播反向傳播時(shí),把誤差信號(hào)按原來正向傳播的通路反向傳回,并對(duì)每個(gè)隱層的各個(gè)神經(jīng)元的權(quán)系數(shù)進(jìn)行修改,以望誤差信號(hào)趨向最小。網(wǎng)絡(luò)各層的權(quán)值改變量,則由傳播到該層的誤差大小來決定。3.BP算法的特點(diǎn)BP神經(jīng)網(wǎng)絡(luò)具有以下三方面的主要優(yōu)點(diǎn)3:第一,只要有足夠多的隱含層和隱層節(jié)點(diǎn),BP神經(jīng)網(wǎng)絡(luò)可逼近任意的非線性映射關(guān)系;第二,BP學(xué)習(xí)算法是一種全局逼近方法,因而它具有較好的泛化能力。第三

4、,BP神經(jīng)網(wǎng)絡(luò)具有一定的容錯(cuò)能力。因?yàn)锽P神經(jīng)網(wǎng)絡(luò)輸入輸出間的關(guān)聯(lián)信息分布存儲(chǔ)于連接權(quán)中,由于連接權(quán)的個(gè)數(shù)總多,個(gè)別神經(jīng)元的損壞對(duì)輸入輸出關(guān)系只有較小影響。但在實(shí)際應(yīng)用中也存在一些問題,如:收斂速度慢,極有可能陷入最優(yōu)陷阱(局部極值),而且典型的BP網(wǎng)絡(luò)是一個(gè)冗余結(jié)構(gòu),它的結(jié)構(gòu)及隱節(jié)點(diǎn)數(shù)的確定往往有人為的主觀性,而且一旦人工決定之后,不能在學(xué)習(xí)過程中自主變更。其結(jié)果是隱節(jié)點(diǎn)數(shù)少了,學(xué)習(xí)過程不收斂;隱節(jié)點(diǎn)數(shù)多了,則網(wǎng)絡(luò)的學(xué)習(xí)及推理的效率較差。實(shí)驗(yàn)步驟:(1)建立控制模型神經(jīng)網(wǎng)絡(luò)訓(xùn)練數(shù)據(jù)來源于MATLAB6.5自帶的一階T-S型模糊控制slcp.mdl。如圖2所示。圖2 一級(jí)倒立擺的模糊控制仿真在

5、上面的控制系統(tǒng)中提取擺角、角速度、位移、速度初始條件為分別為0. 5rad,1rad/s, 0和0,在此條件下響應(yīng)的輸入輸出對(duì), (2) 提取訓(xùn)練數(shù)據(jù)如圖3所示,利用【Signal To Workspace】模塊獲取一階T-S型模糊控制仿真過程的控制器輸入輸出數(shù)據(jù)對(duì),并保存到工作區(qū)中,可以直接用到神經(jīng)網(wǎng)絡(luò)的訓(xùn)練中。圖3 數(shù)據(jù)提取(3) BP神經(jīng)網(wǎng)絡(luò)控制器的訓(xùn)練首先將提取出的訓(xùn)練數(shù)據(jù)變?yōu)闃?biāo)準(zhǔn)的訓(xùn)練數(shù)據(jù)形式,標(biāo)準(zhǔn)的訓(xùn)練數(shù)據(jù)分為輸入和目標(biāo)輸出兩部分。輸入部分是一個(gè)形式為輸入個(gè)數(shù)訓(xùn)練數(shù)據(jù)個(gè)數(shù)的矩陣,這里輸入個(gè)數(shù)為4。目標(biāo)輸出為一個(gè)輸出個(gè)數(shù)訓(xùn)練數(shù)據(jù)個(gè)數(shù)的矩陣,這里輸出個(gè)數(shù)為1。而經(jīng)signal to w

6、orkspace模塊提取出的數(shù)據(jù)為一個(gè)訓(xùn)練數(shù)據(jù)個(gè)數(shù)輸入(或輸出)個(gè)數(shù)的矩陣,因此分別將p、t轉(zhuǎn)置后就得到標(biāo)準(zhǔn)訓(xùn)練數(shù)據(jù)p,t。接著選擇要訓(xùn)練的步數(shù),訓(xùn)練步數(shù)的選擇可由下面語句定義:net.trainParam.epochs=250這一語句定義了一個(gè)500步的訓(xùn)練步數(shù)。做完上面的工作后就可以對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練了,按照上一節(jié)中的選擇和定義初始化網(wǎng)絡(luò)后,在沒有輸入延遲和輸出延遲的條件下,并設(shè)訓(xùn)練后的網(wǎng)絡(luò)還為NET,便可用下面語句對(duì)網(wǎng)絡(luò)訓(xùn)練:net,tr=train(net,P,T, , )使用下面語句初始化BP神經(jīng)網(wǎng)絡(luò)控制器并進(jìn)行訓(xùn)練:P=p;T=t;net=newff(-0.35 0.35;-1 1;-

7、3 3;-3 3,12 1,tansig,purelin,trainlm,learngdm);net.trainParam.show=25;net.trainParam.epochs=250;net,tr=train(net,P,T, , );系統(tǒng)提示如下:TRAINLM, Epoch 0/250, MSE 10.1011/0, Gradient 2554.35/1e-010TRAINLM, Epoch 50/250, MSE 4.78751e-008/0, Gradient 0.00983832/1e-010TRAINLM, Epoch 75/250, MSE 4.1262e-008/0,

8、Gradient 0.00475103/1e-010TRAINLM, Epoch 100/250, MSE 3.76953e-008/0, Gradient 0.00278629/1e-010TRAINLM, Epoch 125/250, MSE 3.52016e-008/0, Gradient 0.00194476/1e-010TRAINLM, Epoch 150/250, MSE 3.32444e-008/0, Gradient 0.00150103/1e-010TRAINLM, Epoch 175/250, MSE 3.16423e-008/0, Gradient 0.00121143/

9、1e-010TRAINLM, Epoch 200/250, MSE 3.02987e-008/0, Gradient 0.000996205/1e-010TRAINLM, Epoch 225/250, MSE 2.91493e-008/0, Gradient 0.000826085/1e-010TRAINLM, Epoch 250/250, MSE 2.81489e-008/0, Gradient 0.000687935/1e-010TRAINLM, Maximum epoch reached, performance goal was not met.圖4 訓(xùn)練誤差曲線可以看出,經(jīng)過250步

10、訓(xùn)練控制器輸出與期望輸出間的誤差已經(jīng)很小了。提示:如訓(xùn)練程序有錯(cuò),請(qǐng)?jiān)趆elp文檔搜索BP神經(jīng)網(wǎng)絡(luò)函數(shù)newff,查看語法調(diào)用;P=p;T=t;net=newff(0.35 0.35;-1 1;-3 3;-3 3,12,1,tansig purelin);net.trainparam.show=25;net.trainparam.epochs=300;net,tr=train(net,P,T);神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)用語句gensim(net,-1)可以在simulink里生成控制器并使用其進(jìn)行控制,其中-1的意思是系統(tǒng)是實(shí)時(shí)的,生成的神經(jīng)網(wǎng)絡(luò)控制器結(jié)構(gòu)如圖5所示。(a) 神經(jīng)網(wǎng)絡(luò)控制器外部結(jié)構(gòu)(b)

11、 內(nèi)部結(jié)構(gòu)(c)隱層結(jié)構(gòu)(d)輸出層結(jié)構(gòu)圖5 BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)(4) 神經(jīng)網(wǎng)絡(luò)控制的實(shí)現(xiàn)使用訓(xùn)練后的BP神經(jīng)網(wǎng)絡(luò)控制器代替原模糊控制器控制器便可進(jìn)行仿真試驗(yàn)??刂平Y(jié)構(gòu)如圖6所示。圖6 直線一級(jí)倒立擺神經(jīng)網(wǎng)絡(luò)控制仿真單擊模型窗口上的run,運(yùn)行以上的仿真實(shí)驗(yàn),可以看出訓(xùn)練后的BP神經(jīng)網(wǎng)絡(luò)能成功的實(shí)現(xiàn)倒立擺的控制.實(shí)驗(yàn)指導(dǎo)實(shí)驗(yàn)?zāi)康?(1)熟悉Matlab/Simulink的使用. (2)掌握SOM神經(jīng)網(wǎng)絡(luò)的基本原理和基本的設(shè)計(jì)步驟. (3) 熟悉SOM神經(jīng)網(wǎng)絡(luò)在實(shí)際中的應(yīng)用. 實(shí)驗(yàn)原理:通過自動(dòng)尋找樣本中的內(nèi)在規(guī)律和本質(zhì)屬性,自組織、自適應(yīng)地改變網(wǎng)絡(luò)參數(shù)與結(jié)構(gòu)。 自組織網(wǎng)絡(luò)的自組織功能是通過競(jìng)爭(zhēng)學(xué)

12、習(xí)(competitive learning)實(shí)現(xiàn)的。1981年芬蘭Helsink大學(xué)的T.Kohonen教授提出一種自組織特征映射網(wǎng),簡(jiǎn)稱SOM網(wǎng),又稱Kohonen網(wǎng)。Kohonen認(rèn)為:一個(gè)神經(jīng)網(wǎng)絡(luò)接受外界輸入模式時(shí),將會(huì)分為不同的對(duì)應(yīng)區(qū)域,各區(qū)域?qū)斎肽J骄哂胁煌捻憫?yīng)特征,而且這個(gè)過程是自動(dòng)完成的。自組織特征映射正是根據(jù)這一看法提出來的,其特點(diǎn)與人腦的自組織特性相類似。SOM網(wǎng)共有兩層,輸入層模擬感知外界輸入信息的視網(wǎng)膜,輸出層模擬做出響應(yīng)的大腦皮層。 Kohonen學(xué)習(xí)算法程序流程:示例:產(chǎn)生100個(gè)(0,0.5pi)之間的角度,用其sin和cos值作為輸入向量,利用輸出為二維平面

13、陣的SOM網(wǎng)絡(luò)對(duì)其進(jìn)行聚類。參考程序如下:angles = 0:0.5*pi/99:0.5*pi;P = sin(angles); cos(angles);plot(P(1,:),P(2,:),+r)net = newsom(0 1;0 1,10);net.trainParam.epochs = 10;net = train(net,P);plotsom(net.iw1,1,net.layers1.distances)p = 1;0;a = sim(net,p)實(shí)驗(yàn)內(nèi)容:人口分類是人口統(tǒng)計(jì)中的一個(gè)重要指標(biāo),現(xiàn)有1999共10個(gè)地區(qū)的人口出生比例情況如下表所示,建立一個(gè)自組織神經(jīng)網(wǎng)絡(luò)對(duì)上述數(shù)據(jù)分

14、類,給定某個(gè)地區(qū)的男、女出生比例分別為0.5,0.5,測(cè)試訓(xùn)練后的自組織神經(jīng)網(wǎng)絡(luò)的性能,判斷其屬于哪個(gè)類別。出生男性百分比0.55120.51230.50870.50010.60120.52980.50000.49650.51030.5003出生女性百分比0.4488 0.48770.49130.49990.39880.47020.50000.50350.48970.4997實(shí)驗(yàn)步驟:(1)確定輸入模式;(2)確定網(wǎng)絡(luò)的結(jié)構(gòu),設(shè)計(jì)參數(shù);(3)編輯相應(yīng)的M文件實(shí)現(xiàn)SOM對(duì)數(shù)據(jù)進(jìn)行聚類,運(yùn)行M文件,在命令窗口察看結(jié)果。課下擴(kuò)展實(shí)驗(yàn):利用SOM網(wǎng)絡(luò)對(duì)動(dòng)物屬性特征映射1989年Kohonen給出一個(gè)S

15、OM網(wǎng)的著名應(yīng)用實(shí)例,即把不同的動(dòng)物按其屬性特征映射到兩維輸出平面上,使屬性相似的動(dòng)物在SOM網(wǎng)輸出平面上的位置也相近。該例訓(xùn)練集種共有16種動(dòng)物,每種動(dòng)物用一個(gè)29維向量來表示,其中前16個(gè)分量構(gòu)成符號(hào)向量,對(duì)不同的動(dòng)物進(jìn)行“16取1”編碼;后13個(gè)分量構(gòu)成屬性向量,描述動(dòng)物的13種屬性,用1或0表示某動(dòng)物該屬性的有或無。表2中的各列給出16種動(dòng)物的屬性列向量。表2. 16種動(dòng)物的屬性向量 動(dòng)物 屬性 鴿子母雞鴨鵝貓頭鷹隼鷹狐貍狗狼貓虎獅馬斑馬牛小中大2只腿4只腿毛蹄鬃毛羽毛獵跑飛泳1001000010010100100001000010010000100011001000010011100

16、100001101010010000110100101000011010010011000100001001100001000100110001100100011000100000101100011000010110001100001011110010000101111001000010111000000實(shí)驗(yàn)步驟(1) 準(zhǔn)備輸入模式;(2) 設(shè)計(jì)SOM網(wǎng)絡(luò):SOM網(wǎng)的輸出平面上有1010個(gè)神經(jīng)元(3) SOM網(wǎng)絡(luò)的訓(xùn)練:用16個(gè)動(dòng)物模式輪番輸入進(jìn)行訓(xùn)練,考察輸出平面上所示情況。注意事項(xiàng)(1)輸入:P為2916的矩陣,其中29維輸入向量,16為動(dòng)物的個(gè)數(shù)歸一化(2)輸出:1010(3)網(wǎng)絡(luò)的設(shè)計(jì)

17、:建立新的網(wǎng)絡(luò):net = newsom(AA,10 10,gridtop);hextop網(wǎng)絡(luò)訓(xùn)練參數(shù)設(shè)定:net.trainParam.epochs = 1000;網(wǎng)絡(luò)訓(xùn)練:net = train(net,P);(4)訓(xùn)練后的運(yùn)行:a = sim(net,P)由a的值可以得到SOM的哪個(gè)輸出節(jié)點(diǎn)對(duì)輸入有所響應(yīng),即歸為哪一類(4) 畫出輸出示意圖。(提示輸出a來確定獲勝節(jié)點(diǎn)的坐標(biāo),從而進(jìn)行畫圖)實(shí)驗(yàn)指導(dǎo)實(shí)驗(yàn)?zāi)康?(1)熟悉Matlab/Simulink的使用. (2)掌握DHNN神經(jīng)網(wǎng)絡(luò)的基本原理和基本的設(shè)計(jì)步驟. (3) 熟悉DHNN神經(jīng)網(wǎng)絡(luò)在實(shí)際中的應(yīng)用. 實(shí)驗(yàn)原理:Hopfield網(wǎng)絡(luò)是

18、神經(jīng)網(wǎng)絡(luò)發(fā)展歷史上的一個(gè)重要的里程碑。由美國加州理工學(xué)院物理學(xué)家J.J.Hopfield教授于1982年提出,是一種單層反饋神經(jīng)網(wǎng)絡(luò),結(jié)構(gòu)如下所示。DHNN網(wǎng)實(shí)質(zhì)上是一個(gè)離散的非線性動(dòng)力學(xué)系統(tǒng)。網(wǎng)絡(luò)從初態(tài)X(0)開始,若能經(jīng)有限次遞歸后,其狀態(tài)不再發(fā)生變化,即X(t+1)X(t),則稱該網(wǎng)絡(luò)是穩(wěn)定的。 如果網(wǎng)絡(luò)是穩(wěn)定的,它可以從任一初態(tài)收斂到一個(gè)穩(wěn)態(tài). 若把需記憶的樣本信息存儲(chǔ)于網(wǎng)絡(luò)不同的吸引子,當(dāng)輸入含有部分記憶信息的樣本時(shí),網(wǎng)絡(luò)的演變過程便是從部分信息尋找全部信息,即聯(lián)想回憶的過程。 實(shí)驗(yàn)內(nèi)容:設(shè)印刷體數(shù)字由10*10點(diǎn)陣構(gòu)成,就是將數(shù)字分成很多小方塊,每個(gè)方塊就對(duì)應(yīng)數(shù)字的一部分,構(gòu)成數(shù)字

19、本部分的方塊用1表示,空白處用-1表示。試設(shè)計(jì)一個(gè)Hopfield網(wǎng)絡(luò),能夠正確識(shí)別印刷體的數(shù)字0-9的識(shí)別,考察網(wǎng)絡(luò)對(duì)受污染的數(shù)字點(diǎn)陣的識(shí)別,證明網(wǎng)絡(luò)的有效性。 實(shí)驗(yàn)步驟:(1)確定網(wǎng)絡(luò)的輸入向量與目標(biāo)向量;(2)確定網(wǎng)絡(luò)的結(jié)構(gòu),創(chuàng)建一個(gè)Hopfield神經(jīng)網(wǎng)絡(luò),設(shè)計(jì)參數(shù);(3)編輯相應(yīng)的M文件實(shí)現(xiàn)對(duì)給定受噪聲污染的數(shù)字點(diǎn)陣的恢復(fù),對(duì)DHNN網(wǎng)絡(luò)進(jìn)行仿真.要求考慮固定噪聲和隨機(jī)噪聲兩種情況。注:隨機(jī)噪聲的生成Noise_one=one;Noise_two=two;For i=1:100 a =rand; if a 0.2 Noise_one(i)= -one(i); Noise_two(i)

20、= -two(i); EndEnd顯示圖的運(yùn)行結(jié)果放大圖像:imresize(one,20)顯示圖像:imshow(one)RBF神經(jīng)網(wǎng)絡(luò)實(shí)驗(yàn)?zāi)康?(1)熟悉Matlab/Simulink的使用. (2)掌握RBF神經(jīng)網(wǎng)絡(luò)的基本原理和基本的設(shè)計(jì)步驟. (3) 熟悉RBF神經(jīng)網(wǎng)絡(luò)在實(shí)際中的應(yīng)用. 實(shí)驗(yàn)原理:徑向基函數(shù)(RBF-Radial Basis Function)神經(jīng)網(wǎng)絡(luò)是由J.Moody和C.Darken在80年代末提出的一種神經(jīng)網(wǎng)絡(luò),它是具有單隱層的三層前饋網(wǎng)絡(luò)。由于它模擬了人腦中局部調(diào)整、相互覆蓋接收域(或稱感受野-Receptive Field)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),因此,RBF網(wǎng)絡(luò)是一

21、種局部逼近網(wǎng)絡(luò),已證明它能任意精度逼近任意連續(xù)函數(shù)。1RBF網(wǎng)絡(luò)特點(diǎn)(1) RBF網(wǎng)絡(luò)的作用函數(shù)為高斯函數(shù),是局部的,BP網(wǎng)絡(luò)的作用函數(shù)為S函數(shù),是全局的;(2)如何確定RBF網(wǎng)絡(luò)隱層節(jié)點(diǎn)的中心及基寬度參數(shù)是一個(gè)困難的問題;(3)已證明RBF網(wǎng)絡(luò)具有唯一最佳逼近的特性,且無局部極小。2. RBF網(wǎng)絡(luò)結(jié)構(gòu)RBF網(wǎng)絡(luò)是一種三層前向網(wǎng)絡(luò)。RBF網(wǎng)絡(luò)結(jié)構(gòu)如圖2.1所示。由于輸入到輸出的映射是非線性的,而隱含層空間到輸出空間的映射是線性的,從而可以大大加快學(xué)習(xí)速度并避免局部極小問題。 圖2.1 RBF網(wǎng)絡(luò)結(jié)構(gòu)3. RBF網(wǎng)絡(luò)的逼近 采用RBF網(wǎng)絡(luò)逼近一對(duì)象的結(jié)構(gòu)如圖2.2所示。圖2.2 RBF網(wǎng)絡(luò)逼近在

22、RBF網(wǎng)絡(luò)結(jié)構(gòu)中,為網(wǎng)絡(luò)的輸入向量。設(shè)RBF網(wǎng)絡(luò)的徑向基向量,其中hj為高斯基函數(shù):網(wǎng)絡(luò)的第個(gè)結(jié)點(diǎn)的中心矢量為:其中, 設(shè)網(wǎng)絡(luò)的基寬向量為:為節(jié)點(diǎn)的基寬度參數(shù),且為大于零的數(shù)。網(wǎng)絡(luò)的權(quán)向量為:時(shí)刻網(wǎng)絡(luò)的輸出為: (2.1)設(shè)理想輸出為,則性能指標(biāo)函數(shù)為: (2.2)根據(jù)梯度下降法,輸出權(quán)、節(jié)點(diǎn)中心及節(jié)點(diǎn)基寬參數(shù)的迭代算法如下: (2.3) (2.4) (2.5) (2.6) (2.7)其中, 為學(xué)習(xí)速率,為動(dòng)量因子。4、RBF神經(jīng)網(wǎng)絡(luò)函數(shù)newrbe及其參數(shù)介紹應(yīng)用newrbe()函數(shù)可以快速設(shè)計(jì)一個(gè)徑向基函數(shù)網(wǎng)絡(luò),且使得設(shè)計(jì)誤差為0,調(diào)用方式如下:net=newrbe(P,T,SPREAD)

23、其中,P為輸入向量,T為期望輸出向量(目標(biāo)值),SPREAD為徑向基層的散布常數(shù),缺省值為1。輸出為一個(gè)徑向基網(wǎng)絡(luò),其權(quán)值和閾值完全滿足輸入和期望值關(guān)系要求。由newrbe()函數(shù)構(gòu)建的徑向基函數(shù)網(wǎng)絡(luò),徑向基層(第一層)神經(jīng)元數(shù)目等于輸入向量的個(gè)數(shù)。徑向基層閾值的設(shè)定決定了每個(gè)徑向基神經(jīng)元對(duì)于輸入向量產(chǎn)生響應(yīng)的區(qū)域。因此,SPREAD應(yīng)當(dāng)足夠大,使得神經(jīng)元響應(yīng)區(qū)域覆蓋所有輸入?yún)^(qū)間。實(shí)驗(yàn)內(nèi)容:利用MATLAB6.5自帶的一階T-S型模糊控制slcp.mdl平臺(tái)(如圖1所示)設(shè)計(jì)RBF神經(jīng)網(wǎng)絡(luò)控制器,實(shí)現(xiàn)倒立擺的穩(wěn)定控制仿真研究。實(shí)驗(yàn)步驟: (1)建立控制模型圖1 一級(jí)倒立擺的模糊控制仿真在上面的

24、控制系統(tǒng)中提取擺角、角速度、位移、速度初始條件為分別為0. 5rad,1rad/s, 0和0,在此條件下響應(yīng)的輸入輸出對(duì)。 (2) 提取訓(xùn)練數(shù)據(jù)如圖2所示,利用【Signal To Workspace】模塊獲取一階T-S型模糊控制仿真過程的控制器輸入輸出數(shù)據(jù)對(duì),并保存到工作區(qū)中,可以直接用到神經(jīng)網(wǎng)絡(luò)的訓(xùn)練中。圖2 數(shù)據(jù)提取(3) RBF神經(jīng)網(wǎng)絡(luò)控制器的訓(xùn)練首先將提取出的訓(xùn)練數(shù)據(jù)變?yōu)闃?biāo)準(zhǔn)的訓(xùn)練數(shù)據(jù)形式,標(biāo)準(zhǔn)的訓(xùn)練數(shù)據(jù)分為輸入和目標(biāo)輸出兩部分。輸入部分是一個(gè)形式為輸入個(gè)數(shù)訓(xùn)練數(shù)據(jù)個(gè)數(shù)的矩陣,這里輸入個(gè)數(shù)為4。目標(biāo)輸出為一個(gè)輸出個(gè)數(shù)訓(xùn)練數(shù)據(jù)個(gè)數(shù)的矩陣,這里輸出個(gè)數(shù)為1。而經(jīng)signal to wor

25、kspace模塊提取出的數(shù)據(jù)為一個(gè)訓(xùn)練數(shù)據(jù)個(gè)數(shù)輸入(或輸出)個(gè)數(shù)的矩陣,因此分別將u、v轉(zhuǎn)置后就得到標(biāo)準(zhǔn)訓(xùn)練數(shù)據(jù)。使用下面語句應(yīng)用newrbe()函數(shù)設(shè)計(jì)一個(gè)RBF神經(jīng)網(wǎng)絡(luò):input =u;output =v;net=newrbe(input,output,256)(4) 誤差觀察對(duì)網(wǎng)絡(luò)進(jìn)行檢測(cè),對(duì)于輸入向量input應(yīng)用函數(shù)sim()進(jìn)行仿真,觀察RBF對(duì)樣本向量的逼近效果。y=sim(net,input)(5) 觀察RBF網(wǎng)絡(luò)的內(nèi)部結(jié)構(gòu)調(diào)用函數(shù)gensim()生成上述網(wǎng)絡(luò)的Simulink模型。設(shè)定st=-1,生成一個(gè)連續(xù)采樣的網(wǎng)絡(luò)模塊。用下面語句可以在Simulink里生成控制器并使用

26、其進(jìn)行控制:gensim(net,-1)其中-1的意思是系統(tǒng)是實(shí)時(shí)的。生成的RBF神經(jīng)網(wǎng)絡(luò)控制器如圖3.2所示(a) 外部結(jié)構(gòu) (b) 內(nèi)部結(jié)構(gòu)(c) 隱層結(jié)構(gòu)(d) 輸出層結(jié)構(gòu)圖3 RBF神經(jīng)網(wǎng)絡(luò)控制器(6) 利用RBF網(wǎng)絡(luò)實(shí)現(xiàn)倒立擺的穩(wěn)定控制使用這個(gè)RBF神經(jīng)網(wǎng)絡(luò)控制器代替原模糊控制器。運(yùn)行程序,比較結(jié)果。圖4 RBF神經(jīng)網(wǎng)絡(luò)控制仿真圖實(shí)驗(yàn)思考:1.比較RBF與BP網(wǎng)絡(luò)2.為了更直觀的研究RBF網(wǎng)絡(luò)逼近的效果,下面選取一非線性函數(shù)作為逼近對(duì)象進(jìn)行仿真研究,逼近對(duì)象為: 將上式編入程序,其中采樣時(shí)間取1ms。輸入信號(hào)為,網(wǎng)絡(luò)隱層神經(jīng)元個(gè)數(shù)取m=4,網(wǎng)絡(luò)結(jié)構(gòu)為2-4-1,網(wǎng)絡(luò)的初始值取隨機(jī)值,

27、高斯函數(shù)的初始,。網(wǎng)絡(luò)的學(xué)習(xí)參數(shù)取。RBF網(wǎng)絡(luò)逼近程序:alfa=0.05;xite=0.5; x=0,0;b=1.5*ones(4,1); c=0.5*ones(2,4); w=rands(4,1); w_1=w;w_2=w_1;c_1=c;c_2=c_1;b_1=b;b_2=b_1;d_w=0*w;d_b=0*b;y_1=0;u_1=0;ts=0.001;for k=1:1:2000time(k)=k*ts;u(k)=0.50*sin(1*2*pi*k*ts);y(k)=(-0.3*y_1+u_1)/(5+y_12);x(1)=u(k);x(2)=y_1;for j=1:1:4h(j)=e

28、xp(-norm(x-c(:,j)2/(2*b(j)*b(j);endym(k)=w*h;em(k)=y(k)-ym(k);for j=1:1:4 d_w(j)=xite*em(k)*h(j); d_b(j)=xite*em(k)*w(j)*h(j)*(b(j)-3)*norm(x-c(:,j)2; for i=1:1:2 d_c(i,j)=xite*em(k)*w(j)*h(j)*(x(i)-c(i,j)*(b(j)-2); endendw=w_1+ d_w+alfa*(w_1-w_2);b=b_1+d_b+alfa*(b_1-b_2);c=c_1+d_c+alfa*(c_1-c_2);%Jacobian%yu=0;for j=1:1:4yu=yu+w(j)*h(j)*(c(1,j)-x(1)/b(j)2; enddyu(k)=yu;u_1=u(k);y_1=y(k);w_2=w_1;w_1=w;c_2=c_1;c_1=c;b_2=b_1;b_1=b;end人工神經(jīng)網(wǎng)絡(luò)課程編碼:2030B010 課程名稱(英文):Artificial

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論