常見的幾種神經(jīng)網(wǎng)絡(luò)課件_第1頁(yè)
常見的幾種神經(jīng)網(wǎng)絡(luò)課件_第2頁(yè)
常見的幾種神經(jīng)網(wǎng)絡(luò)課件_第3頁(yè)
常見的幾種神經(jīng)網(wǎng)絡(luò)課件_第4頁(yè)
常見的幾種神經(jīng)網(wǎng)絡(luò)課件_第5頁(yè)
已閱讀5頁(yè),還剩41頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

一、感知器神經(jīng)網(wǎng)絡(luò)二、線性神經(jīng)網(wǎng)絡(luò)三、BP傳播網(wǎng)絡(luò)四、Simulink神經(jīng)網(wǎng)絡(luò)仿真模型庫(kù)目錄一、感知器神經(jīng)網(wǎng)絡(luò)二、線性神經(jīng)網(wǎng)絡(luò)三、BP傳播網(wǎng)絡(luò)四、Sim一、感知器神經(jīng)網(wǎng)絡(luò)輸入神經(jīng)元感知器神經(jīng)元的一般模型一、感知器神經(jīng)網(wǎng)絡(luò)輸入神經(jīng)元感知器神經(jīng)元的一般模型1.感知器的學(xué)習(xí)

感知器的學(xué)習(xí)是有導(dǎo)師學(xué)習(xí)方式。感知器的訓(xùn)練算法的基本原理來(lái)源于著名的Hebb學(xué)習(xí)律?;舅枷耄褐鸩降貙颖炯械妮斎氲骄W(wǎng)絡(luò)中,根據(jù)輸出結(jié)果和理想輸出之間的差別來(lái)調(diào)整網(wǎng)絡(luò)中的權(quán)矩陣。最實(shí)用的功能:對(duì)輸入向量進(jìn)行分類。1.感知器的學(xué)習(xí)感知器的學(xué)習(xí)是有導(dǎo)師學(xué)習(xí)方式。2.感知器的局限性①感知器神經(jīng)網(wǎng)絡(luò)的傳輸函數(shù)一般采用閾值函數(shù),所以輸出值只能取0或1;②感知器神經(jīng)網(wǎng)絡(luò)只能對(duì)線性可分的向量集合進(jìn)行分類。理論上已經(jīng)證明,只要輸入向量是線性可分的,感知器在有限的時(shí)間內(nèi)總能達(dá)到目標(biāo)向量。③當(dāng)感知器神經(jīng)網(wǎng)絡(luò)的所有輸入樣本中存在奇異的樣本時(shí),即該樣本向量同其它所有樣本向量比較起來(lái)特別大或特別小時(shí),網(wǎng)絡(luò)訓(xùn)練花費(fèi)的時(shí)間將很長(zhǎng)。2.感知器的局限性①感知器神經(jīng)網(wǎng)絡(luò)的傳輸函數(shù)一般采用閾值函數(shù)3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計(jì)分析①newp函數(shù)功能:用于創(chuàng)建一個(gè)感知器網(wǎng)絡(luò)。格式:net=newp(PR,S,TF,LF)說(shuō)明:net為生成的感知器神經(jīng)網(wǎng)絡(luò);PR為一個(gè)R×2的矩陣,有R組輸入向量中的最大和最小值組成;S表示神經(jīng)元的個(gè)數(shù);TF表示感知器的激活函數(shù),默認(rèn)值為硬限幅激活函數(shù)handlim;

LF表示網(wǎng)絡(luò)的學(xué)習(xí)函數(shù),默認(rèn)值為learnp。3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計(jì)分析①newp函數(shù)3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計(jì)分析②train函數(shù)功能:神經(jīng)網(wǎng)絡(luò)訓(xùn)練函數(shù)。格式:[net,tr,Y,E,Pf,Af]=train(NET,P,T,Pi,Ai,VV,TV)說(shuō)明:net為訓(xùn)練后的網(wǎng)絡(luò);

tr為訓(xùn)練記錄;

Y為網(wǎng)絡(luò)的輸出向量;

E為誤差向量;

Pf為訓(xùn)練終止時(shí)的輸入延遲狀態(tài);

Af為訓(xùn)練終止時(shí)的層延遲狀態(tài);

NET為訓(xùn)練前的網(wǎng)絡(luò);

P為網(wǎng)絡(luò)的輸入向量矩陣;

T為網(wǎng)絡(luò)的目標(biāo)矩陣,默認(rèn)值為0;

Pi表示初始輸入延時(shí),默認(rèn)值為0;

Ai表示初始的層延時(shí),默認(rèn)值為0;

VV為驗(yàn)證矢量(可省略);

TV為測(cè)試向量(可省略)。網(wǎng)絡(luò)訓(xùn)練函數(shù)是一種通用的學(xué)習(xí)函數(shù),訓(xùn)練函數(shù)重復(fù)地把一組輸入向量應(yīng)用到一個(gè)網(wǎng)絡(luò)上,每次都更新網(wǎng)絡(luò),直到達(dá)到了某種準(zhǔn)則,停止準(zhǔn)則可能是達(dá)到最大的學(xué)習(xí)步數(shù)、最小的誤差梯度或誤差目標(biāo)等。3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計(jì)分析②train函數(shù)網(wǎng)絡(luò)訓(xùn)練函數(shù)是3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計(jì)分析③sim函數(shù)功能:對(duì)網(wǎng)絡(luò)進(jìn)行仿真。格式:[Y,Pf,Af,E,perf]=sim(NET,P,Pi,Ai,T)[Y,Pf,Af,E,perf]=sim(NET,{Q,TS},Pi,Ai,T)[Y,Pf,Af,E,perf]=sim(NET,Q,Pi,Ai,T)說(shuō)明:Y為網(wǎng)絡(luò)的輸出向量;Pf為訓(xùn)練終止時(shí)的輸入延遲狀態(tài);

Af為訓(xùn)練終止時(shí)的層延遲狀態(tài);E為誤差向量;perf為網(wǎng)絡(luò)的性能值;NET為要測(cè)試的網(wǎng)絡(luò)對(duì)象;

P為網(wǎng)絡(luò)的輸入向量矩陣;Pi表示初始輸入延時(shí),默認(rèn)值為0;

Ai表示初始的層延時(shí),默認(rèn)值為0;T為網(wǎng)絡(luò)的目標(biāo)矩陣(可省略)。Q為批處理數(shù)據(jù)的個(gè)數(shù);TS為網(wǎng)絡(luò)仿真的時(shí)間步數(shù)。

3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計(jì)分析③sim函數(shù)3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計(jì)分析④plotpv函數(shù)功能:繪制樣本點(diǎn)的函數(shù)。格式:plotpv(P,T)plotpv(P,T,V)說(shuō)明:P定義了n個(gè)2或3維的樣本,是一個(gè)2xn維或3xn維的矩陣;

T表示個(gè)樣本點(diǎn)的類別,是一個(gè)n維的向量;

V=[x_miny_minx_maxy_max]為一設(shè)置繪圖坐標(biāo)值范圍的向量;利用plotpv函數(shù)可以在坐標(biāo)圖中會(huì)出給定的樣本樣本點(diǎn)及其類別,不同的類別使用不同的符號(hào)。例如,如果T只含一元向量,則目標(biāo)為0的輸入向量在坐標(biāo)圖中用“o”表示;目標(biāo)為1的輸入向量在坐標(biāo)圖中用“+”表示。如果T含二元向量,則輸入向量在坐標(biāo)圖中采用的符號(hào)分別為:[00]用“o”表示;[01]用“+”表示;[10]用“*”表示;[11]用“×”表示。3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計(jì)分析④plotpv函數(shù)3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計(jì)分析⑤plotpc函數(shù)功能:在存在的圖上繪制出感知器分類線函數(shù)。格式:plotpc(W,B)plotpc(W,B,H)說(shuō)明:plotpc(W,B)對(duì)含權(quán)矩陣W和閾值矩陣B的硬特性神經(jīng)元的兩個(gè)或三個(gè)輸入畫一個(gè)分類線。這一函數(shù)返回分類線的句柄以便以后調(diào)用。plotpc(W,B,H)包含從前的一次調(diào)用中返回的句柄。它在畫新分類線之前,刪除舊線。3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計(jì)分析⑤plotpc函數(shù)3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計(jì)分析⑥mae函數(shù)功能:平均絕對(duì)誤差性能函數(shù)。格式:perf=mae(E,X,Y,FP)info=mae(code)說(shuō)明:perf表示平均絕對(duì)誤差和;

E為誤差矩陣或向量(網(wǎng)絡(luò)的目標(biāo)向量和輸出向量之差);

X為所有權(quán)值(可忽略);Y為閾值向量(可忽略);

FP為性能參數(shù)(可忽略)。mae(code)則可根據(jù)code的不同,返回不同信息,包括:deriv:返回導(dǎo)數(shù)函數(shù)的名稱。name:返回函數(shù)全稱。pnames:返回訓(xùn)練函數(shù)的名稱。pdefaults:返回默認(rèn)的訓(xùn)練參數(shù)。3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計(jì)分析⑥mae函數(shù)3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計(jì)分析例1給定樣本輸入向量P,目標(biāo)向量T及需要進(jìn)行分類的輸入向量組Q,設(shè)計(jì)一個(gè)單層感知器,對(duì)其進(jìn)行分類。P=[-0.6-0.70.8;0.901];%輸入向量T=[110];%目標(biāo)向量net=newp([-11;-11],1);%初始化感知器網(wǎng)絡(luò)net.trainParam.epochs=15;%設(shè)置訓(xùn)練次數(shù)最大為15net=train(net,P,T);%訓(xùn)練感知器網(wǎng)絡(luò)Q=[0.50.8-0.2;-0.2-0.60.6];%給定輸入向量Y=sim(net,Q);%仿真結(jié)果plotpv(Q,Y);

%繪制分類結(jié)果

h=plotpc(net.iw{1},net.b{1})%繪制分類線可見,經(jīng)過(guò)兩次訓(xùn)練后,網(wǎng)絡(luò)目標(biāo)誤差達(dá)到要求。3.感知器神經(jīng)網(wǎng)絡(luò)仿真設(shè)計(jì)分析例1給定樣本輸入向量P,目標(biāo)二、線性神經(jīng)網(wǎng)絡(luò)線性神經(jīng)網(wǎng)絡(luò)是最簡(jiǎn)單的一種神經(jīng)元網(wǎng)絡(luò),它可以由一個(gè)或多個(gè)線性神經(jīng)元構(gòu)成,每個(gè)神經(jīng)元的激活函數(shù)都是線性函數(shù)(purelin)。線性神經(jīng)元模型如圖輸入線性神經(jīng)元二、線性神經(jīng)網(wǎng)絡(luò)線性神經(jīng)網(wǎng)絡(luò)是最簡(jiǎn)單的一種神經(jīng)元網(wǎng)絡(luò),它可以1、線性神經(jīng)網(wǎng)絡(luò)特點(diǎn)線性神經(jīng)網(wǎng)絡(luò)類似于感知器,但是線性神經(jīng)網(wǎng)絡(luò)的激活函數(shù)是線性的,而不是硬性激活函數(shù)(hardlim)。因此,線性神經(jīng)網(wǎng)絡(luò)的輸出可以是任意值,而感知器的輸出不是0就是1。線性神經(jīng)網(wǎng)絡(luò)和感知器一樣只能求解線性可分的問(wèn)題。因此,線性神經(jīng)網(wǎng)絡(luò)的局限性和感知器相同。線性神經(jīng)網(wǎng)絡(luò)包括單層網(wǎng)絡(luò)和多層網(wǎng)絡(luò),其中以以單層神經(jīng)網(wǎng)絡(luò)應(yīng)用較多。1、線性神經(jīng)網(wǎng)絡(luò)特點(diǎn)線性神經(jīng)網(wǎng)絡(luò)類似于感知器,但是線性神經(jīng)網(wǎng)2、線性神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)對(duì)線性神經(jīng)網(wǎng)絡(luò)可以不經(jīng)過(guò)訓(xùn)練直接求出網(wǎng)絡(luò)的權(quán)值和閾值,如果網(wǎng)絡(luò)有多個(gè)零誤差姐,則取最小的一組權(quán)值和與之;如果網(wǎng)絡(luò)不存在零誤差解,則取網(wǎng)絡(luò)的誤差平方和最小的一組權(quán)值和閾值。另外,當(dāng)不能直接求出網(wǎng)絡(luò)權(quán)值和閾值時(shí),線性神經(jīng)網(wǎng)絡(luò)及自適應(yīng)線性神經(jīng)網(wǎng)絡(luò)可采用使均方誤差最小的學(xué)習(xí)規(guī)則,即LMS算法,或稱之為WH學(xué)習(xí)規(guī)則來(lái)調(diào)整網(wǎng)絡(luò)的權(quán)值和閾值,它是一種沿誤差的最陡下降方向?qū)η耙徊綑?quán)值向量進(jìn)行修正的方法。2、線性神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)對(duì)線性神經(jīng)網(wǎng)絡(luò)可以不經(jīng)過(guò)訓(xùn)練直接求出網(wǎng)3.線性神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)線性神經(jīng)網(wǎng)絡(luò)創(chuàng)建函數(shù)和設(shè)計(jì)函數(shù)①newlin函數(shù)功能:用于創(chuàng)建一線性層。線性層通常做信號(hào)處理和預(yù)測(cè)中的自適應(yīng)濾波器。格式:net=newlin(P,S,ID,LR)說(shuō)明:P是以輸入元素的最大和最小值組成的矩陣;s為輸出向量數(shù)目;ID為輸入延遲向量;LR為學(xué)習(xí)速率;net為創(chuàng)建的線性層。②newlind函數(shù)功能:用于設(shè)計(jì)一線性層。格式:net=newlind(P,T,Pi)說(shuō)明:P為輸入向量組成的矩陣;T為目標(biāo)分類向量組成的矩陣;Pi為初始輸入延遲狀態(tài)的ID個(gè)單元矩陣。3.線性神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)線性神經(jīng)網(wǎng)絡(luò)創(chuàng)建函數(shù)和設(shè)計(jì)3.線性神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)學(xué)習(xí)函數(shù)①learnwh函數(shù)功能:Widrow_Hoff學(xué)習(xí)規(guī)則,實(shí)現(xiàn)輸出誤差的平方和最小功能。learnwh函數(shù)沿著誤差平方和下降最快方向修改神經(jīng)元的權(quán)值和閱值.使輸出誤差的平方和最小。格式:[dW,LS]=learnwh(W,P,Z,N,A,T,E,gW,gA,D,LP,LS)[db,LS]=learnwh(b,ones(1,Q),Z,N,A,T,E,gW,gA,D,LP,LS)②maxlinlr函數(shù)功能:計(jì)算線性層的最大學(xué)習(xí)速率。格式:lr=maxlinlr(P)lr=maxlinlr(P,'bias')其中,P為由輸入向量組成的矩陣。lr=maxlinlr(P)是針對(duì)不帶閾值的線性層得到一個(gè)最大學(xué)習(xí)速率;lr=maxlinlr(P,‘bias’)是針對(duì)帶閾值的線性層得到一個(gè)最大學(xué)習(xí)速率。3.線性神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)學(xué)習(xí)函數(shù)3.線性神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)例題:輸入向量P=[1.0-1.2],目標(biāo)向量T=[0.51.0],設(shè)計(jì)一個(gè)線性神經(jīng)網(wǎng)絡(luò)給出P與T之間的線性關(guān)系。P=[1.0-1.2];%輸入向量T=[0.51.0];%目標(biāo)向量net=newlind(P,T);%設(shè)計(jì)函數(shù)newlind設(shè)計(jì)一個(gè)線性網(wǎng)絡(luò)A=sim(net,P);%用仿真函數(shù)sim對(duì)訓(xùn)練后的網(wǎng)絡(luò)進(jìn)行仿真E=T-A;

%計(jì)算神經(jīng)元誤差SSE=sumsqr(E);%用sumsqr函數(shù)來(lái)計(jì)算平方誤差的和w_range=-1:0.1:1;b_range=-1:0.1:1;ES=errsurf(P,T,w_range,b_range,'purelin');plotes(w_range,b_range,ES);%繪制單獨(dú)神經(jīng)元的誤差曲面plotep(net.IW{1,1},net.b{1},SSE);%繪制權(quán)值和閡值在誤差曲面上的位置最好的權(quán)值和閾值是誤差曲面的最低點(diǎn)。3.線性神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)例題:輸入向量P=[13.線性神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)法二:用newlin函數(shù)設(shè)計(jì)一個(gè)線性神經(jīng)網(wǎng)絡(luò),程序如下:P=[1.0-1.2];T=[0.51.0];net=newlin(minmax(P),1,0,0.01);%學(xué)習(xí)速率為0.01net=init(net);%對(duì)網(wǎng)絡(luò)的參數(shù)進(jìn)行初始化net.trainParam.epochs=500;%訓(xùn)練次數(shù)為500次net=train(net,P,T);%訓(xùn)練訓(xùn)練500次后,誤差小于10-8,3.線性神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)法二:用newlin函數(shù)設(shè)3.線性神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)應(yīng)用在模式分類中應(yīng)用在噪聲對(duì)消中應(yīng)用在信號(hào)預(yù)測(cè)中線性神經(jīng)網(wǎng)絡(luò)的應(yīng)用完成對(duì)胎兒心率的檢測(cè)自適應(yīng)濾波方面3.線性神經(jīng)網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)應(yīng)用在模式分類中應(yīng)用在噪聲三、BP傳播網(wǎng)絡(luò)反向傳播網(wǎng)絡(luò)(Back-PropagationNetwork,簡(jiǎn)稱BP網(wǎng)絡(luò))是將W-H學(xué)習(xí)規(guī)則一般化,對(duì)非線性可微分函數(shù)進(jìn)行權(quán)值訓(xùn)練的多層網(wǎng)絡(luò);權(quán)值的調(diào)整采用反向傳播(Back-propagation)的學(xué)習(xí)算法;它是一種多層前向反饋神經(jīng)網(wǎng)絡(luò),其神經(jīng)元的變換函數(shù)是S型函數(shù);輸出量為0到1之間的連續(xù)量,它可實(shí)現(xiàn)從輸入到輸出的任意的非線性映射。BP神經(jīng)元模型a=f(wx+Θ)三、BP傳播網(wǎng)絡(luò)反向傳播網(wǎng)絡(luò)(Back-Propagatio1.網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)x1o1輸出層隱藏層輸入層x2o2omxn…………………W(1)W(2)W(3)W(L)W(2)1.網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)x1o1輸出層隱藏層輸入層x2o2omxn…2.BP網(wǎng)絡(luò)的學(xué)習(xí)BP網(wǎng)絡(luò)的學(xué)習(xí)過(guò)程分為兩個(gè)階段:①輸入已知學(xué)習(xí)樣本,通過(guò)設(shè)置網(wǎng)絡(luò)結(jié)構(gòu)和前一次迭代的權(quán)值和閾值,從網(wǎng)絡(luò)的第一層向后計(jì)算各神經(jīng)元的輸出。②對(duì)權(quán)值和閾值進(jìn)行修改,從最后一層向前計(jì)算各權(quán)值和閾值對(duì)總誤差的影響(梯度),據(jù)此對(duì)各權(quán)值和閾值進(jìn)行修改。以上兩個(gè)過(guò)程反復(fù)交替,直到達(dá)到收斂為止。2.BP網(wǎng)絡(luò)的學(xué)習(xí)BP網(wǎng)絡(luò)的學(xué)習(xí)過(guò)程分為兩個(gè)階段:3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)BP神經(jīng)網(wǎng)絡(luò)創(chuàng)建函數(shù)①newcf函數(shù)功能:用于創(chuàng)建一個(gè)級(jí)聯(lián)前饋BP網(wǎng)絡(luò)。格式:net=newcf(PR,[S1,S2…SN],TF1TF2…TFN},BTF,BLF,PF)說(shuō)明:PR—輸入向量的取值范圍,由每組輸入(共有R組輸入)元素的最大和最小值組成的R×2維矩陣。

Si—第i層的神經(jīng)元個(gè)數(shù)(長(zhǎng)度),總共N層

TFi—第i層的傳遞函數(shù),缺省值為“tansig”BTF—BP網(wǎng)絡(luò)訓(xùn)練函數(shù),缺省值為“tranlm”

BLF—BP網(wǎng)絡(luò)權(quán)值和閾值學(xué)習(xí)函數(shù),缺省值為“l(fā)earngdm”

PF—性能函數(shù),缺省值為“mse”執(zhí)行后,創(chuàng)建一個(gè)N層的BP神經(jīng)網(wǎng)絡(luò)。3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)BP神經(jīng)網(wǎng)絡(luò)創(chuàng)建函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)②newff函數(shù)功能:用于創(chuàng)建一個(gè)前饋BP神經(jīng)網(wǎng)絡(luò)。格式:

net=newff(PR,[S1,S2…SN],{TF1TF2…TFN},BTF,BLF,PF)說(shuō)明:各參數(shù)含義見net=newcf。3.newfftd函數(shù)功能:由于創(chuàng)建一個(gè)輸入延遲的BP神經(jīng)網(wǎng)絡(luò)。格式:

net=newff(PR,ID[S1,S2…SN],{TF1TF2…TFN},BTF,BLF,PF)說(shuō)明:各參數(shù)含義見net=newcf。3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)②newff函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)神經(jīng)元上的傳遞函數(shù)①logsig函數(shù)功能:傳遞函數(shù)為S型對(duì)數(shù)函數(shù)。格式:A=logsig(N)inf()=logsig(code)說(shuō)明:N—Q個(gè)S維的輸入列向量;

A—函數(shù)返回值,位于區(qū)間(0,1)中;

info=logsig(code):依據(jù)code值的不同返不同的信息,包括:

deriv——返回微分函數(shù)的名稱。

name——返回函數(shù)全稱。

output——返回輸出值域。

active——返回有效的輸入?yún)^(qū)間。3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)神經(jīng)元上的傳遞函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)②dlogsig函數(shù)功能:該函數(shù)為logsig的導(dǎo)函數(shù)。格式:dA_dN=dlogsig(N,A)說(shuō)明:N—S×Q維網(wǎng)絡(luò)的輸入;

A—S×Q維網(wǎng)絡(luò)的輸出;

dA_dN—函數(shù)返回值,輸出對(duì)輸入的導(dǎo)數(shù)。注:MATLAB2007按照此形式的函數(shù)來(lái)計(jì)算對(duì)數(shù)傳遞函數(shù)的值:

y=x*(1-x)3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)②dlogsig函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)③tansig函數(shù)功能:該函數(shù)為雙曲正切S型傳遞函數(shù)。格式:A=tansig(N)info=tansig(code)說(shuō)明:N—Q個(gè)S維的輸入列向量;

A—函數(shù)返回值,位于區(qū)間(0,1)中;

info=tansig(code)含義參見info=logsig(code)說(shuō)明。注:MATLAB2007按照此形式的函數(shù)來(lái)計(jì)算雙曲正切傳遞函數(shù)的值:n=2/(1+exp(-2n))-13.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)③tansig函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)④dtansig函數(shù)功能:該函數(shù)是tansig的導(dǎo)函數(shù)。格式:dA_dN=dtansig(N,A)說(shuō)明:各參數(shù)的意義參見dlogsig,其原型函數(shù)為y=1-x2⑤purelin函數(shù)功能:該函數(shù)是線性傳遞函數(shù)。格式:A=purelin(N)info=purelin(code)說(shuō)明:N—Q個(gè)S維的輸入列向量;A—函數(shù)返回值,A=N;

info=purelin(code)含義參見info=logsig(code)說(shuō)明,原型函數(shù)為y=x。⑥dpurelin函數(shù)功能:該函數(shù)是purelin的導(dǎo)函數(shù)。調(diào)用格式:dA_dN=dpurelin(N,A)說(shuō)明:各參數(shù)的意義參見dlogsig,原型函數(shù)為常數(shù)函數(shù):x=1。3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)④dtansig函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)BP網(wǎng)絡(luò)學(xué)習(xí)函數(shù)①learngd函數(shù)功能:該函數(shù)為梯度下降權(quán)值/閾值學(xué)習(xí)函數(shù),它通過(guò)神經(jīng)元的輸入和誤差,以及權(quán)值和閾值的學(xué)習(xí)速率來(lái)計(jì)算權(quán)值和閾值的變化率。格式:說(shuō)明:3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)BP網(wǎng)絡(luò)學(xué)習(xí)函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)②learngdm函數(shù)功能:該函數(shù)為梯度下降動(dòng)量學(xué)習(xí)函數(shù),它利用神經(jīng)元的輸入和誤差、權(quán)值或閾值的學(xué)習(xí)速率和動(dòng)量常數(shù)來(lái)計(jì)算權(quán)值或閾值的變化率。格式:說(shuō)明:各參數(shù)的含義見learngd。注意:動(dòng)量常數(shù)mc是通過(guò)學(xué)習(xí)參數(shù)LP設(shè)置的,格式為:lp.mc=0.8。3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)②learngdm函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)BP網(wǎng)絡(luò)訓(xùn)練函數(shù)①trainbfg函數(shù)功能:該函數(shù)為BFGS牛頓BP算法函數(shù)。除了BP網(wǎng)絡(luò)外,該函數(shù)也可以訓(xùn)練任意形式的神經(jīng)網(wǎng)絡(luò),只要他的傳遞函數(shù)對(duì)權(quán)值和輸入存在導(dǎo)函數(shù)即可。格式:[net,TR]=trainbfg(NET,Pd,trainV,valV,testV)info=trainbfg(code)說(shuō)明:NET為待訓(xùn)練的神經(jīng)網(wǎng)絡(luò);Pd為有延遲的輸入向量;trainV為訓(xùn)練向量結(jié)構(gòu)或者為空;valV為確定向量結(jié)構(gòu)或者為空;testV為檢驗(yàn)向量結(jié)構(gòu)或者為空;net為訓(xùn)練神經(jīng)網(wǎng)絡(luò);TR為每部訓(xùn)練的有關(guān)信息記錄。3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)BP網(wǎng)絡(luò)訓(xùn)練函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)②traingd函數(shù)功能:該函數(shù)為梯度下降BP算法函數(shù)。格式:[net,TR]=traingd(NET,Pd,trainV,valV,testV)info=traingd(code)說(shuō)明:其參數(shù)意義、設(shè)置格式或適用范圍等參加trainbfg函數(shù)。③traingdm函數(shù)功能:該函數(shù)為梯度下降動(dòng)量BP算法函數(shù)。格式:[net,TR]=traingdm(NET,Pd,trainV,valV,testV)info=traingdm(code)說(shuō)明:其參數(shù)意義、設(shè)置格式或適用范圍等參加trainbfg函數(shù)。3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)②traingd函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)性能函數(shù)①mse函數(shù)功能:該函數(shù)為均方誤差性能函數(shù)。格式:perf=mse(E,Y,X,FP)info=mse(code)說(shuō)明:perf表示平均絕對(duì)誤差和;E為誤差矩陣或向量;

X為所有權(quán)值(可忽略);Y為閾值向量(可忽略);

FP為性能參數(shù)(可忽略)。②msereg函數(shù)功能:該函數(shù)是通過(guò)兩個(gè)因子的加權(quán)和來(lái)評(píng)價(jià)網(wǎng)絡(luò)的性能,這兩個(gè)因子分別是均方誤差、均方權(quán)值和閾值。格式:perf=msereg(E,Y,X,FP)info=msereg(code)說(shuō)明:各參數(shù)參見mse函數(shù)。3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)性能函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)顯示函數(shù)①plotperf函數(shù)功能:該函數(shù)用于繪制網(wǎng)絡(luò)的性能。格式:plotperf(tr,goal,name,epoch)說(shuō)明:tr為網(wǎng)絡(luò)的訓(xùn)練記錄;goal為性能指標(biāo),默認(rèn)NaN;name為訓(xùn)練函數(shù)名稱,默認(rèn)為空;epoch為訓(xùn)練步數(shù),默認(rèn)為訓(xùn)練記錄的長(zhǎng)度。此函數(shù)除了可以繪制網(wǎng)絡(luò)訓(xùn)練性能外,還可以繪制性能指標(biāo)、確認(rèn)性能和檢驗(yàn)性能。3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)顯示函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)②plotes函數(shù)功能:用于繪制一個(gè)單獨(dú)神經(jīng)元的誤差曲面格式:plotes(WV,BV,ES,V)說(shuō)明:WV為權(quán)值的N維向量;BV為M維的閾值行向量;ES為誤差向量組成的M×N維矩陣;V為視角,默認(rèn)為[-37.5,30].函數(shù)繪制的誤差曲面圖是由權(quán)值和閾值確定、由函數(shù)errsurf計(jì)算得出。3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)②plotes函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)③plotep函數(shù)功能:用于繪制權(quán)值和閾值在誤差曲面上的位置。格式:H=plotep(W,B,E)H=plotep(W,B,E,H)說(shuō)明:W為當(dāng)前權(quán)值;B為當(dāng)前閾值;E為當(dāng)前單輸入神經(jīng)元的誤差;H為權(quán)值和閾值在上一時(shí)刻的位置信息向量。④errsurf函數(shù)功能:用于計(jì)算單個(gè)神經(jīng)元的誤差曲面。格式:errsurf(P,T,WV,BV,F)說(shuō)明:P為輸入行向量;T為目標(biāo)行向量;WV為權(quán)值列向量;BV為閾值列向量;F為傳遞函數(shù)的名稱。3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)③plotep函數(shù)3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)例:利用一個(gè)單隱層的BP網(wǎng)絡(luò)來(lái)逼近一個(gè)函數(shù)編寫M文件p=-1:0.1:1;t=[-0.9602-0.5770-0.07290.37710.64050.66000.46000.1336-0.2013-0.4344-0.5000-0.3930-0.16470.09880.30720.39600.34490.1816-0.0312-0.2189-0.3201];plot(p,t,'.')s=3:8;res=1:6;fori=1:6net=newff(minmax(p),[s(i),1],{'tansig','logsig'},'traingdx');net.trainParam.epochs=2000;net.trainParam.goal=0.001;net=train(net,p,t)y=sim(net,p)error=y-t;res(i)=norm(error);End3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)例:利用一個(gè)單隱層的BP網(wǎng)絡(luò)來(lái)3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)y=sim(net,p)plot(p,t,'rp');holdonplot(p,y,'.');legend(‘原始網(wǎng)絡(luò)’,’訓(xùn)練后的網(wǎng)絡(luò)’)figureplot(1:21,y-t);%繪制網(wǎng)絡(luò)的誤差曲線。運(yùn)行程序,其中,“藍(lán)點(diǎn)”表示網(wǎng)絡(luò)的輸出結(jié)果,“星號(hào)”表示函數(shù)的實(shí)際值。3.BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)四、SIMULINK神經(jīng)網(wǎng)絡(luò)仿真模型庫(kù)1.模塊的設(shè)置在Simulink庫(kù)瀏覽窗口的NeuralNetworkBlockset節(jié)點(diǎn)上,通過(guò)單擊鼠標(biāo)右鍵后,便可打開如圖所示的NeuralNetworkBlockset模塊集窗口。

四、SIMULINK神經(jīng)網(wǎng)絡(luò)仿真模型庫(kù)1.模塊的設(shè)置四、SIMULINK神經(jīng)網(wǎng)絡(luò)仿真模型庫(kù)①.傳輸函數(shù)模塊庫(kù)(TransferFunctions)傳輸函數(shù)模塊庫(kù)中的任意一個(gè)模塊都能夠接受一個(gè)網(wǎng)絡(luò)輸入向量,并且相應(yīng)地產(chǎn)生一個(gè)輸出向量,這個(gè)輸出向量的組數(shù)和輸入向量相同。四、SIMULINK神經(jīng)網(wǎng)絡(luò)仿真模型庫(kù)①.傳輸函數(shù)模塊庫(kù)(T四、SI

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論