數(shù)學(xué)建模校內(nèi)培訓(xùn)神網(wǎng)絡(luò)_第1頁(yè)
數(shù)學(xué)建模校內(nèi)培訓(xùn)神網(wǎng)絡(luò)_第2頁(yè)
數(shù)學(xué)建模校內(nèi)培訓(xùn)神網(wǎng)絡(luò)_第3頁(yè)
數(shù)學(xué)建模校內(nèi)培訓(xùn)神網(wǎng)絡(luò)_第4頁(yè)
數(shù)學(xué)建模校內(nèi)培訓(xùn)神網(wǎng)絡(luò)_第5頁(yè)
已閱讀5頁(yè),還剩65頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

2024/1/23第三章EBP網(wǎng)絡(luò)一、BP網(wǎng)絡(luò)結(jié)構(gòu)二、BP網(wǎng)絡(luò)的學(xué)習(xí)規(guī)則三、BP算法的MATLAB實(shí)現(xiàn)四、BP算法應(yīng)用舉例五、BP算法的改進(jìn)2024/1/23一、BP網(wǎng)絡(luò)結(jié)構(gòu)感知器神經(jīng)網(wǎng)絡(luò)模型和線性神經(jīng)網(wǎng)絡(luò)模型雖然對(duì)人工神經(jīng)網(wǎng)絡(luò)的發(fā)展起了很大的作用,它們的出現(xiàn)也曾掀起人們研究神經(jīng)網(wǎng)絡(luò)的熱潮。這些單層網(wǎng)絡(luò)得局限性便是只能解決線性可分得分類問(wèn)題。當(dāng)然,Rosenblatt和Widrow均意識(shí)到這些限制并提出了克服此類問(wèn)題的方法:多層網(wǎng)絡(luò)。

舉例說(shuō)明第三章EBP網(wǎng)絡(luò)2024/1/23

雖然多層網(wǎng)絡(luò)可以解決非線性問(wèn)題,但是利用感知器學(xué)習(xí)方法和LMS算法依然不能滿足對(duì)多層網(wǎng)絡(luò)連接權(quán)的調(diào)整。因此人們開(kāi)始研究對(duì)多層網(wǎng)絡(luò)連接權(quán)的校正方法。這期間人們也曾因此失去了對(duì)神經(jīng)網(wǎng)絡(luò)研究的信心,但是直到二十世紀(jì)八十年代,Rumelhart、Mcclellard和他們的同事洞悉到網(wǎng)絡(luò)信息處理的重要性,并致力于研究并行分布信息處理方法,探索人類認(rèn)知的微結(jié)構(gòu),于1985年發(fā)展了BP網(wǎng)絡(luò)的學(xué)習(xí)算法。從而給人工神經(jīng)網(wǎng)絡(luò)增添了活力,使其得以全面迅速地恢復(fù)發(fā)展起來(lái)。第三章EBP網(wǎng)絡(luò)2024/1/23BP網(wǎng)絡(luò)是一種多層前饋神經(jīng)網(wǎng)絡(luò),采用了一種全新的網(wǎng)絡(luò)訓(xùn)練方法—誤差逆向傳播算法,誤差逆向傳播算法用英文可寫為ErrorBack-PropagationTraining,主要意思是從后向前計(jì)算,所以人們把采用這種算法進(jìn)行誤差校正的多層前饋網(wǎng)絡(luò)稱為BP網(wǎng)絡(luò)。

BP網(wǎng)絡(luò)神經(jīng)元激勵(lì)函數(shù)一般采用S型函數(shù),因此輸出量為0到1之間的連續(xù)量,它可以實(shí)現(xiàn)從輸入到輸出的任意的非線性映射。其權(quán)值的調(diào)整是利用實(shí)際輸出與期望輸出之差,對(duì)網(wǎng)絡(luò)的各層連接權(quán)由后向前逐層進(jìn)行校正的.第三章EBP網(wǎng)絡(luò)2024/1/23BP網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)第三章EBP網(wǎng)絡(luò)∑1b11f1u11v11∑1b12f1u12v12∑1b1s1f1u1s1v1s1∑1b21f2u21v21∑1b22f2u22v22∑1b2s2f2u2s2v2s2∑1b31f3u31v31∑1b32f3u32v32∑1b3s3f3u3s3v3s3RX2024/1/23

在介紹BP網(wǎng)絡(luò)之前首先來(lái)看一個(gè)多層網(wǎng)絡(luò)用于函數(shù)逼近的例子:

我們構(gòu)造一個(gè)兩層的1-2-1網(wǎng)絡(luò)模型第三章EBP網(wǎng)絡(luò)∑1b11u11v11∑1b12u12v12∑1b2u2v2p2024/1/23

其中f1(u)=1/(1+e(-u))f2(u)=u

設(shè)定網(wǎng)絡(luò)權(quán)值和閥值如下:

w111=10w112=10b11=-10b12=10w211=1w221=1b2=0

則此時(shí)網(wǎng)絡(luò)輸入輸出關(guān)系如圖所示第三章EBP網(wǎng)絡(luò)2024/1/23第三章EBP網(wǎng)絡(luò)2024/1/23

通過(guò)調(diào)整網(wǎng)絡(luò)的權(quán)值可以調(diào)整每一步曲線的陡度。如第一層網(wǎng)絡(luò)的閥值可以確定第一步曲線的位置。(如圖)如網(wǎng)絡(luò)權(quán)值可確定每步曲線的坡度。(如圖)

如第二層網(wǎng)絡(luò)的閥值可以確定整個(gè)曲線的上移和下移。(如圖)第三章EBP網(wǎng)絡(luò)2024/1/23b122024/1/23w2112024/1/23b22024/1/23

通過(guò)這個(gè)例子可以看出多層網(wǎng)絡(luò)的靈活性,只要隱含層有足夠數(shù)量的神經(jīng)元,我們就可以用這樣的神經(jīng)網(wǎng)絡(luò)來(lái)逼近幾乎任意一個(gè)函數(shù)。事實(shí)上,研究證明,兩層的神經(jīng)網(wǎng)絡(luò)在隱含層中神經(jīng)元使用S形激勵(lì)函數(shù),在輸出層中使用線性函數(shù),只要隱含層中有足夠多的神經(jīng)元可用,網(wǎng)絡(luò)就可以以任意精度逼近任意函數(shù)。第三章EBP網(wǎng)絡(luò)2024/1/23BP算法主要是利用輸入、輸出樣本集進(jìn)行相應(yīng)訓(xùn)練,使網(wǎng)絡(luò)達(dá)到給定的輸入輸出映射函數(shù)關(guān)系。算法常分為兩個(gè)階段:第一階段(正向計(jì)算過(guò)程)由樣本選取信息從輸入層經(jīng)隱含層逐層計(jì)算各單元的輸出值;第二階段(誤差反向傳播過(guò)程)由輸出層計(jì)算誤差并逐層向前算出隱含層各單元的誤差,并以此修正前一層權(quán)值。

BP網(wǎng)絡(luò)主要用于函數(shù)逼近、模式識(shí)別、分類以及數(shù)據(jù)壓縮等方面。第三章EBP網(wǎng)絡(luò)2024/1/23二、BP網(wǎng)絡(luò)學(xué)習(xí)規(guī)則1、δ學(xué)習(xí)規(guī)則

BP網(wǎng)絡(luò)最核心的部分便是網(wǎng)絡(luò)的學(xué)習(xí)規(guī)則。用BP算法訓(xùn)練網(wǎng)絡(luò)時(shí)有兩種方式:一種是每輸入一個(gè)樣本修改一次權(quán)值;一種是批處理方式,即使組成一個(gè)訓(xùn)練周期的全部樣本都依次輸入后計(jì)算總的平均誤差。第三章EBP網(wǎng)絡(luò)2024/1/23設(shè)訓(xùn)練樣本為(Xk,Tk)(k=1,2,…,p)Xk=(xk1,xk2,…,xkM)Tk=(tk1,tk2,…,tkN)網(wǎng)路的實(shí)際輸出Ok=(ok1,ok2,…,okN)前層第i個(gè)單元到后層第j個(gè)單元的權(quán)值為wji當(dāng)神經(jīng)元為輸入層單元時(shí)Ok=Xk則對(duì)第k個(gè)樣本,第j個(gè)神經(jīng)元的狀態(tài)為:輸出為第三章EBP網(wǎng)絡(luò)2024/1/23定理3.1

對(duì)于具有隱含層的多層前向神經(jīng)網(wǎng)絡(luò),當(dāng)神經(jīng)元激勵(lì)函數(shù)為半線性函數(shù),且訓(xùn)練指標(biāo)函數(shù)取為:時(shí),下述神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)規(guī)則將使E在每個(gè)訓(xùn)練循環(huán)中按梯度下降:適用于輸出層適用于中間隱含層第三章EBP網(wǎng)絡(luò)2024/1/23證明:根據(jù)前述情況,網(wǎng)絡(luò)學(xué)習(xí)即為尋優(yōu)問(wèn)題采用搜索法:

dk為搜索方向(取為xk的負(fù)梯度方向)所以即其中第三章EBP網(wǎng)絡(luò)2024/1/23記由網(wǎng)絡(luò)隱含層和輸出層的特殊性,對(duì)δkj和oki進(jìn)一步分析:第三章EBP網(wǎng)絡(luò)2024/1/23如果神經(jīng)元j是輸出層如果神經(jīng)元j是隱含層證畢第三章EBP網(wǎng)絡(luò)2024/1/23注:按照上述規(guī)則前人總結(jié)成一個(gè)完全性定理定理3.2

假定BP網(wǎng)絡(luò)中隱含層單元可以根據(jù)需要自由設(shè)定,那么一個(gè)三層網(wǎng)絡(luò)就可以實(shí)現(xiàn)任意精度近似任何連續(xù)函數(shù)。局限性:由于BP網(wǎng)絡(luò)中采用了非線性單元,故而誤差函數(shù)的極小點(diǎn)一般不止一個(gè),要尋找全局最小點(diǎn)將是一件非常困難的事情!當(dāng)然這方面的研究也尚需完善。第三章EBP網(wǎng)絡(luò)2024/1/232、S型激勵(lì)函數(shù)下的BP算法實(shí)現(xiàn)

BP網(wǎng)絡(luò)的非線性激勵(lì)函數(shù)常用Sigmoid函數(shù)其中對(duì)輸出單元:對(duì)隱層單元:權(quán)值調(diào)節(jié):第三章EBP網(wǎng)絡(luò)2024/1/23

權(quán)值的修正調(diào)整方式:算法實(shí)現(xiàn)步驟:

(1)初始化網(wǎng)絡(luò)

(2)輸入樣本矢量Xk(3)正向計(jì)算:

(4)計(jì)算訓(xùn)練誤差:輸出層隱含層第三章EBP網(wǎng)絡(luò)2024/1/23第三章EBP網(wǎng)絡(luò)(5)修正權(quán)值和閥值

(6)輸入下一個(gè)樣本矢量Xk+1,判斷結(jié)束否

E≤ε(7)結(jié)束訓(xùn)練2024/1/233、網(wǎng)絡(luò)訓(xùn)練中的假飽和現(xiàn)象由于BP網(wǎng)絡(luò)是按照誤差的負(fù)梯度方向來(lái)修正權(quán)值和閥值的,由此評(píng)價(jià)網(wǎng)絡(luò)的好壞之一常用均方根誤差來(lái)反映學(xué)習(xí)的性能。在一般情形,隨著學(xué)習(xí)的進(jìn)程,誤差會(huì)逐漸減小,但是往往會(huì)遇到這種情況,誤差在短時(shí)間內(nèi)保持不變或者變化微小,經(jīng)過(guò)一定時(shí)間的訓(xùn)練后,網(wǎng)絡(luò)的誤差繼續(xù)減小,這種現(xiàn)象稱為假飽和現(xiàn)象第三章EBP網(wǎng)絡(luò)2024/1/23第三章EBP網(wǎng)絡(luò)4、網(wǎng)絡(luò)泛化性能測(cè)試網(wǎng)絡(luò)的泛化性能:標(biāo)準(zhǔn)樣本中包含訓(xùn)練集和測(cè)試集,訓(xùn)練集即是用于訓(xùn)練網(wǎng)絡(luò)使之收斂,測(cè)試集即是用于系統(tǒng)仿真測(cè)試。(要求訓(xùn)練集要不同于測(cè)試集)如果測(cè)試集的所有樣本均經(jīng)網(wǎng)絡(luò)仿真,結(jié)果均是滿意的,則我們說(shuō)網(wǎng)絡(luò)的泛化性能很強(qiáng)。測(cè)試集的構(gòu)造:(1)樣本中劃分(2)加噪處理2024/1/23第三章EBP網(wǎng)絡(luò)5、網(wǎng)絡(luò)的魯棒性什么叫做魯棒性呢?其實(shí)這個(gè)名字是一個(gè)音譯,其英文拼寫為Robust。也就是健壯和強(qiáng)壯的意思??刂茖<矣眠@個(gè)名字來(lái)表示當(dāng)一個(gè)控制系統(tǒng)中的參數(shù)發(fā)生攝動(dòng)時(shí)系統(tǒng)能否保持正常工作的一種特性或?qū)傩?。就像人在受到外界病菌的感染后,是否能夠通過(guò)自身的免疫系統(tǒng)恢復(fù)健康一樣。網(wǎng)絡(luò)的魯棒性即是指網(wǎng)絡(luò)的權(quán)值和閥值變化時(shí)對(duì)仿真結(jié)果的影響。2024/1/23第三章EBP網(wǎng)絡(luò)三、BP網(wǎng)絡(luò)的MATLAB實(shí)現(xiàn)函數(shù)initff()和simuff可以用來(lái)初始化和仿真不超過(guò)三層的前饋型網(wǎng)絡(luò)。函數(shù)trainbp()、trainbpx()、trainlm()可用來(lái)訓(xùn)練BP網(wǎng)絡(luò)。其中trainlm()的訓(xùn)練速度最快,但它需要更大的存儲(chǔ)空間,也就是說(shuō)它是以空間換取了時(shí)間;trainbpx()的訓(xùn)練速度次之;trainlm()最慢。2024/1/23第三章EBP網(wǎng)絡(luò)1、初始化函數(shù)initff()

函數(shù)initff()的主要功能就是對(duì)至多三層的BP網(wǎng)絡(luò)初始化。其使用格式有多種,現(xiàn)列如下:

[w,b]=initff(p,s,f)[w1,b1,w2,b2]=initff(p,s1,f1,s2,f2)[w1,b1,w2,b2,w3,b3]=initff(p,s1,f1,f2,s3,f3)

2024/1/23第三章EBP網(wǎng)絡(luò)[w,b]=initff(p,s,t)[w1,b1,w2,b2]=initff(p,s1,f1,s2,t)[w1,b1,w2,b2,w3,b3]=initff(p,s1,f1,s2,f2,s3,t)[w,b]=initff(p,s,f)可得到s個(gè)神經(jīng)元的單層神經(jīng)網(wǎng)絡(luò)的權(quán)值和閥值,其中p為輸入向量,f為神經(jīng)元的激勵(lì)函數(shù)。

BP網(wǎng)絡(luò)有一個(gè)特點(diǎn)很重要,即p中的每一行中必須包含網(wǎng)絡(luò)期望輸入的最大值和最小值,這樣才能合理地初始化權(quán)值和閥值。2024/1/23第三章EBP網(wǎng)絡(luò)2、仿真函數(shù)simuff()BP網(wǎng)絡(luò)是由一系列網(wǎng)絡(luò)層組成,每一層都從前一層得到輸入數(shù)據(jù),函數(shù)simuff()可仿真至多三層前饋型網(wǎng)絡(luò)。對(duì)于不同的網(wǎng)絡(luò)層數(shù),其使用格式為:

a=simuff(p,w1,b1,f1)a=simuff(p,w1,b1,f1,w2,b2,f2)a=simuff(p,w1,b1,f1,w2,b2,f2,w3,b3,f3)以上三式分別為單層、雙層和三層網(wǎng)絡(luò)結(jié)構(gòu)的仿真輸出。2024/1/23第三章EBP網(wǎng)絡(luò)3、訓(xùn)練函數(shù)關(guān)于前面所提到的幾種BP網(wǎng)絡(luò)訓(xùn)練函數(shù),在這里只介紹其中之一:trainbp()。函數(shù)trainbp()利用BP算法訓(xùn)練前饋型網(wǎng)絡(luò)。trainbp()函數(shù)可以訓(xùn)練單層、雙層和三層的前饋型網(wǎng)絡(luò),其調(diào)用格式分別為:

[w,b,te,tr]=trainbp(w,b,f′,p,t,tp)[w1,b1,w2,b2,te,tr]=trainbp(w1,b1,f1′,w2,b2,f2′,p,t,tp)2024/1/23第三章EBP網(wǎng)絡(luò)[w1,b1,w2,b2,w3,b3,te,tr]=trainbp(w1,b1,f1′,w2,b2,f2′,w3,b3,f3′,p,t,tp)

可選訓(xùn)練參數(shù)tp內(nèi)的四個(gè)參數(shù)依次為:

tp(1)指定兩次顯示頻率,其缺省值25;

tp(2)指定訓(xùn)練的最大次數(shù),其缺省值100;

tp(3)指定誤差平方和指標(biāo),其缺省值0.02;

tp(4)指定學(xué)習(xí)速率,其缺省值0.01;2024/1/23四、BP算法應(yīng)用舉例

1、BP網(wǎng)絡(luò)的函數(shù)逼近舉例:設(shè)計(jì)一個(gè)BP網(wǎng)絡(luò),其隱含層神經(jīng)元的激勵(lì)函數(shù)為雙曲正切函數(shù),輸出層神經(jīng)元的激勵(lì)函數(shù)為線性函數(shù),學(xué)習(xí)樣本為21組單輸入矢量,理想輸出為相應(yīng)的單輸出矢量。第三章EBP網(wǎng)絡(luò)2024/1/23輸入矢量為:p=-1:0.1:1;理想輸出矢量為:

t=[-0.96-0.577-0.07290.3770.6410.660.4610.1336-0.201-0.434-0.5-0.393-0.16470.09880.30720.3960.34490.1816-0.0312-0.2183-0.3201];輸入輸出的函數(shù)關(guān)系曲線:

plot(p,t)xlabel('Input')ylabel('Output')第三章EBP網(wǎng)絡(luò)2024/1/23第三章EBP網(wǎng)絡(luò)2024/1/23利用輸入和理想輸出進(jìn)行BP神經(jīng)網(wǎng)絡(luò)初始化:

[w1,b1,w2,b2]=initff(p,5,'tansig',t,'purelin')利用函數(shù)trainbp對(duì)構(gòu)造的BP網(wǎng)絡(luò)進(jìn)行訓(xùn)練:

df=10me=8000eg=0.02lr=0.01tp=[dfmeeglr][w1,b1,w2,b2,ep,tr]=trainbp(w1,b1,'tansig',w2,b2,'purelin',p,t,tp)第三章EBP網(wǎng)絡(luò)2024/1/23

其中df指兩次顯示間的訓(xùn)練次數(shù),其缺省值25;me指訓(xùn)練的最大次數(shù),其缺省值100;eg指誤差平方和指標(biāo),其缺省值0.02;lr指學(xué)習(xí)速率,其缺省值0.01;網(wǎng)絡(luò)的訓(xùn)練過(guò)程中,網(wǎng)絡(luò)收斂效果一定程度上要受網(wǎng)絡(luò)初始化的初始值的影響,實(shí)際輸出和理想輸出的誤差的變化情況可以反映網(wǎng)絡(luò)學(xué)習(xí)的效果。

ploterr(tr,eg)

其中tr為網(wǎng)絡(luò)學(xué)習(xí)的循環(huán)次數(shù)。第三章EBP網(wǎng)絡(luò)2024/1/23第三章EBP網(wǎng)絡(luò)2024/1/23訓(xùn)練結(jié)果與理想輸出對(duì)比分析第三章EBP網(wǎng)絡(luò)2024/1/23第三章EBP網(wǎng)絡(luò)2、用BP網(wǎng)絡(luò)逼近函數(shù):

2024/1/23第三章EBP網(wǎng)絡(luò)

根據(jù)實(shí)際,我們構(gòu)造1-2-1網(wǎng)絡(luò),網(wǎng)絡(luò)的結(jié)構(gòu)如下所示

v1=logsig(W1p+b1)v2=purelin(W2v1+b2)∑1b11u11v11∑1b12u12v12∑1b2u2v2p2024/1/23第三章EBP網(wǎng)絡(luò)(1)初始化,

W1(0)=[-0.27–0.41]Tb1(0)=[-0.48–0.13]TW2(0)=[0.09–0.17]Tb2(0)=[0.48]

(2)輸入樣本,正向計(jì)算,如取p=1

第一層的輸出v1=logsig(W1p+b1)=[0.3210.368]

第二層的輸出v2=purelin(W2v1+b2)=[0.446]

誤差為e=t-v2={1+sin(πp/4)}-v2=1.261(3)誤差反向傳播以第二層開(kāi)始:2024/1/23第三章EBP網(wǎng)絡(luò)

所以第一層

(4)權(quán)值的修正

W2(1)=[0.171-0.0772]b2(1)=[0.732]W1(1)=[-0.265-0.420]Tb1(1)=[-0.475-0.140]T

即完成一次迭代過(guò)程,選擇另一個(gè)輸入p,再次執(zhí)行上述迭代,直到達(dá)到結(jié)束標(biāo)準(zhǔn)。2024/1/23第三章EBP網(wǎng)絡(luò)2024/1/23第三章EBP網(wǎng)絡(luò)2024/1/23第三章EBP網(wǎng)絡(luò)

對(duì)上述情況對(duì)比得出結(jié)論:當(dāng)i=4時(shí),前面構(gòu)造的1-3-1網(wǎng)絡(luò)模型達(dá)到了最大的能力,精度最高,但i=8時(shí),雖然網(wǎng)絡(luò)收斂了,但精度是比較低的。從另外一個(gè)方面,取i=6時(shí),對(duì)三層網(wǎng)絡(luò)結(jié)構(gòu)(1-S-1),取不同的S值觀察結(jié)果發(fā)現(xiàn),S至少取值為5,否則不能精確地描述函數(shù)的變化。上機(jī)實(shí)踐2024/1/23第三章EBP網(wǎng)絡(luò)五、BP算法的改進(jìn)

1、Vogl快速算法采用第二種權(quán)值修正方式:即全部樣本輸入后再對(duì)權(quán)值進(jìn)行修正。對(duì)于參數(shù)η和α的控制2024/1/23第三章EBP網(wǎng)絡(luò)Vogl快速算法的優(yōu)越性

(1)降低了權(quán)值的修改頻率,使權(quán)值沿著總體誤差最小方向調(diào)整,避免回頭路。

(2)適時(shí)調(diào)整參數(shù)η和α;即當(dāng)前誤差修正方向正確,便加大學(xué)習(xí)率,加入動(dòng)量項(xiàng),否則減小學(xué)習(xí)率,甩掉動(dòng)量項(xiàng),從而整體上提高學(xué)習(xí)效果。為避免計(jì)算溢出,可進(jìn)一步改進(jìn):或這樣可避免出現(xiàn)學(xué)習(xí)過(guò)程振蕩。2024/1/23第三章EBP網(wǎng)絡(luò)2、二階BP算法傳統(tǒng)的BP網(wǎng)絡(luò)只是由一階神經(jīng)元按一定的連接方式而成,這就往往需要增加隱含層數(shù)和大量的隱含層神經(jīng)元,不可避免的延長(zhǎng)了訓(xùn)練時(shí)間,甚至不容易收斂。一種改進(jìn)方式是引進(jìn)高階神經(jīng)元的BP網(wǎng)絡(luò),節(jié)點(diǎn)響應(yīng)為2024/1/23第三章EBP網(wǎng)絡(luò)

其中ypi為樣本p輸入到神經(jīng)元i產(chǎn)生的響應(yīng),wij和wijk分別為神經(jīng)元i的一階相關(guān)權(quán)值和二階相關(guān)權(quán)值。此時(shí)網(wǎng)絡(luò)的誤差函數(shù)定義為:權(quán)值的修正方法同前述內(nèi)容,主要考慮采用梯度法:2024/1/23第三章EBP網(wǎng)絡(luò)

按照梯度法的思想,我們可以計(jì)算出網(wǎng)絡(luò)權(quán)值的調(diào)節(jié)公式:

其中δpi為誤差信號(hào),具體表達(dá)式分兩種情況:2024/1/23第三章EBP網(wǎng)絡(luò)(1)輸出層的神經(jīng)元i時(shí):

(2)隱含層的神經(jīng)元i時(shí):其中

δpm為節(jié)點(diǎn)i相鄰的高層節(jié)點(diǎn)m的誤差信號(hào)2024/1/23第三章EBP網(wǎng)絡(luò)3、二階快速BP算法這種算法是對(duì)二階BP算法的進(jìn)一步改進(jìn),主要是對(duì)參數(shù)η的改進(jìn):2024/1/23第三章EBP網(wǎng)絡(luò)

參數(shù)η:2024/1/23第三章EBP網(wǎng)絡(luò)

其中Δ1,Δ2,Δ3,δpi、ypi和α、β、γ參數(shù)的說(shuō)明見(jiàn)下頁(yè)2024/1/23第三章EBP網(wǎng)絡(luò)2024/1/23第三章EBP網(wǎng)絡(luò)

參數(shù)α、β、γ均為常數(shù),其中

α>10<β<10<γ<12024/1/23第三章EBP網(wǎng)絡(luò)2024/1/23感知器分類實(shí)例考慮如下四類輸入向量的分類問(wèn)題第1類:p1=[11]Tp2=[12]T

第2類:p3=[2-1]Tp4=[20]T

第3類:p5=[-12]Tp6=[-21]T

第4類:p7=[-1-1]Tp8=[-2-2]T

試設(shè)計(jì)一種感知器網(wǎng)絡(luò)求解此問(wèn)題第三章EBP網(wǎng)絡(luò)2024/1/23

由于S個(gè)神經(jīng)元的感知器可以對(duì)2s個(gè)類別進(jìn)行分類,所以設(shè)計(jì)兩個(gè)神經(jīng)元的感知器第三章EBP網(wǎng)絡(luò)w+p1uvb2×12×22×1f2×12×1V=hardlim(Wp+b)2024/1/23圖形顯示第三章EBP網(wǎng)絡(luò)12342024/1/23分類結(jié)果第三章EBP網(wǎng)絡(luò)12342024/1/23線性神經(jīng)網(wǎng)絡(luò)分類實(shí)例考慮如下四類輸入向量的分類問(wèn)題第1類:p1=[11]Tp2=[12]T

第2類:p3=[2-1]Tp4=[20]T

第3類:p5=[-12]Tp6=[-21]T

第4類:p7=[-1-1]Tp8=[-2-2]T

試設(shè)計(jì)一個(gè)Adaline網(wǎng)絡(luò)和利用LMS學(xué)習(xí)規(guī)則求解此問(wèn)題第三章EBP網(wǎng)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論