![BP神經(jīng)網(wǎng)絡的基本原理+很清楚_第1頁](http://file3.renrendoc.com/fileroot_temp3/2022-5/5/bcb08858-841e-4a2e-8ed0-b12d986ef738/bcb08858-841e-4a2e-8ed0-b12d986ef7381.gif)
![BP神經(jīng)網(wǎng)絡的基本原理+很清楚_第2頁](http://file3.renrendoc.com/fileroot_temp3/2022-5/5/bcb08858-841e-4a2e-8ed0-b12d986ef738/bcb08858-841e-4a2e-8ed0-b12d986ef7382.gif)
![BP神經(jīng)網(wǎng)絡的基本原理+很清楚_第3頁](http://file3.renrendoc.com/fileroot_temp3/2022-5/5/bcb08858-841e-4a2e-8ed0-b12d986ef738/bcb08858-841e-4a2e-8ed0-b12d986ef7383.gif)
![BP神經(jīng)網(wǎng)絡的基本原理+很清楚_第4頁](http://file3.renrendoc.com/fileroot_temp3/2022-5/5/bcb08858-841e-4a2e-8ed0-b12d986ef738/bcb08858-841e-4a2e-8ed0-b12d986ef7384.gif)
![BP神經(jīng)網(wǎng)絡的基本原理+很清楚_第5頁](http://file3.renrendoc.com/fileroot_temp3/2022-5/5/bcb08858-841e-4a2e-8ed0-b12d986ef738/bcb08858-841e-4a2e-8ed0-b12d986ef7385.gif)
版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領
文檔簡介
1、5。4BP神經(jīng)網(wǎng)絡的基本原理輸入層隱層輸出層圖5.2BP神經(jīng)網(wǎng)絡結(jié)構(gòu)示意圖BP(BackPropagation)網(wǎng)絡是1986年由Rinehart和McClelland為首的科學家小組提出,是一種按誤差逆?zhèn)鞑ニ惴ㄓ柧毜亩鄬忧梆伨W(wǎng)絡,是目前應用最廣泛的神經(jīng)網(wǎng)絡模型之一.BP網(wǎng)絡能學習和存貯大量的輸入一輸出模式映射關系,而無需事前揭示描述這種映射關系的數(shù)學方程。它的學習規(guī)則是使用最速下降法,通過反向傳播來不斷調(diào)整網(wǎng)絡的權值和閾值,使網(wǎng)絡的誤差平方和最小.BP神經(jīng)網(wǎng)絡模型拓撲結(jié)構(gòu)包括輸入層(input)、隱層(hidelayer)和輸出層(outputlayer)(如圖5.2所示).5。4.1BP神
2、經(jīng)元圖5.3給出了第j個基本BP神經(jīng)元(節(jié)點),它只模仿了生物神經(jīng)元所具有的三個最基本也是最重要的功能:加權、求和與轉(zhuǎn)移。其中Xi、X2XiXn分別代表來自神經(jīng)元1、2i-n的輸入;Wj1、W2Wi叫口則分別表示神經(jīng)元1、27-n與第j個神經(jīng)元的連接強度,即權值;bj為閾值;f()為傳遞函數(shù);yj為第j個神經(jīng)元的輸出.第j個神經(jīng)元的凈輸入值與為:(5。12)其中:圖5.3BF神經(jīng)元叫=”立巧之巧力,嗎。=3,即令£及叫包括q及嗎口,則丫二卜口占門不丐"M川嗎1孫箝啊啊于是節(jié)點j的凈輸入與可表示為:3(5.13)凈輸入與,通過傳遞函數(shù)(TransferFunction)f()
3、后,便得到第j個神經(jīng)元的輸出尸J:打=/6)=/£的)=咻,一j-0(5.14)式中f()是單調(diào)上升函數(shù),而且必須是有界函數(shù),因為細胞傳遞的信號不可能無限增加,必有一最大值。5。4.2BP網(wǎng)絡BP算法由數(shù)據(jù)流的前向計算(正向傳播)和誤差信號的反向傳播兩個過程構(gòu)成。正向傳播時,傳播方向為輸入層一隱層一輸出層,每層神經(jīng)元的狀態(tài)只影響下一層神經(jīng)元。若在輸出層得不到期望的輸出,則轉(zhuǎn)向誤差信號的反向傳播流程。通過這兩個過程的交替進行,在權向量空間執(zhí)行誤差函數(shù)梯度下降策略,動態(tài)迭代搜索一組權向量,使網(wǎng)絡誤差函數(shù)達到最小值,從而完成信息提取和記憶過程。5。4。2。1正向傳播口qm圖5.4三層神經(jīng)網(wǎng)
4、絡的拓撲結(jié)構(gòu)設BP網(wǎng)絡的輸入層有n個節(jié)點,隱層有q個節(jié)點,輸出層有m個節(jié)點,輸入層與隱層之間的權值為%,隱層與輸出層之間的權值為%,如圖5.4所示。隱層的傳遞函數(shù)為3(),輸出層的傳遞函數(shù)為f2(),則隱層節(jié)點的輸出為(將閾值寫入求和項中):取二工(二川七)i-0k=1,2,(5.15)輸出層節(jié)點的輸出為j=1,2,(5.16)至此B-P網(wǎng)絡就完成了n維空間向量對m維空間的近似映射.5.4。2.2反向傳播1)定義誤差函數(shù)_12>/v輸入F個學習樣本,用匯4,二,來表示。第尹個樣本輸入到網(wǎng)絡后得到輸出打(j=1,2,m。采用平方型誤差函數(shù),于是得到第p個樣本的誤差日:瑪=5匯蜉741J-1
5、式中:雄為期望輸出.對于F個樣本,全局誤差為:1PVIPE二立乙步扣1-!2)輸出層權值的變化(5。17)(5.18)采用累計誤差BP算法調(diào)整嗎,使全局誤差£變小,即Av或_(5。19)式中:"一學習率定義誤差信號為:內(nèi)二翼生不風與網(wǎng)其中第一項:理a1棺1曜見L2M那第二項:*£,(燈)是輸出層傳遞函數(shù)的偏微分。于是:/旺6一%)4)J-1(5.21)(5。22)(5.23)由鏈定理得:嗎町.疆=一%爽=一£(弓遙(皆)-不J-(5。24)于是輸出層各神經(jīng)元的權值調(diào)整公式為:?藍i(hje=工工天堡-W)力區(qū))分即1/4(5。25)3)隱層權值的變化%=
6、謔0之二3E*-菽f嬴*產(chǎn))?E屈)(5.26)定義誤差信號為:3E融全/_Jrtv其中第一項:莖二a為距2(5。28)依鏈定理有:%_方1總一菽碼也=力(四)叫工(5。29)第二項:詼工1(5。30)啜=£區(qū))是隱層傳遞函數(shù)的偏微分。于是:%=二6-村)力現(xiàn)嗎/(曷)由鏈定理得:與挑r=一%/=£W也&)/(5。31)(5。32)從而得到隱層各神經(jīng)元的權值調(diào)整公式為翻_M/!(5。33)5。4.3BP算法的改進維持BP算法理論具有依據(jù)可靠、推導過程嚴謹、精度較高、通用性較好等優(yōu)點,但標準BP算法存在以下缺點:收斂速度緩慢;容易陷入局部極小值;難以確定隱層數(shù)和隱層節(jié)
7、點個數(shù).在實際應用中,BP算法很難勝任,因此出現(xiàn)了很多改進算法。1)利用動量法改進BP算法圖53自適足學習標,gBP算法實質(zhì)上是一種簡單的最速下降靜態(tài)尋優(yōu)方法,在修正W(K時,只按照第K步的負梯度方向進行修正,而沒有考慮到以前積累的經(jīng)驗,即以前時刻的梯度方向,從而常常使學習過程發(fā)生振蕩,收斂緩慢。動量法權值調(diào)整算法的具體做法是:將上一次權值調(diào)整量的一部分迭加到按本次誤差計算所得的權值調(diào)整量上,作為本次的實際權值調(diào)整量,即:(5。34)A物二一斤V磯回十必用5-1)其中:a為動量系數(shù),通常0<a<0。9;學習率,范圍在0.00110之間。這種方法所加的動量因子實際上相當于阻尼項,它減
8、小了學習過程中的振蕩趨勢,從而改善了收斂性。動量法降低了網(wǎng)絡對于誤差曲面局部細節(jié)的敏感性,有效的抑制了網(wǎng)絡陷入局部極小。2)自適應調(diào)整學習速率標準BP算法收斂速度緩慢的一個重要原因是學習率選擇不當,學習率選得太小,收斂太慢;學習率選得太大,則有可能修正過頭,導致振蕩甚至發(fā)散??刹捎脠D5。5所示的自適應方法調(diào)整學習率。調(diào)整的基本指導思想是:在學習收斂的情況下,增大T,以縮短學習時間;當7偏大致使不能收斂時,要及時減小7),直到收斂為止.3)動量-自適應學習速率調(diào)整算法采用動量法時,BP算法可以找到更優(yōu)的解;采用自適應學習速率法時,BP算法可以縮短訓練時間.將以上兩種方法結(jié)合起來,就得到動量一自適
9、應學習速率調(diào)整算法。4)L-M學習規(guī)則L-M(LevenbergMarquardt)算法比前述幾種使用梯度下降法的BP算法要快得多,但對于復雜問題,這種方法需要相當大的存儲空間。L-M(LevenbergMarquardt)優(yōu)化方法的權值調(diào)整率選為:rt-it=y+J5(5.35)其中:e一誤差向量;J網(wǎng)絡誤差對權值導數(shù)的雅可比(Jacobian)矩陣;以一標量,當以很大時上式接近于梯度法,當n很小時上式變成了Gauss-Newton法,在這種方法中,仙也是自適應調(diào)整的.綜合考慮,擬采用L-M學習規(guī)則和動量法分別作為神經(jīng)網(wǎng)絡的訓練函數(shù)和學習函數(shù).5。5BP神經(jīng)網(wǎng)絡的訓練策略及結(jié)果本文借助于MA
10、TLAB申經(jīng)網(wǎng)絡工具箱來實現(xiàn)多層前饋BP網(wǎng)絡(Multilayerfeedforwardbackpropagationnetwork)的顏色空間轉(zhuǎn)換,免去了許多編寫計算機程序的煩惱。神經(jīng)網(wǎng)絡的實際輸出值與輸入值以及各權值和閾值有關,為了使實際輸出值與網(wǎng)絡期望輸出值相吻合,可用含有一定數(shù)量學習樣本的樣本集和相應期望輸出值的集合來訓練網(wǎng)絡.訓練時仍然使用本章5。2節(jié)中所述的實測樣本數(shù)據(jù)。另外,目前尚未找到較好的網(wǎng)絡構(gòu)造方法。確定神經(jīng)網(wǎng)絡的結(jié)構(gòu)和權系數(shù)來描述給定的映射或逼近一個未知的映射,只能通過學習方式得到滿足要求的網(wǎng)絡模型。神經(jīng)網(wǎng)絡的學習可以理解為:對確定的網(wǎng)絡結(jié)構(gòu),尋找一組滿足要求的權系數(shù),使
11、給定的誤差函數(shù)最小。設計多層前饋網(wǎng)絡時,主要側(cè)重試驗、探討多種模型方案,在實驗中改進,直到選取一個滿意方案為止,可按下列步驟進行:對任何實際問題先都只選用一個隱層;使用很少的隱層節(jié)點數(shù);不斷增加隱層節(jié)點數(shù),直到獲得滿意性能為止;否則再采用兩個隱層重復上述過程.訓練過程實際上是根據(jù)目標值與網(wǎng)絡輸出值之間誤差的大小反復調(diào)整權值和閾值,直到此誤差達到預定值為止。5.5.1確定BP網(wǎng)絡的結(jié)構(gòu)確定了網(wǎng)絡層數(shù)、每層節(jié)點數(shù)、傳遞函數(shù)、初始權系數(shù)、學習算法等也就確定了BP網(wǎng)絡.確定這些選項時有一定的指導原則,但更多的是靠經(jīng)驗和試湊。1)隱層數(shù)的確定:1998年RobertHechtNielson證明了對任何在
12、閉區(qū)間內(nèi)的連續(xù)函數(shù),都可以用一個隱層的BP網(wǎng)絡來逼近,因而一個三層的BP網(wǎng)絡可以完成任意的n維到m維的映照。因此我們從含有一個隱層的網(wǎng)絡開始進行訓練。2) BP網(wǎng)絡常用傳遞函數(shù)圖5.0EF網(wǎng)絡常用的傳遍函數(shù)BP網(wǎng)絡的傳遞函數(shù)有多種.Log-sigmoid型函數(shù)的輸入值可取任意值,輸出值在0和1之間;tan-sigmod型傳遞函數(shù)tansig的輸入值可取任意值,輸出值在-1到+1之間;線性傳遞函數(shù)purelin的輸入與輸出值可取任意值。BP網(wǎng)絡通常有一個或多個隱層,該層中的神經(jīng)元均采用sigmoid型傳遞函數(shù),輸出層的神經(jīng)元則采用線性傳遞函數(shù),整個網(wǎng)絡的輸出可以取任意值。各種傳遞函數(shù)如圖5.6所
13、示。只改變傳遞函數(shù)而其余參數(shù)均固定,用本章5.2節(jié)所述的樣本集訓練BP網(wǎng)絡時發(fā)現(xiàn),傳遞函數(shù)使用tansig函數(shù)時要比logsig函數(shù)的誤差小。于是在以后的訓練中隱層傳遞函數(shù)改用tansig函數(shù),輸出層傳遞函數(shù)仍選用purelin函數(shù)。3)每層節(jié)點數(shù)的確定:使用神經(jīng)網(wǎng)絡的目的是實現(xiàn)攝像機輸出RGBS色空間與CIEXYZ色空間轉(zhuǎn)換,因此BP網(wǎng)絡的輸入層和輸出層的節(jié)點個數(shù)分別為3。下面主要介紹隱層節(jié)點數(shù)量的確定。對于多層前饋網(wǎng)絡來說,隱層節(jié)點數(shù)的確定是成敗的關鍵。若數(shù)量太少,則網(wǎng)絡所能獲取的用以解決問題的信息太少;若數(shù)量太多,不僅增加訓練時間,更重要的是隱層節(jié)點過多還可能出現(xiàn)所謂“過渡吻合”(Ove
14、rfitting)問題,即測試誤差增大導致泛化能力下降,因此合理選擇隱層節(jié)點數(shù)非常重要。關于隱層數(shù)及其節(jié)點數(shù)的選擇比較復雜,一般原則是:在能正確反映輸入輸出關系的基礎上,應選用較少的隱層節(jié)點數(shù),以使網(wǎng)絡結(jié)構(gòu)盡量簡單.本論文中采用網(wǎng)絡結(jié)構(gòu)增長型方法,即先設置較少的節(jié)點數(shù),對網(wǎng)絡進行訓練,并測試學習誤差,然后逐漸增加節(jié)點數(shù),直到學習誤差不再有明顯減少為止。5。5。2誤差的選取在神經(jīng)網(wǎng)絡訓練過程中選擇均方誤差MS或為合理,原因如下: 標準BP算法中,誤差定義為:1股應=江”-行尸£j-i每個樣本作用時,都對權矩陣進彳T了一次修改.由于每次權矩陣的修改都沒有考慮權值修改后其它樣本作用的輸出誤
15、差是否也減小,因此將導致迭代次數(shù)增加. 累計誤差BP算法的全局誤差定義為1FMP£工£W-居:匯斗“小蜀丁(5(5037)這種算法是為了減小整個訓練集的全局誤差,而不針對某一特定樣本,因此如果作某種修改能使全局誤差減小,并不等于說每一個特定樣本的誤差也都能同時減小.它不能用來比較P和m不同的網(wǎng)絡性能。因為對于同一網(wǎng)絡來說,P越大,E也越大;P值相同,m越大E也越大。均方誤差MSE:(5。38)3=2之尸用平-I>1其中:陽一輸出節(jié)點的個數(shù),聲一訓練樣本數(shù)目,魅'一網(wǎng)絡期望輸出值,)爐一網(wǎng)絡實際輸出值。均方誤差克服了上述兩種算法的缺點,所以選用均方誤差算法較合理
16、。5。5。3訓練結(jié)果訓練一個單隱層的三層BP網(wǎng)絡,根據(jù)如下經(jīng)驗公式選擇隱層節(jié)點數(shù)125(5.39)式中:n為輸入節(jié)點個數(shù),m為輸出節(jié)點個數(shù),a為1到10之間的常數(shù)。針對本論文ni取值范圍為313。訓練結(jié)果如表5.1所示。表5。1隱層節(jié)點數(shù)與誤差的關系隱層神經(jīng)元個數(shù)訓練誤差測試誤差31。256611.127540.7977460。823250.6318490。727860。5702140.670770.5528730.689580。4451180.657590。3855780.6497100.2596240.4555110.1857490.6644120。1838780。48130。168587
17、0.6671由上表可以看出: 增加隱層節(jié)點數(shù)可以減少訓練誤差,但超過10以后測試誤差產(chǎn)生波動,即泛化能力發(fā)生變化.綜合比較隱層節(jié)點數(shù)為10與12的訓練誤差和測試誤差,決定隱層節(jié)點數(shù)選用12c 訓練誤差和測試誤差都很大,而且收斂速度極慢(訓練過程如圖5。7所示),這個問題可以通過對輸出量進行歸一化來解決。根據(jù)Sigmoid型傳遞函數(shù)輸入和輸出的范圍,對輸入變量不進行歸一化處理,只對輸出變量進行歸一化,這是因為在輸出數(shù)據(jù)要求歸一化的同時,對輸入數(shù)據(jù)也進行歸一化的話,權值的可解釋性就更差了.目標值按下式進行變化:#=*乂09+0.05(5.40)aa.ntE!QlI!I使目標值落在00050095之
18、間,這樣靠近數(shù)據(jù)變化區(qū)間端點的網(wǎng)絡輸出值就有一波動范圍,網(wǎng)絡的性能較好。用新生成的訓練樣本與測試樣本對隱層節(jié)點數(shù)為12的網(wǎng)絡進行訓練,得到的訓練誤差為9。89028X105,測試誤差為1。9899X10-4,達到了預定的目標(訓練過程如圖5。8所示).1010(10PertarmaMicejs0,1B3azaiGoatisQ.0001-T/-d.上4一.U士,a1MlTH10h*«k,wra力1a91tJI>!金liaKli-IfiiiiiHifitlidHmikiOiiinii>millillillHfiiiifivinikfHmlFirnin;二二二二1二二二二二二事
19、:;二;:M二二二三二二E:二二二二二5二二二二二二3二1二二二二二;二二;;占;二二二二二二二二二二二二inMHjK,+'!M:,1一,$M,,IIB.>5J00,.一/,一.L1'|i'*1f1faa|"Jr',*"IkillHiniuiIillIIMlIIIukIIHtliliHlltlitUjlllHI114LtillHUInJXIT-fid,T事.nrh*Thh./!F91+TH1"T/<一:F-FT'T'ThBBP*F丁yr<wB,一s.-a.1r+=*vIT-F-FF-!11£
20、;3EiTa?E3=ito*th.+I上+a<»th#-a+i-»«+*ba»a«s»*a*a«s-st*»s«*+»*s-fe»«J+bTFhF-W-3rHTFFXpTrLP:=3ZE=E;Ezl-tJt11tlILHI4IIr=3三三三.王五工工工_IIfeltill«tIEli?II»1t1*工國士MKM,aTTTTIITT-TUT!T11002003004130900600TOO800900KXKlODOEpOChS7隱層節(jié)點數(shù)為12的神經(jīng)網(wǎng)
21、絡訓練過程Perior/iTance這/BGeQOS,Goal崢0,0001-I:1TF:丁;圖xcc竄百q胃中?1三位la一IFLM4一Tai包7不£京匚丁t2-b:;*£r二.:;T一Jkfar*Ih:wrJ*!*tfaa-isj*£:-二M-i:TixaVs-:4>fr-E=l-二:HF=二二31.二:二WOIE壯二二:-,加*kA;L5W15202s30耨須組46Epoohs歸一化訓煉樣本后隱層節(jié)點澳為12的神經(jīng)闞絡訓竦過程5。6最終訓練后的神經(jīng)網(wǎng)絡結(jié)構(gòu)采用三層BP網(wǎng)絡實現(xiàn)攝像機輸出RG捌色空間與CIEXYZ色空間轉(zhuǎn)換,其中隱層含有12個節(jié)點,傳遞函
22、數(shù)采用tansig函數(shù);輸出層傳遞函數(shù)選用purelin函數(shù)。經(jīng)過測試后結(jié)果滿意,可以認為該神經(jīng)網(wǎng)絡可以用來實現(xiàn)這個關系映射.網(wǎng)絡的結(jié)構(gòu)如圖5。9所示:輸入層隱層輸出層$zfLal=tansi0(wl+p+b1)a2=purelin(w2*al+ti2)其中:艮一輸入層節(jié)點敷£1一隈層節(jié)點皴以一輸出層節(jié)點敷圖5目三層BP網(wǎng)絡結(jié)梅得到的BP神經(jīng)網(wǎng)絡的權值和閾值為:-0.00290.0237-Q.QQ98-0,Q0880.0095-00122-0.009800019000040.0792-0.11990.03240.00670.0341-001290.00300.0104-00129-00043-00142-00127-00011-0.0016000850.1392-Q.12S1-001410009
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 制作宣傳海報合同范本
- 2014網(wǎng)簽合同范本
- 勞務合同范例重寫
- 2025年度客運站旅客信息服務系統(tǒng)升級合同
- 保證合同范例 博客
- 農(nóng)村保姆協(xié)議合同范本
- 深化教育改革與人才培養(yǎng)質(zhì)量提升并行
- 分公司 保證合同范例
- 村計生專干申請書
- otc藥品銷售合同范本
- DB37-T3953-2020醫(yī)療衛(wèi)生機構(gòu)安全風險分級管控體系實施指南
- 工業(yè)機器人系統(tǒng)運維員(中級)課件全套 宋永昌 項目1-3 機械系統(tǒng)檢查與診斷-工業(yè)機器人運行維護與保養(yǎng)
- T-CSPSTC 111-2022 表層混凝土低滲透高密實化施工技術規(guī)程
- 浩順一卡通軟件新版說明書
- 2024年高考英語新課標1卷講評(七選五+完形填空+語法填空)-2025屆高三英語一輪復習
- 植物檢疫員崗位職責說明書
- 2023~2024學年二年級下冊語文期末??荚嚲怼?chuàng)意情境 統(tǒng)編版
- 經(jīng)理層年度任期經(jīng)營業(yè)績考核及薪酬辦法
- 2024年高考英語新聞報道閱讀理解訓練歷年真題
- 行政倫理學教程(第四版)課件 第1章 行政倫理的基本觀念
- 項目評分表范表
評論
0/150
提交評論