神經(jīng)網(wǎng)絡(luò)算法入門課件_第1頁
神經(jīng)網(wǎng)絡(luò)算法入門課件_第2頁
神經(jīng)網(wǎng)絡(luò)算法入門課件_第3頁
神經(jīng)網(wǎng)絡(luò)算法入門課件_第4頁
神經(jīng)網(wǎng)絡(luò)算法入門課件_第5頁
已閱讀5頁,還剩81頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

人腦的結(jié)構(gòu)、機制和功能中凝聚著無比的奧秘和智慧。地球是宇宙的驕子,人類是地球的寵兒,大腦是人的主宰。

現(xiàn)在是探索腦的奧秘,從中獲得智慧,在其啟發(fā)下構(gòu)造為人類文明服務(wù)的高級智能系統(tǒng)的時候了!神經(jīng)網(wǎng)絡(luò)算法入門【】本章要點一、神經(jīng)網(wǎng)絡(luò)簡介二、MATLAB簡介三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)四、利用MicrosoftSQLServer2005實踐神經(jīng)網(wǎng)絡(luò)算法神經(jīng)網(wǎng)絡(luò)算法入門【】一、神經(jīng)網(wǎng)絡(luò)簡介人腦與計算機信息處理能力的比較記憶與聯(lián)想能力學習與認知能力信息加工能力信息綜合能力信息處理速度神經(jīng)網(wǎng)絡(luò)算法入門【】一、神經(jīng)網(wǎng)絡(luò)簡介人腦與計算機信息處理機制的比較系統(tǒng)結(jié)構(gòu)信號形式信息存儲信息處理機制神經(jīng)網(wǎng)絡(luò)算法入門【】一、神經(jīng)網(wǎng)絡(luò)簡介

生物神經(jīng)網(wǎng)絡(luò)人類的大腦大約有1.4

1011個神經(jīng)細胞,亦稱為神經(jīng)元。每個神經(jīng)元有數(shù)以千計的通道同其它神經(jīng)元廣泛相互連接,形成復(fù)雜的生物神經(jīng)網(wǎng)絡(luò)。人工神經(jīng)網(wǎng)絡(luò)以數(shù)學和物理方法以及信息處理的角度對人腦神經(jīng)網(wǎng)絡(luò)進行抽象,并建立某種簡化模型,就稱為人工神經(jīng)網(wǎng)絡(luò)(ArtificialNeuralNetwork,縮寫ANN)。神經(jīng)網(wǎng)絡(luò)算法入門【】一、神經(jīng)網(wǎng)絡(luò)簡介人工神經(jīng)網(wǎng)絡(luò)定義神經(jīng)網(wǎng)絡(luò)是由多個非常簡單的處理單元彼此按某種方式相互連接而形成的計算系統(tǒng),該系統(tǒng)是靠其狀態(tài)對外部輸入信息的動態(tài)響應(yīng)來處理信息的。人工神經(jīng)網(wǎng)絡(luò)是一個由許多簡單的并行工作的處理單元組成的系統(tǒng),其功能取決于網(wǎng)絡(luò)的結(jié)構(gòu)、連接強度以及各單元的處理方式。人工神經(jīng)網(wǎng)絡(luò)是一種旨在模仿人腦結(jié)構(gòu)及其功能的信息處理系統(tǒng)。神經(jīng)網(wǎng)絡(luò)算法入門【】一、神經(jīng)網(wǎng)絡(luò)簡介神經(jīng)網(wǎng)絡(luò)的基本特征能力特征:自學習自組織自適應(yīng)性結(jié)構(gòu)特征:并行式處理分布式存儲容錯性神經(jīng)網(wǎng)絡(luò)算法入門【】一、神經(jīng)網(wǎng)絡(luò)簡介聯(lián)想記憶功能神經(jīng)網(wǎng)絡(luò)的基本功能神經(jīng)網(wǎng)絡(luò)算法入門【】一、神經(jīng)網(wǎng)絡(luò)簡介神經(jīng)網(wǎng)絡(luò)的基本功能非線性映射功能神經(jīng)網(wǎng)絡(luò)算法入門【】神經(jīng)網(wǎng)絡(luò)的基本功能分類與識別功能一、神經(jīng)網(wǎng)絡(luò)簡介神經(jīng)網(wǎng)絡(luò)算法入門【】神經(jīng)網(wǎng)絡(luò)的基本功能優(yōu)化計算功能一、神經(jīng)網(wǎng)絡(luò)簡介神經(jīng)網(wǎng)絡(luò)算法入門【】神經(jīng)網(wǎng)絡(luò)的基本功能知識處理功能一、神經(jīng)網(wǎng)絡(luò)簡介神經(jīng)網(wǎng)絡(luò)算法入門【】神經(jīng)網(wǎng)絡(luò)的應(yīng)用領(lǐng)域:信息處理領(lǐng)域信號處理模式識別數(shù)據(jù)壓縮一、神經(jīng)網(wǎng)絡(luò)簡介神經(jīng)網(wǎng)絡(luò)算法入門【】神經(jīng)網(wǎng)絡(luò)的應(yīng)用領(lǐng)域:自動化領(lǐng)域系統(tǒng)識別神經(jīng)控制器智能檢測一、神經(jīng)網(wǎng)絡(luò)簡介神經(jīng)網(wǎng)絡(luò)算法入門【】神經(jīng)網(wǎng)絡(luò)的應(yīng)用領(lǐng)域:工程領(lǐng)域汽車工程軍事工程化學工程水利工程一、神經(jīng)網(wǎng)絡(luò)簡介神經(jīng)網(wǎng)絡(luò)算法入門【】神經(jīng)網(wǎng)絡(luò)的應(yīng)用領(lǐng)域:醫(yī)學領(lǐng)域檢測數(shù)據(jù)分析生物活性研究醫(yī)學專家系統(tǒng)一、神經(jīng)網(wǎng)絡(luò)簡介神經(jīng)網(wǎng)絡(luò)算法入門【】神經(jīng)網(wǎng)絡(luò)的應(yīng)用領(lǐng)域:經(jīng)濟領(lǐng)域信貸分析市場預(yù)測一、神經(jīng)網(wǎng)絡(luò)簡介神經(jīng)網(wǎng)絡(luò)算法入門【】神經(jīng)網(wǎng)絡(luò)的軟硬件實現(xiàn)神經(jīng)網(wǎng)絡(luò)編程語言既可用高級語言也可用低級語言。C語言是神經(jīng)網(wǎng)絡(luò)應(yīng)用軟件的基本編程工具;匯編語言常用于提高神經(jīng)網(wǎng)絡(luò)的已有功能或解決與硬件相關(guān)的難點。MATLAB名字由MATrix和LABoratory兩詞的前三個字母組合而成。20世紀七十年代后期,時任美國新墨西哥大學計算機科學系主任的CleveMoler教授出于減輕學生編程負擔的動機,為學生設(shè)計了一組調(diào)用LINPACK和EISPACK庫程序的“通俗易用”的接口,此即用FORTRAN編寫的萌芽狀態(tài)的MATLAB。一、神經(jīng)網(wǎng)絡(luò)簡介神經(jīng)網(wǎng)絡(luò)算法入門【】神經(jīng)網(wǎng)絡(luò)的軟硬件實現(xiàn)MATLAB以商品形式出現(xiàn)后,僅短短幾年,就以其良好的開放性和運行的可靠性,使原先控制領(lǐng)域里的封閉式軟件包(如英國的UMIST,瑞典的LUND和SIMNON,德國的KEDDC)紛紛淘汰,而改以MATLAB為平臺加以重建。在時間進入20世紀九十年代的時候,MATLAB已經(jīng)成為國際控制界公認的標準計算軟件。一、神經(jīng)網(wǎng)絡(luò)簡介神經(jīng)網(wǎng)絡(luò)算法入門【】神經(jīng)網(wǎng)絡(luò)的軟硬件實現(xiàn)在歐美大學里,諸如應(yīng)用代數(shù)、數(shù)理統(tǒng)計、自動控制、數(shù)字信號處理、模擬與數(shù)字通信、時間序列分析、動態(tài)系統(tǒng)仿真等課程的教科書都把MATLAB作為內(nèi)容。這幾乎成了九十年代教科書與舊版書籍的區(qū)別性標志。在那里,MATLAB是攻讀學位的大學生、碩士生、博士生必須掌握的基本工具。一、神經(jīng)網(wǎng)絡(luò)簡介神經(jīng)網(wǎng)絡(luò)算法入門【】神經(jīng)網(wǎng)絡(luò)的軟硬件實現(xiàn)MATLAB的推出得到了各個領(lǐng)域的專家學者的廣泛關(guān)注,在此基礎(chǔ)上,專家們相繼推出了MATLAB工具箱,主要包括信號處理、控制系統(tǒng)、神經(jīng)網(wǎng)絡(luò)、圖像處理、魯棒控制、非線性系統(tǒng)控制設(shè)計、系統(tǒng)辨識、最優(yōu)化、模糊邏輯、小波等工具箱,這些工具箱給各個領(lǐng)域的研究和工程應(yīng)用提供了有力的工具。一、神經(jīng)網(wǎng)絡(luò)簡介神經(jīng)網(wǎng)絡(luò)算法入門【】參考文獻[1]人工神經(jīng)網(wǎng)絡(luò)教程(第1版)韓力群,北京:北京郵電大學出版社,2006年[2]神經(jīng)網(wǎng)絡(luò)(影印版),SatishKumar,北京:清華大學出版社,2006年[3]神經(jīng)網(wǎng)絡(luò)設(shè)計(英文版)(美)黑根等著,機械出版社,中信出版社,2002[4]神經(jīng)網(wǎng)絡(luò)模型及其MATLAB仿真程序設(shè)計,周開利,康耀紅,北京:清華大學出版社,2005年一、神經(jīng)網(wǎng)絡(luò)簡介神經(jīng)網(wǎng)絡(luò)算法入門【】三、神經(jīng)網(wǎng)絡(luò)建模基礎(chǔ)

神經(jīng)生理學和神經(jīng)解剖學的研究結(jié)果表明,神經(jīng)元(Neuron)是腦組織的基本單元,是人腦信息處理系統(tǒng)的最小單元。生物神經(jīng)元生物神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)算法入門【】三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)生物神經(jīng)元生物神經(jīng)元在結(jié)構(gòu)上由:細胞體(Cellbody)、樹突(Dendrite)、軸突(Axon)、突觸(Synapse)四部分組成。用來完成神經(jīng)元間信息的接收、傳遞和處理。神經(jīng)網(wǎng)絡(luò)算法入門【】人工神經(jīng)網(wǎng)絡(luò)的生物學基礎(chǔ)神經(jīng)網(wǎng)絡(luò)算法入門【】三、神經(jīng)網(wǎng)絡(luò)建模基礎(chǔ)生物神經(jīng)元:信息的產(chǎn)生神經(jīng)元間信息的產(chǎn)生、傳遞和處理是一種電化學活動。

神經(jīng)元狀態(tài):靜息興奮抑制

膜電位:極化去極化超極化神經(jīng)網(wǎng)絡(luò)算法入門【】三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)神經(jīng)網(wǎng)絡(luò)算法入門【】三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)生物神經(jīng)元:信息的傳遞與接收神經(jīng)網(wǎng)絡(luò)算法入門【】三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)生物神經(jīng)元:信息的整合空間整合:同一時刻產(chǎn)生的刺激所引起的膜電位變化,大致等于各單獨刺激引起的膜電位變化的代數(shù)和。時間整合:各輸入脈沖抵達神經(jīng)元的時間先后不一樣??偟耐挥|后膜電位為一段時間內(nèi)的累積。神經(jīng)網(wǎng)絡(luò)算法入門【】生物神經(jīng)網(wǎng)絡(luò)

由多個生物神經(jīng)元以確定方式和拓撲結(jié)構(gòu)

相互連接即形成生物神經(jīng)網(wǎng)絡(luò)。

生物神經(jīng)網(wǎng)絡(luò)的功能不是單個神經(jīng)元信息

處理功能的簡單疊加。

神經(jīng)元之間的突觸連接方式和連接強度不

同并且具有可塑性,這使神經(jīng)網(wǎng)絡(luò)在宏觀

呈現(xiàn)出千變?nèi)f化的復(fù)雜的信息處理能力。三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)神經(jīng)網(wǎng)絡(luò)算法入門【】三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)

神經(jīng)元及其突觸是神經(jīng)網(wǎng)絡(luò)的基本器件。因此,模擬生物神經(jīng)網(wǎng)絡(luò)應(yīng)首先模擬生物神經(jīng)元人工神經(jīng)元(節(jié)點)

從三個方面進行模擬:節(jié)點本身的信息處理能力節(jié)點與節(jié)點之間連接(拓撲結(jié)構(gòu))相互連接的強度(通過學習來調(diào)整)決定人工神經(jīng)網(wǎng)絡(luò)整體性能的三大要素神經(jīng)網(wǎng)絡(luò)算法入門【】三、神經(jīng)網(wǎng)絡(luò)建模基礎(chǔ)節(jié)點本身的信息處理能力(數(shù)學模型)節(jié)點與節(jié)點之間連接(拓撲結(jié)構(gòu))相互連接的強度(通過學習來調(diào)整)神經(jīng)網(wǎng)絡(luò)算法入門【】三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)模型的六點假設(shè):(1)每個神經(jīng)元都是一個多輸入單輸出的信息處理單元;(2)神經(jīng)元輸入分興奮性輸入和抑制性輸入兩種類型;(3)神經(jīng)元具有空間整合特性和閾值特性;(4)神經(jīng)元輸入與輸出間有固定的時滯,主要取決于突觸延擱;(5)忽略時間整合作用和不應(yīng)期;(6)神經(jīng)元本身是非時變的,即其突觸時延和突觸強度均為常數(shù)。神經(jīng)網(wǎng)絡(luò)算法入門【】三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)假設(shè)1圖(a)表明,正如生物神經(jīng)元有許多激勵輸入一祥,人工神經(jīng)元也應(yīng)該有許多的輸入信號,圖中每個輸入的大小用確定數(shù)值xi表示,它們同時輸入神經(jīng)元j,神經(jīng)元的單輸出用oj表示。神經(jīng)網(wǎng)絡(luò)算法入門【】三、神經(jīng)網(wǎng)絡(luò)建模基礎(chǔ)假設(shè)2生物神經(jīng)元具有不同的突觸性質(zhì)和突觸強度,其對輸入的影響是使有些輸入在神經(jīng)元產(chǎn)生脈沖輸出過程中所起的作用比另外一些輸入更為重要。圖(b)中對神經(jīng)元的每一個輸入都有一個加權(quán)系數(shù)wij,稱為權(quán)重值,其正負模擬了生物神經(jīng)元中突觸的興奮和抑制,其大小則代表了突觸的不同連接強度。神經(jīng)網(wǎng)絡(luò)算法入門【】三、神經(jīng)網(wǎng)絡(luò)建模基礎(chǔ)假設(shè)3作為ANN的基本處理單元,必須對全部輸入信號進行整合,以確定各類輸入的作用總效果,圖(c)表示組合輸人信號的“總和值”,相應(yīng)于生物神經(jīng)元的膜電位。神經(jīng)元激活與否取決于某一閾值電平,即只有當其輸入總和超過閾值時,神經(jīng)元才被激活而發(fā)放脈沖,否則神經(jīng)元不會產(chǎn)生輸出信號。神經(jīng)網(wǎng)絡(luò)算法入門【】三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)假設(shè)4圖(d)人工神經(jīng)元的輸出也同生物神經(jīng)元一樣僅有一個,如用oj表示神經(jīng)元輸出,則輸出與輸入之間的對應(yīng)關(guān)系可用圖(d)中的某種非線性函數(shù)來表示,這種函數(shù)一般都是非線性的。神經(jīng)網(wǎng)絡(luò)算法入門【】三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)神經(jīng)網(wǎng)絡(luò)算法入門【】τij——輸入輸出間的突觸時延;

Tj——神經(jīng)元j的閾值;

wij——神經(jīng)元i到j(luò)的突觸連接系數(shù)或稱權(quán)重值;

f()——神經(jīng)元轉(zhuǎn)移函數(shù)。(1)上述內(nèi)容可用一個數(shù)學表達式進行抽象與概括。令xi(t)表示t時刻神經(jīng)元j接收的來自神經(jīng)元i的信息輸入,oj(t)表示t時刻神經(jīng)元j的信息輸出,則神經(jīng)元j的狀態(tài)可表達為1式。三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)神經(jīng)網(wǎng)絡(luò)算法入門【】三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)(2)為簡單起見,將1上式中的突觸時延取為單位時間,則式(1)可寫為2式。上式描述的神經(jīng)元數(shù)學模型全面表達了神經(jīng)元模型的6點假定。其中輸入xi的下標i=1,2,…,n,輸出oj的下標j體現(xiàn)了神經(jīng)元模型假定(1)中的“多輸入單輸出”。權(quán)重值wij的正負體現(xiàn)了假定(2)中“突觸的興奮與抑制”。Tj代表假定(3)中神經(jīng)元的“閾值”;“輸入總和”常稱為神經(jīng)元在t時刻的凈輸入,神經(jīng)元的數(shù)學模型:神經(jīng)網(wǎng)絡(luò)算法入門【】(3)三、神經(jīng)網(wǎng)絡(luò)建模基礎(chǔ)net’j(t)

體現(xiàn)了神經(jīng)元j的空間整合特性而未考慮時間整合,當net’j-Tj>0時,神經(jīng)元才能被激活。oj(t+1)與xI(t)之間的單位時差代表所有神經(jīng)元具有相同的、恒定的工作節(jié)律,對應(yīng)于假定(4)中的“突觸延擱”;wij與時間無關(guān)體現(xiàn)了假定(6)中神經(jīng)元的“非時變”。神經(jīng)元的數(shù)學模型:神經(jīng)網(wǎng)絡(luò)算法入門【】net’j=WjTX(4)三、神經(jīng)網(wǎng)絡(luò)建模基礎(chǔ)為簡便起見,在后面用到式(3)時,常將其中的(t)省略。式(3)還可表示為權(quán)重向量Wj和輸入向量X的點積WTX。

其中Wj和X均為列向量,定義為Wj=(w1w2…wn)T,X=(x1x2…xn)T如果令x0=-1,w0=Tj,則有-Tj=x0w0,因此凈輸入與閾值之差可表達為神經(jīng)元的數(shù)學模型:神經(jīng)網(wǎng)絡(luò)算法入門【】(5)oj=f(netj)=f(WjTX)(6)三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)顯然,式(4)中列向量Wj和X的第一個分量的下標均從1開始,而式(5)中則從0開始。采用式(5)的約定后,凈輸入改寫為netj,與原來的區(qū)別是包含了閾值。綜合以上各式,神經(jīng)元模型可簡化為神經(jīng)元的數(shù)學模型:神經(jīng)網(wǎng)絡(luò)算法入門【】三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)

神經(jīng)元各種不同數(shù)學模型的主要區(qū)別在于采用了不同的轉(zhuǎn)移函數(shù),從而使神經(jīng)元具有不同的信息處理特性。神經(jīng)元的信息處理特性是決定人工神經(jīng)網(wǎng)絡(luò)整體性能的三大要素之一,反映了神經(jīng)元輸出與其激活狀態(tài)之間的關(guān)系,最常用的轉(zhuǎn)移函數(shù)有4種形式。神經(jīng)網(wǎng)絡(luò)算法入門【】(1)閾值型轉(zhuǎn)移函數(shù) 1x≥0 f(x)=(7)

0x<0 三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)神經(jīng)元的轉(zhuǎn)移函數(shù):神經(jīng)網(wǎng)絡(luò)算法入門【】(2)非線性轉(zhuǎn)移函數(shù)三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)非線性轉(zhuǎn)移函數(shù)為實數(shù)域R到[0.1]閉集的非減連續(xù)函數(shù),代表了狀態(tài)連續(xù)型神經(jīng)元模型。最常用的非線性轉(zhuǎn)移函數(shù)是單極性的sigmoid函數(shù)曲線,簡稱S型函數(shù)。其特點是函數(shù)本身及其導(dǎo)數(shù)都是連續(xù)的,因而在處理上十分方便。S型函數(shù)函數(shù)又分為單極性和雙極性兩種,分別定義如下:神經(jīng)元的轉(zhuǎn)移函數(shù):神經(jīng)網(wǎng)絡(luò)算法入門【】(2)非線性轉(zhuǎn)移函數(shù)三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)神經(jīng)元的轉(zhuǎn)移函數(shù):教材選用這個轉(zhuǎn)移函數(shù)神經(jīng)網(wǎng)絡(luò)算法入門【】(3)分段線性轉(zhuǎn)移函數(shù)三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)該函數(shù)特點是神經(jīng)元的輸入與輸出在一定區(qū)間內(nèi)滿足線性關(guān)系,模擬了實際系統(tǒng)中的飽和特性。由于具有分段線性的特點,因而在實現(xiàn)上比較簡單。這類函數(shù)也稱為偽線性函數(shù),表達式如下:神經(jīng)元的轉(zhuǎn)移函數(shù):神經(jīng)網(wǎng)絡(luò)算法入門【】(3)分段線性轉(zhuǎn)移函數(shù) 0x≤0 f(x)= cx0<

x≤xc(9)

1xc<

x 三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)神經(jīng)元的轉(zhuǎn)移函數(shù):神經(jīng)網(wǎng)絡(luò)算法入門【】(4)概率型轉(zhuǎn)移函數(shù)溫度參數(shù)三、神經(jīng)網(wǎng)絡(luò)建模基礎(chǔ)采用概率型轉(zhuǎn)移函數(shù)的神經(jīng)元模型其輸入與輸出之間的關(guān)系是不確定的,需用一個隨機函數(shù)來描述輸出狀態(tài)為1或為0的概率。設(shè)神經(jīng)元輸出為1的概率為由于采用該轉(zhuǎn)移函數(shù)的神經(jīng)元輸出狀態(tài)分布與熱力學中的玻爾茲曼(Boltzmann)分布相類似,因此這種神經(jīng)元模型也稱為熱力學模型。神經(jīng)元的轉(zhuǎn)移函數(shù):神經(jīng)網(wǎng)絡(luò)算法入門【】三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)節(jié)點本身的信息處理能力(數(shù)學模型)節(jié)點與節(jié)點之間連接(拓撲結(jié)構(gòu))相互連接的強度(通過學習來調(diào)整)神經(jīng)網(wǎng)絡(luò)算法入門【】三、神經(jīng)網(wǎng)絡(luò)建模基礎(chǔ)人工神經(jīng)網(wǎng)絡(luò)的模型很多,可以按照不同的方法進行分類。其中常見的兩種分類方法是,按網(wǎng)絡(luò)連接的拓撲結(jié)構(gòu)分類和按網(wǎng)絡(luò)內(nèi)部的信息流向分類。神經(jīng)網(wǎng)絡(luò)算法入門【】三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)分類:按網(wǎng)絡(luò)連接的拓撲結(jié)構(gòu)分類層次型結(jié)構(gòu)互連型網(wǎng)絡(luò)結(jié)構(gòu)按網(wǎng)絡(luò)內(nèi)部的信息流向分類前饋型網(wǎng)絡(luò)反饋型網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)算法入門【】三、神經(jīng)網(wǎng)絡(luò)建模基礎(chǔ)層次型結(jié)構(gòu):將神經(jīng)元按功能分成若干層,如輸入層、中間層(隱層)和輸出層,各層順序相連?;ミB型網(wǎng)絡(luò)結(jié)構(gòu):網(wǎng)絡(luò)中任意兩個節(jié)點之間都可能存在連接路徑.人工神經(jīng)網(wǎng)絡(luò)模型神經(jīng)網(wǎng)絡(luò)算法入門【】網(wǎng)絡(luò)拓撲結(jié)構(gòu)類型

層次型結(jié)構(gòu)三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)神經(jīng)網(wǎng)絡(luò)算法入門【】輸出層到輸入層有連接三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)網(wǎng)絡(luò)拓撲結(jié)構(gòu)類型

神經(jīng)網(wǎng)絡(luò)算法入門【】層內(nèi)有連接層次型結(jié)構(gòu)三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)網(wǎng)絡(luò)拓撲結(jié)構(gòu)類型

神經(jīng)網(wǎng)絡(luò)算法入門【】全互連型結(jié)構(gòu)三、神經(jīng)網(wǎng)絡(luò)建模基礎(chǔ)網(wǎng)絡(luò)拓撲結(jié)構(gòu)類型

神經(jīng)網(wǎng)絡(luò)算法入門【】局部互連型網(wǎng)絡(luò)結(jié)構(gòu)三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)網(wǎng)絡(luò)拓撲結(jié)構(gòu)類型

神經(jīng)網(wǎng)絡(luò)算法入門【】網(wǎng)絡(luò)信息流向類型前饋型網(wǎng)絡(luò)前饋:網(wǎng)絡(luò)信息處理的方向是從輸入層到各隱層再到輸出層逐層進行反饋型網(wǎng)絡(luò)在反饋網(wǎng)絡(luò)中所有節(jié)點都具有信息處理功能,而且每個節(jié)點既可以從外界接收輸入,同時又可以向外界輸出。三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)神經(jīng)網(wǎng)絡(luò)算法入門【】前饋型網(wǎng)絡(luò)三、神經(jīng)網(wǎng)絡(luò)建模基礎(chǔ)網(wǎng)絡(luò)信息流向類型神經(jīng)網(wǎng)絡(luò)算法入門【】反饋型網(wǎng)絡(luò)三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)網(wǎng)絡(luò)信息流向類型神經(jīng)網(wǎng)絡(luò)算法入門【】三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)節(jié)點本身的信息處理能力(數(shù)學模型)節(jié)點與節(jié)點之間連接(拓撲結(jié)構(gòu))相互連接的強度(通過學習來調(diào)整)神經(jīng)網(wǎng)絡(luò)算法入門【】

神經(jīng)網(wǎng)絡(luò)能夠通過對樣本的學習訓(xùn)練,不斷改變網(wǎng)絡(luò)的連接權(quán)值以及拓撲結(jié)構(gòu),以使網(wǎng)絡(luò)的輸出不斷地接近期望的輸出。這一過程稱為神經(jīng)網(wǎng)絡(luò)的學習或訓(xùn)練,其本質(zhì)是可變權(quán)值的動態(tài)調(diào)整。三、神經(jīng)網(wǎng)絡(luò)建模基礎(chǔ)神經(jīng)網(wǎng)絡(luò)學習神經(jīng)網(wǎng)絡(luò)算法入門【】神經(jīng)網(wǎng)絡(luò)的學習類型:有導(dǎo)師學習(有監(jiān)督學習)無導(dǎo)師學習(無監(jiān)督學習)死記式學習三、神經(jīng)網(wǎng)絡(luò)建模基礎(chǔ)神經(jīng)網(wǎng)絡(luò)學習神經(jīng)網(wǎng)絡(luò)算法入門【】學習的過程(權(quán)值調(diào)整的一般情況)三、神經(jīng)網(wǎng)絡(luò)建模基礎(chǔ)神經(jīng)網(wǎng)絡(luò)算法入門【】1949年,心理學家D.O.Hebb最早提出關(guān)于神經(jīng)網(wǎng)絡(luò)學習機理的“突觸修正”的假設(shè)。假設(shè):當神經(jīng)元i與j同時處于興奮時,兩者之間的連接強度應(yīng)增強。三、神經(jīng)網(wǎng)絡(luò)建模基礎(chǔ)神經(jīng)網(wǎng)絡(luò)學習Hebb學習規(guī)則純前饋、無導(dǎo)師神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)算法入門【】例:設(shè)有4輸入單輸出神經(jīng)元模型,其閥值T=0,學習效率η=1,3個輸入樣本向量和初始權(quán)向量分別為X1=(1,-2,1.5,0),X2=(1,-0.5,-2,-1.5)T,X3=(0,1,-1,1.5)T,W(0)=(1,-1,0,0.5)T三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)神經(jīng)網(wǎng)絡(luò)學習神經(jīng)網(wǎng)絡(luò)算法入門【】1958年,美國學者FrankRosenblatt首次定義了一個具有單層計算單元的神經(jīng)網(wǎng)絡(luò)結(jié)果,稱為感知器(Perceptron)。感知器的學習規(guī)則規(guī)定。三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)神經(jīng)網(wǎng)絡(luò)學習離散感知器學習規(guī)則神經(jīng)網(wǎng)絡(luò)算法入門【】當實際輸出與期望值相同時,權(quán)值不需要調(diào)整;在有誤差存在的情況下,由于dj和sgn(WjTX)屬于{-1,1}三、神經(jīng)網(wǎng)絡(luò)建?;A(chǔ)神經(jīng)網(wǎng)絡(luò)學習離散感知器學習規(guī)則

導(dǎo)師學習只適用于二進制神經(jīng)元神經(jīng)網(wǎng)絡(luò)算法入門【】1986年,認知心理學家McClelland和Runelhart在神經(jīng)網(wǎng)絡(luò)中引入δ規(guī)則,該規(guī)則亦可稱為連續(xù)感知器學習規(guī)則,與上述離散感知器學習規(guī)則并行。三、神經(jīng)網(wǎng)絡(luò)建模基礎(chǔ)神經(jīng)網(wǎng)絡(luò)學習連續(xù)感知器學習規(guī)則神經(jīng)網(wǎng)絡(luò)算法入門【】7.3.2反向傳播模型1.工作原理神經(jīng)網(wǎng)絡(luò)模型分為前饋多層式網(wǎng)絡(luò)模型、反饋遞歸式網(wǎng)絡(luò)模型、隨機型網(wǎng)絡(luò)模型等。誤差反向傳播(Backpropagation,簡稱BP網(wǎng)絡(luò)),又稱為多層前饋神經(jīng)網(wǎng)絡(luò)。其模型結(jié)構(gòu)如圖7.3所示神經(jīng)網(wǎng)絡(luò)算法入門【】2.學習過程

BP網(wǎng)絡(luò)學習過程是一種誤差邊向后傳播邊修正權(quán)系數(shù)的過程,BP算法把網(wǎng)絡(luò)的學習過程分為正向傳播和反向傳播兩種交替過程。

(1)正向傳播輸入信息先傳到隱藏層的結(jié)點上,經(jīng)過各單元的特性為S型的激活函數(shù)運算后,把隱藏層結(jié)點的輸出信息傳到輸出結(jié)點,最后給出輸出結(jié)果。(2)反向傳播如果得不到實際的輸出,則轉(zhuǎn)入反向傳播過程,將誤差信號沿原來的連接線路返回,通過修改各層神經(jīng)元的權(quán)值,逐次地向輸入層傳播進行計算,再經(jīng)過正向傳播過程。這兩個過程的反復(fù)運用,逐漸使得誤差信號最小,網(wǎng)絡(luò)學習過程就結(jié)束。神經(jīng)網(wǎng)絡(luò)算法入門【】3.BP算法BP算法如下。其中,l為學習率;oi為單元i的輸出;oj為單元j的輸出;Tj為輸出層單元j的期望輸出;Errj為與隱藏層單元j的誤差加權(quán)和;wjk為單元j與單元k相連的有向加權(quán)邊的權(quán)重;為改變單元j活性的偏量。輸入:訓(xùn)練樣本S,學習率l,多層前饋網(wǎng)絡(luò)。輸出:一個訓(xùn)練的、對樣本分類的神經(jīng)網(wǎng)絡(luò)。方法:(1)初始化網(wǎng)絡(luò)的權(quán)和閾值(2)

WHILE終止條件滿足{(3)

FORS中的每個訓(xùn)練樣本X{(4)

FOR隱藏或輸出層每個單元j{((5); //相對于前一層計算單元j的凈輸入(6) ;//計算每個單元j的輸出(7)

FOR輸出層每個單元(8)

; //計算誤差(9)

FOR由最后一個到第一個隱藏層,對于隱藏層每個單元j(10)

; //計算關(guān)于下一個較高層k的誤差(11)

FOR網(wǎng)絡(luò)中的每一個權(quán)(12)

;(13)

FOR網(wǎng)絡(luò)中每個單元偏量(14)

神經(jīng)網(wǎng)絡(luò)算法入門【】【例7-5】假設(shè)訓(xùn)練樣本s的屬性值為{1,0,1},實際類別分別為1,兩層前饋神經(jīng)網(wǎng)絡(luò)NT如圖7.4所示,NT中每條有一向加權(quán)邊的權(quán)重、每個隱藏層與輸出層單元的偏置如表7-11所示,學習率為0.9。寫出輸入S訓(xùn)練NT的過程。神經(jīng)網(wǎng)絡(luò)算法入門【】首先算出單元4、5、6的輸入、輸出,具體結(jié)果見表7-12,然后計算4、5、6的誤差,見表7-13;NT中每條有向加權(quán)邊的新權(quán)重、每個隱藏層與輸出層單元的新偏置見表7-14。圖7.4兩層前饋神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)算法入門【】表7-11權(quán)重、單元的偏置神經(jīng)網(wǎng)絡(luò)算法入門【】單元j輸入Ij輸出Oj40.2×1+0.4×0+(-0.5)×1+(-0.4)=-0.71/(l+e-(-0.7))=0.3325(-0.3)×l+0.1×0+0.2×1+0.2=0.11/(l+e-0.1)=0.5256(-0.3)×0.332+(-0.2)×0.525+0.1=-0.1051/(l+e-(-0.105))=0.474表7-12隱藏層與輸出層每個單元的輸入、輸出神經(jīng)網(wǎng)絡(luò)算法入門【】單元j誤差

60.474×(1-0.474)×(l-0.474)=0.131150.525×(l-0.525)×(0.1311×(-

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論