




已閱讀5頁,還剩40頁未讀, 繼續(xù)免費(fèi)閱讀
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
神經(jīng)網(wǎng)絡(luò)和模糊系統(tǒng),第五章 突觸動力學(xué):有監(jiān)督的學(xué)習(xí) 張文革 2006.11,突觸動力學(xué):有監(jiān)督的學(xué)習(xí),本章內(nèi)容: 一、預(yù)備知識 二、有監(jiān)督的函數(shù)估計 三、監(jiān)督學(xué)習(xí)就是有效的訓(xùn)練 四、已知類隸屬度的監(jiān)督學(xué)習(xí) 五、感知器、MLS和BP算法,一、預(yù)備知識(1),1、生物神經(jīng)元模型 神經(jīng)元是腦組織的基本單元,人腦是由大約140多億個神經(jīng)元組成的巨系統(tǒng)。神經(jīng)元的結(jié)構(gòu)如下圖所示:,一、預(yù)備知識(2),2、神經(jīng)元的突觸: 突觸是兩個細(xì)胞之間連接的基本單元,每個細(xì)胞約有 個突觸。突觸主要有兩種連接方式: 一是一個神經(jīng)細(xì)胞的軸突與另一個神經(jīng)細(xì)胞的樹突發(fā)生接觸; 二是一個神經(jīng)細(xì)胞的軸突與另一個神經(jīng)細(xì)胞的胞體接觸。,一、預(yù)備知識(3),突觸有兩種類型: 興奮型和抑制型。 突觸的界面具有脈沖/電位信號轉(zhuǎn)換功能,它能將沿神經(jīng)纖維傳遞的等幅、恒寬、編碼的離散脈沖信號,轉(zhuǎn)換為細(xì)胞膜可以處理的連續(xù)電位信號。,一、預(yù)備知識(4),3、突觸動力學(xué): 突觸能夠傳遞神經(jīng)沖動。樹突從四方收集由其它神經(jīng)細(xì)胞傳來的信息,信息流由樹突出發(fā),經(jīng)過細(xì)胞體,然后由軸突輸出。信息傳遞在突觸處主要是發(fā)生化學(xué)和電的變化,從而對神經(jīng)細(xì)胞產(chǎn)生一個興奮或抑制的動力。,一、預(yù)備知識(5),4、人工神經(jīng)網(wǎng)絡(luò)的分類: 人工神經(jīng)網(wǎng)絡(luò)的分類有多種方法,但通常采用如下分類: 按網(wǎng)絡(luò)結(jié)構(gòu)分為:前饋網(wǎng)絡(luò)和反饋網(wǎng)絡(luò); 按學(xué)習(xí)方式分為:監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí),也叫有導(dǎo)師學(xué)習(xí)和無導(dǎo)師學(xué)習(xí)。 本章主要論述前饋網(wǎng)絡(luò)的監(jiān)督學(xué)習(xí)算法。,一、預(yù)備知識(6),5、什么是學(xué)習(xí)? 學(xué)習(xí)就是對信息進(jìn)行編碼,其目的就是通過向有限個例子(訓(xùn)練樣本)的學(xué)習(xí)來找到隱藏在例子背后(即產(chǎn)生這些例子)的規(guī)律(如函數(shù)形式)。 當(dāng)樣本數(shù)據(jù)改變系統(tǒng)參數(shù)時,系統(tǒng)會對這些改變進(jìn)行自適應(yīng)或自組織的學(xué)習(xí),在神經(jīng)網(wǎng)絡(luò)中表現(xiàn)為突觸的改變。 按突觸修正假說,神經(jīng)網(wǎng)絡(luò)在拓?fù)浣Y(jié)構(gòu)固定時,其學(xué)習(xí)歸結(jié)為連接權(quán)的變化。 所以,對固定拓?fù)涞纳窠?jīng)網(wǎng)絡(luò),學(xué)習(xí)就是求權(quán)值,即突觸矩陣。,一、預(yù)備知識(7),6、什么是監(jiān)督? 監(jiān)督就是對每一個輸入Xi,都假定我們已經(jīng)知道它的期望輸出Yi,這個Yi可以理解為監(jiān)督信號,也叫“教師信號”。 對每一個輸入Xi及其對其估計的期望輸出Yi,就構(gòu)成了一個訓(xùn)練樣本。,一、預(yù)備知識(8),7、學(xué)習(xí)的種類: 學(xué)習(xí)的種類有四種:死記式學(xué)習(xí), 學(xué)習(xí)律,自組織的學(xué)習(xí)和Hebbian學(xué)習(xí)律,相近學(xué)習(xí)。 由于監(jiān)督學(xué)習(xí)主要使用的是 學(xué)習(xí)律,所以,在此主要介紹 學(xué)習(xí)律。,一、預(yù)備知識(9),8、 學(xué)習(xí)律 這種方法是用已知例子作為教師對網(wǎng)絡(luò)的權(quán)進(jìn)行學(xué)習(xí)。其規(guī)則是通過神經(jīng)網(wǎng)絡(luò)理想輸出和實際輸出之間的誤差來修正網(wǎng)絡(luò)的權(quán)值。在很多神經(jīng)網(wǎng)絡(luò)中,都采用了這種學(xué)習(xí)方法,如Perceptron, Adaline和Back-propagation算法等。,一、預(yù)備知識(10),9、有監(jiān)督的學(xué)習(xí) 有監(jiān)督的學(xué)習(xí)就是根據(jù)這若干組訓(xùn)練樣本 ,對人工神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,利用學(xué)習(xí)系統(tǒng)的誤差( EJ ,為期望輸出與實際輸出之差),不斷校正學(xué)習(xí)系統(tǒng)的行為(即突觸權(quán)值),使誤差盡可能地小,從而估計出神經(jīng)元函數(shù):f : xy。 所以,監(jiān)督學(xué)習(xí)的最終任務(wù),就是通過使系統(tǒng)誤差盡可能地小,不斷地調(diào)整突觸權(quán)值,最終求出神經(jīng)元函數(shù)f。,一、預(yù)備知識(11),10、監(jiān)督學(xué)習(xí)與非監(jiān)督學(xué)習(xí)的區(qū)別: 在監(jiān)督學(xué)習(xí)中,假定我們知道每一輸入對應(yīng)的期望輸出,并利用學(xué)習(xí)系統(tǒng)的誤差,不斷校正系統(tǒng)的行為; 在非監(jiān)督學(xué)習(xí)中,我們不知道學(xué)習(xí)系統(tǒng)的期望輸出。,11、前饋神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)示意圖,特點:各神經(jīng)元接受前一級輸入,并輸出到下一級,無反饋。輸入、輸出節(jié)點稱為可見層,其它中間層稱為隱層。,12、監(jiān)督學(xué)習(xí)流圖,其關(guān)鍵之處,就是將教師信號加入到了網(wǎng)絡(luò)中.,二、有監(jiān)督的函數(shù)估計(1),在學(xué)習(xí)之前,神經(jīng)網(wǎng)絡(luò)猶如一個黑盒子,我們能做的,就是可以給它加一定的輸入 Xi,再給每個輸入Xi提供一個期望輸出Yi,即“教師信號”,從而形成了一系列的樣本對(Xi,Yi)。 有監(jiān)督的函數(shù)估計,就是通過包含“教師信號”的樣本對(Xi,Yi),求出神經(jīng)網(wǎng)絡(luò)的傳輸函數(shù) f 的近似表達(dá)式。,二、有監(jiān)督的函數(shù)估計(2),采用的方法,就是利用誤差函數(shù)EJ(期望輸出與實際輸出的差值),不斷調(diào)整ANN的突觸權(quán)值,使EJ達(dá)到最小,從而達(dá)到對ANN函數(shù)的估計。,二、有監(jiān)督的函數(shù)估計(3),已知隨機(jī)樣本矢量對 通過實驗可以測出實際輸出 求出EJ= - 然后通過使EJ最小而修改突觸權(quán)值來求出f: 其中F是要估計的ANN函數(shù); 是輸入空間; 是輸出空間。,三、監(jiān)督學(xué)習(xí)就是有效的訓(xùn)練,有效訓(xùn)練是指,對具有記憶功能的系統(tǒng),當(dāng)使用訓(xùn)練樣本對其進(jìn)行學(xué)習(xí)之后,系統(tǒng)能夠記住所學(xué)的方法,并能處理類似的問題。 對ANN進(jìn)行有監(jiān)督的學(xué)習(xí)就是有記憶功能的系統(tǒng)。也就是說,使用期望輸出與實際輸出的誤差不斷校正其突觸權(quán)值,最終的結(jié)果,就是系統(tǒng)具備了一定的功能,訓(xùn)練取得了一定的成效。就像巴普洛夫條件反射試驗一樣。,四、已知類隸屬度的監(jiān)督學(xué)習(xí)(1),就是用已知的模式類的隸屬度函數(shù),來調(diào)整系統(tǒng)的突觸權(quán)值,從而達(dá)到學(xué)習(xí)的目的。 比如,在噪聲隨機(jī)競爭學(xué)習(xí)定律中,由于沒有使用類成員信息校正突觸矢量,所以是非監(jiān)督學(xué)習(xí)。,四、已知類隸屬度的監(jiān)督學(xué)習(xí)(2),噪聲隨機(jī)競爭學(xué)習(xí)定律為: 它實際上就是在隨機(jī)競爭學(xué)習(xí)中加入了噪聲ni。其規(guī)律為:若第j個神經(jīng)元獲勝,則學(xué)新忘舊;若第j個神經(jīng)元失敗,則不學(xué)新也不忘舊。 其不足是:未使用已知模式類X的隸屬度信息。 如果使用了類成員信息校正突觸矢量,就成了監(jiān)督學(xué)習(xí)。因為是監(jiān)督學(xué)習(xí),有“教師”信號,我們預(yù)先就知道其期望分類,所以實行了獎懲機(jī)制:若分對,則獎勵;分錯則懲罰。,四、已知類隸屬度的監(jiān)督學(xué)習(xí)(3),而對應(yīng)的監(jiān)督隨機(jī)競爭學(xué)習(xí)定律為: 增強(qiáng)函數(shù)為: 若x屬于Dj,上式中第一項為+1,說明是分對了;若x不屬于Dj,上式中第二項為-1,說明是分錯了。獎勵正確的模式分類1,懲罰錯誤的模式分類為1,從而調(diào)整權(quán)值,達(dá)到學(xué)習(xí)的目的。,五、感知器學(xué)習(xí)算法(1),1、感知器拓?fù)浣Y(jié)構(gòu),五、感知器學(xué)習(xí)算法(2),2、感知器學(xué)習(xí) 網(wǎng)絡(luò)用誤差修正規(guī)則( 規(guī)則)學(xué)習(xí),訓(xùn)練樣本對為( , )k=1,2,m.第k個模式對應(yīng)的輸入向量 =( , )為模擬值模式,輸出向量 =( , , )為二值模式。網(wǎng)絡(luò)中, 層的n個單元對應(yīng)模式 的n個分量 , 層的p個單元對應(yīng)模式 的P個分量. 所以,感知器最突出的一個特點便是:輸入是模擬向量,輸出是二值模式。,五、感知器學(xué)習(xí)算法(3),由于 層中每個單元只取值+1或-1,因此可將它視作輸入模式 (k=1,2m)兩個可能的分類。在學(xué)習(xí)開始 時,由各連接權(quán)決定的超平面隨機(jī)地被 放到N維空間。隨著學(xué)習(xí)的進(jìn)行,這個超平面漸漸移動,直到它能將兩類模式恰當(dāng)劃分為止。,五、感知器學(xué)習(xí)算法(4),3、算法過程 從隨機(jī)的權(quán)值開始; 反復(fù)應(yīng)用每個訓(xùn)練樣例到感知器,只要它誤分樣例,就修改感知器的權(quán)值; 重復(fù)這個過程,直到感知器正確分類所有的訓(xùn)練樣例為止。,五、感知器學(xué)習(xí)算法(5),4、具體算法: (1)初始化連接權(quán)。將 層到 層的連接權(quán) , i=1,2,n,j=1,2,p及 層單元閾值 j=1,2,p賦予-1,+1間的隨機(jī)值。 (2)對每一模式對( , )k=1,m,完成下面操作: A、將 的值送到 層單元, 層單元的輸出之加權(quán)和作為 層單元的輸入,計算 層單元的輸出:,五、感知器學(xué)習(xí)算法(6),上式中j=1p,f(x)為雙極階躍函數(shù) B、計算 層單元希望輸出與實際輸出間誤差,五、感知器學(xué)習(xí)算法(7),C、調(diào)整 層單元與 層單元之間的連接權(quán) 式中i=1n,j=1p,0 1 (3)重復(fù)步驟(2)直到誤差 (j=1p且k=1m)變得足夠小或變?yōu)?為止。,五、感知器學(xué)習(xí)算法(8),5、說明: 感知器算法,如果輸入模式是線性可分的,學(xué)習(xí)后能對輸入模式正確分類; 如果輸入模式本身是線性不可分的,那么學(xué)習(xí)后的網(wǎng)絡(luò)不能對輸入模式正確分類。,六、LMS算法(1),1、LMS就是最小均方誤差算法。它采用的準(zhǔn)則函數(shù)是均方誤差函數(shù)。 它通過調(diào)整單個神經(jīng)元的權(quán)值,以使誤差為最小,其數(shù)學(xué)基礎(chǔ)是誤差曲面上的梯度下降。 其學(xué)習(xí)過程也是根據(jù)教師信號計算其均方誤差,由均方誤差調(diào)整突觸向量,如此反復(fù),最后達(dá)到學(xué)習(xí)的目的。,六、LMS算法(2),2、權(quán)值調(diào)整公式: 其中 為下一次權(quán)值向量的取值, 為現(xiàn)在的權(quán)向量, 為現(xiàn)在的輸入向量, 為現(xiàn)在的誤差, 為系數(shù), 為輸入向量的模.,七、反向傳播網(wǎng)絡(luò)學(xué)習(xí)(1),1、定義:反向傳播神經(jīng)網(wǎng)絡(luò)(Back-Propagation Networks)簡稱BP模型。由于在這一神經(jīng)網(wǎng)絡(luò)模型中引入了中間隱含神經(jīng)元層,所以,標(biāo)準(zhǔn)的BP模型由三個神經(jīng)元層次組成,分別為輸入層、隱層和輸出層。各層次之間的神經(jīng)元形成全互連接,各層次內(nèi)的神經(jīng)元之間沒有連接。,七、反向傳播網(wǎng)絡(luò)學(xué)習(xí)(2),2、BP算法是通過使代價函數(shù)最小化的過程來完成輸入到輸出的映射。 代價函數(shù)有多種,但通常在BP算法中,將代價函數(shù)定義為期望輸出與實際輸出的誤差平方和。 在本算法中,將代價函數(shù)(期望輸出與實際輸出的誤差平方和)用與其等價的一般化誤差來代替,從而減小了運(yùn)算量。,七、反向傳播網(wǎng)絡(luò)學(xué)習(xí)(3),3、BP算法分成兩個階段 第一階段:正向傳播。 在正向傳播過程中,輸入信息從輸入層經(jīng)隱層逐層處理,并傳向輸出層,獲得各個單元的實際輸出,每一層神經(jīng)元的狀態(tài)只影響下一層神經(jīng)元的狀態(tài)。,七、反向傳播網(wǎng)絡(luò)學(xué)習(xí)(4),第二階段:反向傳播。 如果在輸出層未能得到期望的輸出,則轉(zhuǎn)入反向傳播,計算出輸出層各單元的一般化誤差,然后將這些誤差信號沿原來的連接通路返回,以獲得調(diào)整各連接權(quán)所需的各單元參考誤差,通過修改各層神經(jīng)元的權(quán)值,使得誤差信號最小。,七、反向傳播網(wǎng)絡(luò)學(xué)習(xí)(5),4、BP網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu),七、反向傳播網(wǎng)絡(luò)學(xué)習(xí)(6),5、BP算法: (1)初始化。將網(wǎng)絡(luò)中所有權(quán)值及閾值賦予(-1,+1)之間的隨機(jī)值; (2)對于樣本模式對( , )(k=1m)進(jìn)行如下操作: A)將 的值送到輸入層單元,通過連接權(quán)矩陣V送到隱層單元,產(chǎn)生隱層單元新的激活值 式中i=1p, f為S型函數(shù):,七、反向傳播網(wǎng)絡(luò)學(xué)習(xí)(7),B)計算輸出層單元的激活值 C)計算輸出層單元的一般化誤差 式中j=1q, 為輸出層單元j的期望輸出;,七、反向傳播網(wǎng)絡(luò)學(xué)習(xí)(8),D)計算隱含層單元對于每個 的誤差 式中i=1p;上式相當(dāng)于將輸出層單元的誤差反向傳播到隱含層; E)調(diào)整隱含層到輸出層的連接權(quán) 為學(xué)習(xí)率,0 1.,七、反向傳播網(wǎng)絡(luò)學(xué)習(xí)(9),F)調(diào)整輸入層到隱含層的連接權(quán) 式中h=1n,i=1p,0 1; G)調(diào)整輸出單元的閾值 式中j=1q;,七、反向傳播網(wǎng)絡(luò)學(xué)習(xí)(10),H)調(diào)整隱含層單元的閾值 (3)重復(fù)步驟(2),直到對于k=1,2,m,誤差 變得足夠小或為0為止。,七、反向傳播網(wǎng)絡(luò)學(xué)習(xí)(11),6、BP算法的優(yōu)點 (1) BP算法是一個很有效的算法,許多問題都可由它來解決。BP模型把一組樣本的I/O問題變?yōu)橐粋€非線性優(yōu)化問題,使用了優(yōu)化中最普通的梯度下降法,用迭代運(yùn)算求解權(quán)相應(yīng)于學(xué)習(xí)記憶問題,加入隱節(jié)點使優(yōu)化問題的可調(diào)參數(shù)增加,從而可得到更精確的解。,七、反向傳播網(wǎng)絡(luò)學(xué)
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 山東現(xiàn)代學(xué)院《建設(shè)項目投資與融資》2023-2024學(xué)年第二學(xué)期期末試卷
- 平頂山工業(yè)職業(yè)技術(shù)學(xué)院《傳熱學(xué)》2023-2024學(xué)年第二學(xué)期期末試卷
- 江西省豐城市2024-2025學(xué)年初三下學(xué)期第八次質(zhì)量監(jiān)測化學(xué)試題含解析
- 內(nèi)蒙古交通職業(yè)技術(shù)學(xué)院《云計算系統(tǒng)》2023-2024學(xué)年第二學(xué)期期末試卷
- 昆明醫(yī)科大學(xué)《中醫(yī)經(jīng)典專題講座》2023-2024學(xué)年第二學(xué)期期末試卷
- 四川省綿陽市安州區(qū)2024-2025學(xué)年初三下學(xué)期4月考生物試題含解析
- 遼寧工業(yè)大學(xué)《外國語言文學(xué)導(dǎo)論(2)》2023-2024學(xué)年第二學(xué)期期末試卷
- 四川交通職業(yè)技術(shù)學(xué)院《財務(wù)案例研究自學(xué)》2023-2024學(xué)年第二學(xué)期期末試卷
- 泉州幼兒師范高等專科學(xué)?!陡偹佥喕?023-2024學(xué)年第二學(xué)期期末試卷
- 四川省內(nèi)江市東興區(qū)市級名校2025屆初三下學(xué)期階段考試語文試題含解析
- 《十八項醫(yī)療核心制度》詳細(xì)解讀
- 《消防器材使用教程》課件
- 《波司登品牌國際化經(jīng)營存在的問題及優(yōu)化建議探析》11000字(論文)
- 《小兒靜脈穿刺》課件
- 軟件開發(fā)環(huán)境配置說明文檔
- 環(huán)保培訓(xùn)管理制度
- 動物園安全檢查匯報
- 中醫(yī)護(hù)理病歷書寫基本規(guī)范
- DB11-T 212-2024 園林綠化工程施工及驗收規(guī)范
- 《基于污水處理的斜生柵藻生長及其固碳性能研究》
- 托盤貿(mào)易合作合同范例
評論
0/150
提交評論