基于神經(jīng)網(wǎng)絡(luò)的智能控制系統(tǒng)_第1頁
基于神經(jīng)網(wǎng)絡(luò)的智能控制系統(tǒng)_第2頁
基于神經(jīng)網(wǎng)絡(luò)的智能控制系統(tǒng)_第3頁
基于神經(jīng)網(wǎng)絡(luò)的智能控制系統(tǒng)_第4頁
基于神經(jīng)網(wǎng)絡(luò)的智能控制系統(tǒng)_第5頁
已閱讀5頁,還剩34頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、智能控制理論及其應(yīng)用信息學(xué)院尤富強4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) 按照神經(jīng)網(wǎng)絡(luò)的拓撲結(jié)構(gòu)與學(xué)習算法相結(jié)按照神經(jīng)網(wǎng)絡(luò)的拓撲結(jié)構(gòu)與學(xué)習算法相結(jié)合的方法可將神經(jīng)網(wǎng)絡(luò)的類型分為前饋網(wǎng)絡(luò)、競合的方法可將神經(jīng)網(wǎng)絡(luò)的類型分為前饋網(wǎng)絡(luò)、競爭網(wǎng)絡(luò)、反饋網(wǎng)絡(luò)和隨機網(wǎng)絡(luò)四大類。爭網(wǎng)絡(luò)、反饋網(wǎng)絡(luò)和隨機網(wǎng)絡(luò)四大類。4.4.1 BP神經(jīng)網(wǎng)絡(luò) 19861986年,年,D. E. RumelhartD. E. Rumelhart和和J. L. McClellandJ. L. McClelland提出了提出了一種利用誤差反向傳播訓(xùn)練算法的神經(jīng)網(wǎng)絡(luò),簡稱一種利用誤差反向傳播訓(xùn)練算法的神經(jīng)網(wǎng)絡(luò),簡稱BP(BackBP(Back Pro

2、pagation)Propagation)網(wǎng)絡(luò),是一種有隱含層的多層前饋網(wǎng)絡(luò),系網(wǎng)絡(luò),是一種有隱含層的多層前饋網(wǎng)絡(luò),系統(tǒng)地解決了多層網(wǎng)絡(luò)中隱含單元連接權(quán)的學(xué)習問題。統(tǒng)地解決了多層網(wǎng)絡(luò)中隱含單元連接權(quán)的學(xué)習問題。(1) BP算法原理 BPBP學(xué)習算法的基本原理是梯度最速下降法,它的中心思學(xué)習算法的基本原理是梯度最速下降法,它的中心思想是調(diào)整權(quán)值使網(wǎng)絡(luò)總誤差最小。想是調(diào)整權(quán)值使網(wǎng)絡(luò)總誤差最小。 4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (1) BP算法原理 多層網(wǎng)絡(luò)運用多層網(wǎng)絡(luò)運用BPBP學(xué)習算法時,實際上包含了正向和反向?qū)W習算法時,實際上包含了正向和反向傳播兩個階段。在正向傳播過程中,輸入信息從輸入層經(jīng)傳播兩

3、個階段。在正向傳播過程中,輸入信息從輸入層經(jīng)隱含層逐層處理,并傳向輸出層,每一層神經(jīng)元的狀態(tài)只隱含層逐層處理,并傳向輸出層,每一層神經(jīng)元的狀態(tài)只影響下一層神經(jīng)元的狀態(tài)。如果在輸出層不能得到期望輸影響下一層神經(jīng)元的狀態(tài)。如果在輸出層不能得到期望輸出,則轉(zhuǎn)入反向傳播,將誤差信號沿原來的連接通道返回,出,則轉(zhuǎn)入反向傳播,將誤差信號沿原來的連接通道返回,通過修改各層神經(jīng)元的權(quán)值,使誤差信號最小。通過修改各層神經(jīng)元的權(quán)值,使誤差信號最小。 這種網(wǎng)絡(luò)沒有反饋存在,實際運行仍是單向的,所以這種網(wǎng)絡(luò)沒有反饋存在,實際運行仍是單向的,所以不能將其看成是一非線性動力學(xué)系統(tǒng),而只是一種非線性不能將其看成是一非線性動

4、力學(xué)系統(tǒng),而只是一種非線性映射關(guān)系。具有隱含層映射關(guān)系。具有隱含層BPBP網(wǎng)絡(luò)的結(jié)構(gòu)如圖網(wǎng)絡(luò)的結(jié)構(gòu)如圖4-94-9所示。所示。 (1)BP算法原理4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) 目標函數(shù): 函數(shù)為Sigmoid函數(shù):正向推算過程:(1)隱層輸出 (2)網(wǎng)絡(luò)輸出 4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (1)BP算法原理(2)BP算法的計算步驟 1) 計算一個輸出單元活性改變時的誤差導(dǎo)數(shù)EA,即實際輸出與期望輸出的差值 2)計算一個單元所接受總輸入變化時的誤差導(dǎo)數(shù)EI,EI實際上等于上述步驟1)的結(jié)果乘以一個單元的總輸入變化時其輸出的變化率,即4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (2)BP算法的計算步驟 3)計算一個與

5、輸出單元聯(lián)接權(quán)值改變時的誤差變化率EW 4)為了計算對誤差總的影響,把對各輸出單元的所有單獨影響相加 4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (2)BP算法的計算步驟 運用步驟2)和4),可把一層單元的EA變成前面一層單元的EA,為了得到期望的前面各層的EA,可重復(fù)此計算步驟。當?shù)玫揭粋€單元的EA后,可用步驟2)和3)來計算作用于它的輸入聯(lián)接上的EW。4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (3)BP算法的計算機實現(xiàn)流程 1) 初始化,對所有權(quán)值賦以隨機任意小值,并對閾值設(shè)定初值; 2) 給定訓(xùn)練數(shù)據(jù)集,即提供輸入向量 和期望輸出 ; 3) 計算實際輸出 Xyy4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (3)BP算法的計算機實現(xiàn)流

6、程 4) 調(diào)整權(quán)值,按誤差反向傳播方向,從輸出節(jié)點開始返回到隱層按下式修正權(quán)值 其中: 5) 返回第2)步重復(fù),直至誤差滿足要求為止。4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (4)使用BP算法應(yīng)注意的幾個問題 學(xué)習速率 的選擇非常重要。 在設(shè)置各訓(xùn)練樣本的期望輸出分量時,不能設(shè)置為1或0,以設(shè)置為 0.9或0.1較為適宜。 若實際問題給予網(wǎng)絡(luò)的輸入量較大,需做歸一化處理,網(wǎng)絡(luò)的輸出也要進行相應(yīng)的處理。 各加權(quán)系數(shù)的初值以設(shè)置為隨機數(shù)為宜。 在學(xué)習過程中,應(yīng)盡量避免落入某些局部最小值點上,引入慣性項有可能使網(wǎng)絡(luò)避免落入某一局部最小值。 4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (5)BP網(wǎng)絡(luò)的優(yōu)缺點1)BP網(wǎng)絡(luò)主要網(wǎng)絡(luò)主

7、要: 只要有足夠多的隱含層和隱節(jié)點,BP網(wǎng)絡(luò)可以逼近任意的非線性映射關(guān)系; BP網(wǎng)絡(luò)的學(xué)習算法屬于全局逼近的方法,因而它具有較好的泛化能力。2)BP網(wǎng)絡(luò)的主要網(wǎng)絡(luò)的主要: 收斂速度慢; 局部權(quán)值; 難以確定隱含層和隱節(jié)點的個數(shù)。4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (6)典型的BP網(wǎng)絡(luò)改進算法 1) 引入慣性項 輸出層的任意神經(jīng)元 k 在樣本p 作用時的加權(quán)系數(shù)改進公式為 隱含層的任意神經(jīng)元 i 在樣本p 作用時的加權(quán)系數(shù)改進公式為4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (6)典型的BP網(wǎng)絡(luò)改進算法2)引入動量項 加入的動量項實質(zhì)上相當于阻尼項收斂性式中, 既可表示單個的連接權(quán)系數(shù); 為 時刻的負梯度: 是 時刻的

8、負梯度: 為學(xué)習速率, ; 為動量項因子, 。 )(kw)()(kwJkDk) 1( kD1k0104.4 幾種典型的神經(jīng)網(wǎng)絡(luò) 4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) 4.4.2 徑向基神經(jīng)網(wǎng)絡(luò)徑向基神經(jīng)網(wǎng)絡(luò) 1985年,Powell提出了多變量插值的徑向基函數(shù)(Radial Basis Function,RBF)方法。 徑向基函數(shù)網(wǎng)絡(luò)比BP網(wǎng)絡(luò)需要更多的神經(jīng)元,但是它能夠按時間片來訓(xùn)練網(wǎng)絡(luò)。徑向基網(wǎng)絡(luò)是一種局部逼近網(wǎng)絡(luò),已證明它能以任意精度逼近任一連續(xù)函數(shù)。4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) 4.4.2 徑向基神經(jīng)網(wǎng)絡(luò)徑向基神經(jīng)網(wǎng)絡(luò) 構(gòu)成RBF網(wǎng)絡(luò)的:用RBF作為隱單元的“基”構(gòu)成隱含層空間,這樣就可將輸入矢量

9、直接(即不通過權(quán)連接)映射到隱空間。當RBF的中心點確定以后,這種映射關(guān)系也就確定了。而隱含層空間到輸出空間的映射是線性的,即網(wǎng)絡(luò)的輸出是隱單元輸出的線性加權(quán)和。此處的權(quán)即為網(wǎng)絡(luò)可調(diào)參數(shù)。4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) 4.4.2 徑向基神經(jīng)網(wǎng)絡(luò)徑向基神經(jīng)網(wǎng)絡(luò) (1)徑向基函數(shù)網(wǎng)絡(luò)模型 RBF網(wǎng)絡(luò)由兩層組成,其結(jié)構(gòu)如圖4-10所示。4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) 4.4.2 徑向基神經(jīng)網(wǎng)絡(luò)徑向基神經(jīng)網(wǎng)絡(luò) (1)徑向基函數(shù)網(wǎng)絡(luò)模型 輸入層節(jié)點只是傳遞輸入信號到隱含層,隱含層節(jié)點由象高斯核函數(shù)那樣的輻射狀作用函數(shù)構(gòu)成,而輸出層節(jié)點通常是簡單的線性函數(shù)。隱含層節(jié)點中的作用函數(shù)(核函數(shù))對輸入信號將在局部產(chǎn)生

10、響應(yīng)。 4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (2)網(wǎng)絡(luò)輸出 RBF網(wǎng)絡(luò)的輸入層到隱含層實現(xiàn) 的非線性映射,徑向基網(wǎng)絡(luò)隱含層節(jié)點的作用函數(shù)一般取下列幾種形式)(xuxi4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (2)網(wǎng)絡(luò)輸出最常用的是高斯激活函數(shù) 采用高斯基函數(shù),具備如下優(yōu)點: 表示形式簡單,即使對于多變量輸入也不增加太多的復(fù)改性; 徑向?qū)ΨQ; 光滑性好,任意階導(dǎo)數(shù)存在; 由于該基函數(shù)表示簡單且解析性好,因而使于進行理論分析。4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (2)網(wǎng)絡(luò)輸出最常用的是高斯激活函數(shù) 采用高斯基函數(shù),具備如下優(yōu)點: 表示形式簡單,即使對于多變量輸入也不增加太多的復(fù)改性; 徑向?qū)ΨQ; 光滑性好,任意階導(dǎo)數(shù)存在;

11、由于該基函數(shù)表示簡單且解析性好,因而使于進行理論分析。4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (2)網(wǎng)絡(luò)輸出 考慮到提高網(wǎng)絡(luò)精度和減少隱含層節(jié)點數(shù),也可以將網(wǎng)絡(luò)激活函數(shù)改成多變量正態(tài)密度函數(shù) 式中, 是輸入?yún)f(xié)方差陣的逆。 RBF網(wǎng)絡(luò)的隱含層到輸出層實現(xiàn) 的線性映射,即)()(1iTicxcxEKkiyxu)(4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (2)網(wǎng)絡(luò)輸出式中, 是隱含層第 個節(jié)點的輸出; 是輸出層第 個節(jié)點的輸出; 是隱含層到輸出層的加權(quán)系數(shù); 是輸出層的閥值; 是隱含層節(jié)點數(shù)。 iuikykkiwkq4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (3)RBF網(wǎng)絡(luò)的學(xué)習過程 RBF網(wǎng)絡(luò)的學(xué)習過程分為兩個階段。第一階段是無教師學(xué)

12、習;第二階段是有教師學(xué)習。1) (a) 給定各隱節(jié)點的初始中心向量 和判定停止計算的 (b) 計算距離(歐氏距離)并求出最小距離的節(jié)點;)0(ic4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (3)RBF網(wǎng)絡(luò)的學(xué)習過程 (c)調(diào)整中心 (d)判定聚類質(zhì)量 對于全部樣本 反復(fù)進行以上(b),(c)步,直至滿足以上條件。 k4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (3)RBF網(wǎng)絡(luò)的學(xué)習過程 2) 有教師學(xué)習也稱為有監(jiān)督學(xué)習。當 確定以后,訓(xùn)練由隱含層至輸出層之間的權(quán)值,由上可知,它是一個線性方程組,則求權(quán)值就成為線性優(yōu)化問題。 隱含層至輸出層之間的連接權(quán)值 學(xué)習算法為式中, , 為高斯函數(shù)。ickiwT21)()()(xuxu

13、xuuq)(xui4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (3)RBF網(wǎng)絡(luò)有關(guān)的幾個問題 從理論上而言,RBF網(wǎng)絡(luò)和BP網(wǎng)絡(luò)一樣可近似任何連續(xù)非線性函數(shù)。已證明RBF網(wǎng)絡(luò)具有惟一最佳通近的特性,且無局部極小。求RBF網(wǎng)絡(luò)隱節(jié)點的中心向量 和標準化常數(shù) 是一個困難的問題。徑向基函數(shù),即徑向?qū)ΨQ函數(shù)有多種。(RBF網(wǎng)絡(luò)雖具有惟一最佳逼近的特性以及無局部極小的優(yōu)點,但隱節(jié)點的中心難求,這是該網(wǎng)絡(luò)難以廣泛應(yīng)用的原因。RBF網(wǎng)絡(luò)學(xué)習速度很快,適于在線實時控制。 ici4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) 4.4.3 Hopfield網(wǎng)絡(luò)網(wǎng)絡(luò) 美國物理學(xué)家Hopfield在1982年首先提出了一種由非線性元件構(gòu)成的單層反饋網(wǎng)絡(luò)

14、系統(tǒng),稱這種單層反饋網(wǎng)絡(luò)為Hopfield網(wǎng)絡(luò)。圖4-11給出Hopfield網(wǎng)絡(luò)的一種結(jié)構(gòu)形式。 4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (1)Hopfield網(wǎng)絡(luò)模型 Hopfield網(wǎng)絡(luò)的拓撲結(jié)構(gòu)可看作全連接加權(quán)無向圖,它是一種網(wǎng)狀網(wǎng)絡(luò),可分為離散和連續(xù)兩種類型。離散網(wǎng)絡(luò)的節(jié)點僅取+1和-1(或0和1)兩個值,而連續(xù)網(wǎng)絡(luò)取0和1之間任一實數(shù)。 設(shè)此網(wǎng)絡(luò)含有 個神經(jīng)元,神經(jīng)元 的狀態(tài) 取0或1,各神經(jīng)元按下列規(guī)則隨機地、異步地改變狀態(tài) niiS4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (1)Hopfield網(wǎng)絡(luò)模型 Hopfield網(wǎng)絡(luò)模型的:只要由神經(jīng)元興奮的算法和聯(lián)接權(quán)系數(shù)所決定的神經(jīng)網(wǎng)絡(luò)的狀態(tài),在適當給定的興

15、奮模式下尚未達到穩(wěn)定狀態(tài),那么該狀態(tài)就會一直變化下去,直到預(yù)先定義的一個必定減小的能量函數(shù)達到極小值時,狀態(tài)才達到穩(wěn)定而不再變化。 4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (2)Hopfield網(wǎng)絡(luò)的聯(lián)想記憶功能 Hopfield網(wǎng)絡(luò)的聯(lián)想記憶過程,從動力學(xué)的角度就是非線性動力學(xué)系統(tǒng)朝著某個穩(wěn)定狀態(tài)運行的過程,這一過程可分為和兩個階段。 在給定樣本的條件下,按照Hebb學(xué)習規(guī)則,調(diào)整聯(lián)接權(quán)值,使得存儲的樣本成為動力學(xué)的吸引子,這個過程就是學(xué)習階段。而聯(lián)想是指在已調(diào)整好權(quán)值不變的情況下,給出部分不全或受了干擾的信息,按照動力學(xué)規(guī)則改變神經(jīng)元的狀態(tài),使系統(tǒng)最終變到動力學(xué)的吸引子。即指收斂于某一點,或周期性迭代

16、(極限環(huán)),或處于混沌狀態(tài)。4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (2)Hopfield網(wǎng)絡(luò)的聯(lián)想記憶功能 Hopfield網(wǎng)絡(luò)用于聯(lián)想記憶的學(xué)習算法,本算法取偏流I為零。 1) 按照Hebb規(guī)則設(shè)置權(quán)值 2) 對未知樣本初始化4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (2)Hopfield網(wǎng)絡(luò)的聯(lián)想記憶功能 3) 迭代計算 直至節(jié)點輸出狀態(tài)不改變時,迭代結(jié)束。此時節(jié)點的輸出狀態(tài)即為未知輸入最佳匹配的樣本。 4) 返回 2)繼續(xù)迭代。 4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (3)Hopfield網(wǎng)絡(luò)的的優(yōu)化計算功能 Hopfield網(wǎng)絡(luò)理論的認為,網(wǎng)絡(luò)從高能狀態(tài)轉(zhuǎn)移到最小能量狀態(tài),則達到收斂,獲得穩(wěn)定的解,完成網(wǎng)絡(luò)功能。Hop

17、field網(wǎng)絡(luò)所構(gòu)成的動力學(xué)系統(tǒng)與固體物理學(xué)模型自旋玻璃相似,可用二次能量函數(shù)來描述系統(tǒng)的狀態(tài),系統(tǒng)從高能狀態(tài)到低能的穩(wěn)定狀態(tài)的變化過程,相似于滿足約束問題的搜索最優(yōu)解的過程。4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) (3)Hopfield網(wǎng)絡(luò)的的優(yōu)化計算功能 Hopfield網(wǎng)絡(luò)可用于優(yōu)化問題的計算。Hopfield網(wǎng)絡(luò)用于優(yōu)化問題的計算與用于聯(lián)想記憶的計算過程是對偶的。在解決優(yōu)化問題時,權(quán)矩陣W已知,目的是求取最大能量正的穩(wěn)定狀態(tài)。為此,必須將待優(yōu)化的問題映射到網(wǎng)絡(luò)的相應(yīng)于優(yōu)化問題可能解的特定組態(tài)上,再構(gòu)造一待優(yōu)化問題的能量函數(shù),它應(yīng)和優(yōu)化問題中的二次型代價函數(shù)成正比例。 4.4 幾種典型的神經(jīng)網(wǎng)絡(luò) 4.4.4 小腦模型關(guān)聯(lián)控制器小腦模型關(guān)聯(lián)控制器CMAC網(wǎng)絡(luò)網(wǎng)絡(luò) 1975年,Albus根據(jù)神經(jīng)生理學(xué)小腦皮層結(jié)構(gòu)特點,提出了一種小腦模型關(guān)聯(lián)控制器(Cerebellum Model Articulation Controller),簡記為CMAC網(wǎng)絡(luò)。經(jīng)過多年的研究,其中包括Mille

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論