有監(jiān)督和神經(jīng)網(wǎng)絡(luò)_第1頁(yè)
有監(jiān)督和神經(jīng)網(wǎng)絡(luò)_第2頁(yè)
有監(jiān)督和神經(jīng)網(wǎng)絡(luò)_第3頁(yè)
有監(jiān)督和神經(jīng)網(wǎng)絡(luò)_第4頁(yè)
有監(jiān)督和神經(jīng)網(wǎng)絡(luò)_第5頁(yè)
已閱讀5頁(yè),還剩11頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

有監(jiān)督和神經(jīng)網(wǎng)絡(luò)第1頁(yè),課件共16頁(yè),創(chuàng)作于2023年2月●神經(jīng)元網(wǎng)絡(luò)的簡(jiǎn)化模型第2頁(yè),課件共16頁(yè),創(chuàng)作于2023年2月ai1ai2ainbi1bi2bimwiy1y2ynu1ukum1vixiyi●神經(jīng)元網(wǎng)絡(luò)的一般模型框架1)加法器2)線性動(dòng)態(tài)系統(tǒng)(SISO)3)靜態(tài)非線性系統(tǒng)︰︰第3頁(yè),課件共16頁(yè),創(chuàng)作于2023年2月式中aij和bik為權(quán)系數(shù),i,j=1,2,…,n,k=1,2,…m.n個(gè)加法器可以寫成向量形式:——N維列向量——N維列向量(單元輸出)——N×N維矩陣——N×M維矩陣

——M維列向量(外部輸入)——M維常向量第4頁(yè),課件共16頁(yè),創(chuàng)作于2023年2月▲線性動(dòng)態(tài)系統(tǒng)典型的有:▲靜態(tài)非線性系統(tǒng)典型的有:g(x)g(x)g(x)xxx閾值函數(shù)閾值函數(shù)Sigmoid函數(shù)第5頁(yè),課件共16頁(yè),創(chuàng)作于2023年2月∑∑(雙極型)Sigmoidu1uiiu1uiiyiyiAdline(自適應(yīng)線性網(wǎng))單層感知器(Perceptron)▲不同的部件可以組成不同的網(wǎng)絡(luò)︰︰第6頁(yè),課件共16頁(yè),創(chuàng)作于2023年2月Kuiyjyi離散Hopfield網(wǎng)y1y2y3y4u1u2u3u4第7頁(yè),課件共16頁(yè),創(chuàng)作于2023年2月yjyiuixi連續(xù)的Hopfield網(wǎng)●按學(xué)習(xí)的方法神經(jīng)元網(wǎng)絡(luò)可分成二類:

1)有監(jiān)督的學(xué)習(xí)網(wǎng)絡(luò):感知器誤差反傳網(wǎng)絡(luò)(BP)小腦模型連接控制器(CMAC)模塊(組合)網(wǎng)絡(luò)增強(qiáng)學(xué)習(xí)網(wǎng)絡(luò)第8頁(yè),課件共16頁(yè),創(chuàng)作于2023年2月●有監(jiān)督的神經(jīng)網(wǎng)絡(luò)1)感知器網(wǎng)絡(luò)感知器是前饋(正向傳輸)網(wǎng)絡(luò),所有節(jié)點(diǎn)都是線性的.●●●●●●●●●●●●x1x2xnb1b2bm權(quán)向量W2)無監(jiān)督學(xué)習(xí)網(wǎng)絡(luò)競(jìng)爭(zhēng)學(xué)習(xí)和Kohonen網(wǎng)絡(luò)

Hopfield網(wǎng)絡(luò)雙向聯(lián)想存貯器(BAM)

Boltzman機(jī)第9頁(yè),課件共16頁(yè),創(chuàng)作于2023年2月輸入與輸出的關(guān)系:權(quán)矩陣可以按下式求解:學(xué)習(xí)規(guī)則:代表輸入與輸出的差別。是學(xué)習(xí)因子這學(xué)習(xí)規(guī)則即是著名的學(xué)習(xí)規(guī)則。隨著學(xué)習(xí)迭代次數(shù)k的增加,保證網(wǎng)絡(luò)的收斂?!穹磦鳎˙P)網(wǎng)絡(luò)誤差反傳(學(xué)習(xí)算法)(BP)網(wǎng)絡(luò)與感知器的主要差別在于:(BP)網(wǎng)絡(luò)的節(jié)點(diǎn)是非線性的。采用廣義

學(xué)習(xí)規(guī)則。第10頁(yè),課件共16頁(yè),創(chuàng)作于2023年2月●反傳(BP)網(wǎng)絡(luò)的結(jié)構(gòu)圖一個(gè)輸入層,一個(gè)輸出層,多個(gè)隱層。jpp1xp1xpntpk

tpmOp1OpnOp2隱層wj1wjn輸入層隱層輸出層信息流······pm第11頁(yè),課件共16頁(yè),創(chuàng)作于2023年2月隱層節(jié)點(diǎn)j輸出和輸入節(jié)點(diǎn)p的關(guān)系:輸出節(jié)點(diǎn)k和隱層輸出節(jié)點(diǎn)p的關(guān)系:學(xué)習(xí)過程:定義輸出誤差第12頁(yè),課件共16頁(yè),創(chuàng)作于2023年2月學(xué)習(xí)的目的是要使以下定義的誤差平方和最?。阂虼?,要求以下的偏導(dǎo),最后得到二個(gè)權(quán)值改變的重要公式:第13頁(yè),課件共16頁(yè),創(chuàng)作于2023年2月初始化加輸入和期望輸出計(jì)算隱層和輸出層的輸出迭代次數(shù)加1調(diào)節(jié)輸出層和隱層的連接權(quán)值改變訓(xùn)練樣板訓(xùn)練樣終止?迭代終止?BP算法的基本流程N(yùn)oNoyy第14頁(yè),課件共16頁(yè),創(chuàng)作于2023年2月重要結(jié)論

具有至少一個(gè)隱層的多層前饋網(wǎng)絡(luò),如果隱層單元足夠多,那么,利用扁平激勵(lì)函數(shù)和線性多項(xiàng)式集成函數(shù),可以對(duì)任意感興趣的函數(shù)逼成到任意精度。扁平激勵(lì)函數(shù)定義:f:R[0,1]或[-1,1]是非減函數(shù),

扁平激勵(lì)函數(shù)的參數(shù).理論證明:多層前饋網(wǎng)絡(luò)是一種通用逼近器

第15頁(yè),課件共16頁(yè),創(chuàng)作于2023年2月討論隱層的數(shù)目和節(jié)點(diǎn)的數(shù)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論