版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
2022/11/172.2.1單層感知器單層感知器模型f(v)x1······by=f(v)x2xiw1xmw2wmwi第1頁(yè)/共33頁(yè)2022/11/102.2.1單層感知器單層感知器模型f(v12022/11/172.2.1單層感知器單層感知器工作原理
單層感知器可將外部輸入分為兩類。當(dāng)感知器的輸出為+1時(shí),輸入屬于類,當(dāng)感知器的輸出為-1時(shí),輸入屬于類,從而實(shí)現(xiàn)兩類目標(biāo)的識(shí)別。在二維空間,單層感知器進(jìn)行模式識(shí)別的判決超平面由下式?jīng)Q定:
第2頁(yè)/共33頁(yè)2022/11/102.2.1單層感知器單層感知器工作原理第22022/11/172.2.1單層感知器單層感知器工作原理對(duì)于只有兩個(gè)輸入的判別邊界是直線(如下式所示),選擇合適的學(xué)習(xí)算法可訓(xùn)練出滿意的和,當(dāng)它用于兩類模式的分類時(shí),相當(dāng)于在高維樣本空間中,用一個(gè)超平面將兩類樣本分開(kāi)。第3頁(yè)/共33頁(yè)2022/11/102.2.1單層感知器單層感知器工作原理第32022/11/172.2.2單層感知器的學(xué)習(xí)算法單層感知器學(xué)習(xí)算法思想基于迭代的思想,通常是采用誤差校正學(xué)習(xí)規(guī)則的學(xué)習(xí)算法??梢詫⑵米鳛樯窠?jīng)元權(quán)值向量的第一個(gè)分量加到權(quán)值向量中,也可以設(shè)其值為0輸入向量和權(quán)值向量可分別寫(xiě)成如下的形式:令上式等于零,可得到在維空間的單層感知器的判別超平面。
第4頁(yè)/共33頁(yè)2022/11/102.2.2單層感知器的學(xué)習(xí)算法單層感知器42022/11/172.2.2單層感知器的學(xué)習(xí)算法單層感知器學(xué)習(xí)算法第一步,設(shè)置變量和參量。為激活函數(shù),為網(wǎng)絡(luò)實(shí)際輸出,為期望輸出,為學(xué)習(xí)速率,為迭代次數(shù),為實(shí)際輸出與期望輸出的誤差。第二步,初始化給權(quán)值向量的各個(gè)分量賦一個(gè)較小的隨機(jī)非零值,置第三步,輸入一組樣本,并給出 它的期望輸出。第四步,計(jì)算實(shí)際輸出:第五步,求出期望輸出和實(shí)際輸出求出差根據(jù)誤差判斷目前輸出是否滿足條件,一般為對(duì)所有樣本誤差為零或者均小于預(yù)設(shè)的值,則算法結(jié)束,否則將值增加1,并用下式調(diào)整權(quán)值:然后轉(zhuǎn)到第三步,進(jìn)入下一輪計(jì)算過(guò)程
第5頁(yè)/共33頁(yè)2022/11/102.2.2單層感知器的學(xué)習(xí)算法單層感知器52022/11/172.2.2單層感知器的學(xué)習(xí)算法學(xué)習(xí)算法實(shí)例:
構(gòu)建一個(gè)神經(jīng)元,它能夠?qū)崿F(xiàn)邏輯與操作x1 x2 d0 0 00 1 01 0 01 1
1邏輯“與”真值表第6頁(yè)/共33頁(yè)2022/11/102.2.2單層感知器的學(xué)習(xí)算法學(xué)習(xí)算法實(shí)62022/11/172.2.2單層感知器的學(xué)習(xí)算法確定權(quán)值和閾值w1=w2=b=第7頁(yè)/共33頁(yè)2022/11/102.2.2單層感知器的學(xué)習(xí)算法確定權(quán)值和72022/11/172.2.2單層感知器的學(xué)習(xí)算法設(shè)閾值為0.6,初始權(quán)值均為0.1,學(xué)習(xí)率為0.5,誤差值要求為0,神經(jīng)元的激活函數(shù)為硬限幅函數(shù),求權(quán)值w1與w2迭代次數(shù)樣本標(biāo)號(hào)輸入或權(quán)值標(biāo)號(hào)變量第8頁(yè)/共33頁(yè)2022/11/102.2.2單層感知器的學(xué)習(xí)算法設(shè)閾值為082022/11/17第9頁(yè)/共33頁(yè)2022/11/10第9頁(yè)/共33頁(yè)92022/11/17對(duì)于樣本1,輸出神經(jīng)元的輸入為:輸出神經(jīng)元的輸出為:第10頁(yè)/共33頁(yè)2022/11/10對(duì)于樣本1,輸出神經(jīng)元的輸入為:第10頁(yè)102022/11/172.2.2單層感知器的學(xué)習(xí)算法權(quán)值調(diào)整樣本2與3同樣本1,因輸出為0省略對(duì)于樣本4,輸出神經(jīng)元的輸入為:第11頁(yè)/共33頁(yè)2022/11/102.2.2單層感知器的學(xué)習(xí)算法權(quán)值調(diào)整第112022/11/172.2.2單層感知器的學(xué)習(xí)算法輸出神經(jīng)元的輸出為:權(quán)值調(diào)整:第12頁(yè)/共33頁(yè)2022/11/102.2.2單層感知器的學(xué)習(xí)算法輸出神經(jīng)元122022/11/172.2.2單層感知器的學(xué)習(xí)算法此時(shí)完成一次循環(huán)過(guò)程,由于誤差沒(méi)有達(dá)到0,返回第2步繼續(xù)循環(huán),在第二次循環(huán)中,前三個(gè)樣本輸入時(shí)因誤差均為0,所以沒(méi)有對(duì)權(quán)值進(jìn)行調(diào)整,各權(quán)值仍保持第一次循環(huán)的最后值,第四個(gè)樣本輸入時(shí)各參數(shù)值如下:第13頁(yè)/共33頁(yè)2022/11/102.2.2單層感知器的學(xué)習(xí)算法此時(shí)完成一132022/11/172.2.2單層感知器的學(xué)習(xí)算法第14頁(yè)/共33頁(yè)2022/11/102.2.2單層感知器的學(xué)習(xí)算法第14頁(yè)/142022/11/172.2.2單層感知器的學(xué)習(xí)算法計(jì)算誤差時(shí),對(duì)所有的樣本,網(wǎng)絡(luò)的輸出誤差均為0,達(dá)到預(yù)定的要求,訓(xùn)練結(jié)束第15頁(yè)/共33頁(yè)2022/11/102.2.2單層感知器的學(xué)習(xí)算法計(jì)算誤差時(shí)152022/11/172.2.3單層感知器的MATLAB實(shí)現(xiàn)MATLAB中單層感知器常用工具函數(shù)名稱和基本功能函數(shù)名功能newp()生成一個(gè)感知器hardlim()硬限幅激活函數(shù)learnp()感知器的學(xué)習(xí)函數(shù)train()神經(jīng)網(wǎng)絡(luò)訓(xùn)練函數(shù)sim()神經(jīng)網(wǎng)絡(luò)仿真函數(shù)mae()平均絕對(duì)誤差性能函數(shù)plotpv()在坐標(biāo)圖上繪出樣本點(diǎn)plotpc()在已繪制的圖上加分類線第16頁(yè)/共33頁(yè)2022/11/102.2.3單層感知器的MATLAB實(shí)162022/11/172.2.3單層感知器的MATLAB實(shí)現(xiàn)newp()功能:創(chuàng)建一個(gè)感知器神經(jīng)網(wǎng)絡(luò)的函數(shù)格式:net=newp(PR,S,TF,LF)說(shuō)明:net為生成的感知機(jī)神經(jīng)網(wǎng)絡(luò);PR為一個(gè)R×2的矩陣,由R組輸入向量中的最大值和最小值組成;S表示神經(jīng)元的個(gè)數(shù);TF表示感知器的激活函數(shù),缺省值為硬限幅激活函數(shù)hardlim;LF表示網(wǎng)絡(luò)的學(xué)習(xí)函數(shù),缺省值為learnphardlim()功能硬限幅激活函數(shù)格式A=hardlim(N)說(shuō)明函數(shù)hardlim(N)在給定網(wǎng)絡(luò)的輸入矢量矩陣N時(shí),返回該層的輸出矢量矩陣A。當(dāng)N中的元素大于等于零時(shí),返回的值為l;否則為0。也就是說(shuō),如果網(wǎng)絡(luò)的輸入達(dá)到閾值,則硬限幅傳輸函數(shù)的輸出為1;否則,為0。learnp()功能感知機(jī)的權(quán)值和閾值學(xué)習(xí)函數(shù)第17頁(yè)/共33頁(yè)2022/11/102.2.3單層感知器的MATLAB實(shí)172022/11/172.2.3單層感知器的MATLAB實(shí)現(xiàn)train()功能神經(jīng)網(wǎng)絡(luò)訓(xùn)練函數(shù)格式
[net,tr,Y,E,Pf,Af]=train(NET,P,T,Pi,Ai,VV,TV)說(shuō)明
net為訓(xùn)練后的網(wǎng)絡(luò);tr為訓(xùn)練記錄;Y為網(wǎng)絡(luò)輸出矢量;E為誤差矢量;Pf為訓(xùn)練終止時(shí)的輸入延遲狀態(tài);Af為訓(xùn)練終止時(shí)的層延遲狀態(tài);NET為訓(xùn)練前的網(wǎng)絡(luò);P為網(wǎng)絡(luò)的輸入向量矩陣;T表示網(wǎng)絡(luò)的目標(biāo)矩陣,缺省值為0;Pi表示初始輸入延時(shí),缺省值為0;Ai表示初始的層延時(shí),缺省值為0;VV為驗(yàn)證矢量(可省略);TV為測(cè)試矢量(可省略)。網(wǎng)絡(luò)訓(xùn)練函數(shù)是一種通用的學(xué)習(xí)函數(shù),訓(xùn)練函數(shù)重復(fù)地把一組輸入向量應(yīng)用到一個(gè)網(wǎng)絡(luò)上,每次都更新網(wǎng)絡(luò),直到達(dá)到了某種準(zhǔn)則,停止準(zhǔn)則可能是達(dá)到最大的學(xué)習(xí)步數(shù)、最小的誤差梯度或誤差目標(biāo)等。第18頁(yè)/共33頁(yè)2022/11/102.2.3單層感知器的MATLAB實(shí)182022/11/172.2.3單層感知器的MATLAB實(shí)現(xiàn)sim()功能對(duì)網(wǎng)絡(luò)進(jìn)行仿真格式(1)[Y,Pf,Af,E,perf]=sim(NET,P,Pi,Ai,T)(2)[Y,Pf,Af,E,perf]=sim(NET,{QTS},Pi,Ai,T)(3)[Y,Pf,Af,E,perf]=sim(NET,Q,Pi,Ai,T)說(shuō)明Y為網(wǎng)絡(luò)的輸出;Pf表示最終的輸入延時(shí)狀態(tài);Af表示最終的層延時(shí)狀態(tài);E為實(shí)際輸出與目標(biāo)矢量之間的誤差;perf為網(wǎng)絡(luò)的性能值;NET為要測(cè)試的網(wǎng)絡(luò)對(duì)象;P為網(wǎng)絡(luò)的輸入向量矩陣;Pi為初始的輸入延時(shí)狀態(tài)(可省略);Ai為初始的層延時(shí)狀態(tài)(可省略);T為目標(biāo)矢量(可省略)。式(1)、(2)用于沒(méi)有輸入的網(wǎng)絡(luò),其中Q為批處理數(shù)據(jù)的個(gè)數(shù),TS為網(wǎng)絡(luò)仿真的時(shí)間步數(shù)。第19頁(yè)/共33頁(yè)2022/11/102.2.3單層感知器的MATLAB實(shí)192022/11/172.2.3單層感知器的MATLAB實(shí)現(xiàn)mae()功能平均絕對(duì)誤差性能函數(shù)格式perf=mae(E,w,pp)說(shuō)明perf表示平均絕對(duì)誤差和,E為誤差矩陣或向量(網(wǎng)絡(luò)的目標(biāo)向量與輸出向量之差),w為所有權(quán)值和偏值向量(可忽略),pp為性能參數(shù)(可忽略)。第20頁(yè)/共33頁(yè)2022/11/102.2.3單層感知器的MATLAB實(shí)202022/11/172.2.3單層感知器的MATLAB實(shí)現(xiàn)plotpv()功能繪制樣本點(diǎn)的函數(shù)格式(1)plotpv(P,T)(2)plotpv(P,T,V)說(shuō)明P定義了n個(gè)2或3維的樣本,是一個(gè)2n維或3n維的矩陣;T表示各樣本點(diǎn)的類別,是一個(gè)n維的向量;V=[x_minx_maxy_miny_max],為一設(shè)置繪圖坐標(biāo)值范圍的向量。利用plotpv()函數(shù)可在坐標(biāo)圖中繪出給定的樣本點(diǎn)及其類別,不同的類別使用不同的符號(hào)。如果T只含一元矢量,則目標(biāo)為0的輸入矢量在坐標(biāo)圖中用符號(hào)"o"表示:目標(biāo)為1的輸入矢量在坐標(biāo)圖中用符號(hào)"+"表示。如果T含二元矢量,則輸入矢量在坐標(biāo)圖中所采用的符號(hào)分別如下:[00]用"o"表示;[01]用"+"表示:[10]用"*"表示;[11]用""表示。第21頁(yè)/共33頁(yè)2022/11/102.2.3單層感知器的MATLAB實(shí)212022/11/172.2.3單層感知器的MATLAB實(shí)現(xiàn)plotpc()功能在存在的圖上繪制出感知器的分類線函數(shù)格式(1)plotpc(W,B)(2)plotpc(W,B,H)說(shuō)明硬特性神經(jīng)元可將輸入空間用一條直線(如果神經(jīng)元有兩個(gè)輸入),或用一個(gè)平面(如果神經(jīng)元有三個(gè)輸入),或用一個(gè)超平面(如果神經(jīng)元有三個(gè)以上輸入)分成兩個(gè)區(qū)域。plotpc(W,B)對(duì)含權(quán)矩陣w和偏置矢量b的硬特性神經(jīng)元的兩個(gè)或三個(gè)輸入畫(huà)一個(gè)分類線。這一函數(shù)返回分類線的句柄以便以后調(diào)用。plotpc(W,B,H)包含從前的一次調(diào)用中返回的句柄。它在畫(huà)新分類線之前,刪除舊線。第22頁(yè)/共33頁(yè)2022/11/102.2.3單層感知器的MATLAB實(shí)222022/11/172.2.3單層感知器的MATLAB實(shí)現(xiàn)使用MATLAB實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)的步驟如下:第一步根據(jù)應(yīng)用創(chuàng)建一個(gè)神經(jīng)網(wǎng)絡(luò);第二步設(shè)定神經(jīng)網(wǎng)絡(luò)的訓(xùn)練參數(shù),利用給定樣本對(duì)創(chuàng)建的神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練;第三步輸入測(cè)試數(shù)據(jù),測(cè)試訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)的性能。例2-1:見(jiàn)《神經(jīng)網(wǎng)絡(luò)實(shí)用教程》第22頁(yè)第23頁(yè)/共33頁(yè)2022/11/102.2.3單層感知器的MATLAB實(shí)232022/11/172.2.3單層感知器的MATLAB實(shí)現(xiàn)P=[-0.4-0.50.6;0.900.1];%給定訓(xùn)練樣本數(shù)據(jù)T=[110];%給定樣本數(shù)據(jù)所對(duì)應(yīng)的類別,用1和0來(lái)表示兩種類別%創(chuàng)建一個(gè)有兩個(gè)輸入、樣本數(shù)據(jù)的取值范圍都在[-1,1]之間,并且%網(wǎng)絡(luò)只有一個(gè)神經(jīng)元的感知器神經(jīng)網(wǎng)絡(luò)net=newp([-11;-11],1); net.trainParam.epochs=20;%設(shè)置網(wǎng)絡(luò)的最大訓(xùn)練次數(shù)為20次net=train(net,P,T);%使用訓(xùn)練函數(shù)對(duì)創(chuàng)建的網(wǎng)絡(luò)進(jìn)行訓(xùn)練Y=sim(net,P)%對(duì)訓(xùn)練后的網(wǎng)絡(luò)進(jìn)行仿真E1=mae(Y-T)%計(jì)算網(wǎng)絡(luò)的平均絕對(duì)誤差,表示網(wǎng)絡(luò)錯(cuò)誤分類Q=[0.60.9-0.1;-0.1-0.50.5];%檢測(cè)訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)的性能Y1=sim(net,Q)%對(duì)網(wǎng)絡(luò)進(jìn)行仿真,仿真輸出即為分類的結(jié)果figure;%創(chuàng)建一個(gè)新的繪圖窗口plotpv(Q,Y1);%在坐標(biāo)圖中繪制測(cè)試數(shù)據(jù)plotpc(net.iw{1},net.b{1})%在坐標(biāo)圖中繪制分類線第24頁(yè)/共33頁(yè)2022/11/102.2.3單層感知器的MATLAB實(shí)242022/11/172.2.3單層感知器的MATLAB實(shí)現(xiàn)例2-1運(yùn)行后在命令行窗口中得到的結(jié)果如下:>>TRAINC,Epoch0/20%使用TRAINC作為神經(jīng)網(wǎng)絡(luò)的訓(xùn)練函數(shù),第0次訓(xùn)練,最%大訓(xùn)練次數(shù)為20TRAINC,Epoch3/20%達(dá)到目標(biāo)誤差要求,結(jié)束訓(xùn)練TRAINC,Performancegoalmet.Y=110E1=0Y1=001第25頁(yè)/共33頁(yè)2022/11/102.2.3單層感知器的MATLAB實(shí)252022/11/172.2.3單層感知器的MATLAB實(shí)現(xiàn)例2-1訓(xùn)練誤差曲線第26頁(yè)/共33頁(yè)2022/11/102.2.3單層感知器的MATLAB實(shí)262022/11/172.2.3單層感知器的MATLAB實(shí)現(xiàn)例2-1訓(xùn)練后的分類線第27頁(yè)/共33頁(yè)2022/11/102.2.3單層感知器的MATLAB實(shí)272022/11/172.2.4多層感知機(jī)單層感知器的缺點(diǎn)是只能解決線性可分的分類模式問(wèn)題采用多層網(wǎng)絡(luò)結(jié)構(gòu)可以增強(qiáng)網(wǎng)絡(luò)的分類能力,即在輸入層與輸出層之間增加一個(gè)隱含層,從而構(gòu)成多層感知器(MultilayerPerceprons,MLP)。由輸入層、隱含層(可以是一層或者多層)和輸出層構(gòu)成的神經(jīng)網(wǎng)絡(luò)稱為多層前向神經(jīng)網(wǎng)絡(luò)。第28頁(yè)/共33頁(yè)2022/11/102.2.4多層感知機(jī)單層感知器的缺282022/11/172.2.4多層感知機(jī)多層感知器的拓?fù)浣Y(jié)構(gòu)第29頁(yè)/共33頁(yè)2022/11/102.2.4多層感知機(jī)多層感知器的拓292022/11/172.2.4多層感知機(jī)多層感知器的特點(diǎn)含有一層或多層隱單元,從輸入模式中獲得了更多有用的信息,使網(wǎng)絡(luò)可以完成更復(fù)雜的任務(wù)。每個(gè)神經(jīng)元的激活函數(shù)采用可微的函數(shù)sigmoid函數(shù)多個(gè)突觸使得網(wǎng)絡(luò)更具連通性具有獨(dú)特的學(xué)習(xí)算法BP算法第30頁(yè)/共33頁(yè)2022/11/102.2.4多層感知機(jī)多層感知器的特點(diǎn)302022/11/17小結(jié)單層感知器模型及工作原理單層感知器的學(xué)習(xí)算法單層感知器的MATLAB實(shí)現(xiàn)單層感知器的應(yīng)用示例多層感知器概述第31頁(yè)/共33頁(yè)2022/11/10小結(jié)單層感知器模型及工作原理第31頁(yè)/共312022/11/17
謝謝!第32頁(yè)/共33頁(yè)2022/11/10謝謝!第32頁(yè)/共33頁(yè)322022/11/17感謝您的欣賞!第33頁(yè)/共33頁(yè)2022/11/10感謝您的欣賞!第33頁(yè)/共33頁(yè)332022/11/172.2.1單層感知器單層感知器模型f(v)x1······by=f(v)x2xiw1xmw2wmwi第1頁(yè)/共33頁(yè)2022/11/102.2.1單層感知器單層感知器模型f(v342022/11/172.2.1單層感知器單層感知器工作原理
單層感知器可將外部輸入分為兩類。當(dāng)感知器的輸出為+1時(shí),輸入屬于類,當(dāng)感知器的輸出為-1時(shí),輸入屬于類,從而實(shí)現(xiàn)兩類目標(biāo)的識(shí)別。在二維空間,單層感知器進(jìn)行模式識(shí)別的判決超平面由下式?jīng)Q定:
第2頁(yè)/共33頁(yè)2022/11/102.2.1單層感知器單層感知器工作原理第352022/11/172.2.1單層感知器單層感知器工作原理對(duì)于只有兩個(gè)輸入的判別邊界是直線(如下式所示),選擇合適的學(xué)習(xí)算法可訓(xùn)練出滿意的和,當(dāng)它用于兩類模式的分類時(shí),相當(dāng)于在高維樣本空間中,用一個(gè)超平面將兩類樣本分開(kāi)。第3頁(yè)/共33頁(yè)2022/11/102.2.1單層感知器單層感知器工作原理第362022/11/172.2.2單層感知器的學(xué)習(xí)算法單層感知器學(xué)習(xí)算法思想基于迭代的思想,通常是采用誤差校正學(xué)習(xí)規(guī)則的學(xué)習(xí)算法。可以將偏置作為神經(jīng)元權(quán)值向量的第一個(gè)分量加到權(quán)值向量中,也可以設(shè)其值為0輸入向量和權(quán)值向量可分別寫(xiě)成如下的形式:令上式等于零,可得到在維空間的單層感知器的判別超平面。
第4頁(yè)/共33頁(yè)2022/11/102.2.2單層感知器的學(xué)習(xí)算法單層感知器372022/11/172.2.2單層感知器的學(xué)習(xí)算法單層感知器學(xué)習(xí)算法第一步,設(shè)置變量和參量。為激活函數(shù),為網(wǎng)絡(luò)實(shí)際輸出,為期望輸出,為學(xué)習(xí)速率,為迭代次數(shù),為實(shí)際輸出與期望輸出的誤差。第二步,初始化給權(quán)值向量的各個(gè)分量賦一個(gè)較小的隨機(jī)非零值,置第三步,輸入一組樣本,并給出 它的期望輸出。第四步,計(jì)算實(shí)際輸出:第五步,求出期望輸出和實(shí)際輸出求出差根據(jù)誤差判斷目前輸出是否滿足條件,一般為對(duì)所有樣本誤差為零或者均小于預(yù)設(shè)的值,則算法結(jié)束,否則將值增加1,并用下式調(diào)整權(quán)值:然后轉(zhuǎn)到第三步,進(jìn)入下一輪計(jì)算過(guò)程
第5頁(yè)/共33頁(yè)2022/11/102.2.2單層感知器的學(xué)習(xí)算法單層感知器382022/11/172.2.2單層感知器的學(xué)習(xí)算法學(xué)習(xí)算法實(shí)例:
構(gòu)建一個(gè)神經(jīng)元,它能夠?qū)崿F(xiàn)邏輯與操作x1 x2 d0 0 00 1 01 0 01 1
1邏輯“與”真值表第6頁(yè)/共33頁(yè)2022/11/102.2.2單層感知器的學(xué)習(xí)算法學(xué)習(xí)算法實(shí)392022/11/172.2.2單層感知器的學(xué)習(xí)算法確定權(quán)值和閾值w1=w2=b=第7頁(yè)/共33頁(yè)2022/11/102.2.2單層感知器的學(xué)習(xí)算法確定權(quán)值和402022/11/172.2.2單層感知器的學(xué)習(xí)算法設(shè)閾值為0.6,初始權(quán)值均為0.1,學(xué)習(xí)率為0.5,誤差值要求為0,神經(jīng)元的激活函數(shù)為硬限幅函數(shù),求權(quán)值w1與w2迭代次數(shù)樣本標(biāo)號(hào)輸入或權(quán)值標(biāo)號(hào)變量第8頁(yè)/共33頁(yè)2022/11/102.2.2單層感知器的學(xué)習(xí)算法設(shè)閾值為0412022/11/17第9頁(yè)/共33頁(yè)2022/11/10第9頁(yè)/共33頁(yè)422022/11/17對(duì)于樣本1,輸出神經(jīng)元的輸入為:輸出神經(jīng)元的輸出為:第10頁(yè)/共33頁(yè)2022/11/10對(duì)于樣本1,輸出神經(jīng)元的輸入為:第10頁(yè)432022/11/172.2.2單層感知器的學(xué)習(xí)算法權(quán)值調(diào)整樣本2與3同樣本1,因輸出為0省略對(duì)于樣本4,輸出神經(jīng)元的輸入為:第11頁(yè)/共33頁(yè)2022/11/102.2.2單層感知器的學(xué)習(xí)算法權(quán)值調(diào)整第442022/11/172.2.2單層感知器的學(xué)習(xí)算法輸出神經(jīng)元的輸出為:權(quán)值調(diào)整:第12頁(yè)/共33頁(yè)2022/11/102.2.2單層感知器的學(xué)習(xí)算法輸出神經(jīng)元452022/11/172.2.2單層感知器的學(xué)習(xí)算法此時(shí)完成一次循環(huán)過(guò)程,由于誤差沒(méi)有達(dá)到0,返回第2步繼續(xù)循環(huán),在第二次循環(huán)中,前三個(gè)樣本輸入時(shí)因誤差均為0,所以沒(méi)有對(duì)權(quán)值進(jìn)行調(diào)整,各權(quán)值仍保持第一次循環(huán)的最后值,第四個(gè)樣本輸入時(shí)各參數(shù)值如下:第13頁(yè)/共33頁(yè)2022/11/102.2.2單層感知器的學(xué)習(xí)算法此時(shí)完成一462022/11/172.2.2單層感知器的學(xué)習(xí)算法第14頁(yè)/共33頁(yè)2022/11/102.2.2單層感知器的學(xué)習(xí)算法第14頁(yè)/472022/11/172.2.2單層感知器的學(xué)習(xí)算法計(jì)算誤差時(shí),對(duì)所有的樣本,網(wǎng)絡(luò)的輸出誤差均為0,達(dá)到預(yù)定的要求,訓(xùn)練結(jié)束第15頁(yè)/共33頁(yè)2022/11/102.2.2單層感知器的學(xué)習(xí)算法計(jì)算誤差時(shí)482022/11/172.2.3單層感知器的MATLAB實(shí)現(xiàn)MATLAB中單層感知器常用工具函數(shù)名稱和基本功能函數(shù)名功能newp()生成一個(gè)感知器hardlim()硬限幅激活函數(shù)learnp()感知器的學(xué)習(xí)函數(shù)train()神經(jīng)網(wǎng)絡(luò)訓(xùn)練函數(shù)sim()神經(jīng)網(wǎng)絡(luò)仿真函數(shù)mae()平均絕對(duì)誤差性能函數(shù)plotpv()在坐標(biāo)圖上繪出樣本點(diǎn)plotpc()在已繪制的圖上加分類線第16頁(yè)/共33頁(yè)2022/11/102.2.3單層感知器的MATLAB實(shí)492022/11/172.2.3單層感知器的MATLAB實(shí)現(xiàn)newp()功能:創(chuàng)建一個(gè)感知器神經(jīng)網(wǎng)絡(luò)的函數(shù)格式:net=newp(PR,S,TF,LF)說(shuō)明:net為生成的感知機(jī)神經(jīng)網(wǎng)絡(luò);PR為一個(gè)R×2的矩陣,由R組輸入向量中的最大值和最小值組成;S表示神經(jīng)元的個(gè)數(shù);TF表示感知器的激活函數(shù),缺省值為硬限幅激活函數(shù)hardlim;LF表示網(wǎng)絡(luò)的學(xué)習(xí)函數(shù),缺省值為learnphardlim()功能硬限幅激活函數(shù)格式A=hardlim(N)說(shuō)明函數(shù)hardlim(N)在給定網(wǎng)絡(luò)的輸入矢量矩陣N時(shí),返回該層的輸出矢量矩陣A。當(dāng)N中的元素大于等于零時(shí),返回的值為l;否則為0。也就是說(shuō),如果網(wǎng)絡(luò)的輸入達(dá)到閾值,則硬限幅傳輸函數(shù)的輸出為1;否則,為0。learnp()功能感知機(jī)的權(quán)值和閾值學(xué)習(xí)函數(shù)第17頁(yè)/共33頁(yè)2022/11/102.2.3單層感知器的MATLAB實(shí)502022/11/172.2.3單層感知器的MATLAB實(shí)現(xiàn)train()功能神經(jīng)網(wǎng)絡(luò)訓(xùn)練函數(shù)格式
[net,tr,Y,E,Pf,Af]=train(NET,P,T,Pi,Ai,VV,TV)說(shuō)明
net為訓(xùn)練后的網(wǎng)絡(luò);tr為訓(xùn)練記錄;Y為網(wǎng)絡(luò)輸出矢量;E為誤差矢量;Pf為訓(xùn)練終止時(shí)的輸入延遲狀態(tài);Af為訓(xùn)練終止時(shí)的層延遲狀態(tài);NET為訓(xùn)練前的網(wǎng)絡(luò);P為網(wǎng)絡(luò)的輸入向量矩陣;T表示網(wǎng)絡(luò)的目標(biāo)矩陣,缺省值為0;Pi表示初始輸入延時(shí),缺省值為0;Ai表示初始的層延時(shí),缺省值為0;VV為驗(yàn)證矢量(可省略);TV為測(cè)試矢量(可省略)。網(wǎng)絡(luò)訓(xùn)練函數(shù)是一種通用的學(xué)習(xí)函數(shù),訓(xùn)練函數(shù)重復(fù)地把一組輸入向量應(yīng)用到一個(gè)網(wǎng)絡(luò)上,每次都更新網(wǎng)絡(luò),直到達(dá)到了某種準(zhǔn)則,停止準(zhǔn)則可能是達(dá)到最大的學(xué)習(xí)步數(shù)、最小的誤差梯度或誤差目標(biāo)等。第18頁(yè)/共33頁(yè)2022/11/102.2.3單層感知器的MATLAB實(shí)512022/11/172.2.3單層感知器的MATLAB實(shí)現(xiàn)sim()功能對(duì)網(wǎng)絡(luò)進(jìn)行仿真格式(1)[Y,Pf,Af,E,perf]=sim(NET,P,Pi,Ai,T)(2)[Y,Pf,Af,E,perf]=sim(NET,{QTS},Pi,Ai,T)(3)[Y,Pf,Af,E,perf]=sim(NET,Q,Pi,Ai,T)說(shuō)明Y為網(wǎng)絡(luò)的輸出;Pf表示最終的輸入延時(shí)狀態(tài);Af表示最終的層延時(shí)狀態(tài);E為實(shí)際輸出與目標(biāo)矢量之間的誤差;perf為網(wǎng)絡(luò)的性能值;NET為要測(cè)試的網(wǎng)絡(luò)對(duì)象;P為網(wǎng)絡(luò)的輸入向量矩陣;Pi為初始的輸入延時(shí)狀態(tài)(可省略);Ai為初始的層延時(shí)狀態(tài)(可省略);T為目標(biāo)矢量(可省略)。式(1)、(2)用于沒(méi)有輸入的網(wǎng)絡(luò),其中Q為批處理數(shù)據(jù)的個(gè)數(shù),TS為網(wǎng)絡(luò)仿真的時(shí)間步數(shù)。第19頁(yè)/共33頁(yè)2022/11/102.2.3單層感知器的MATLAB實(shí)522022/11/172.2.3單層感知器的MATLAB實(shí)現(xiàn)mae()功能平均絕對(duì)誤差性能函數(shù)格式perf=mae(E,w,pp)說(shuō)明perf表示平均絕對(duì)誤差和,E為誤差矩陣或向量(網(wǎng)絡(luò)的目標(biāo)向量與輸出向量之差),w為所有權(quán)值和偏值向量(可忽略),pp為性能參數(shù)(可忽略)。第20頁(yè)/共33頁(yè)2022/11/102.2.3單層感知器的MATLAB實(shí)532022/11/172.2.3單層感知器的MATLAB實(shí)現(xiàn)plotpv()功能繪制樣本點(diǎn)的函數(shù)格式(1)plotpv(P,T)(2)plotpv(P,T,V)說(shuō)明P定義了n個(gè)2或3維的樣本,是一個(gè)2n維或3n維的矩陣;T表示各樣本點(diǎn)的類別,是一個(gè)n維的向量;V=[x_minx_maxy_miny_max],為一設(shè)置繪圖坐標(biāo)值范圍的向量。利用plotpv()函數(shù)可在坐標(biāo)圖中繪出給定的樣本點(diǎn)及其類別,不同的類別使用不同的符號(hào)。如果T只含一元矢量,則目標(biāo)為0的輸入矢量在坐標(biāo)圖中用符號(hào)"o"表示:目標(biāo)為1的輸入矢量在坐標(biāo)圖中用符號(hào)"+"表示。如果T含二元矢量,則輸入矢量在坐標(biāo)圖中所采用的符號(hào)分別如下:[00]用"o"表示;[01]用"+"表示:[10]用"*"表示;[11]用""表示。第21頁(yè)/共33頁(yè)2022/11/102.2.3單層感知器的MATLAB實(shí)542022/11/172.2.3單層感知器的MATLAB實(shí)現(xiàn)plotpc()功能在存在的圖上繪制出感知器的分類線函數(shù)格式(1)plotpc(W,B)(2)plotpc(W,B,H)說(shuō)明硬特性神經(jīng)元可將輸入空間用一條直線(如果神經(jīng)元有兩個(gè)輸入),或用一個(gè)平面(如果神經(jīng)元有三個(gè)輸入),或用一個(gè)超平面(如果神經(jīng)元有三個(gè)以上輸入)分成兩個(gè)區(qū)域。plotpc(W,B)對(duì)含權(quán)矩陣w和偏置矢量b的硬特性神經(jīng)元的兩個(gè)或三個(gè)輸入畫(huà)一個(gè)分類線。這一函數(shù)返回分類線的句柄以便以后調(diào)用。plotpc(W,B,H)包含從前的一次調(diào)用中返回的句柄。它在畫(huà)新分類線之前,刪除舊線。第22頁(yè)/共33頁(yè)2022/11/102.2.3單層感知器的MATLAB實(shí)552022/11/172.2.3單層感知器的MATLAB實(shí)現(xiàn)使用MATLAB實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)的步驟如下:第一步根據(jù)應(yīng)用創(chuàng)建一個(gè)神經(jīng)網(wǎng)絡(luò);第二步設(shè)定神經(jīng)網(wǎng)絡(luò)的訓(xùn)練參數(shù),利用給定樣本對(duì)創(chuàng)建的神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練;第三步輸入測(cè)試數(shù)據(jù),測(cè)試訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)的性能。例2-1:見(jiàn)《神經(jīng)網(wǎng)絡(luò)實(shí)用教程》第22頁(yè)第23頁(yè)/共33頁(yè)2022/11/102.2.3單層感知器的MATLAB實(shí)562022/11/172.2.3單層感知器的MATLAB實(shí)現(xiàn)P=[-0.4-0.50.6;0.900.1];%給定訓(xùn)練樣本數(shù)據(jù)T=[110];%給定樣本數(shù)據(jù)所對(duì)應(yīng)的類別,用1和0來(lái)表示兩種類別%創(chuàng)建一個(gè)有兩個(gè)輸入、樣本數(shù)據(jù)的取值范圍都在[-1,1]之間,并且%網(wǎng)絡(luò)只有一個(gè)神經(jīng)元的感知器神經(jīng)網(wǎng)絡(luò)net=newp([-11;-11],1); net.trainParam.epochs=20;%設(shè)置網(wǎng)絡(luò)的最大訓(xùn)練次數(shù)為20次net=train(net,P,T);%使用訓(xùn)練函數(shù)對(duì)創(chuàng)建的網(wǎng)絡(luò)進(jìn)行訓(xùn)練Y=sim(net,P)%對(duì)訓(xùn)練后的網(wǎng)絡(luò)進(jìn)行仿真E1=mae(Y-T)%計(jì)算網(wǎng)絡(luò)的平均絕對(duì)誤差,表示網(wǎng)絡(luò)錯(cuò)誤分類Q=[0.60.9-0.1;-0.1-0.50.5];%檢測(cè)訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)的性能Y1=sim(net,Q)
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 二零二五年枸杞采摘采摘技術(shù)與設(shè)備租賃合同3篇
- 二零二五年度網(wǎng)絡(luò)安全人才培養(yǎng)與輸送合同2篇
- 二零二五版果園果樹(shù)種植與農(nóng)業(yè)技術(shù)培訓(xùn)服務(wù)合同樣本3篇
- 二零二五年度采砂廠承包綜合效益評(píng)估合同范本3篇
- 二零二五版智能化住宅項(xiàng)目施工及造價(jià)管理合同3篇
- 二零二五年度環(huán)保污水處理設(shè)備采購(gòu)補(bǔ)充合同范本2篇
- 2025年新型城鎮(zhèn)化項(xiàng)目場(chǎng)地租賃與開(kāi)發(fā)建設(shè)合同范本2篇
- 二零二五版環(huán)保設(shè)施投資合作合同3篇
- 二零二五版交通事故車輛損失賠償合同3篇
- 二零二五版特種車輛租賃及操作培訓(xùn)合同3篇
- 寒潮雨雪應(yīng)急預(yù)案范文(2篇)
- DB33T 2570-2023 營(yíng)商環(huán)境無(wú)感監(jiān)測(cè)規(guī)范 指標(biāo)體系
- 上海市2024年中考英語(yǔ)試題及答案
- 房屋市政工程生產(chǎn)安全重大事故隱患判定標(biāo)準(zhǔn)(2024版)宣傳海報(bào)
- 垃圾車駕駛員聘用合同
- 2025年道路運(yùn)輸企業(yè)客運(yùn)駕駛員安全教育培訓(xùn)計(jì)劃
- 南京工業(yè)大學(xué)浦江學(xué)院《線性代數(shù)(理工)》2022-2023學(xué)年第一學(xué)期期末試卷
- 2024版機(jī)床維護(hù)保養(yǎng)服務(wù)合同3篇
- 《論拒不執(zhí)行判決、裁定罪“執(zhí)行能力”之認(rèn)定》
- 工程融資分紅合同范例
- 2024國(guó)家安全員資格考試題庫(kù)加解析答案
評(píng)論
0/150
提交評(píng)論