智能信息處理技術(shù)實驗報告_第1頁
智能信息處理技術(shù)實驗報告_第2頁
智能信息處理技術(shù)實驗報告_第3頁
智能信息處理技術(shù)實驗報告_第4頁
智能信息處理技術(shù)實驗報告_第5頁
已閱讀5頁,還剩19頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

千里之行,始于足下。第2頁/共2頁精品文檔推薦智能信息處理技術(shù)實驗報告智能信息處理技術(shù)

實驗報告

學(xué)院(部):

班級:

學(xué)號:

姓名:

指導(dǎo)老師:

實驗一感知器實驗

一、實驗?zāi)康?/p>

1、明白線性分類器的分類原理

2、掌握感知器算法,利用它對輸入的數(shù)據(jù)舉行分類

二、實驗原理

感知器算法是經(jīng)過訓(xùn)練模式的迭代和學(xué)習(xí)算法,產(chǎn)生線性可分的模式判不函數(shù)。感知器算法算是經(jīng)過對訓(xùn)練模式樣本集的“學(xué)習(xí)”得出判不函數(shù)的系數(shù)解。

三、實驗內(nèi)容

(1)簡單分類咨詢題(Percept1):設(shè)計單一感知器神經(jīng)元來解決一具簡單的分類咨詢題:將4個輸入向量

分為兩類,其中兩個輸入向量對應(yīng)的目標(biāo)值為1,另兩個對應(yīng)的目標(biāo)值為0.輸入向量為:P=[-1-0.50.2-0.1;

-0.30.5-0.51.0]

目標(biāo)向量為:T=[1100]

程序如下:

P=[-1-0.50.2-0.1;

-0.30.5

-0.51.00];

T=[1100];plotpv(P,T);pause;

net=newp([-11;-11],1);watchon;

cla;

plotpv(P,T);linehandle=plo

tpc(net.IW{1},

net.b{1});

E=1;

net=init(net);

linehandle=plo

tpc(net.IW{1},

net.b{1});

while(sse(E))

[net,Y,E]=adap

t(net,P,T);

linehandle=plo

tpc(net.IW{1},

net.b{1});

drawnow;

end;

pause;

watchoff;

p=[-0.5;1.2];

a=sim(net,p);

plotpv(p,a);

ThePoint=findo

bj(gca,'type',

'line');

set(ThePoint,'

Color','red');

holdon;

plotpv(P,T);

plotpc(net.IW{

1},net.b{1});

holdoff;

disp('Endof

percept1');

實驗截圖:

(2)多個感知器神經(jīng)元的分類咨詢題(Percept2):將上例的輸入向量擴充為10組,將輸入向量分為4

類,即輸入向量為:

P=[0.10.70.80.81.00.30.0-0.3-0.5-1.5;

1.21.81.60.60.80.50.20.8-1.5-1.3]

輸出向量為:T=[1110011100;

0000011111]

程序如下:

P=[0.10.70.80.81.0

0.30.0-0.3-0.5

-1.5;

1.21.81.60.60.8

0.50.20.8-1.5

-1.3];

T=[111110000

0;

0000011111];

plotpv(P,T);

net=newp([-1.5

1;-1.51],2);

figure;

watchon;

cla;

plotpv(P,T);

linehandle=plotpc(n

et.IW{1},net.b{1});

E=1;

net=init(net);

linehandle=plotpc(n

et.IW{1},net.b{1});

while(sse(E))

[net,Y,E]=adapt(net

,P,T);

linehandle=plotpc(n

et.IW{1},net.b{1},l

inehandle);

drawnow;

end;

watchoff;

figure;

p=[2;-1];

a=sim(net,p);

plotpv(p,a);

ThePoint=findobj(gc

a,'type','line');

set(ThePoint,'Color

','red');

holdon;

plotpv(P,T);

plotpc(net.IW{1},ne

t.b{1});

holdoff;

disp('Endof

percept2');

實驗截圖:

(3)輸入奇妙樣本對網(wǎng)絡(luò)訓(xùn)練的妨礙(Percept3)當(dāng)網(wǎng)絡(luò)的輸入樣本中存在奇妙樣本時(即該樣本向量相對其他所有樣本向量特殊大或特殊?。?,此刻網(wǎng)絡(luò)訓(xùn)練時刻將大大增加,如:輸入向量為:

P=[-0.5-0.50.3-0.1-40;

-0.50.5-0.51.050];

輸出向量為:

T=[11001];

解決此咨詢題只需用標(biāo)準(zhǔn)化感知器學(xué)習(xí)規(guī)則訓(xùn)練即可大大縮短訓(xùn)練時刻

原始感知器學(xué)習(xí)規(guī)則的權(quán)值調(diào)整為:

T

Tep

p

a

t

w=

-

=

?)

(

標(biāo)準(zhǔn)化感知器學(xué)習(xí)規(guī)則的權(quán)值調(diào)整為:

p

p

e

p

p

a

t

w

T

T

=

-

=

?)

(,由函數(shù)learnpn()實現(xiàn)

實驗程序:

P=[-0.5-0.50.3-0.1

-40;

-0.50.5-0.51.0

50];

T=[11001];

plotpv(P,T);

net=newp([-401;-1

50],1);

pause;

plotpv(P,T);

linehandle=plotpc(n

et.IW{1},net.b{1});

cla;

plotpv(P,T);

linehandle=plotpc(n

et.IW{1},net.b{1});

E=1;

net.adaptParam.pass

es=1

net=init(net);

linehandle=plotpc(n

et.IW{1},net.b{1});

while(sse(E))

[net,Y,E]=adapt(net

,P,T);

linehandle=plotpc(n

et.IW{1},net.b{1},l

inehandle);

drawnow;

end;

pause;

p=[0.7;1.2];

a=sim(net,p);

plotpv(p,a);

ThePoint=findobj(gc

a,'type','line');

set(ThePoint,'Color

','red');

holdon;

plotpv(P,T);

plotpc(net.IW{1},ne

t.b{1});

holdoff;

pause;

axis([-22-22]);

disp('Endof

percept3');

(4)線性別可分的輸入向量(Percept5)定義向量

P=[-0.5-0.50.3-0.1-0.8;

-0.50.5-0.51.00.0];

T=[11000];

用感知器對其分類

程序如下:

P=[-0.5-0.50.3-0.1-400;

-0.50.5-0.51.0500];

T=[11001];

plotpv(P,T);

pause;

net=newp([-4001;-1500],1,'hardlim','learnpn');

%net=newp([-4001;-1500],1);

cla;plotpv(P,T);

linehandle=plotpc(n

et.IW{1},net.b{1});

E=1;

net.adaptParam.pass

es=1;

net=init(net);

linehandle=plotpc(n

et.IW{1},net.b{1});

while(sse(E))

[net,Y,E]=adapt(net

,P,T);

linehandle=plotpc(n

et.IW{1},net.b{1},l

inehandle);

drawnow;

end;

pause;

p=[0.7;1.2];

a=sim(net,p);

plotpv(p,a);

ThePoint=findobj(gc

a,'type','line');

set(ThePoint,'Color

','red');

holdon;

plotpv(P,T);

plotpc(net.IW{1},ne

t.b{1});

holdoff;

pause;

axis([-22-22]);

disp('Endof

percept4');

(5)實驗練習(xí):1、設(shè)計一具matlab程序?qū)崿F(xiàn)教材p25例3.1

2、即輸入向量為:

P=[0.10.70.80.81.00.30.0-0.3-0.5-1.5;

1.21.81.60.60.80.50.20.8-1.5-1.3]

輸出向量為:

T=[1110011100]

對其舉行分類

程序如下:

P=[0.10.70.80.81.0

0.30.0-0.3-0.5

-1.5;

1.21.81.60.60.8

0.50.20.8-1.5-1.3]

T=[111001110

0]

plotpv(P,T);

net=newp([-401;-1

50],1);

pause;

plotpv(P,T);

linehandle=plotpc(n

et.IW{1},net.b{1});

cla;

plotpv(P,T);

linehandle=plotpc(n

et.IW{1},net.b{1});

E=1;

net.adaptParam.pass

es=1

net=init(net);

linehandle=plotpc(n

et.IW{1},net.b{1});

while(sse(E))

[net,Y,E]=adapt(net

,P,T);

linehandle=plotpc(n

et.IW{1},net.b{1},l

inehandle);

drawnow;

end;

pause;

p=[0.7;1.2];

a=sim(net,p);

plotpv(p,a);

ThePoint=findobj(gca,'type','line');set(ThePoint,'Color','red');holdon;

plotpv(P,T);

plotpc(net.IW{1},ne

t.b{1});

holdoff;

pause;

axis([-22-22]);

disp('Endof

percept3');

實驗二BP感知器

一、實驗?zāi)康?/p>

1.明白線性分類器的分類原理。

2.掌握BP算法,利用它對輸入的數(shù)據(jù)舉行分類。

3.明白BP算法,使用BP算法對輸入數(shù)據(jù)舉行分類。

二、實驗原理

由于硬限幅函數(shù)是非可微函數(shù),別能實現(xiàn)多層神經(jīng)網(wǎng)絡(luò)的一種有效的LMS學(xué)習(xí)算法。而BP算法中所用到的是Sigmoid型函數(shù),它既具有完成分類所需的非線性特性,又具有實現(xiàn)LMS算法所需的可微特性。采納S型函數(shù)的神經(jīng)元的輸入和輸出之間的關(guān)系為

四、實驗內(nèi)容

1.依照實驗內(nèi)容推導(dǎo)出輸出的計算公式以及誤差的計算公式

2.使用Matlab編程實現(xiàn)BP多層感知器

3.調(diào)節(jié)學(xué)習(xí)率η及隱結(jié)點的個數(shù),觀看關(guān)于別同的學(xué)習(xí)率、別同的隱結(jié)點個數(shù)時算法的收斂速度

4.改用批處理的辦法實驗權(quán)值的收斂,并加入動量項來觀看批處理以及改進(jìn)的的算法對結(jié)果和收斂速度的妨礙。

內(nèi)容一程序如下:

closeall

clear

echoon

clc

pause

clc

P=[-1,-1,2,

1;-1,4,

5,-3];

T=[0,1,1,0];

pause;

clc

net=newff(minmax(P)

,[3,1],{'tansig','p

urelin'},'traingdm'

)

inputWeights=net.IW

{1,1}

inputbias=net.b{1}

layerWeights=net.LW

{2,1}

layerbias=net.b{2}

pause

clc

net.trainParam.show

=50;

net.trainParam.lr=

0.05;

net.trainParam.mc=

0.9;

net.trainParam.epoc

hs=600;

net.trainParam.goal

=1e-9;

pause

clc

[net,tr]=train(net,

P,T);

pause

clc

A=sim(net,P)

E=T-A

MSE=mse(E)

pause

clc

echooff

figure;

plot((1:4),T,'-*',(

1:4),A,'-o');

figure;

plot((1:4),T,'*',(1

:4),A,'o');

實驗截圖:

內(nèi)容二

實驗程序:

closeall

clear

echoon

clc

pause

clc

P=[-1:0.05:1];

randn('seed',783412

23);

T=

sin(2*pi*P)+0.1*ran

dn(size(P));

plot(P,T,'+');

echooff

holdon;

plot(P,sin(2*pi*P),

'-');

echoon

clc

pause

clc

pause

clc

net=newff(minmax(P)

,[5,1],{'tansig','p

urelin'},'traingdx'

);pause

clc

net.trainParam.epoc

hs=5000;

net=init(net);

pause

clc

[net,tr]=train(net,

P,T);pause

clc

A=sim(net,P);

E=T-A;

MSE=mse(E)

pause

clc

closeall;

plot(P,A,P,T,'*',P,

sin(2*pi*P),'+');

pause;

clc

echooff

實驗截圖:

實驗三聚類分析實驗

一、實驗?zāi)康?/p>

在科學(xué)技術(shù)、經(jīng)濟治理中常常要按一定的標(biāo)準(zhǔn)(相似程度或親疏關(guān)系)舉行分類。例如,依照生物的某些性狀可對生物分類,依照土壤的性質(zhì)可對土壤分類等。對所研究的事物按一定標(biāo)準(zhǔn)舉行分類的數(shù)學(xué)辦法稱為聚類分析,它是多元統(tǒng)計“物以類聚”的一種分類辦法。由于科學(xué)技術(shù)、經(jīng)濟治理中的分類界限往往別分明,所以采納含糊聚類辦法通常比較符合實際。

二、含糊聚類分析的普通步驟1、第一步:數(shù)據(jù)標(biāo)準(zhǔn)化(1)數(shù)據(jù)矩陣

設(shè)論域12{,,,}nUxxx=為被分類對象,每個對象又有m個指標(biāo)表示其性狀,即12{,,,}iiiimxxxx=(1,2,,)in=,于是,得到原始數(shù)據(jù)矩陣為

11

121212221

2

mmnnnmxxxxxxxxx???

?

??

??

。其中nmx表示第n個分類對象的第m個指標(biāo)的原始數(shù)據(jù)。(2)數(shù)據(jù)標(biāo)準(zhǔn)化

在實際咨詢題中,別同的數(shù)據(jù)普通有別同的量綱,為了使別同的量綱也能舉行比較,通常需要對數(shù)據(jù)做適當(dāng)?shù)淖儞Q。然而,即使如此,得到的數(shù)據(jù)也別一定在區(qū)間[0,1]上。所以,這個地方講的數(shù)據(jù)標(biāo)準(zhǔn)化,算是要依照含糊矩陣的要求,將數(shù)據(jù)壓縮到區(qū)間[0,1]上。通常有以下幾種變換:①平移·標(biāo)準(zhǔn)差變換

ikk

ik

k

xxxs-'=(1,2,,;1,2,,inkm

==其中1

1n

kikixxn==∑,

ks=。通過變換后,每個變量的均值為0,標(biāo)準(zhǔn)差為1,且消除了量綱的妨礙。然而,再用得到的ik

x'還別一定在區(qū)間[0,1]上。

②平移·極差變換

111min{}max{}min{}ik

ikin

ik

ik

ikin

in

xxxxx≤≤≤≤≤≤''-''=''-,(1,2,,)km=

顯然有01ik

x''≤≤,而且也消除了量綱的妨礙。③對數(shù)變換

lgikikxx'=(1,2,,;

1,2,,inkm

==取對數(shù)以縮小變量間的數(shù)量級。2、第二步:標(biāo)定(建立含糊相似矩陣)

設(shè)論域12{,,,}nUxxx=,12{,,,}iiiimxxxx=,根據(jù)傳統(tǒng)聚類辦法確定相似系數(shù),建立含糊相似矩陣,ix與j

x

的相似程度(,)ijijrRxx=。確定(,)ijijrRxx=的辦法要緊借用傳統(tǒng)聚類的相似系數(shù)法、距離法以及其他辦法。具體用啥辦法,可依照咨詢題的性質(zhì),選取下列公式之一計算。(1)相似系數(shù)法①夾角余弦法

m

ik

jk

ijx

xr=

∑。

②最大最小法

11

()

()

m

ik

jkkijm

ik

jkkxxrx

x==∧=

∨∑∑。

③算術(shù)平均最小法

112()

()

mikjkkijm

ik

jkkxxrx

x==∧=

+∑∑。

④幾何平均最小法

11

2()

m

ikjkkijm

kxxr==∧=

∑。

以上3種辦法中要求0ijx>,否則也要做適當(dāng)變換。⑤數(shù)量積法

1

1,

,

1

,,

mijikjkkijrxxijM==??

=?≠??

∑,

其中1

max()m

ik

jkij

kMx

x≠==∑。

⑥相關(guān)系數(shù)法

m

ik

ijkj

ijx

xxxr--=

∑,

其中11miikkxxm==∑,1

1m

jjkkxxm==∑。

⑦指數(shù)相似系數(shù)法

2

2

1()

13exp[]4mikjkijkk

xxrms=-=-∑,其中2

1

1()nkikikisxxn==-∑,

而1

1n

kikixxn==∑(1,2,,)km=。

(2)距離法①直截了當(dāng)距離法

1(,)ijijrcdxx=-,

其中c為適當(dāng)選取的參數(shù),使得01ijr≤≤,(,)ijdxx表示他們之間的距離。經(jīng)常用的距離有●海明距離

1

(,)m

ijik

jkkdxxx

x==-∑。

●歐幾里得距離

(,)ijdxx=

●切比雪夫距離

1(,)m

ijikjkkdxxxx==∨-。

②倒數(shù)距離法

1,,,,

(,)

ijijijMrijdxx=??

=?≠??

。

其中M為適當(dāng)選取的參數(shù),使得01ijr≤≤。③指數(shù)距離法

exp[(,)]ijijrdxx=-。3、第三步:聚類(求動態(tài)聚類圖)(1)基于含糊等價矩陣聚類辦法①傳遞閉包法

依照標(biāo)定所得的含糊矩陣R還要將其改造稱含糊等價矩陣*

R。用二次辦法求R的傳遞閉包,即()tR=*

R。再讓λ由大變小,就可形成動態(tài)聚類圖。②布爾矩陣法

布爾矩陣法的理論依據(jù)是下面的定理:

定理2.2.1設(shè)R是12{,,,}nUxxx=上的一具相似的布爾矩陣,則R具有傳遞性(當(dāng)R是等價布爾矩陣時)?矩

陣R在任一羅列下的矩陣都沒有形如11111001,,,10011111????????????????????

的特別子矩陣。

布爾矩陣法的具體步驟如下:①求含糊相似矩陣的λ-截矩陣Rλ.

②若Rλ按定理2.2.1判定為等價的,則由Rλ可得U在λ水平上的分類,若Rλ判定為別等價,則Rλ在某一羅列下有上述形式的特別子矩陣,此刻只要將其中特別子矩陣的0一律改成1直到別再產(chǎn)生上述形式的子矩陣即可。這樣得到的*

Rλ為等價矩陣。所以,由*

Rλ可得λ水平上的分類(2)直截了當(dāng)聚類法

所謂直截了當(dāng)聚類法,是指在建立含糊相似矩陣之后,別去求傳遞閉包()tR,也別用布爾矩陣法,而是直截了當(dāng)從含糊相似矩陣動身求得聚類圖。其步驟如下:

①取11λ=(最大值),對每個ix作相似類[]iRx,且[]iRx={|1}jijxr=,

即將滿腳1ijr=的ix與jx放在一類,構(gòu)成相似類。相似類與等價類的別同之處是,別同的相似類也許有公共元素,即可浮現(xiàn)

[]{,}iRikxxx=,[]{,}iRjkxxx=,[][]ijxx?≠?.

此刻只要將有公共元素的相似類合并,即可得11λ=水平上的等價分類。

②取2λ為次大值,從R中直截了當(dāng)找出相似度為2λ的元素對(,)ijxx(即2ijrλ=),將對應(yīng)于11λ=的等價分類中ix所在的類與jx所在的類合并,將所有的這些事情合并后,即得到對應(yīng)于2λ的等價分類。

③取3λ為第三大值,從R中直截了當(dāng)找出相似度為3λ的元素對(,)ijxx(即3ijrλ=),將對應(yīng)于2λ的等價分類中ix所在的類與jx所在的類合并,將所有的這些事情合并后,即得到對應(yīng)于3λ的等價分類。④以此類推,直到合并到U成為一類為止。三、最佳閾值λ的確定

在含糊聚類分析中關(guān)于各個別同的

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論