模式識別實驗報告_第1頁
模式識別實驗報告_第2頁
模式識別實驗報告_第3頁
模式識別實驗報告_第4頁
模式識別實驗報告_第5頁
已閱讀5頁,還剩15頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、實 驗 報 告實驗課程名稱: 模式識別 姓名: 王宇 班級: 20110813 學號: 2011081325 實驗名稱規(guī)范程度原理敘述實驗過程實驗結果實驗成績圖像的貝葉斯分類K均值聚類算法神經網絡模式識別平均成績折合成績注:1、每個實驗中各項成績按照5分制評定,實驗成績?yōu)楦黜椏偤?、平均成績取各項實驗平均成績3、折合成績按照教學大綱要求的百分比進行折合2014年 6月實驗一、 圖像的貝葉斯分類一、實驗目的將模式識別方法與圖像處理技術相結合,掌握利用最小錯分概率貝葉斯分類器進行圖像分類的基本方法,通過實驗加深對基本概念的理解。二、實驗儀器設備及軟件HP D538、MATLAB三、實驗原理概念:閾

2、值化分割算法是計算機視覺中的常用算法,對灰度圖象的閾值分割就是先確定一個處于圖像灰度取值范圍內的灰度閾值,然后將圖像中每個像素的灰度值與這個閾值相比較。并根據比較的結果將對應的像素劃分為兩類,灰度值大于閾值的像素劃分為一類,小于閾值的劃分為另一類,等于閾值的可任意劃分到兩類中的任何一類。最常用的模型可描述如下:假設圖像由具有單峰灰度分布的目標和背景組成,處于目標和背景內部相鄰像素間的灰度值是高度相關的,但處于目標和背景交界處兩邊的像素灰度值有較大差別,此時,圖像的灰度直方圖基本上可看作是由分別對應于目標和背景的兩個單峰直方圖混合構成。而且這兩個分布應大小接近,且均值足夠遠,方差足夠小,這種情況

3、下直方圖呈現較明顯的雙峰。類似地,如果圖像中包含多個單峰灰度目標,則直方圖可能呈現較明顯的多峰。上述圖像模型只是理想情況,有時圖像中目標和背景的灰度值有部分交錯。這時如用全局閾值進行分割必然會產生一定的誤差。分割誤差包括將目標分為背景和將背景分為目標兩大類。實際應用中應盡量減小錯誤分割的概率,常用的一種方法為選取最優(yōu)閾值。這里所謂的最優(yōu)閾值,就是指能使誤分割概率最小的分割閾值。圖像的直方圖可以看成是對灰度值概率分布密度函數的一種近似。如一幅圖像中只包含目標和背景兩類灰度區(qū)域,那么直方圖所代表的灰度值概率密度函數可以表示為目標和背景兩類灰度值概率密度函數的加權和。如果概率密度函數形式已知,就有可

4、能計算出使目標和背景兩類誤分割概率最小的最優(yōu)閾值。假設目標與背景兩類像素值均服從正態(tài)分布且混有加性高斯噪聲,上述分類問題可以使用模式識別中的最小錯分概率貝葉斯分類器來解決。以與分別表示目標與背景的灰度分布概率密度函數,與分別表示兩類的先驗概率,則圖像的混合概率密度函數可用下式表示為 式中和分別為 、是針對背景和目標兩類區(qū)域灰度均值與的標準差。若假定目標的灰度較亮,其灰度均值為,背景的灰度較暗,其灰度均值為,因此有 現若規(guī)定一門限值對圖像進行分割,勢必會產生將目標劃分為背景和將背景劃分為目標這兩類錯誤。通過適當選擇閾值,可令這兩類錯誤概率為最小,則該閾值即為最佳閾值。把目標錯分為背景的概率可表示

5、為 把背景錯分為目標的概率可表示為 總的誤差概率為 為求得使誤差概率最小的閾值,可將對求導并令導數為零,可得 代換后,可得 此時,若設,則有 若還有的條件,則 這時的最優(yōu)閾值就是兩類區(qū)域灰度均值與的平均值。上面的推導是針對圖像灰度值服從正態(tài)分布時的情況,如果灰度值服從其它分布,依理也可求出最優(yōu)閾值來。一般情況下,在不清楚灰度值分布時,通??杉俣ɑ叶戎捣恼龖B(tài)分布。在實際使用最優(yōu)閾值進行分割的過程中,需要利用迭代算法來求得最優(yōu)閾值。設有一幅數字圖像,混有加性高斯噪聲,可表示為 此處假設圖像上各點的噪聲相互獨立,且具有零均值,如果通過閾值分割將圖像分為目標與背景兩部分,則每一部分仍然有噪聲點隨機作

6、用于其上,于是,目標和可表示為 迭代過程中,會多次地對和求均值,則 可見,隨著迭代次數的增加,目標和背景的平均灰度都趨向于真實值。因此,用迭代算法求得的最佳閾值不受噪聲干擾的影響。四、實驗步驟及程序1、實驗步驟(1)確定一個初始閾值,可取為 式中,和為圖像灰度的最小值和最大值。(2)利用第k次迭代得到的閾值將圖像分為目標和背景兩大區(qū)域,其中 (3)計算區(qū)域和的灰度均值和。(4)計算新的閾值,其中 (5) 如果小于允許的誤差,則結束,否則,轉步驟(2)。 2、實驗源程序I=imread(1.jpg);Im=rgb2gray(I); subplot(121),imhist(Im);title()Z

7、Max=max(max(I);ZMin=min(min(I);TK=(ZMax+ZMin)/2;bCal=1;iSize=size(I);while(bCal) iForeground=0; iBackground=0; ForegroundSum=0; BackgroundSum=0; for i=1:iSize(1) for j=1:iSize(2) tmp=I(i,j); if(tmp=TK) iForeground=iForeground+1; ForegroundSum=ForegroundSum+double(tmp); else iBackground=iBackground+1

8、; BackgroundSum=BackgroundSum+double(tmp); end end end ZO=ForegroundSum/iForeground; ZB=BackgroundSum/iBackground; TKTmp=double(ZO+ZB)/2); if(TKTmp=TK) bCal=0; else TK=TKTmp; endenddisp(strcat(,num2str(TK);newI=im2bw(I,double(TK)/255);subplot(121),imshow(I)title()subplot(122),imshow(newI)title()五、實驗

9、結果與分析1、實驗結果 圖1 原圖像以及其灰度直方圖 圖2 原圖像以及分割后圖像2、實驗結果分析迭代后的閾值:94.8064實驗中將大于閾值的部分設置為目標,小于閾值的部分設置為背景,分割結果大體上滿足要求。實際過程中在利用迭代法求得最優(yōu)閾值后,仍需進行一些人工調整才能將此閾值用于實驗圖像的分割,雖然這種方法利用了圖像中所有像素點的信息,但當光照不均勻時,圖像中部分區(qū)域的灰度值可能差距較大,造成計算出的最優(yōu)閾值分割效果不理想。具體的改進措施分為以下兩方面:一方面,在選取圖片時,該圖片的兩個獨立的峰值不夠明顯,因此在分割后產生誤差,應改進選擇的圖片的背景和物體的對比度,使得分割的效果更好;另一方

10、面,實驗程序中未涉及計算最優(yōu)閾值時的迭代次數,無法直觀的檢測,應在實驗程序中加入此項,便于分析。實驗二、K均值聚類算法一、實驗目的將模式識別方法與圖像處理技術相結合,掌握利用K均值聚類算法進行圖像分類的基本方法,通過實驗加深對基本概念的理解。二、實驗儀器設備及軟件HP D538、MATLAB、WIT三、實驗原理K均值聚類法分為三個步驟:初始化聚類中心1、根據具體問題,憑經驗從樣本集中選出C個比較合適的樣本作為初始聚類中心。2、用前C個樣本作為初始聚類中心。3、將全部樣本隨機地分成C類,計算每類的樣本均值,將樣本均值作為初始聚類中心。初始聚類1、按就近原則將樣本歸入各聚類中心所代表的類中。2、取

11、一樣本,將其歸入與其最近的聚類中心的那一類中,重新計算樣本均值,更新聚類中心。然后取下一樣本,重復操作,直至所有樣本歸入相應類中。判斷聚類是否合理1、 采用誤差平方和準則函數判斷聚類是否合理,不合理則修改分類。循環(huán)進行判斷、修改直至達到算法終止條件。2、 聚類準則函數誤差平方和準則函數(最小平方差劃分)3、 單樣本改進:每調整一個樣本的類別就重新計算一次聚類的中心i=1,2,.c 只調整一個樣本四、實驗步驟及程序1、實驗步驟理解K均值算法基本原理,編寫程序實現對自選圖像的分類,并將所得結果與WIT處理結果進行對比。K均值算法步驟:1、 給定類別數C和允許誤差,2、 初始化聚類中心3、 修正 0

12、其他 i=1,2,.,c;j=1,2,.N4、 修正聚類中心5、 計算誤差如果則結束,否則轉(3)2、實驗源程序clcclearticRGB= imread (Water lilies.jpg); %img=rgb2gray(RGB);m,n=size(img);subplot(2,2,1),imshow(img);title( )subplot(2,2,2),imhist(img);title( )hold off;img=double(img);for i=1:200 c1(1)=25; c2(1)=125; c3(1)=200;% r=abs(img-c1(i); g=abs(img-c

13、2(i); b=abs(img-c3(i);% r_g=r-g; g_b=g-b; r_b=r-b; n_r=find(r_g=0&r_b0&g_b0&r_b0);% i=i+1; c1(i)=sum(img(n_r)/length(n_r);% c2(i)=sum(img(n_g)/length(n_g);% c3(i)=sum(img(n_b)/length(n_b);% d1(i)=abs(c1(i)-c1(i-1); d2(i)=abs(c2(i)-c2(i-1); d3(i)=abs(c3(i)-c3(i-1); if d1(i)=0.001&d2(i)=0.001&d3(i)=0.

14、001 R=c1(i); G=c2(i); B=c3(i); k=i; break; endendR G Bimg=uint8(img);img(find(imgR&imgG)=255;tocsubplot(2,2,3),imshow(img);title( ) subplot(2,2,4),imhist(img);title( ) 五、實驗結果與分析1.WIT結果 圖3 WIT聚類分析系統(tǒng)分析界面 圖4 WIT聚類分析系統(tǒng)分析結果聚類類別數 3聚類中心 R=18.8709 G=93.3122 B=190.678迭代次數 256運行時間 60.159ms2、K均值聚類結果 圖5 K均值聚類分析

15、結果聚類類別數 3聚類中心 R =19.9483 G =94.4184 B =192.3320迭代次數 8運行時間 2.278493 seconds小結:K均值聚類方法和WIT系統(tǒng)操作后對應的聚類中心誤差較小,分別是19.9483 94.4184 192.3320和 18.8709 93.3122 190.678。說明K均值聚類分析方法誤差較小,但是相較于WIT系統(tǒng)分析的時間,K均值聚類時間較長,迭代次數較多。實驗三、神經網絡模式識別一、實驗目的掌握利用感知器和BP網進行模式識別的基本方法,通過實驗加深對基本概念的理解。二、實驗儀器設備及軟件HP D538、MATLAB三、實驗原理設計線性可分

16、實驗線性分類器原理:已知一樣本集,如果有一個線性分類器能把每個樣本正確分類,則稱這組樣本集為線性可分的,否則稱為線性不可分的。如果樣本集是線性可分的,則必然存在一個線性分類器能把每個樣本正確分類。貝葉斯分類器是在錯誤率或風險下為最優(yōu)的分類器。線性分類器針對錯誤率或者風險是“次優(yōu)”的,但對于所采用的準則函數是最優(yōu)的。線性分類器的設計步驟:1、 有一已知類別的樣本集H2、 確定一準則函數J3、 利用最優(yōu)化技術求出準則函數極值解設計線性分類器對線性可分樣本集進行分類,樣本數目10個以上,訓練及分類步驟齊全,記錄分類器訓練的迭代次數和訓練時間。奇異樣本對網絡訓練的影響奇異樣本:該樣本向量同其他樣本向量

17、比較起來特別大或特別小時,網絡訓練所花費的時間將很長。設計實驗考察奇異樣本對感知機訓練的影響,比較有無奇異點時的訓練時間及迭代次數,設計解決此問題的方案并實驗驗證。分類線性不可分樣本利用線性分類器對線性不可分樣本進行分類,考察訓練時間及迭代次數。BP法分類原理:根據樣本希望輸出與實際輸出之間的平方誤差最小,利用梯度下降法,從輸出層開始,逐層修正權系數。一般為三層前饋神經網絡,激勵函數為Sigmoid函數。前向傳播階段:輸入層 輸入節(jié)點:圖像特征分量值 輸出節(jié)點:隱層 輸入節(jié)點: 輸出節(jié)點:輸出層 輸入節(jié)點: 輸出節(jié)點:反向傳播階段:利用梯度下降法令誤差函數最小激勵函數f的導數: 利用反向傳播使

18、某一隱層節(jié)點受所有輸出層節(jié)點影響1、BP采用S函數,輸出不宜設為1或0,可設為0.9或0.1。2、權系數初始化:不應將初始值設為相同,否則在學習過程中始終不變,可設為隨機值。3、步長的選擇:應設為可變步長,以防止震蕩。4、局部最小問題:BP算法是非線性優(yōu)化算法,初始值設置不當,可能陷入局部極小。 5、前饋網絡結構:輸入節(jié)點數為模式維數,輸出節(jié)點數一般為類別數,隱層節(jié)點數尚無明確方法,實驗確定。利用BP網對該樣本集進行分類,考察訓練時間及迭代次數并作對比。四、實驗步驟及程序1、實驗步驟感知器實驗:1、設計線性可分實驗,要求訓練樣本10個以上 2、奇異樣本對網絡訓練的影響 3、以線性不可分樣本集訓

19、練分類器BP網實驗:利用BP網對上述線性不可分樣本集進行分類2、實驗源程序(1)感知器close all;clear;clc;tic;%PP=-5 -7 -4 -1 0 -5 4 2 -4 -2 1 4 4 3 1 -2;0 -5 4 2 -4 1 4 1 -1 -3 -1 7 -2 -3 5 -5;%TT=1 0 1 1 0 1 1 0 1 0 0 1 0 0 1 0;figure,plotpv(P,T);%net=newp(minmax(P),1);%linehandle=plotpc(net.IW1,net.b1);E=1;n=0;%while(sse(E) net,y,E=adapt(

20、net,P,T); n=n+1; perf(n)=sse(E); linehandle=plotpc(net.IW1,net.b1,linehandle);drawnow;endtoc%figure,plot(perf);%(2)奇異點clear;clc;tic;%PP=-3 -1 -5 4 2 -4 -2 1 4 3 1 -3;5 2 1 4 1 -1 -3 -1 -2 -4 5 -6;%TT=1 1 1 1 0 1 0 0 0 0 1 0;figure,plotpv(P,T);%net=newp(minmax(P),1);%linehandle=plotpc(net.IW1,net.b1)

21、;E=1;n=0;%while(sse(E) net,y,E=adapt(net,P,T); n=n+1; perf(n)=sse(E); linehandle=plotpc(net.IW1,net.b1,linehandle);drawnow;endtoc%figure,plot(perf);%(3)BP網絡close all;clear;clc;tic;%PP=-5 -7 -4 -1 0 -5 4 2 -4 -2 1 4 4 3 1 -2;0 -5 4 2 -4 1 4 1 -1 -3 -1 7 -2 -3 5 -5;%TT=1 0 1 0 0 1 1 0 1 0 0 1 0 0 1 0;figure,plotpv(P,T);%net=newff(minmax(P),

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論