基于輪廓模板匹配的物體檢測(cè)算法_第1頁(yè)
基于輪廓模板匹配的物體檢測(cè)算法_第2頁(yè)
基于輪廓模板匹配的物體檢測(cè)算法_第3頁(yè)
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、基于輪廓模板匹配的物體檢測(cè)算法    關(guān)鍵詞 輪廓模板;Chamfer;Boost1 概述 我們的模型訓(xùn)練方法采用了一種過(guò)飽和的模式,即使用冗余的特征集合進(jìn)行訓(xùn)練,而這些冗余特征集合恰恰克服了同類物體的不同點(diǎn)(如不同的體型、不同的動(dòng)作以及不同的面部表情)、圖像場(chǎng)景變化(不同的光照條件、遮擋等)。 2 檢測(cè) 整個(gè)檢測(cè)器是建立在局部的基于輪廓特征匹配基礎(chǔ)上的,匹配算法使用了方向性的Chamfer距離考量,這個(gè)距離值通過(guò)其權(quán)重求和,并最終作為物體檢測(cè)分類器。特征集合F代表了物體的輪廓T的局部片段,每個(gè)特征都包括了它自身到物體中心的偏移量p。另外的3個(gè)參數(shù)分別是

2、:方向量的權(quán)重,檢測(cè)閾值以及特征權(quán)重量a。 2.1 方向性Chamfer匹配 Chamfer匹配技術(shù)在輪廓匹配應(yīng)用中非常廣泛。它提供了一種計(jì)算兩個(gè)輪廓距離量的方法,并且在有大量非對(duì)齊的情況下,仍有很高的魯棒性。從最簡(jiǎn)單的模型講,Chamfer匹配需要兩個(gè)邊緣點(diǎn)集,圖像邊緣點(diǎn)集E=e和匹配模板點(diǎn)集T=t,下面的公式描述了計(jì)算這兩個(gè)點(diǎn)集在偏移量為x情況下的Chamfer值: NT為T中點(diǎn)的數(shù)量。這個(gè)公式計(jì)算了匹配模板中的邊緣點(diǎn)到最近的圖像邊緣點(diǎn)的平均距離。通過(guò)預(yù)處理,例如距離變換(Distance Transform),計(jì)算Chamfer距離的效率會(huì)提高很多,公式(1)即可以轉(zhuǎn)化為公式(3): 歐

3、幾里得距離DT的計(jì)算可以參照文章1。 另外,一個(gè)很大的改進(jìn),就是引用了輪廓的方向考量。這種考量通過(guò)邊緣點(diǎn)的斜率來(lái)表達(dá)。在圖像點(diǎn)集中,通常有很多地方邊緣非常嘈雜混亂,方向性Chamfer距離可以很好的解決這個(gè)問(wèn)題。其中一種技術(shù)是將圖像和匹配模板中的邊緣點(diǎn)劃分為不同的幾個(gè)離散的方向通道,并求出Chamfer值的和。但這種方法的通道數(shù)量并不明確,而且需要格外注意連個(gè)通道之間的邊緣曲線。我們使用一種略微不同的方法,精確的計(jì)算匹配模板上每個(gè)邊緣點(diǎn)斜率與圖像中每個(gè)邊緣點(diǎn)斜率的差: o(·)代表一個(gè)邊緣點(diǎn)的斜率,|o1-o2|表示計(jì)算兩個(gè)點(diǎn)的斜率差,ADTE(t x)表示在點(diǎn)集E中找出離點(diǎn)(t x

4、)最近的一個(gè)點(diǎn)。 這樣,最終的方向性Chamfer值便可以通過(guò)下面的公式計(jì)算出來(lái)了: 其中,為方向考量的權(quán)重值。 2.2 檢測(cè)步驟 物體檢測(cè)器K(c)可以計(jì)算某一點(diǎn)的c的信心值(Confident Value),使用K在整個(gè)圖片的所有像素點(diǎn)進(jìn)行掃描,可以得出一個(gè)分類圖。這個(gè)分類圖經(jīng)過(guò)一定的處理(如降噪、平滑等),通過(guò)設(shè)定一個(gè)理想的閾值,在這個(gè)分類圖中可以找出物體在圖片中的大致位置。 整個(gè)檢測(cè)器K通過(guò)一個(gè)參數(shù)組Fm進(jìn)行訓(xùn)練,每個(gè)參數(shù)組表示為Fm=(Tm ,pm ,m ,m ,am),K用加性模型表示如下: 函數(shù)相當(dāng)于一個(gè)判斷語(yǔ)句,如果括號(hào)內(nèi)部表達(dá)式為真,則返回1,否則返回0。m是每個(gè)一個(gè)閾值,來(lái)

5、過(guò)濾弱分類器得出的方向性Chamfer值,通過(guò)訓(xùn)練得出。am是每個(gè)特征向量的權(quán)重,同樣通過(guò)訓(xùn)練得出。 3 訓(xùn)練 3.1 建立匹配模板庫(kù) 首先,我們要找出大量需要檢測(cè)的物體圖片,將其分成兩部分,第一部分則用來(lái)提取特征,第二部分則用來(lái)用來(lái)作為訓(xùn)練樣本。首先將第一部分的圖片背景信息去除(通常是下載標(biāo)準(zhǔn)數(shù)據(jù)集來(lái)解決),然后使用Canny edge算法算出這些圖片相應(yīng)的邊緣輪廓圖片。隨機(jī)指定一些位置,記錄這些位置到物體中心的偏移量,并截取隨機(jī)大小的矩形區(qū)域的(不能太大或太小)輪廓片段,將這兩種信息儲(chǔ)存。這樣,庫(kù)中的每條信息都包括兩個(gè)內(nèi)容:物體的部分輪廓曲線以及它相對(duì)于物體中心的位置。 3.2 分類器的學(xué)

6、習(xí) Boost是現(xiàn)今機(jī)器學(xué)習(xí)領(lǐng)域中較為簡(jiǎn)單且有效的技術(shù)。它由一系列的“弱分類器”構(gòu)成,這些分類器的表現(xiàn)僅僅比隨機(jī)猜測(cè)要好一點(diǎn),但是一個(gè)帶有權(quán)重的弱分類器的集合,通??梢詷?gòu)成一個(gè)比較準(zhǔn)確的“強(qiáng)分類器”。Boost算法在計(jì)算機(jī)視覺(jué)中的應(yīng)用非常廣泛,大部分是作為一個(gè)特征選擇機(jī)制,例如:Viola和Jones利用AdaBoost制作了一個(gè)效率很高的級(jí)聯(lián)分類器。 我們引入Boost算法主要是為了3點(diǎn):特征選擇,參數(shù)估計(jì)以及檢測(cè)器學(xué)習(xí)。 4 實(shí)驗(yàn)分析 我們使用Caltech人臉數(shù)據(jù)集進(jìn)行算法的測(cè)試驗(yàn)證。如圖1,左邊一列都是包含檢測(cè)物體的圖片,中間是通過(guò)訓(xùn)練好的檢測(cè)器算出的分類圖,右邊列則是檢測(cè)器K中匹配模板疊加后的效果??梢钥闯?需要檢測(cè)的物體的位置都比較準(zhǔn)確。 5 結(jié)論 本篇文章對(duì)基于輪廓模板匹配的

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論