基于多特征融合的目標(biāo)跟蹤算法_第1頁
基于多特征融合的目標(biāo)跟蹤算法_第2頁
基于多特征融合的目標(biāo)跟蹤算法_第3頁
基于多特征融合的目標(biāo)跟蹤算法_第4頁
基于多特征融合的目標(biāo)跟蹤算法_第5頁
已閱讀5頁,還剩4頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

1、基于多特征融合的目標(biāo)跟蹤算法單東晶1,田海靜1,馬寶紅1(1.重慶通信學(xué)院 重慶市 400035)照片尺寸為20mm*30mm;最好不用紅色背景摘 要:本文以壓縮感知、隨機(jī)投影理論等為基礎(chǔ),比較驗(yàn)證國內(nèi)外主要方法,提出了一種在級(jí)聯(lián)粒子濾波器框架下的多特征集成的目標(biāo)跟蹤算法。算法中采用了兩類特征:顏色自相關(guān)圖與基于隨機(jī)投影降維的haar-like特征。其中降維haar-like特征被用于壓縮感知跟蹤算法中。實(shí)驗(yàn)采用了當(dāng)前主流跟蹤算法用于性能對(duì)比,測試視頻的來源涵蓋復(fù)雜背景、嚴(yán)重遮擋、劇烈的形變等問題。實(shí)驗(yàn)結(jié)果可以表明本文算法對(duì)比其他算法的性能優(yōu)勢。關(guān)鍵詞:壓縮感知;稀疏表示;級(jí)聯(lián)粒子濾波器;隨機(jī)

2、投影;目標(biāo)跟蹤Visual Tracking Based on Multi-Features CombinationDongjing Shan1, Haijing Tian1, Baohong Ma1(1.Chongqing Communication Institution ChongQing 400035)Abstract: This method is based on the framework of cascade particle filter,and two features are integrated under it,which are color correlogram

3、and down-sampling haar-like feature after dimensionality reduction by random projection. The emphasis will be placed on the down-sampling haar-like feature, whose dimensionality has been reduced significantly using random projection and is used in a sparse representation tracking method. The random

4、projection will maintain most of the information kept in the original large set of haar-like features and accelerate the execution speed significantly.Keywords: Compressive sensing; Sparse representation; Cascade particle filter; Random projection; Visual tracking9目標(biāo)跟蹤是機(jī)器視覺、人工智能領(lǐng)域研究的熱點(diǎn)問題之一,在智能視頻監(jiān)控、交

5、通控制、人機(jī)交互、機(jī)器人導(dǎo)航等方面有著很好的或者潛在的應(yīng)用價(jià)值.目標(biāo)跟蹤面臨的挑戰(zhàn)、待解決的問題主要是需要采用有效的特征,建立魯棒的目標(biāo)模板以及有效的更新方法,使得算法整體對(duì)目標(biāo)遮擋、背景干擾、光照變化、噪聲等具有魯棒性. 針對(duì)目標(biāo)跟蹤領(lǐng)域存在的問題,本文提出了一種基于級(jí)聯(lián)粒子濾波器框架的多特征集成跟蹤器算法. 算法聯(lián)合了顏色自相關(guān)圖1和降維haar-like特征,顏色自相關(guān)圖可以利用到目標(biāo)顏色的空間分布信息,而降維haar-like特征采用隨機(jī)投影理論對(duì)全尺度的haar-like特征進(jìn)行降維,降維后的向量能夠保持絕大部分的信息,該特征能利用到目標(biāo)表面豐富的紋理梯度信息,與顏色自相關(guān)圖形成互補(bǔ)

6、. 級(jí)聯(lián)粒子濾波第一級(jí)采用顏色自相關(guān)圖特征,第二級(jí)采用壓縮感知跟蹤算法,并且把降維haar-like特征應(yīng)用于第二級(jí)中.收稿日期:2014-06-25 作者簡介:單東晶,男,重慶通信學(xué)院,研究生科參謀。1 相關(guān)研究目前國際上目標(biāo)跟蹤領(lǐng)域有海量的文獻(xiàn),按照目標(biāo)跟蹤的框架可以大致分為三類:基于概率模型的算法、基于軌跡優(yōu)化的算法和基于分類器的算法. 概率模型算法經(jīng)典的主要有mean-shift算法2、卡爾曼濾波3、粒子濾波算法4等,其中粒子濾波通過采樣大量粒子可以模擬任何形式的概率分布,在目標(biāo)跟蹤領(lǐng)域得到了廣泛的應(yīng)用,衍生出了很多經(jīng)典的算法,例如IPCA、稀疏表示等算法. 基于軌跡優(yōu)化的算法一般有基

7、于全局軌跡優(yōu)化的離線跟蹤算法5,基于K最短路徑6、路徑匹配7等目標(biāo)跟蹤算法. 這些算法都是通過優(yōu)化準(zhǔn)則例如貪心法、動(dòng)態(tài)規(guī)劃等來獲取最優(yōu)或者次最優(yōu)的路徑. 基于分類器的跟蹤算法文獻(xiàn)十分豐富,不同的文獻(xiàn)設(shè)計(jì)了不同的特征、采用了不同的分類器等,單從分類器類型來說有貝葉斯分類器8,自行設(shè)計(jì)的樹形9、森林分類器10,boosting分類器11等等.有關(guān)多特征融合的跟蹤算法主要有:Valtteri Takala等在2007年提出的多目標(biāo)跟蹤算法7融合了三類特征:顏色自相關(guān)圖、LBP29紋理信息和運(yùn)動(dòng)信息. 其中運(yùn)動(dòng)信息的提取是基于目標(biāo)運(yùn)動(dòng)的連續(xù)性,包括速度大小和方向的連續(xù)性,如下式提取出每個(gè)候選目標(biāo)塊的運(yùn)

8、動(dòng)信息權(quán)重:其中表示目標(biāo)塊索引,是跟蹤視頻幀索引,是速度大小與方向加權(quán)權(quán)重,前后兩項(xiàng)分別表示速度矢量的大小和方向信息.候選塊基于最近鄰矩陣分配它們對(duì)應(yīng)的track,該算法還引入了分離合并事件檢測的模塊,主要用來處理目標(biāo)塊相互間發(fā)生遮擋的問題.Ju Hong Yoon等在2012年提出了基于多跟蹤器集成的目標(biāo)跟蹤算法,該算法的每一個(gè)跟蹤器都采用不同的特征,對(duì)目標(biāo)形變、噪聲、背景變化等有相應(yīng)的適應(yīng)能力,集成跟蹤器主要基于兩點(diǎn),一個(gè)是跟蹤器本身的跟蹤可靠性,二是它們之間的轉(zhuǎn)移概率,二者相輔相成. 跟蹤器的可靠性更新標(biāo)準(zhǔn)如下:是歸一化系數(shù),是該跟蹤器的觀測似然度,該跟蹤器的跟蹤可靠性與其觀測似然度有關(guān)

9、,同時(shí)也與其它跟蹤器的轉(zhuǎn)移概率有關(guān),為某跟蹤器轉(zhuǎn)入另一跟蹤器的概率,和式表示的是所有其它跟蹤器轉(zhuǎn)移到某跟蹤器的概率和.上式為轉(zhuǎn)移概率矩陣的更新公式,矩陣的元素,表示跟蹤器轉(zhuǎn)入跟蹤器的概率.Yuan Li,Haizhou Ai等在2008年提出低幀率下多跟蹤器集成的級(jí)聯(lián)粒子濾波器算法13. 該算法的每一級(jí)可以采用不同的特征作為觀測模型. 首先第一級(jí)粒子經(jīng)過本級(jí)的觀測模型賦予權(quán)值,再根據(jù)權(quán)值進(jìn)行粒子重采樣,重采樣之后的粒子賦予完全相等的權(quán)值(), 后驗(yàn)概率分布采用粒子的分布密度模擬,而不再是粒子的權(quán)重. 這些重采樣之后的粒子有利于粒子濾波傾向于該級(jí)觀測模型所指定的目標(biāo)區(qū)域,接下來一級(jí)粒子濾波的觀測

10、模型則重新給這些相同權(quán)重的粒子賦予權(quán)值,再通過重采樣進(jìn)一步鎖定到目標(biāo)區(qū)域.2 多特征集成跟蹤算法多特征集成的跟蹤算法是在級(jí)聯(lián)粒子濾波框架下采用多特征構(gòu)造多級(jí)粒子觀測模型,通過粒子重采樣模擬多級(jí)概率分布,從而準(zhǔn)確找出最佳粒子。在級(jí)聯(lián)粒子濾波框架內(nèi),算法采用了顏色自相關(guān)圖與haar-like特征兩種特征,該框架實(shí)際上允許多類特征,出于計(jì)算效率的考慮這里只采用了兩類,并且這兩類特征一個(gè)基于顏色一個(gè)基于紋理梯度信息,具有較好的互補(bǔ)性. 算法的重點(diǎn)將落在haar-like特征上,在這一級(jí)我們采用的跟蹤器是基于稀疏表示的跟蹤器,并且結(jié)合國際上新穎的設(shè)計(jì)提出了本文的算法. 首先,稀疏表示跟蹤器本文采用了目標(biāo)

11、模板與背景模板的模板集形式,并且使用OMP算法求解優(yōu)化問題14,而不是原算法4解lasso問題的LARS算法. OMP算法的采用極大的提高了算法速度. 其次,原算法4采用的像素特征過于原始,沒有提取高層信息,我們的算法采用了全尺度的haar-like特征向量,并且通過隨機(jī)投影理論做降維,得到了低維的特征向量用于稀疏表示算法中.2.1 多特征融合的級(jí)聯(lián)粒子濾波框架粒子濾波的基本過程是已知所有時(shí)刻的觀測數(shù)據(jù)去估計(jì)后驗(yàn)概率,概括為如下公式:解這個(gè)問題的直接的方法是求出聯(lián)合觀測概率:但是這樣會(huì)導(dǎo)致大量的計(jì)算資源浪費(fèi)在權(quán)值極低的粒子上,降低了運(yùn)算效率并且會(huì)降低跟蹤效果,所以文獻(xiàn)13提出的級(jí)聯(lián)粒子濾波器很

12、好的克服了這個(gè)問題,它把計(jì)算資源盡量的集中在有效粒子上,并且在每一級(jí)濾波時(shí)都可以采用比上一級(jí)少得多的粒子數(shù),提高運(yùn)算效率的同時(shí)還不會(huì)損失性能.首先定義: 圖1 級(jí)聯(lián)粒子濾波示意圖推出: 級(jí)聯(lián)粒子濾波的過程可以敘述如下:在第階段,需要從建議分布采樣一組加權(quán)粒子. 該建議分布在上一階段已經(jīng)由另一組加權(quán)粒子模擬: . 從該建議分布重采樣出的粒子為:. 這些粒子的權(quán)值初值全設(shè)為相等,接下來通過第級(jí)的觀測模型修改這些粒子的權(quán)值為:粒子集可用來模擬概率 的分布. 重要性重采樣重復(fù)進(jìn)行直到第階段,于是最終得到級(jí)的觀測后驗(yàn)分.每級(jí)重采樣的粒子數(shù)目可以依次遞減,這是因?yàn)樯弦患?jí)觀測模型的限制可以有效的縮小粒子需要

13、搜索的范圍,如圖1所示,可見粒子重采樣的過程.圖1來源于Yuan Li 200713,一共有三級(jí)粒子濾波,每一級(jí)在前一級(jí)觀測模型基礎(chǔ)上重采樣的粒子數(shù)有很大程度減少,這樣為后級(jí)的粒子濾波采用較復(fù)雜、運(yùn)算復(fù)雜度較高的觀測模型提供了條件.在本文算法中,第一級(jí)采用了顏色自相關(guān)圖1的特征,該特征簡單有效,使用范圍較廣,主要是基于直方圖的距離匹配來計(jì)算觀測模型,距離的倒數(shù)通過歸一化之后可得出每個(gè)粒子的觀測似然度.本文的重點(diǎn)放在第二級(jí)使用降維haar-like 特征上.2.2 基于降維haar-like特征的壓縮感知跟蹤算法2.2.1 基于隨機(jī)投影的降維haar-like特征對(duì)haar-like特征的降維如

14、圖所示,在粒子濾波框架下使用的候選粒子代表的候選目標(biāo)塊若干,需要對(duì)每一個(gè)圖像塊提取出全尺度的haar-like特征,該特征的維數(shù)會(huì)非常大,基本上會(huì)有至 的量級(jí),所以應(yīng)用隨機(jī)投影矩陣對(duì)這些超長特征向量做降維顯得很有必要,并且我們要盡量保持住原有的包含信息,以便不損失特征的區(qū)分力.在圖中,跟蹤幀提取的圖像塊被依次進(jìn)行haar-like特征提取,得到每一個(gè)圖像塊的超長特征描述向量,接下來就是用隨機(jī)矩陣進(jìn)行降維的過程.使用隨機(jī)矩陣降維的過程:是需要降維的原始向量,維數(shù)為;為隨機(jī)矩陣;是降維之后的向量,維數(shù)為,這里有.圖2 haar-like特征降維示意圖為了降維之后的向量盡量保持原有長向量信息,需要矩

15、陣滿足等距約束條件(RIP21),一般的隨機(jī)高斯矩陣 滿足會(huì)有滿足RIP條件,但是這個(gè)高斯矩陣不是稀疏的,在計(jì)算全尺度haar-like特征上會(huì)帶來很大的運(yùn)算代價(jià),于是本算法采用了另一種滿足等距約束條件的稀疏投影矩陣,既可以保持原向量大部分信息,又可以極大提升運(yùn)算效率。隨機(jī)矩陣 的設(shè)計(jì)如公式12.Achlioptas15證明當(dāng)或時(shí)并且 ,以概率 隨機(jī)矩陣 滿足Johnson-Lindenstrauss引理,當(dāng)時(shí),有三分之二的矩陣元素都是零,降低了很大部分的計(jì)算量.另外Li et al.16證明時(shí),矩陣滿足漸進(jìn)正態(tài)性,例如當(dāng)時(shí),經(jīng)過稀疏矩陣投影之后的低維數(shù)據(jù)與高維數(shù)據(jù)用隨機(jī)高斯矩陣降維后的低維數(shù)

16、據(jù)具有相同的期望、方差值,從而說明作者設(shè)計(jì)的矩陣與高斯隨機(jī)矩陣在同等條件下可以滿足等距約束條件. 這個(gè)同等條件就是的行數(shù)滿足的條件. 本算法采用的設(shè)置,可得到一個(gè)非常稀疏的隨機(jī)投影矩陣. 對(duì)于矩陣每一行,非零元不超過6個(gè) (),總體計(jì)算復(fù)雜度為,為矩陣 的行數(shù).關(guān)于矩陣行數(shù)的選擇,Candes,E17等給出了更緊的條件,證明當(dāng),且為常數(shù)時(shí),投影矩陣(高斯、等) 滿足RIP條件. 當(dāng),有. 本文算法中選取.2.2.2 基于壓縮傳感的跟蹤算法本文的壓縮感知算法是基于OMP優(yōu)化的解稀疏解問題. 字典包含的原子有目標(biāo)模板與背景模板,同時(shí)取消了噪聲模板,同時(shí)不再解lasso 問題,而是 Algorith

17、m 1 OMP算法流程Require: 歸一化的觀測值:模板集:恢復(fù)殘差:迭代次數(shù):Ensure:恢復(fù)出的系數(shù)1初始化殘差殘差,索引集為空,選擇模板集合為空集.2 循環(huán)求近似可行解3 得出近似解Retrieve signalaccording toand;解一個(gè)最小化問題(求近似解). 目標(biāo)模板若干,背景模板可以采用高斯背景建模構(gòu)造背景,也可以采用壓縮感知背景模型建模(CSBM18). 求解當(dāng)前幀目標(biāo)位置可概括如下:首先,該算法也是基于粒子濾波框架的,最核心的一點(diǎn)就是設(shè)計(jì)粒子觀測模型找出最佳粒子. 那么本文中,采用的觀測模型是粒子到其字典投影的距離. 由Hanxi Li18的思想,我們有公式形

18、式如下:為字典,為目標(biāo)模板集,共包含個(gè)目標(biāo)模板, Algorithm 2 目標(biāo)模板集更新算法流程1:是跟蹤到的目標(biāo)粒子2:是公式13的解,是目標(biāo)模板集上的系數(shù)3:是目標(biāo)模板集的權(quán)重,初始值為4:是預(yù)先給定的一個(gè)閾值參數(shù)5:由更新目標(biāo)模板的權(quán)值6:,這里表示比較相似度的函數(shù),表示有最大系數(shù)的相應(yīng)目標(biāo)模板,其中 7:歸一化使得權(quán)值和為背景模板集,來自CSBM模型,共有個(gè)模板.為候選粒子,需要注意的是,背景模板的選擇對(duì)于每一個(gè)候選粒子都是不同的,需要按照粒子坐標(biāo)在背景模型上對(duì)應(yīng)坐標(biāo)處選取. 另外,表示對(duì)字典元素、候選粒子(圖像塊)提取haar-like 特征并得到降維向量的過程,也就是說這里的所有字

19、典元素、候選粒子向量等均為haar-like特征降維之后的維特征.上述稀疏解的獲得采用了OMP算法(正交匹配追蹤算法),OMP算法解的流程如算法1 所示.對(duì)每個(gè)粒子求解稀疏系數(shù)之后,粒子的評(píng)價(jià)標(biāo)準(zhǔn)如下:是字典,為在目標(biāo)模板上的稀疏系數(shù). 取最小的粒子被選為最佳粒子. 很顯然,每個(gè)粒子僅與它在目標(biāo)模板上的投影做對(duì)比,這樣就可以濾掉那些與背景十分相似的粒子的影響,因?yàn)檫@類粒子由于與背景相似導(dǎo)致在目標(biāo)模板上的線性組合幾乎為零,分解系數(shù)基本都落在背景模板上. 顯然這種思想可以有效的抵抗背景的干擾.最后,需要提到目標(biāo)模板的更新問題. 本算法采用了若干個(gè)目標(biāo)模板,將采用加權(quán)更新的模式對(duì)這個(gè)模板集做維護(hù),以

20、使得模板集與目標(biāo)的形態(tài)最為符合. 模板集加權(quán)更新算法如算法2所示.3 實(shí)驗(yàn)分析本文算法的實(shí)驗(yàn)采用了PETS等開放數(shù)據(jù)集以及一些自采數(shù)據(jù),并且使用了IPCA19、MIL11、-tracker4等主流算法做對(duì)比實(shí)驗(yàn). 在2.8GHZ P4 CPU與2GB內(nèi)存的電腦上四類算法運(yùn)行速度對(duì)比見表1. 由于本文算法中的OMP求解通過適當(dāng)改變殘差可以獲得極高的解出速度,用其替換原-tracker中對(duì)每一個(gè)粒子解一個(gè)lasso問題,所以算法執(zhí)行速度獲得了較大提升.算法的性能具體見下文的實(shí)驗(yàn).算法速度s/frame算法框架源代碼IPCA0.12粒子濾波(600粒子)matlabMIL1.8Boosting分類器

21、c-tracker6.7粒子濾波(600粒子)matlab本文算法0.62級(jí)聯(lián)粒子濾波(第一級(jí)600粒子第二級(jí)300粒子)matlab表1 算法速度對(duì)比圖3到圖5是在三個(gè)數(shù)據(jù)集上的跟蹤軌跡誤差顯示,每個(gè)圖都采用了三種對(duì)比算法:IPCA、MIL和 -tracker.軌跡圖的左上角文本框是每一個(gè)跟蹤器的軌跡誤差平均值,其下的圖框是所用數(shù)據(jù)的圖示. 由這些數(shù)據(jù)可以看出本文算法對(duì)強(qiáng)烈光照(圖3、圖5)、嚴(yán)重遮擋、形變(圖4、圖5)等處理得較為理想.表2是平均距離誤差與正確跟蹤幀數(shù)的百分比列表. 正確跟蹤幀采用的評(píng)價(jià)標(biāo)準(zhǔn)為:給定跟蹤框 與ground truth的目標(biāo)框,它們覆蓋的百分?jǐn)?shù)定義如公式15.

22、圖3 跟蹤軌跡對(duì)比圖: david11如果分?jǐn)?shù)大于就認(rèn)為該幀的跟蹤框與ground truth一致,即跟蹤正確。表2中黑體表示排圖4 跟蹤軌跡對(duì)比圖: faceocc211名第一的項(xiàng),下劃線表示排名第二項(xiàng). 數(shù)據(jù)集采用的基本上是有遮擋或者形變嚴(yán)重的數(shù)據(jù). 圖6到圖7是跟蹤器性能的圖例顯示, 采用了與本文算法關(guān)聯(lián)最大的-tracker用于性能對(duì)比. 圖6是一個(gè)被嚴(yán)重遮擋的人臉視頻8,可見本文算法與-tracker都取得了很好的跟蹤效果,-tracker由于稀疏性而對(duì)遮擋具有一定的魯棒性,在沒有相似背景干擾的情況下仍然能找出被遮擋的物體. 本文算法除了稀疏性對(duì)遮擋有魯棒性之外,更重要的是有背景模板

23、集可以抵抗相似背景的干擾,適應(yīng)性強(qiáng)于-tracker. 圖7是自采的車輛行駛視頻,黑色目標(biāo)車輛超越白色車輛時(shí)有嚴(yán)重遮擋發(fā)生, -tracker在遮擋發(fā)生時(shí)產(chǎn)生了跟蹤漂移,原因是相似背景對(duì)跟蹤器有強(qiáng)烈干擾作用, 并且跟蹤器一旦發(fā)生漂移就難以回到目標(biāo)本身,本文算法則成功處理了遮擋, 原因在于背景模板集的使用限制了跟蹤器鎖定背景,提高了對(duì)目標(biāo)遮擋的魯棒性.4 結(jié)論本文提出了基于隨機(jī)投影降維與壓縮感知的跟蹤算法. 該算法基于級(jí)聯(lián)粒子濾波框架. 在這個(gè)框架下可以使用多個(gè)觀測模型,也就是結(jié)合使用多種不同的特征以實(shí)現(xiàn)對(duì)目標(biāo)更準(zhǔn)確的跟蹤.算法中采用了顏色自相關(guān)圖與隨機(jī)矩陣降維的haar-like特征并應(yīng)用于壓

24、縮感知跟蹤算法里.該算法具有較強(qiáng)的可擴(kuò)展性,可以根據(jù)具體的應(yīng)用場景選擇合適的特征,甚至增加特征的層數(shù).算法改進(jìn)的方向主要是設(shè)計(jì) 表2 跟蹤軌跡平均誤差和正確跟蹤幀數(shù)百分比測試數(shù)據(jù)IPCAL1-trackerMIL本文算法David11 7.553 / 0.90 43.281 / 0.70 15.529 / 0.54 1.418 / 0.95Car19 1.096 / 1.0 33.484 / 0.60 40.474 / 0.41 0.956 / 1.0Sylv4 40.375 / 0.55 44.480 / 0.41 7.309 / 0.78 12.516 / 0.76Girl4 44.808

25、 / 0.66 12.120 / 0.97 31.604 / 0.71 10.378 / 0.96 Faceocc1119.651 / 0.99 10.195 / 0.93 15.175 / 0.98 8.356 / 1.0 Faceocc211 17.245 / 0.80 18.225 / 0.69 15.387 / 0.95 8.231 / 0.97 Walker20 44.833 / 0.71 86.456 / 0.71 193.612 / 0.65 9.715 / 0.89 圖6 遮擋人臉跟蹤關(guān)鍵幀對(duì)比結(jié)果. 幀數(shù):#415,#428,#436,#445,#460圖7 城市道路車輛跟蹤

26、關(guān)鍵幀對(duì)比結(jié)果. 幀數(shù):#81,#90,#186,#222,#229圖5 跟蹤軌跡對(duì)比圖: sylv4更好的目標(biāo)模板集更新機(jī)制,使之具有覆蓋性的同時(shí)也具有對(duì)錯(cuò)誤模板的容錯(cuò)能力,能更好的防止跟蹤器的漂移.參 考 文 獻(xiàn)1 Qi Zhao, Hai Tao. Object tracking using color correlo- gramC. Visual Surveillance and Performance Evaluation of Tracking and Surveillance, 2005. 2nd Joint IEEE Inter- national Workshop on. I

27、EEE, 2005, 263-2702 Dorin Comaniciu, Peter Meer. Mean shift: A robust ap- proach toward feature space analysisJ. Pattern Analysis and Machine Intelligence, IEEE Transactions on. 2002, 24(5):603-619 3 Amir Betser, Patricio Vela, Allen Tannenbaum. Automatic tracking of ying vehicles using geodesic sna

28、kes and Kalman lteringC. Decision and Control, 2004. CDC. 43rd IEEE Conference on. IEEE, 2004, vol. 2, 1649-1654 4 Xue Mei, Haibin Ling. Robust visual tracking and vehicle classi cation via sparse representationJ. Pattern Analy- sis and Machine Intelligence, IEEE Transactions on. 2011, 33(11):2259-2

29、272 5 Steve Gu, Ying Zheng, Carlo Tomasi. Linear time online tracking and lower envelope algorithmsC. Computer Vision (ICCV), 2011 IEEE International Conference on. IEEE, 2011, 1840-18466 Jerome Berclaz, Francois Fleuret, Engin Turetken, Pascal Fua. Multiple object tracking using k-shortest paths op

30、timizationJ. Pattern Analysis and Machine Intelligence,IEEE Transactions on. 2011, 33(9):1806-18197 Valtteri Takala, Matti Pietikainen. Multi-object tracking using color, texture and motionC. Computer Vision and Pattern Recognition, 2007. CVPR'07. IEEE Conference on. IEEE, 2007, 1-7 8 Dan Li, Ke

31、rry D Wong, Yu Hen Hu, Akbar M Sayeed. Detection, classi cation, and tracking of targetsJ. Signal Processing Magazine, IEEE. 2002, 19(2):17-29.9 Rainer W Lienhart, Luhong Liang, Alexander Kuranov, et al. Detector tree of boosted classi ers for real-time object detection and trackingZ, 2007.USPatent

32、7,203, 669.10 Aiping Wang, Guowei Wan, Zhiquan Cheng, Sikun Li. An incremental extremely random forest classierfor online learning and trackingC.Image Processing (ICIP), 2009 16th IEEE International Conference on. 1449-1452.11 Boris Babenko, Ming-Hsuan Yang, Serge Belongie. Visual tracking with onli

33、ne multiple instance learningC. Comput- er Vision and Pattern Recognition, 2009. CVPR 2009. IEEE Conference on. IEEE, 2009, 983-990.12 Xiaoyu Wang, Tony X Han, Shuicheng Yan. An HOG-LBP human detector with partial occlusion handlingC. Computer Vision, 2009 IEEE 12th International Conference on. IEEE

34、, 2009, 32-39.13 Yuan Li, Haizhou Ai, Takayoshi Yamashita, Shihong Lao, Masato Kawade. Tracking in low frame rate video: A cas- cade particle lter with discriminative observers of di erent life spansJ. Pattern Analysis and Machine Intelligence, IEEE Transactions on. 2008, 30(10):1728-1740.14 Joel A Tropp, Anna C Gilbert. Signal recovery from random measurements via orthogonal matching pursuitJ. Information Theory, IEEE Transaction

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論