基于骨骼數(shù)據(jù)的人體行為識(shí)別_第1頁(yè)
基于骨骼數(shù)據(jù)的人體行為識(shí)別_第2頁(yè)
基于骨骼數(shù)據(jù)的人體行為識(shí)別_第3頁(yè)
基于骨骼數(shù)據(jù)的人體行為識(shí)別_第4頁(yè)
基于骨骼數(shù)據(jù)的人體行為識(shí)別_第5頁(yè)
免費(fèi)預(yù)覽已結(jié)束,剩余1頁(yè)可下載查看

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、基于骨骼數(shù)據(jù)的人體行為識(shí)別摘要人體動(dòng)作姿態(tài)識(shí)別是計(jì)算機(jī)視覺(jué)研究領(lǐng)域中最具挑戰(zhàn)的研究方向,是當(dāng)前的研究熱點(diǎn)。對(duì)人體動(dòng)作姿態(tài)進(jìn)行自動(dòng)識(shí)別將帶來(lái)一種全新的交互方式,通過(guò)身體語(yǔ)言即人體的姿態(tài)和動(dòng)作來(lái)傳達(dá)用戶的意思,如在機(jī)場(chǎng)、工廠等喧鬧的環(huán)境下,采用手勢(shì)、動(dòng)作姿態(tài)識(shí)別等人機(jī)交互技術(shù)能夠提供比語(yǔ)音識(shí)別更加準(zhǔn)確的信息輸入??傊?,在智能監(jiān)控、虛擬現(xiàn)實(shí)、感知用戶接口以及基于內(nèi)容的視頻檢索等領(lǐng)域,人體動(dòng)作姿態(tài)的識(shí)別均具有廣泛的應(yīng)用前景。該文首先簡(jiǎn)單介紹了人體動(dòng)作姿態(tài)序列的分割,然后對(duì)人體動(dòng)作姿態(tài)識(shí)別的方法進(jìn)行了分類介紹,并對(duì)一些典型的算法的研究進(jìn)展情況及其優(yōu)缺點(diǎn)進(jìn)行了重點(diǎn)介紹。關(guān)鍵詞:人體動(dòng)作姿態(tài)識(shí)別;人工智能;

2、隱馬爾可夫模型;動(dòng)態(tài)貝葉斯網(wǎng)絡(luò);模板匹配前言人體姿態(tài)識(shí)別是計(jì)算機(jī)視覺(jué)的一個(gè)重要研究方向,它最終目的是輸出人的整體或者局部肢體的結(jié)構(gòu)參數(shù),如人體輪廓、頭部的位置與朝向、人體關(guān)節(jié)點(diǎn)的位置或者部位類別。姿態(tài)識(shí)別的研究方法應(yīng)該說(shuō),幾乎涵蓋了計(jì)算機(jī)視覺(jué)領(lǐng)域所有理論與技術(shù),像模式識(shí)別、機(jī)器學(xué)習(xí)、人工智能、圖像圖形、統(tǒng)計(jì)學(xué)等。到目前為止,已經(jīng)有眾多識(shí)別方法被提出,并且也取得了許多重要的階段性的研究成果,但是以往的方法都是基于普通光學(xué)圖像,比如常見(jiàn)的RGB圖像,這類圖像容易受光照、陰影等外界變化的影響,尤其在環(huán)境黑暗的情況下無(wú)法來(lái)識(shí)別人體姿態(tài),并且由于人體關(guān)節(jié)自由度大,及人的體型、著裝較大差異性,常導(dǎo)致姿態(tài)識(shí)

3、別系統(tǒng)識(shí)別率低。盡管有研究者利用多個(gè)攝像機(jī)獲取采集的圖像來(lái)獲取人體深度信息以克服以上問(wèn)題1,但是該類方法恢復(fù)的深度信息不是唯一的,而且計(jì)算量非常大,尤其是這種方法要求事先用人工對(duì)傳感設(shè)備進(jìn)行標(biāo)定,而在選取場(chǎng)景中的標(biāo)定物時(shí),往往又會(huì)遇到實(shí)際環(huán)境操作困難的問(wèn)題。隨著光電技術(shù)的快速發(fā)展,深度傳感設(shè)備的成本逐漸降低,人們獲取深圖像的途徑及方法也越來(lái)越多。該方向的研究也逐漸成為計(jì)算機(jī)視覺(jué)領(lǐng)域的研究趨勢(shì)。具體原因包括:一方面,深度傳感設(shè)備不僅操作簡(jiǎn)單,并且極大簡(jiǎn)化了普通攝像機(jī)的標(biāo)定過(guò)程;另一方面,得到的深度圖像由于直接包含了人體的深度信息,能夠有效的克服普通光學(xué)圖像遇到的上述問(wèn)題。到目前為止,較有影響力的

4、基于該類圖像的人體姿態(tài)識(shí)別算法,應(yīng)該是Shotton等人利用一種深度傳感器Kinect來(lái)實(shí)時(shí)捕捉人體運(yùn)動(dòng)的算法,該算法雖然能夠滿足人們對(duì)識(shí)別系統(tǒng)實(shí)時(shí)性的要求,但其對(duì)硬件要求特別高,并且不適合低分辨率圖像中的人體關(guān)節(jié)點(diǎn)提取,容易導(dǎo)致人體骨架扭曲。下文將具體陳述人體運(yùn)動(dòng)分析的主要用途和前人在不同時(shí)期對(duì)這些難題的處理辦法。主題基于計(jì)算機(jī)視覺(jué)的人體運(yùn)動(dòng)分析不僅在智能監(jiān)控、人機(jī)交互、虛擬現(xiàn)實(shí)和基于內(nèi)容的視頻檢索等方面有著廣泛的應(yīng)用前景,更是成為了未來(lái)研究的前瞻性方向之一。Gavrila總結(jié)了它的一些主要應(yīng)用領(lǐng)域2,3,4,下面據(jù)此對(duì)其典型應(yīng)用做出進(jìn)一步的介紹。智能監(jiān)控(SmartSurveillance

5、)所謂“智能監(jiān)控”是指監(jiān)控系統(tǒng)能夠監(jiān)視一定場(chǎng)景中人的活動(dòng),并對(duì)其行為行分析和識(shí)別,跟蹤其中的可疑行為(例如在一些重要地點(diǎn)經(jīng)常徘徊或者人流密集的場(chǎng)合下突發(fā)的人群擁擠等狀況)從而采取相應(yīng)的報(bào)警措施。智能監(jiān)控系統(tǒng)應(yīng)用最多的場(chǎng)合來(lái)自于那些對(duì)安全要求較為敏感的場(chǎng)合,常見(jiàn)于銀行、機(jī)場(chǎng)、車站、碼頭、超市、辦公大樓、住宅小區(qū)、軍事基地等,以實(shí)現(xiàn)對(duì)這些場(chǎng)所的智能監(jiān)控。高級(jí)人機(jī)交互(AdvancedHuman-ComputerInteraction)人體的行為分析常被用來(lái)提供控制和指令。通常來(lái)說(shuō),人們之間的信息交流主要靠語(yǔ)言,并結(jié)合適當(dāng)?shù)氖謩?shì)和面部表情等,因此視覺(jué)信息可以作為語(yǔ)音和自然語(yǔ)言理解的有效補(bǔ)充來(lái)完成更加

6、智能的人機(jī)交互。更進(jìn)一步的人機(jī)交互是進(jìn)行人的識(shí)別和行為理解,結(jié)合面部表情、身體姿勢(shì)和手勢(shì)等5-8的分析來(lái)與人進(jìn)行相應(yīng)的交流。運(yùn)動(dòng)分析(MotionAnalysis)基于計(jì)算機(jī)視覺(jué)的人體運(yùn)動(dòng)分析可以大量地應(yīng)用在用于各種體育項(xiàng)目中,通過(guò)提取運(yùn)動(dòng)員的各項(xiàng)技術(shù)參數(shù)(如肢體的關(guān)節(jié)位置、擺動(dòng)的速度和角速度等等),對(duì)這些參數(shù)信息進(jìn)行分析,可以為運(yùn)動(dòng)員的訓(xùn)練提供較為全面的指導(dǎo)和建議,有助于提高運(yùn)動(dòng)員的水平,這對(duì)于體育運(yùn)動(dòng)的發(fā)展是極為有用的。同時(shí),它也被廣泛地應(yīng)用在醫(yī)療診斷方面:目前的醫(yī)學(xué)步態(tài)分析9-11就是通過(guò)為人體正常步態(tài)建模,開(kāi)發(fā)生物反饋系統(tǒng)用來(lái)分析病人的步態(tài),從而可以將其應(yīng)用于臨床矯形術(shù)等領(lǐng)域,用來(lái)診斷

7、病人的腿部受傷情況或者畸形程度,而做出恰當(dāng)?shù)闹委煟惶摂M現(xiàn)實(shí)(VirtualReality)基于計(jì)算機(jī)視覺(jué)的人體運(yùn)動(dòng)分析在虛擬現(xiàn)實(shí)方面也應(yīng)用的相當(dāng)廣泛:目前電腦游戲的開(kāi)發(fā)相當(dāng)成熟,游戲中各種人物的形體、運(yùn)動(dòng)及它們之間行為交互設(shè)計(jì)的逼真性得益于對(duì)物理空間中人的運(yùn)動(dòng)分析,它包括人體模型的建立和運(yùn)動(dòng)姿勢(shì)的恢復(fù)等一系列相關(guān)理論及技術(shù)的成熟應(yīng)用;基于互聯(lián)網(wǎng)交互式空間的虛擬網(wǎng)絡(luò)聊天室的開(kāi)發(fā)才剛剛起步,它通過(guò)文本交流同時(shí)可以使用二維圖標(biāo)來(lái)導(dǎo)航用戶。此外,人體運(yùn)動(dòng)識(shí)別在視頻會(huì)議、人物動(dòng)畫、虛擬工作室等其他虛擬現(xiàn)實(shí)場(chǎng)合也有著相當(dāng)廣泛的應(yīng)用。在基于內(nèi)容的視頻檢索方面,人體運(yùn)動(dòng)識(shí)別也有著重要的應(yīng)用價(jià)值:由于人往往是視

8、頻記錄的主要對(duì)象,在基于內(nèi)容的視頻檢索中,如何檢索在大段視頻中的特定的人體運(yùn)動(dòng),也需要這方面技術(shù)的發(fā)展??傊瑢?duì)人體運(yùn)動(dòng)識(shí)別的研究及到計(jì)算機(jī)視覺(jué)、模式識(shí)別、視頻圖像處理等方面的理論和實(shí)際應(yīng)用問(wèn)題。對(duì)人體的跟蹤與運(yùn)動(dòng)分析將會(huì)促進(jìn)這些領(lǐng)域在理論上產(chǎn)生新的方法,并且在諸多應(yīng)用領(lǐng)域?qū)?huì)產(chǎn)生潛在的影響和價(jià)值。綜上所述,姿態(tài)識(shí)別具有重要的理論價(jià)值與廣泛的應(yīng)用前景,因此,它受到國(guó)內(nèi)外許多學(xué)校重點(diǎn)實(shí)驗(yàn)室、研究所的關(guān)注13、14,除此之外,國(guó)際上一些著名會(huì)議和權(quán)威期刊也將其作為研究的主題之一,例如ICCV(InternationalConferenceonComputerVision)、CVPR(Compute

9、rVisionandPatternRecognition)等國(guó)際會(huì)議,PAMI(IEEETransactionsonPatternAnalysisandMachineIntelligence)、CVIUI(ComputerVisionandImageUnderstanding)等國(guó)際期刊。為了進(jìn)行人體運(yùn)動(dòng)識(shí)別,需要解決運(yùn)動(dòng)數(shù)據(jù)的、特征表示與提取(人體運(yùn)動(dòng)建模)、人體運(yùn)動(dòng)序列分割、動(dòng)作分類等問(wèn)題,主要的流程如圖1所示圖1基于運(yùn)動(dòng)捕獲數(shù)據(jù)的人體運(yùn)動(dòng)識(shí)別框架特征提取與表示到目前為止,已經(jīng)有很多方法被設(shè)計(jì)用來(lái)表示人體運(yùn)動(dòng)或人體運(yùn)動(dòng)特征,按照特征的表示范圍大致可以分為三大類:基于底層運(yùn)動(dòng)捕獲信息的時(shí)空特

10、征,基于變換域的表示,以及描述性特征。時(shí)空特征時(shí)空特征主要為基于運(yùn)動(dòng)捕獲系統(tǒng)捕獲數(shù)據(jù)的直接或間接表示,例如直接采用關(guān)節(jié)點(diǎn)的三維坐標(biāo),關(guān)節(jié)角度相對(duì)變化值等運(yùn)動(dòng)捕獲信息,以及在這些底層信息之上的簡(jiǎn)單處理后的信息比如關(guān)節(jié)點(diǎn)的速度,角速度,朝向信息,骨豁夾角等。關(guān)于幾何特征的設(shè)計(jì)與描述主要有文獻(xiàn)1516的工作。在他們的基礎(chǔ)上,文獻(xiàn)1718加入時(shí)間信息,提出了基于三維時(shí)空特征的運(yùn)動(dòng)描述。基于變換域的表示首先將運(yùn)動(dòng)捕獲的底層信息進(jìn)行數(shù)學(xué)變換,然后在變換域中進(jìn)行運(yùn)動(dòng)的特征分析與描述。在信號(hào)處理過(guò)程中,在變換域中能更好地體現(xiàn)在時(shí)域中不能體現(xiàn)的信號(hào)特性。樣條函數(shù)基、多項(xiàng)式函數(shù)基、傅立葉基、小波基等均可以用于運(yùn)動(dòng)

11、描述子19。文獻(xiàn)20首先基于傅立葉基描述人體行走步態(tài),然后分析人體行走步態(tài)提取人體行走運(yùn)動(dòng)的關(guān)鍵幀,進(jìn)而用于運(yùn)動(dòng)匹配與識(shí)別。文獻(xiàn)21提出了一種基于加權(quán)主成分分析(WPCA,WeightedPrimaryComponentAnalysis)的方法用于實(shí)現(xiàn)運(yùn)動(dòng)捕捉數(shù)據(jù)的檢索,通過(guò)計(jì)算姿態(tài)與姿態(tài)之間的距離作為相似度實(shí)現(xiàn)穩(wěn)定高效的檢索,并且分別使用合成數(shù)據(jù)和運(yùn)動(dòng)捕捉數(shù)據(jù)驗(yàn)證了該方法。除了PCA方法之后,研究人員提出了許多子空間的方法,如ICA(IndependentComponentAnalysis),FLA(FisherLinearAnalysis)等,這些方法都屬于線性子空間降維方法。描述性特征基

12、于時(shí)空特征、數(shù)學(xué)變換域特征等描述方法通常通過(guò)底層數(shù)值特征進(jìn)行計(jì)算,動(dòng)作序列中豐富的語(yǔ)義信息并沒(méi)有得到充分的利用。因此,研究者提出利用運(yùn)動(dòng)描述語(yǔ)言(motiondescriptionlanguage)22,李等23提出的字庫(kù)模型標(biāo)記每一個(gè)運(yùn)動(dòng)姿態(tài)等來(lái)描述用戶設(shè)計(jì)的運(yùn)動(dòng)特征。序列分割人體運(yùn)動(dòng)序列分割是指將連續(xù)的視頻序列V分割n個(gè)獨(dú)立的行為段,每個(gè)行為段中有且僅有一種有意義的行為式。行為段之間的分割邊界及行為段的數(shù)目n是該問(wèn)題需要求解的變量?,F(xiàn)有的人體運(yùn)動(dòng)序列分割算法可分為有監(jiān)督方法和無(wú)監(jiān)督方法兩類。有監(jiān)督方法采用手動(dòng)方法分割視頻序列,分割過(guò)程非常煩瑣、耗時(shí),且由于手動(dòng)分割受到人的主觀影響,分割結(jié)果

13、往往不夠準(zhǔn)確。無(wú)監(jiān)督方法則能自動(dòng)或半自動(dòng)地分割行為序列,包括按照等長(zhǎng)、有重疊的時(shí)間窗口進(jìn)行分割。前者比較簡(jiǎn)單,但準(zhǔn)確率較低,其分割結(jié)果可能是一個(gè)不完整的行為模式或是多個(gè)行為模式的組合,這些誤分割會(huì)導(dǎo)致后續(xù)的行為誤識(shí)別。為提高分割準(zhǔn)確率,吳曉婕等人提出了由粗到細(xì)的分割思想圖,在采用等長(zhǎng)、有重疊的時(shí)間窗口進(jìn)行粗分割的基礎(chǔ)上,再結(jié)合segmental-DTW(dynamictimewarping)和圖聚類方法進(jìn)行細(xì)分割,此方法運(yùn)算量較大,且精度較低。為了進(jìn)一步提高分割準(zhǔn)確率,周峰等人24結(jié)合核函數(shù)化的k均值聚類與DTAK(DynamicTimeAlignmentKernel)25對(duì)運(yùn)動(dòng)序列進(jìn)行分割,

14、這種方法不僅有較高的分割精度,而且還能分割出每個(gè)運(yùn)動(dòng)包含的周期子運(yùn)動(dòng)。動(dòng)作識(shí)別方法運(yùn)動(dòng)識(shí)別可以簡(jiǎn)單看成時(shí)變數(shù)據(jù)的分類問(wèn)題,即將測(cè)試序列與預(yù)先標(biāo)定的代表典型運(yùn)動(dòng)的參考序列進(jìn)行匹配,且能夠處理在相似的運(yùn)動(dòng)模式類別中空間和時(shí)間尺度上輕微的特征變化。運(yùn)動(dòng)檢索方法也可用于進(jìn)行運(yùn)動(dòng)識(shí)別。一般的思路是在已有的數(shù)據(jù)集中查找一個(gè)與未知類型的運(yùn)動(dòng)序列相似的運(yùn)動(dòng)序列,然后根據(jù)數(shù)據(jù)集中已知運(yùn)動(dòng)序列的類別標(biāo)簽來(lái)判斷未知運(yùn)動(dòng)序列的類別標(biāo)簽。但是直接基于數(shù)值計(jì)算相似度的方式難以對(duì)邏輯上相似的動(dòng)作進(jìn)行識(shí)別,比如,兩次跳躍運(yùn)動(dòng)的高度、跨度可能會(huì)差別較大,如果直接從運(yùn)動(dòng)捕獲的數(shù)值上進(jìn)行計(jì)算則難以匹配,因此可以根據(jù)兩個(gè)動(dòng)作的邏輯上

15、是否相似來(lái)進(jìn)行匹配和判斷分類?;诟怕式y(tǒng)計(jì)的方法基于運(yùn)動(dòng)分類建立概率模型,對(duì)待識(shí)別的動(dòng)作序列進(jìn)行概率估計(jì),然后基于概率值進(jìn)行分類和識(shí)別。在基于運(yùn)動(dòng)分類建立的概率模型中,將運(yùn)動(dòng)的一個(gè)姿勢(shì)或者幾個(gè)姿勢(shì)定義為狀態(tài),狀態(tài)與狀態(tài)之間采用概率表示狀態(tài)轉(zhuǎn)移的可能性,這樣,整個(gè)動(dòng)作序列可以建模為一個(gè)狀態(tài)轉(zhuǎn)移的時(shí)間序列過(guò)程描述。目前,廣泛采用的概率模型有HMM(HiddenMarkovModel)模型及其擴(kuò)展模型26,CRF(ConditionalRandomField)模型27與高斯動(dòng)態(tài)過(guò)程模型。在基于HMM的動(dòng)作識(shí)別中,動(dòng)作的種類被當(dāng)作狀態(tài),而由視覺(jué)觀測(cè)得到的特征向量作為觀察值,通過(guò)一組監(jiān)督訓(xùn)練數(shù)據(jù)可以學(xué)習(xí)

16、得到HMM模型的狀態(tài)轉(zhuǎn)移概率矩陣和觀測(cè)概率矩陣,最后利用該HMM模型求解時(shí)序數(shù)據(jù)所對(duì)應(yīng)的狀態(tài),即進(jìn)行動(dòng)作分類。夏等人28提出了基于HMM視角不變性的人體運(yùn)動(dòng)識(shí)別。該算法通過(guò)以人體骨骼的hip關(guān)節(jié)點(diǎn)為原點(diǎn)建立局部坐標(biāo)系,再把各關(guān)節(jié)點(diǎn)相對(duì)于坐標(biāo)原點(diǎn)的歐拉角作為該姿態(tài)的特征,通過(guò)降維,訓(xùn)練HMM模型達(dá)到識(shí)別的目的。但是,HMM模型有它不可回避的缺陷。如要求在學(xué)習(xí)之前必須指定隱藏狀態(tài)的數(shù)量,而對(duì)于不同類型不同長(zhǎng)度的序列數(shù)據(jù)指定相同數(shù)量的狀態(tài)顯然是不合適的。除了以上的方法之外,其它基于機(jī)器學(xué)習(xí)方法也用于運(yùn)動(dòng)識(shí)別。文獻(xiàn)29將AdaBoost算法應(yīng)用到多分類的三維姿勢(shì)識(shí)別。文獻(xiàn)30提出一個(gè)基于概率神經(jīng)網(wǎng)絡(luò)和

17、可調(diào)節(jié)模糊聚類算法的增強(qiáng)學(xué)習(xí)方法,該方法通過(guò)初始訓(xùn)練數(shù)據(jù)集建立一個(gè)概率神經(jīng)網(wǎng)絡(luò),當(dāng)有新增訓(xùn)練數(shù)據(jù)集時(shí),使用可調(diào)節(jié)模糊聚類在新數(shù)據(jù)集中學(xué)習(xí)新的人體動(dòng)作特征,將新增人體動(dòng)作特征添加到已有概率神經(jīng)網(wǎng)絡(luò)中。Raviteja等31通過(guò)用李群的方法表示相鄰骨骼向量之間的旋轉(zhuǎn)平移關(guān)系,再利用DTW能處理運(yùn)動(dòng)時(shí)間的不同,最后通過(guò)訓(xùn)練SVM模型達(dá)到識(shí)別的目的。總結(jié)人體動(dòng)作姿態(tài)識(shí)別本質(zhì)上是一個(gè)人工智能問(wèn)題,在智能監(jiān)控、虛擬現(xiàn)實(shí)以及感知用戶接口等領(lǐng)域具有廣泛的應(yīng)用前景。該文簡(jiǎn)單介紹了人體動(dòng)作姿態(tài)的分割和人體動(dòng)作姿態(tài)識(shí)別的方法,并對(duì)一些算法的優(yōu)缺點(diǎn)進(jìn)行描述,為下一步的工作打下了堅(jiān)實(shí)的基礎(chǔ)。參考文獻(xiàn)1 HuoF,Hen

18、driksE,PaclikP,etal.MarkerlesshumanmotioncaptureandposerecognitionC/ImageAnalysisforMultimediaInteractiveServices,2009.WIAMIS'09.10thWorkshopon.IEEE,2009:13-16.2 YamatoJ,OhyaJ,IshiiK.RecognizinghumanactionintimesequentialimagesusingHiddenMarkovmodelA.InProcCVPRC,IEEE,1992:379-385.3 BrandM,Oliver

19、N,PentlandA.CoupledhiddenmarkovmodelsforcomplexactionrecognitionA.InProcCVPRC.USA:IEEEComputerSocietyPress,1997:994-999.4 NguyenNT,PhungDQ,VenkateshS,etal.LearninganddetectingactivitiesfrommovementtrajectoriesusingthehierachicalhiddenMarkovmodelA.InProcCVPRC.SanDiego:IEEEComputerSocietyPress,2005:95

20、5-960.5 DuongTV,BuiHH,PhungDQ,etal.Activityrecognitionandabnormalitydetectionwiththeswitchinghiddensemi-MarkovmodelA。InProcCVPRC.SanDiego:IEEEComputerSocietyPress,2005:838-845.6 LuoY,WuTD,HwangJN.Object-basedanalysisandinterpretationofhumanmotioninsportsvideosequencesbydynamicBayesiannetworksJ.CVIU,

21、2003,92(2):196-216.7 GongS,XiangT.RecognitionofgroupactivitiesusingdynamicprobabilisticnetworksA.InProcICCVC.Washington:IEEEComputerSocietyPress,2003:742-749.8 OliverN,HorvitzE.AcomparisonofHMMsanddynamicBayesiannetworksforrecognizingofficeactivitiesJ.LectureNotesinArtificialIntelligence,2005:199-20

22、99 N.Robertson,I.Reid.Behaviourunderstandinginvideo:acombinedmethod.In:InternatinalConferenceonComputerVision,2005:15-21.10謝林海,劉相濱.基于不變矩特征和神經(jīng)網(wǎng)絡(luò)的步態(tài)識(shí)別J.微計(jì)算機(jī)信息,2007,23(7-1):279-281.11 BobickAF,WilsonAD.Astate-basedapproachtotherepresentationandrecognitionofgestureJ.IEEETransPAMI,1997,19(12):1325-1337.1

23、2 BobickAF,AndyWilson.Usingconfigurationstatesfortherepresentationandrecognitionofgestures.MITMediaLabPerceptualComputingSectionTechnicalReport,No.308,1995.13 R.UrtasunandT.Darrell.LocalProbabilisticRegressionforActivityIndependentHumanPoseInferenceC.IEEEConferenceonComputerVisionandPatternRecogniti

24、on,2008.14 A.Imai,N.Shimada,Y.Shirai.HandPostureEstimationinComplexBackgroundsbyConsideringC.AsianConferenceonComputerVision,2007.15 MullerM,RoderT.MotiontemplatesforautomaticclassificationandretrievalofmotioncapturedataC.ProcedingofEurographics/ACMSIGGRAPHSymposiumonComputerAnimation,Switzerland:Eu

25、rographicsAssociationAire-la-Ville,2006:137-146.16 LiYin.EffcientMotionSearchinLargeMotionCaptureDatabasesJ.AdvancesinVisualComputing,LectureNotesinComputerScience,2006,4291:151-16017楊躍東,王莉莉,郝愛(ài)民,等.基于幾何特征的人體運(yùn)動(dòng)捕獲數(shù)據(jù)分割方法J.系統(tǒng)仿真學(xué)報(bào),2007,19(10).18向堅(jiān),朱紅麗.基于三維特征提取的人體運(yùn)動(dòng)數(shù)據(jù)分析和檢索J.計(jì)算機(jī)應(yīng)用,2008,28(5):1344-1316.19李淳充

26、,王兆其,夏時(shí)洪.人體運(yùn)動(dòng)的函數(shù)數(shù)據(jù)分析與合成J.軟件學(xué)報(bào),2009,20(6):1664-1672.20韓鴻哲,李彬,王志良,劉冀偉.基于傅立葉描述子的步態(tài)識(shí)別J.計(jì)算機(jī)工程,2005,31(2):48-162.21 ForbesK,FiumeE.AnEfficientSearchAlgorithmforMotionDataUsingWeightedPCAC.ProcedingofEurographics/ACMSIGGRAPHSymposiumonComputerAnimation,2005:67-76.22 MeinardMuller,TidoRoder,MichaelClausen.E

27、fficientContent-BasedRetrievalofMotionCaptureDataC.ProceedingsofACMSIGGRAPH,2005:677-685.23 W.Li,Z.Zhang,Z.Liu,Actionrecognitionbasedonabagof3Dpoints,CVPRW,201024 FengZhou,FernandoDelaTorre,andJessicaK.Hodgins.HierarchicalAlignedClusterAnalysisforTemporalClusteringofHumanMotion.IEEETRANSACTIONSONPATTERNANALYSISANDMACHINEINTELLIGENCE,2013,35(3):582-598.25 H.Shimodaira,K.-I.N

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論