一種動(dòng)態(tài)光照下視覺VSLAM中的場(chǎng)景特征匹配方法_第1頁(yè)
一種動(dòng)態(tài)光照下視覺VSLAM中的場(chǎng)景特征匹配方法_第2頁(yè)
一種動(dòng)態(tài)光照下視覺VSLAM中的場(chǎng)景特征匹配方法_第3頁(yè)
一種動(dòng)態(tài)光照下視覺VSLAM中的場(chǎng)景特征匹配方法_第4頁(yè)
一種動(dòng)態(tài)光照下視覺VSLAM中的場(chǎng)景特征匹配方法_第5頁(yè)
已閱讀5頁(yè),還剩5頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

一種動(dòng)態(tài)光照下視覺VSLAM中的場(chǎng)景特征匹配方法張慧麗;彭曉東;謝文明;陳璐【摘要】基于視覺的室內(nèi)場(chǎng)景定位與建圖(VSLAM)在智能設(shè)備自主定位與導(dǎo)航領(lǐng)域內(nèi)扮演著極為重要的作用,但是當(dāng)前主流算法的回環(huán)檢測(cè)及重定位環(huán)節(jié)上在動(dòng)態(tài)光照情況下存在匹配丟失,嚴(yán)重影響定位累計(jì)誤差的修正與建圖精度.因此提出了基于一種改進(jìn)的點(diǎn)云特征提取與匹配的定位方法,將由RGB圖像得到的點(diǎn)云通過(guò)聚類的方法分割成一個(gè)個(gè)穩(wěn)定區(qū)域,并建立基于面片特性及相互空間關(guān)系的場(chǎng)景特征描述,最后通過(guò)該特征描述進(jìn)行兩幀圖像的數(shù)據(jù)關(guān)聯(lián)及相機(jī)的定位,利用更具有魯棒性的區(qū)域特征提取方法克月服光照變化情況下的視覺定位不足問(wèn)題.實(shí)驗(yàn)證明提出的方法不僅可以適應(yīng)動(dòng)態(tài)光照環(huán)境,而且定位效果優(yōu)于目前主流的基于圖像點(diǎn)特征的定位算法.【期刊名稱】《電子設(shè)計(jì)工程》【年(卷),期】2018(026)024【總頁(yè)數(shù)】5頁(yè)(P1-5)【關(guān)鍵詞】同時(shí)定位與地圖構(gòu)建;動(dòng)態(tài)光照;點(diǎn)云分割;特征匹配【作者】張慧麗;彭曉東;謝文明;陳璐【作者單位】中國(guó)科學(xué)院國(guó)家空間科學(xué)中心北京100190;中國(guó)科學(xué)院大學(xué)北京101408;中國(guó)科學(xué)院國(guó)家空間科學(xué)中心北京100190;中國(guó)科學(xué)院國(guó)家空間科學(xué)中心北京100190;中國(guó)科學(xué)院國(guó)家空間科學(xué)中心北京100190;中國(guó)科學(xué)院大學(xué)北京101408【正文語(yǔ)種】中文【中圖分類】TP391.4在機(jī)器人智能化領(lǐng)域,自主定位與導(dǎo)航是關(guān)鍵性的技術(shù)。現(xiàn)有的室內(nèi)定位技術(shù)大部分都是結(jié)合視覺SLAM來(lái)實(shí)現(xiàn)的。在VSLAM算法流程中,為了解決飄移提高全局定位精度,設(shè)有回環(huán)檢測(cè)(loopclosure)環(huán)節(jié)?;丨h(huán)檢測(cè)是指機(jī)器人在判斷自身進(jìn)入歷史同一地點(diǎn)后,通過(guò)全局一致性算法進(jìn)行地圖優(yōu)化,消除累積軌跡誤差和地圖誤差的過(guò)程[1]?;丨h(huán)檢測(cè)本質(zhì)上是場(chǎng)景識(shí)別問(wèn)題[2]。此外,當(dāng)設(shè)備重新開機(jī)后,也需要確定自身在歷史所建地圖中的位置。這兩種情況下,都需要找到當(dāng)前幀圖像與歷史數(shù)據(jù)間的對(duì)應(yīng)關(guān)系來(lái)解出兩個(gè)場(chǎng)景描述間的相對(duì)空間關(guān)系。針對(duì)上述問(wèn)題,主要有RaulMur-Artal等學(xué)者提出的基于BoW(BagofWords)的ORB-SLAM算法[3-4],微軟的HoloLens及谷歌的Tango則是比較成熟的商業(yè)應(yīng)用產(chǎn)品。現(xiàn)有的這些方法一般是基于圖像局部特征,在光照條件穩(wěn)定且良好的情況下定位效果良好,但不能很好地適應(yīng)動(dòng)態(tài)光照的情形。由于日夜周期和天氣變化及人類改變環(huán)境的不可預(yù)測(cè)的性質(zhì),例如通過(guò)打開和關(guān)閉燈,普遍的家庭環(huán)境經(jīng)歷顯著的且通常不可預(yù)測(cè)的照明變化[5]。在動(dòng)態(tài)光照環(huán)境下,由于光照變化會(huì)對(duì)圖像的整體灰度分布、邊緣信息以及彩色圖像的色度空間產(chǎn)生非常大的影響[6],進(jìn)而會(huì)影響到在上述基于特征點(diǎn)的場(chǎng)景匹配與定位方法的準(zhǔn)確性,嚴(yán)重降低定位的精度。在局部特征描述子中,Harris算子基于自相關(guān)矩陣的特征值,對(duì)尺度和照明變化敏感;SIFT,SURF等圖像局部描述子只是對(duì)圖像平均灰度強(qiáng)度的簡(jiǎn)單均勻縮放[7-8]。將顏色直方圖信息合并到圖像特征描述子中的方法在性能方面產(chǎn)生了有限的提高[9]。Creusot在文獻(xiàn)[10]提出通過(guò)機(jī)器學(xué)習(xí)尋找具有光照不變性特征的方法,然而實(shí)驗(yàn)研究表明這些方法中沒有一種本身足夠克月服光照方向變化弓I起的圖像變化問(wèn)題[11]。其次,基于特征點(diǎn)定位的方法提取場(chǎng)景的信息較少,特定環(huán)境如動(dòng)態(tài)光照下定位效果不理想。如前所述,目前在環(huán)境中光照變化下利用純視覺傳感器進(jìn)行場(chǎng)景識(shí)別仍然具有很大的挑戰(zhàn)性。因此本文考慮將圖像數(shù)據(jù)源轉(zhuǎn)換到點(diǎn)云,采用三維點(diǎn)云的特征來(lái)代替現(xiàn)有的二維圖像特征,采用點(diǎn)云的對(duì)象特征代替點(diǎn)特征,將VSLAM中現(xiàn)有的基于原始圖像特征拓展到基于三維點(diǎn)云的對(duì)象特征進(jìn)行數(shù)據(jù)關(guān)聯(lián)的做法具有更好的魯棒性,且有效提高最終相對(duì)定位的精度。這是由于相對(duì)于二維圖像,三維點(diǎn)云具有更豐富的信息。使用三維特征進(jìn)行識(shí)別相對(duì)于使用光學(xué)圖像特征進(jìn)行識(shí)別的優(yōu)點(diǎn):相對(duì)于光學(xué)圖像,距離圖像提供了更多的幾何信息(深度);從距離圖像提取的特征一般不受尺度、旋轉(zhuǎn)和光照的影響;利用距離圖像估計(jì)物體的三維位姿比光學(xué)圖像更精確[12]。本文對(duì)傳感器獲得的圖像對(duì)進(jìn)行再處理得到點(diǎn)云,再對(duì)點(diǎn)云進(jìn)行基于區(qū)域特征即改進(jìn)的CVFH特征的描述,使其具有對(duì)由光照變化引起的噪聲、遮擋、視點(diǎn)變化具有一定的不變性。1動(dòng)態(tài)光照下的場(chǎng)景間相對(duì)位姿解算方法目前基于VSLAM的自主定位算法不能很好地適用于動(dòng)態(tài)光照環(huán)境,特別是其中的回環(huán)檢測(cè)及重定位環(huán)節(jié),對(duì)兩個(gè)差異巨大的光照條件下的圖像進(jìn)行基于特征點(diǎn)的識(shí)別與匹配存在諸多問(wèn)題,從而導(dǎo)致定位的失敗或者定位精度的下降。問(wèn)題的關(guān)鍵是如何在不同光照環(huán)境情況下找到共性的特征描述,也就是隨時(shí)間緩慢變化的低頻特征。針對(duì)光照變化下的圖像識(shí)別問(wèn)題,由于雙目VSLAM或者光照非急劇變化的單目VSLAM來(lái)說(shuō),可以使用采用圖像對(duì)經(jīng)過(guò)處理后得到的點(diǎn)云進(jìn)行識(shí)別和定位。與隨著光照變化產(chǎn)生劇烈相應(yīng)變化的圖像特征不同,兩幀圖像產(chǎn)生的點(diǎn)云是場(chǎng)景中存在物體的三維位置信息。雖然兩種光照條件下的圖像灰度表現(xiàn)大大不同,但從圖像得到場(chǎng)景中物體的位置理論上則具有不變性。雖然由于圖像中的陰影,會(huì)產(chǎn)生一些噪聲點(diǎn),但是對(duì)于光照較為良好的區(qū)域,仍可以得到保留了場(chǎng)景中低頻特征的點(diǎn)云,從而使得此情況下基于點(diǎn)云的識(shí)別與匹配具有可行性。針對(duì)室內(nèi)場(chǎng)景定位的不足,我們提出對(duì)真實(shí)室內(nèi)場(chǎng)景匹配與定位方法的改進(jìn),考慮室內(nèi)真實(shí)情況下的動(dòng)態(tài)光照?qǐng)鼍跋碌膽?yīng)用,提出了基于視覺傳感器經(jīng)處理得到的點(diǎn)云進(jìn)行特征提取、匹配及相對(duì)位姿解算的方法。此方法主要包括3個(gè)部分:1)對(duì)輸入的圖像序列經(jīng)過(guò)數(shù)據(jù)關(guān)聯(lián)得到的點(diǎn)云,在經(jīng)過(guò)簡(jiǎn)單的去燥的預(yù)處理工作后,進(jìn)行改進(jìn)的CVFH特征的提取。這一步驟包括對(duì)點(diǎn)云的分割以得到穩(wěn)定的對(duì)象區(qū)域,以及對(duì)象區(qū)域點(diǎn)云的CVFH(ClusteredViewpointFeatureHistogram)特征向量的計(jì)算。2)對(duì)提取的兩個(gè)點(diǎn)云的CVFH特征向量進(jìn)行匹配及其優(yōu)化。特征的匹配通過(guò)建立K-D樹,采用最鄰近檢索得到。之后的匹配優(yōu)化采用RANSAC(RandomSamplingConsensus,隨機(jī)采樣一致性)剔除誤匹配。3)計(jì)算得到U匹配上的對(duì)應(yīng)區(qū)域的重心點(diǎn),基于SVD(SingularValueDecomposition,奇異值分解)計(jì)算粗匹配下的轉(zhuǎn)換矩陣。之后將其作為精匹配下的ICP(IterativeClosestPoint,迭代最近點(diǎn))算法的初值計(jì)算得到更精確的匹配結(jié)果。1.1改進(jìn)的CVFH特征圖1技術(shù)路線圖CVFH特征描述子是在物體識(shí)別領(lǐng)域廣泛使用的一種半全局特征描述子,由Aldomaetal.在文獻(xiàn)[13]中提取。CVFH特征描述子是對(duì)全局特征描述子VFH的一種拓展,可以處理由各種傳感器如Kinect得到的由于噪聲、傳感器及分割誤差而存在缺失和空洞的場(chǎng)景的點(diǎn)云數(shù)據(jù)。CVFH特征描述子的基本思想:首先使用區(qū)域生長(zhǎng)分割在穩(wěn)定平滑區(qū)域中劃分出代表一個(gè)個(gè)對(duì)象的部分,然后為每個(gè)部分計(jì)算VFH特征。因此只要至少有一個(gè)區(qū)域完全可見,就可以在場(chǎng)景中找到對(duì)象。CVFH特征向量中還包括構(gòu)成一個(gè)對(duì)象的點(diǎn)云中心點(diǎn)的分布信息的SDC(shapedistributioncomponent)。由于CVFH特征中原本的分割得到穩(wěn)定區(qū)域的算法只是簡(jiǎn)單的基于區(qū)域增長(zhǎng)的分割算法。這種方法利用區(qū)域增長(zhǎng)算法,依據(jù)法線相似并且處于直接鄰域等規(guī)則將點(diǎn)云劃分為一個(gè)個(gè)的穩(wěn)定區(qū)域,但是這種分割方法不具有穩(wěn)定性。當(dāng)兩個(gè)不同點(diǎn)云分割時(shí)選取的種子點(diǎn)往往不同,從而導(dǎo)致兩個(gè)點(diǎn)云分割得到的穩(wěn)定區(qū)域大不相同。為了解決這一問(wèn)題,采用點(diǎn)云分割算法LCCP(LocallyConvexConnectedPatches)替代CVFH中原有的點(diǎn)云分割算法。改進(jìn)的CVFH特征描述子的基本思想是:首先將點(diǎn)云聚合為一個(gè)個(gè)的面片,然后基于一定的規(guī)則將面片聚合成對(duì)象,從而使最終得到的區(qū)域分割結(jié)果更穩(wěn)定,更具魯棒性。LCCP點(diǎn)云分割算法的基本思想是:先采用Supervoxel(超體素)算法將體素化后的點(diǎn)云聚合為面片,然后根據(jù)超體素間的凹凸關(guān)系將其聚合為更穩(wěn)定的體對(duì)象。超體素分割本質(zhì)上也是一種特殊的區(qū)域生長(zhǎng)算法。當(dāng)點(diǎn)云完成超體素分割之后,點(diǎn)云被分成了一個(gè)個(gè)同質(zhì)化的面狀區(qū)域[14]。為了形成人類認(rèn)知中的對(duì)象體,需對(duì)面狀區(qū)域基于凹凸性,將關(guān)系為凸的相鄰小區(qū)域聚類成較大的體對(duì)象。凹凸關(guān)系的判斷依據(jù)如公式(1)。其中,上述向量S為兩平面法向量的叉積,。為兩相鄰的超體素的中心連線與公共邊之間的夾角。圖2顯示了改進(jìn)的CVFH特征在分割部分能生成更具有穩(wěn)定性的區(qū)域即對(duì)象。左為超體素分割的結(jié)果圖,右為之后根據(jù)凹凸性合并后的結(jié)果圖。提取一個(gè)個(gè)對(duì)象的CVFH特征即308維的特征向量后,通過(guò)建立待匹配的兩個(gè)點(diǎn)云的K-D樹來(lái)完成檢索匹配。圖2改進(jìn)的CVFH特征的分割效果1.2匹配及位姿計(jì)算通常的匹配情形是通過(guò)對(duì)物體的完整精細(xì)描述的CAD模型在固定的坐標(biāo)系下設(shè)置虛擬的視點(diǎn),計(jì)算在不同視點(diǎn)下的改進(jìn)的CVFH特征作為檢索的數(shù)據(jù)庫(kù)并建立K-D樹。當(dāng)用Kinect等傳感器獲得物體的一個(gè)視點(diǎn)下的點(diǎn)云并計(jì)算此時(shí)的改進(jìn)的CVFH特征后,在上述K-D樹中采用最鄰近距離檢索,從而能夠獲得當(dāng)前位姿的最接近的估計(jì)。這種匹配方法對(duì)于只有兩個(gè)視角的點(diǎn)云的情況下的匹配需要做一些調(diào)整,即直接將源點(diǎn)云中一個(gè)個(gè)對(duì)象的特征在目標(biāo)點(diǎn)云中進(jìn)行檢索和匹配。由于只利用了單個(gè)對(duì)象的特征進(jìn)行匹配,未考慮對(duì)象間的空間幾何拓?fù)潢P(guān)系特征,匹配結(jié)果中存在很多的誤匹配。如:一個(gè)點(diǎn)云中的一個(gè)對(duì)象的特征與另一個(gè)點(diǎn)云中的多個(gè)對(duì)象的特征匹配上了。這時(shí)需要對(duì)匹配的結(jié)果進(jìn)行優(yōu)化。常用的匹配優(yōu)化算法包括霍夫變換、隨機(jī)采樣一致性及粒子濾波等方法[15]。這些方法實(shí)際上是基于統(tǒng)計(jì)的思想,即假設(shè)正確的匹配能占原始匹配結(jié)果的中多數(shù)。文中采用的是RANSAC來(lái)過(guò)濾誤匹配。RANSAC算法的流程如下:1) 選取原數(shù)據(jù)的隨機(jī)子集作為假設(shè)的內(nèi)點(diǎn)。2) 計(jì)算一個(gè)適用于假設(shè)的內(nèi)點(diǎn)的模型。3) 根據(jù)模型特定的損失函數(shù),篩選出適合估計(jì)模型的屬于共集的點(diǎn)。4) 使用共集的所有數(shù)據(jù)對(duì)模型進(jìn)行評(píng)估并改進(jìn)。將RANSAC應(yīng)用于對(duì)象的特征匹配時(shí),由于目標(biāo)模型是兩個(gè)點(diǎn)云間的相對(duì)關(guān)系的轉(zhuǎn)換矩陣,因此需要知道對(duì)象的位置。本文采用對(duì)象的重心點(diǎn)的三維坐標(biāo)表示對(duì)象的位置。采用對(duì)應(yīng)對(duì)象的重心點(diǎn)作為RANSAC過(guò)濾步驟的輸入,進(jìn)行匹配優(yōu)化。當(dāng)完成匹配優(yōu)化后,可通過(guò)計(jì)算兩個(gè)點(diǎn)云間的轉(zhuǎn)換矩陣來(lái)求兩者之間的相互關(guān)系,即可定位設(shè)備的當(dāng)前位姿。通常在已知兩組點(diǎn)云的對(duì)應(yīng)點(diǎn)的情況下,可采用基于SVD的方法計(jì)算粗匹配下的旋轉(zhuǎn)矩陣R和位移T。之后為了獲得更精確的定位結(jié)果,通過(guò)ICP計(jì)算精匹配下的轉(zhuǎn)換矩陣。2實(shí)驗(yàn)本研究選取了典型的室內(nèi)環(huán)境進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)場(chǎng)景的主體部分是一張桌子及放置于至上的用于作為匹配單元的一個(gè)個(gè)的規(guī)則的物體(書本、紙箱、牛奶盒及等等)。如下圖所示,實(shí)驗(yàn)使用ZED雙目相機(jī)一共拍攝了此場(chǎng)景在6組光照條件I1,I2,...,I6下在兩個(gè)不同視角下的RGB圖像,并獲得了這些情形下的12組點(diǎn)云A1,A2,...,A6,及B1,B2,...,B6。為了更直觀地評(píng)價(jià)定位效果,在這兩個(gè)視角下保持ZED相機(jī)的姿態(tài)不變,僅沿著垂直于相機(jī)主光軸的方向平移了0.59m的距離。本文算法基于PCL庫(kù)實(shí)現(xiàn)。將以上2個(gè)視角下6組光照條件下的12張圖像作數(shù)據(jù)源,使用ORB-slam中使用采用的Dbow2庫(kù)來(lái)進(jìn)行回環(huán)檢測(cè)的定位實(shí)驗(yàn)。結(jié)果顯示使用Dbow2庫(kù)時(shí)完全檢測(cè)不到回環(huán)。通過(guò)圖3中ORB特征的提取與匹配也可直觀地看出不同光照情況下存在很多誤匹配的情況,從而導(dǎo)致回環(huán)失敗。圖3兩種光照下的ORB特征匹配示意圖使用文中的方法,對(duì)6組光照和位置均發(fā)生改變的情形,可以得到穩(wěn)定的分割區(qū)域及其特征描述,最終多組點(diǎn)云的定位結(jié)果及與其他方法的對(duì)比如表1所示。實(shí)驗(yàn)所用RGB圖像源如圖4所示,分別在全局光照(日光燈)及局部光照(手電筒)的情況下拍攝的。3種全局光照的情形通過(guò)控制室內(nèi)兩盞日光燈的開得到,3種局部光照的情形通過(guò)改變手電筒的位置和光照方向得到。圖4第一行為在兩不同全局光照及位置變化下的圖像,即得到A1,B2組點(diǎn)云的實(shí)驗(yàn)條件。第二行左圖為全局光照下的圖像,右圖為局部光照下的圖像,即得到A2,B4組點(diǎn)云實(shí)驗(yàn)條件。其他組所得點(diǎn)云對(duì)的實(shí)驗(yàn)條件以此類推。圖4實(shí)驗(yàn)所用RGB圖像對(duì)表1多種光照條件下定位結(jié)果A1,B2A1,B4A4,B5A5,B4A5,B6A6,B6ICPCVFH本文方法0.21930.48770.47490.30210.10940.03840.14990.47930.23950.38010.18810.06960.38390.76360.29950.33200.34720.2026在光照變化及相機(jī)位置變化0.59m的情況下,采用ICP方法、采用CVFH特征進(jìn)行粗匹配下的轉(zhuǎn)換矩陣計(jì)算再用ICP方法做精匹配及本文的方法分別計(jì)算得到平移矩陣。表1中的數(shù)字表示根據(jù)該平移矩陣得到的相對(duì)定位值與真值0.56m的誤差值??煽闯鲈诠庹兆兓h(huán)境下,相比直接采用ICP或者采用CVFH特征匹配加上ICP做精匹配的方法,使用本文的算法往往可以得到更為精確的定位結(jié)果。3結(jié)束語(yǔ)通過(guò)實(shí)驗(yàn)可以看到在某些動(dòng)態(tài)光照?qǐng)鼍跋?,使用傳統(tǒng)方法的回環(huán)檢測(cè)過(guò)程會(huì)失敗,而采用本文中的方法,仍能達(dá)到很好的定位效果。且在某些場(chǎng)景下,因此,本文的基于點(diǎn)云的方法在定位精度及魯棒性方面比現(xiàn)有的VSLAM中基于特征點(diǎn)的方法更優(yōu)。但是,本文假設(shè)傳感器圖像中可見場(chǎng)景的范圍足夠大,包含大面積的支撐平面如地面、天花板、墻面這些部分,而在后續(xù)的識(shí)別匹配環(huán)節(jié)沒有有效利用這些空間結(jié)構(gòu)信息,只是將其作為背景剔除。后續(xù)擬通過(guò)提取這些背景結(jié)構(gòu)和對(duì)象之間的空間幾何關(guān)系作為對(duì)象特征的一部分用于匹配,從而提高特征的可分性。文中用于獲得對(duì)象的分割方法在穩(wěn)定性方面還存在一些不足。后續(xù)擬通過(guò)引入一種評(píng)價(jià)對(duì)象的對(duì)象性(Objectness)的標(biāo)準(zhǔn),從對(duì)稱性、緊湊型、凹凸性等方面入手[16],對(duì)形成的對(duì)象進(jìn)行進(jìn)一步的處理,從而使最后分割得到的對(duì)象更具有穩(wěn)定性。本文最后用來(lái)定位即計(jì)算兩個(gè)點(diǎn)云間的轉(zhuǎn)換矩陣時(shí)直接使用了對(duì)象的重心點(diǎn)作為三維位置的表示。這種位置表示方式由于點(diǎn)云的缺失及噪聲會(huì)存在很大的偏差,對(duì)最后的定位精度會(huì)產(chǎn)生很大的影響。因此之后的研究擬在完成對(duì)象匹配后,通過(guò)一定的策略(如ICP)篩選出每個(gè)對(duì)象中完全匹配上的超體素,用其重心點(diǎn)來(lái)計(jì)算相對(duì)轉(zhuǎn)換矩陣。梁明杰,閔華清,羅榮華.基于圖優(yōu)化的同時(shí)定位與地圖創(chuàng)建綜述[J].機(jī)器人,2013,35(4):500-512.ChenZ,LamO,JacobsonA,etal.Convolutionalneuralnetwork-basedplacerecognition[J].ComputerScience,2014:1411-1509.Mur-ArtalR,MontielJMM,TardosJD.ORBSLAM:AversatileandaccuratemonocularSLAMsystem[J].IEEETransactionsonRobotics,2015,31(5):1147-1163.Mur-ArtalR,TardosJD.ORB-SLAM2:AnOpen-SourceSLAMsystemformonocular,stereo,andRGB-DCameras[J].IEEETransactionsonRobotics,2016,33(5):1255-1262.MaddernW,StewartA,McManusC,etal.Illuminationinvariantimaging:Applicationsinrobustvision-basedlocalization,mappingandclassificationforautonomousvehicles[C]//ProceedingsoftheVisualPlaceRecognitioninChangingEnvironmentsWorkshop,ICRA,HongKong,China.2014:2-3.范守科,朱明?基于加權(quán)分塊稀疏表示的光照魯棒性人臉識(shí)別[J].計(jì)算機(jī)應(yīng)用研究,2015(5):1563-1567.楊燕,樊林慶.基于光照變換的Gabor小波人臉識(shí)別[J].計(jì)算機(jī)工程與應(yīng)用,2016,52(5):220-224.曹健,陳紅倩,毛典輝,等.基于局部特征的圖像目標(biāo)識(shí)別問(wèn)題綜述[J].中南大學(xué)學(xué)報(bào):自然科學(xué)版,2013(s2):258-262.SchoelerM,PaponJ,WorgotterF.Constrainedplanarcuts-Objectpartitioningforpointclouds[C]//ComputerVisionandPatternRecognition.IEEE,2015:5207-5215.NurunnabiA,BeltonD,WestG.Robustsegmentationinlaserscanning3Dpointclouddata[C]//InternationalConferenceonDigitalImageComputingTechniquesandApplications.IEEE,2013:1-8.AnandA,KoppulaHS,JoachimsT,etal.Contextuallyguidedsemanticlabelingandsearchfor3Dpointclouds[J].InternationalJournalofRoboticsResearch,2011,32(1):19-34.GuoY,BennamounM,SohelF,etal.3DObjectrecog

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論