• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      用于三維點(diǎn)云表示的擴(kuò)展點(diǎn)特征直方圖算法*

      2017-01-07 06:44:55莊祉昀孫廣富
      關(guān)鍵詞:特征描述關(guān)鍵點(diǎn)鄰域

      莊祉昀,張 軍,孫廣富

      (國(guó)防科技大學(xué) 電子科學(xué)與工程學(xué)院, 湖南 長(zhǎng)沙 410073)

      用于三維點(diǎn)云表示的擴(kuò)展點(diǎn)特征直方圖算法*

      莊祉昀,張 軍,孫廣富

      (國(guó)防科技大學(xué) 電子科學(xué)與工程學(xué)院, 湖南 長(zhǎng)沙 410073)

      局部特征提取在點(diǎn)云相關(guān)應(yīng)用中具有十分重要的作用,因此提出一種用于點(diǎn)云局部特征表示的擴(kuò)展點(diǎn)特征直方圖描述子。針對(duì)鄰域點(diǎn)的兩兩點(diǎn)對(duì)提出一系列不變量;在特征點(diǎn)上構(gòu)建一個(gè)局部參考坐標(biāo)框架以獲得特征描述子對(duì)旋轉(zhuǎn)和平移的不變性;將關(guān)鍵點(diǎn)局部鄰域劃分成多個(gè)子空間,并依據(jù)每個(gè)子空間中的點(diǎn)對(duì)不變量構(gòu)建一個(gè)直方圖;將所有直方圖串聯(lián)起來(lái)得到擴(kuò)展點(diǎn)特征直方圖特征描述子。采用Bologna公共數(shù)據(jù)集對(duì)擴(kuò)展點(diǎn)特征直方圖特征描述子的性能進(jìn)行測(cè)試,并與多個(gè)現(xiàn)有算法進(jìn)行對(duì)比。結(jié)果表明,擴(kuò)展點(diǎn)特征直方圖特征描述子獲得了良好的性能,其結(jié)果優(yōu)于多個(gè)現(xiàn)有的特征描述子。

      點(diǎn)云;局部特征;特征表示;點(diǎn)集;特征直方圖

      特征提取是計(jì)算機(jī)視覺和模式識(shí)別領(lǐng)域的一個(gè)核心基礎(chǔ)問題,目前業(yè)界已提出多種點(diǎn)云局部特征描述算法,但如何實(shí)現(xiàn)對(duì)局部點(diǎn)云的高鑒別力描述依然是一個(gè)有待解決的問題。Johnson等[1-2]采用點(diǎn)云的法向量及點(diǎn)的位置信息提出了一個(gè)spin image特征。對(duì)于特征點(diǎn)的每一個(gè)局部鄰域點(diǎn),均可采用兩個(gè)參數(shù)進(jìn)行表示,其中一個(gè)參數(shù)是該鄰域點(diǎn)到特征點(diǎn)法向量的距離,另一個(gè)參數(shù)是該鄰域點(diǎn)到特征點(diǎn)切平面的距離。接著,對(duì)所有鄰域點(diǎn)依據(jù)這兩個(gè)參數(shù)值進(jìn)行二維直方圖統(tǒng)計(jì)以獲得spin image特征描述子。Spin image特征描述子具有對(duì)剛性變換的良好不變性[1]。Hetzel等采用包括點(diǎn)云深度值、表面法向量以及曲率等在內(nèi)的多個(gè)屬性構(gòu)建局部特征描述子[3]。這些特征描述子實(shí)現(xiàn)簡(jiǎn)單且對(duì)視點(diǎn)變化具有良好的不變性。Flint等[4-5]通過對(duì)關(guān)鍵點(diǎn)與局部鄰域點(diǎn)的法向量夾角進(jìn)行直方圖統(tǒng)計(jì)以得到THRIFT特征描述子。Chen等[6]采用局部鄰域點(diǎn)的形狀指數(shù)和法向量變化這兩類信息構(gòu)建LSP(local surface patch)特征描述子。Rusu等[7]通過計(jì)算關(guān)鍵點(diǎn)及其鄰域點(diǎn)的多個(gè)幾何屬性關(guān)系構(gòu)建直方圖,并將多個(gè)直方圖串聯(lián)起來(lái)得到快速點(diǎn)特征直方圖(Fast Point Feature Histograms, FPFH)特征描述子。Pang等[8]通過體素化計(jì)算一系列3D Harr特征描述子,并將這些特征描述子用于包含遮擋的點(diǎn)云下的目標(biāo)識(shí)別。Tombari等[9-10]在構(gòu)建局部參考坐標(biāo)框架的基礎(chǔ)上提出了一種方位直方圖(Signature of Histograms of OrienTations, SHOT)特征描述子。實(shí)驗(yàn)結(jié)果表明,SHOT特征描述子在鑒別力和穩(wěn)健性之間獲得了良好的折中。Cirujeda等[11]對(duì)三維局部表面的形狀與顏色信息進(jìn)行融合以獲得MCOV特征描述子。MCOV特征對(duì)剛性變換具有不變性,且對(duì)噪聲和數(shù)據(jù)分辨率變化具有穩(wěn)健性。Hariri等[12]亦提出了一種基于協(xié)方差的局部特征描述子。此外,近期還有全局正交物體描述子(Global Orthographic Object Descriptor, GOOD)[13]、距離直方圖描述子[14]、二值形狀模式描述子[15]以及快速穩(wěn)健局部特征描述子[16]等一系列算法被提出。

      1 對(duì)幾何屬性不變量

      大多數(shù)的現(xiàn)有特征描述算法直接采用鄰域點(diǎn)的幾何屬性(如法向量、曲率[17]及積分體積[18]等)或空間坐標(biāo)構(gòu)建點(diǎn)云局部特征描述子。由于只采用了鄰域點(diǎn)上的幾何屬性或空間坐標(biāo)來(lái)對(duì)關(guān)鍵點(diǎn)鄰域進(jìn)行表示,這類特征描述子缺乏上下文結(jié)構(gòu)信息,因此,點(diǎn)云中的許多關(guān)鍵點(diǎn)將得到非常相似的特征描述子,從而在特征匹配時(shí)帶來(lái)大量的錯(cuò)誤特征匹配。若能將鄰域點(diǎn)的上下文信息添加到特征描述子中,則提取到的特征描述子將具有更高的鑒別力和更多的信息量。一種直觀的思路是將點(diǎn)對(duì)的信息用于特征描述,從而使獲得的特征描述子包含上下文信息。受此啟發(fā),基于點(diǎn)對(duì)屬性不變量,提出了擴(kuò)展點(diǎn)特征直方圖(Extended Point Feature Histograms, EPFH)特征描述子。

      1.1 Darboux框架

      為獲得關(guān)鍵點(diǎn)鄰域表面的點(diǎn)對(duì)幾何屬性,首先為每一個(gè)點(diǎn)對(duì)構(gòu)建一個(gè)Darboux框架。給定一個(gè)關(guān)鍵點(diǎn)pk及其法向量nk,鄰域點(diǎn)pi及其法向量ni,則Darboux框架的三個(gè)坐標(biāo)軸(u,v,w) 可通過這兩個(gè)點(diǎn)及它們的法向量構(gòu)建得到,即:

      u=nk

      (1)

      v=(pi-pk)×nk

      (2)

      w=u×v

      (3)

      圖1 Darboux框架示意圖Fig.1 Illustration of the Darboux frame

      關(guān)鍵點(diǎn)pk定義為該Darboux框架的原點(diǎn),其示意圖如圖1所示??梢钥闯?,Darboux框架給出了描述兩個(gè)點(diǎn)之間關(guān)系的一種方式。后文將基于Darboux框架定義一系列點(diǎn)對(duì)幾何屬性不變量用于特征描述。

      1.2 點(diǎn)對(duì)幾何屬性不變量

      當(dāng)?shù)玫揭粋€(gè)關(guān)鍵點(diǎn)pk及其鄰域點(diǎn)pi的Darboux框架后,可據(jù)此計(jì)算多個(gè)成對(duì)幾何屬性不變量[7]。第一個(gè)不變量定義為向量v和向量ni的點(diǎn)積,即:

      α=vni

      (4)

      第二個(gè)不變量為向量u與連接點(diǎn)pk和點(diǎn)pi的直線之間的點(diǎn)積,即:

      (5)

      第三個(gè)不變量定義為:

      θ=arctan(wni,uni)

      (6)

      這些不變量反映了關(guān)鍵點(diǎn)pk及其鄰域點(diǎn)pi之間的幾何關(guān)系。然而,這些不變量只給出了關(guān)鍵點(diǎn)與鄰域點(diǎn)之間的幾何關(guān)系,而沒有反映出空間信息,因此提出一種同時(shí)包含幾何關(guān)系和空間關(guān)系的EPFH特征,從而使得特征描述子的鑒別力更強(qiáng)。

      2 EPFH特征提取

      現(xiàn)有的點(diǎn)特征直方圖(Point Feature Histograms, PFH)特征描述子將關(guān)鍵點(diǎn)鄰域的所有點(diǎn)對(duì)幾何屬性累加以得到特征描述子[19];現(xiàn)有的FPFH特征描述子只將關(guān)鍵點(diǎn)與鄰域點(diǎn)的點(diǎn)對(duì)屬性不變量累加到一個(gè)直方圖中[7]。這兩種特征描述子均缺乏點(diǎn)云空間分布的信息,本文提出的EPFH特征將同時(shí)包含幾何信息和空間分布信息。EPFH特征的生成過程主要包括如下步驟:局部參考坐標(biāo)框架構(gòu)建、直方圖生成以及直方圖壓縮。

      2.1 局部參考坐標(biāo)框架構(gòu)建

      一個(gè)良好的特征描述子應(yīng)該對(duì)剛性變換(包含旋轉(zhuǎn)和平移)具有不變性,以實(shí)現(xiàn)不同視角下的兩個(gè)點(diǎn)云之間的精確特征匹配。一個(gè)典型思路是給每個(gè)關(guān)鍵點(diǎn)賦予一個(gè)局部參考坐標(biāo)框架,并在該參考坐標(biāo)框架下構(gòu)建特征描述子[10,20]。

      給定一個(gè)關(guān)鍵點(diǎn)pk及其鄰域點(diǎn)集合{pi|i=1,2,…,N},計(jì)算其鄰域點(diǎn)的加權(quán)協(xié)方差矩陣如下:

      (7)

      式中,r為支撐域的大小,di為關(guān)鍵點(diǎn)pk到其鄰域點(diǎn)pi的距離。

      對(duì)協(xié)方差矩陣M進(jìn)行特征值分解,得到:

      M=VDVT

      (8)

      式中,D為協(xié)方差矩陣M的特征值構(gòu)成的對(duì)角矩陣,V為協(xié)方差矩陣M的特征向量{e1,e2,e3}構(gòu)成的矩陣。

      由于特征向量相互正交,因此可采用協(xié)方差矩陣M的三個(gè)特征向量來(lái)構(gòu)建局部參考坐標(biāo)框架。為得到一個(gè)唯一的局部參考坐標(biāo)框架,需要消除每個(gè)特征向量的方向模糊性。本文采用文獻(xiàn)[10]的方法來(lái)消除特征向量的方向模糊,該方法首先計(jì)算從關(guān)鍵點(diǎn)到所有鄰域點(diǎn)的向量,然后統(tǒng)計(jì)這些向量的分布情況,并使特征向量方向與前述向量的多數(shù)方向相一致。

      具體而言,首先選出與向量e1方向一致的所有鄰域點(diǎn),即:

      (9)

      然后選出與向量e1方向相反的所有鄰域點(diǎn),即:

      (10)

      利用類似方法作用于向量e3以獲得參考坐標(biāo)框架的z軸。當(dāng)?shù)玫絰軸和z軸后,y軸定義為z×x。因此,最終的局部參考坐標(biāo)框架將以關(guān)鍵點(diǎn)pk作為其原點(diǎn),以x軸、y軸和z軸作為其坐標(biāo)軸。

      2.2 直方圖生成

      為生成特征描述子,首先將關(guān)鍵點(diǎn)的所有鄰域點(diǎn)均變換到該關(guān)鍵點(diǎn)的局部參考坐標(biāo)框架下,從而使得后續(xù)得到的直方圖具有對(duì)剛性變換的不變性。接著,采用一個(gè)三維球形柵格沿距離、方位角和俯仰角三個(gè)維度將關(guān)鍵點(diǎn)的鄰域空間劃分成多個(gè)子空間。圖2給出了該三維球形柵格的示意圖。該柵格將空間在距離維度上劃分成2部分,在方位角維度上劃分成8部分,在俯仰角維度上劃分成2部分。因此,關(guān)鍵點(diǎn)鄰域空間共被劃分成32個(gè)子空間。

      關(guān)鍵點(diǎn)的鄰域空間只被劃分成了32個(gè)子空間,該劃分總體上來(lái)說是較粗糙的。這樣設(shè)計(jì)的目的在于:由于每個(gè)子空間中采用了點(diǎn)對(duì)幾何屬性不變量進(jìn)行特征描述,因此本身已具有較高的鑒別力,只需要?jiǎng)澐稚倭康淖涌臻g即可實(shí)現(xiàn)高鑒別力地特征描述;較小的子空間數(shù)量有利于獲得緊湊且高效的特征描述子。一個(gè)緊湊的特征描述子是高效特征匹配和目標(biāo)識(shí)別等高層視覺任務(wù)的基礎(chǔ),是提高運(yùn)算效率的關(guān)鍵。

      圖2 三維柵格示意圖Fig.2 Illustration of the 3D grid

      在每個(gè)子空間中,分別采用點(diǎn)對(duì)幾何屬性不變量α,φ和θ各構(gòu)建一個(gè)局部直方圖,然后將這些直方圖連接起來(lái)得到該子空間中的子特征。最后將各個(gè)子空間中的子特征連接起來(lái)得到最終的特征描述子。通過實(shí)驗(yàn)發(fā)現(xiàn),直方圖的維度設(shè)置為10時(shí)可以很好地獲得特征描述子長(zhǎng)度與鑒別力之間的折中。因此,本文設(shè)置每個(gè)直方圖維度為10,則最終的特征描述子長(zhǎng)度為10×3×32=960。由于采用了不同的不變量來(lái)描述點(diǎn)云所代表的局部表面,因此得到的特征描述子具有很強(qiáng)的鑒別力。

      2.3 直方圖壓縮

      由于特征描述子長(zhǎng)度為960,其維度太高,依然難以實(shí)現(xiàn)高效的特征存儲(chǔ)與匹配。事實(shí)上,特征描述子中依然存在較多的冗余信息,因此可以采用主成分分析(Principal Component Analysis, PCA)法獲得更加緊湊且鑒別力更強(qiáng)的特征描述子。PCA作為一種典型的降維方法,在特征壓縮、特征選擇以及目標(biāo)識(shí)別等領(lǐng)域得到了大量的應(yīng)用[21]。PCA通過將高維特征描述子映射到低維向量空間以揭示特征描述子的內(nèi)在結(jié)構(gòu)。也就是說,通過PCA可用一個(gè)低維特征描述向量來(lái)表示高維特征向量中的大部分信息。

      給定一個(gè)用于訓(xùn)練的特征描述子集合{fi|i=1,2,…,Nf},首先計(jì)算其協(xié)方差矩陣:

      (11)

      對(duì)協(xié)方差矩陣C進(jìn)行特征值分解,即得到:

      C=VDVT

      (12)

      式中,D是協(xié)方差矩陣C的特征值構(gòu)成的對(duì)角矩陣,V由協(xié)方差矩陣C的特征向量構(gòu)成。

      為降低特征描述子的維度,對(duì)C的特征向量依據(jù)其對(duì)應(yīng)的特征值從大到小進(jìn)行排序,并選擇前Nfd 2個(gè)特征向量構(gòu)成PCA投影矩陣Vc。特征向量個(gè)數(shù)的選擇需滿足如下要求:

      (13)

      式中,{λi|i=1,2,…,Nfd 1}為依降序排列的特征值,Nfd 1為原始直方圖的維度,Nfd 2為投影后的特征描述子維度,η為特征壓縮的系數(shù)。

      因此,壓縮后的特征描述子定義為:

      (14)

      3 實(shí)驗(yàn)結(jié)果

      本節(jié)將在Bologna數(shù)據(jù)集上測(cè)試所提的EPFH特征描述算法,并將其與多個(gè)現(xiàn)有算法進(jìn)行對(duì)比,包括spin image[2],LSP[6]和THRIFT[5]。與文獻(xiàn)[9]一致,本節(jié)將每個(gè)場(chǎng)景的特征描述子與模型庫(kù)中的特征描述子進(jìn)行匹配,從而測(cè)試特征描述子的匹配性能。

      3.1 實(shí)驗(yàn)設(shè)置

      給定一個(gè)包含遮擋和背景干擾的場(chǎng)景以及一組模型,特征匹配的任務(wù)在于獲得場(chǎng)景局部特征描述子與模型局部特征描述子之間的特征對(duì)應(yīng)關(guān)系。采用召回率-精度曲線這一常用指標(biāo)來(lái)度量特征描述子的性能。首先,從每個(gè)模型上隨機(jī)提取1000個(gè)特征點(diǎn),然后采用已知的變換關(guān)系獲得這些特征點(diǎn)在場(chǎng)景中的真實(shí)對(duì)應(yīng)點(diǎn)。在測(cè)試時(shí),計(jì)算每個(gè)場(chǎng)景特征描述子與所有的模型特征描述子的距離以獲得最近和次近的模型特征描述子,進(jìn)而將最近距離除以次近距離得到距離比值。若該距離比值小于一個(gè)預(yù)先設(shè)定的門限τf,則認(rèn)為該場(chǎng)景特征描述子與最近模型特征描述子之間構(gòu)成一個(gè)特征對(duì)應(yīng)關(guān)系。采用場(chǎng)景與模型之間的真實(shí)變換關(guān)系可以確定一個(gè)特征對(duì)應(yīng)關(guān)系是否正確。具體而言,可采用真實(shí)變換關(guān)系將場(chǎng)景與模型變換到同一個(gè)坐標(biāo)系下,然后計(jì)算特征對(duì)應(yīng)關(guān)系中的兩個(gè)特征點(diǎn)之間的距離,若該距離較小,則認(rèn)為獲得的特征對(duì)應(yīng)關(guān)系是正確的,否則認(rèn)為是錯(cuò)誤的。因此,特征匹配的精度定義為正確特征對(duì)應(yīng)數(shù)量與所獲得的所有特征對(duì)應(yīng)數(shù)量的比值,而特征匹配的召回率定義為正確特征對(duì)應(yīng)數(shù)量與所有真實(shí)特征對(duì)應(yīng)數(shù)量的比值。實(shí)際上,特征匹配的精度與召回率依賴于門限τf的選取。采用多個(gè)不同的門限便可得到不同門限下對(duì)應(yīng)的一系列召回率和精度,即獲得召回率-精度曲線。需要說明的是,文中對(duì)所有特征描述子的測(cè)試均采用相同的特征點(diǎn),因此對(duì)不同特征描述子的比較結(jié)果是客觀公正的。此外,本文采用隨機(jī)選取而非某個(gè)特定特征檢測(cè)算法,因此可以避免特征檢測(cè)算法本身對(duì)特征描述子性能帶來(lái)的影響。

      本文采用公共的Bologna數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)。該數(shù)據(jù)集包含了斯坦福3D掃描數(shù)據(jù)集中的6個(gè)模型,以及通過對(duì)多個(gè)模型進(jìn)行隨機(jī)旋轉(zhuǎn)和平移得到的45個(gè)場(chǎng)景。因此,數(shù)據(jù)集中的場(chǎng)景包含了復(fù)雜的形狀、豐富的幾何細(xì)節(jié)、較強(qiáng)的背景干擾以及不同的姿態(tài)變化,這些問題增加了算法的挑戰(zhàn)性。每個(gè)場(chǎng)景與模型之間的真實(shí)剛性變換關(guān)系在數(shù)據(jù)集獲取的過程中便已記錄下來(lái)。

      3.2 噪聲下的性能

      本小節(jié)將測(cè)試不同強(qiáng)度噪聲下的EPFH特征性能。實(shí)驗(yàn)中,將標(biāo)準(zhǔn)差分別為0.1 mr,0.2 mr,0.3 mr和0.4 mr的高斯噪聲加入到每個(gè)場(chǎng)景中。不同高斯噪聲下的召回率-精度曲線如圖3所示。

      可以看出,所提的EPFH特征描述子在不同強(qiáng)度的高斯噪聲下均取得了最好的性能:

      1)對(duì)于加入0.1 mr標(biāo)準(zhǔn)差噪聲的場(chǎng)景,所提的EPFH特征描述子在精度為90%時(shí)取得的召回率可達(dá)到90%左右,大大超越了spin image特征描述子(spin image特征描述子在精度為90%時(shí)的召回率只有44%)。

      2)當(dāng)噪聲標(biāo)準(zhǔn)差從0.1 mr增加到0.4 mr時(shí),EPFH特征描述子的優(yōu)勢(shì)更加明顯。當(dāng)噪聲標(biāo)準(zhǔn)差為0.4 mr時(shí),EPFH獲得的最高召回率為51.31%,而spin image,LSP和THRIFT特征描述子獲得的最高召回率分別僅為6.86%, 2.62%,1.58%。

      3)總體而言,當(dāng)噪聲增加時(shí),EPFH特征描述子的性能逐步下降。這是由于,噪聲增加會(huì)導(dǎo)致點(diǎn)云中點(diǎn)位置和法向量均與原始的無(wú)噪聲點(diǎn)云上的值相差較大,使得得到的Darboux框架和點(diǎn)對(duì)屬性不變量均發(fā)生較大變化,因此特征描述子也與無(wú)噪聲點(diǎn)云上的特征描述子相差較大。

      4)EPFH特征描述子對(duì)噪聲相對(duì)比較穩(wěn)健。當(dāng)噪聲標(biāo)準(zhǔn)差為0.1 mr時(shí),獲得的最大召回率為90%,而當(dāng)噪聲標(biāo)準(zhǔn)差上升到0.2 mr時(shí),獲得的最大召回率依然高達(dá)80%。特別地,當(dāng)噪聲標(biāo)準(zhǔn)差增加到0.4 mr時(shí),獲得的最大召回率依然可達(dá)50%以上。EPFH在噪聲標(biāo)準(zhǔn)差為0.4 mr時(shí)的性能甚至與spin image在噪聲標(biāo)準(zhǔn)差為0.1 mr時(shí)的性能相當(dāng),這充分表明了本文算法在含噪聲場(chǎng)景下的優(yōu)勢(shì)。

      (a) 高斯噪聲標(biāo)準(zhǔn)差0.1 mr(a) Gaussian noise standard deviation of 0.1 mr

      (b) 高斯噪聲標(biāo)準(zhǔn)差0.2 mr(b) Gaussian noise standard deviation of 0.2 mr

      (c) 高斯噪聲標(biāo)準(zhǔn)差0.3 mr(c) Gaussian noise standard deviation of 0.3 mr

      (d) 高斯噪聲標(biāo)準(zhǔn)差0.4 mr(d) Gaussian noise standard deviation of 0.4 mr圖3 不同高斯噪聲下的特征匹配召回率和精度曲線Fig.3 Precision and recall for feature matching under different Gaussian noise

      3.3 數(shù)據(jù)分辨率變化下的性能

      本小節(jié)將測(cè)試特征描述子在不同數(shù)據(jù)分辨率下的性能。實(shí)驗(yàn)中,將每個(gè)場(chǎng)景點(diǎn)云降采樣到原分辨率的1/4和1/8,得到不同分辨率下的召回率-精度曲線如圖4所示。

      (a) 1/4降采樣率 (a) 1/4 down-sampling

      (b) 1/8降采樣率(b) 1/8 down-sampling圖4 不同數(shù)據(jù)分辨率下的特征匹配召回率和精度曲線Fig.4 Precision and recall for feature matching under different point cloud resolutions

      由圖可以看出,所提的EPFH特征描述子在兩個(gè)不同的數(shù)據(jù)分辨率下均獲得了比其他算法更好的性能。具體而言,EPFH在1/4降采樣時(shí)的性能略優(yōu)于spin image,其獲得的最高召回率為56%。LSP和THRIFT的性能差于EPFH和spin image,獲得的最高召回率僅分別為44%和11%。當(dāng)采樣率為1/8降時(shí),EPFH的性能大大優(yōu)于spin image特征。EPFH獲得的最高召回率為50%,而spin image獲得的最高召回率只有35%左右。由此可知,所提的EPFH特征描述子對(duì)數(shù)據(jù)分辨率變化較為穩(wěn)健。

      此外,所提EFPH算法是在FPFH特征提取算法[7]的基礎(chǔ)上改進(jìn)而得到,在大量數(shù)據(jù)集上的測(cè)試結(jié)果表明FPFH具有非常高的計(jì)算效率[22]。由于EPFH繼承了FPFH高效的特點(diǎn),因此EPFH算法本身也具有非常高的運(yùn)算效率。

      4 結(jié)論

      本文提出了一種用于三維點(diǎn)云表示的EPFH特征描述子。該算法首先對(duì)一個(gè)點(diǎn)對(duì)構(gòu)建Darboux框架并依此獲得多個(gè)不變屬性;接著,在每個(gè)關(guān)鍵點(diǎn)上構(gòu)建一個(gè)局部參考坐標(biāo)框架并將鄰域空間劃分成多個(gè)子空間。通過對(duì)不變屬性進(jìn)行直方圖統(tǒng)計(jì)以獲得每個(gè)子空間的子特征,最后將所有子特征串聯(lián)并經(jīng)過壓縮以得到最終的EPFH特征描述子。在Bologna數(shù)據(jù)集上測(cè)試了該特征描述子在不同噪聲和數(shù)據(jù)分辨率下的性能。實(shí)驗(yàn)結(jié)果表明,所提的EPFH特征描述子不僅鑒別力強(qiáng),且對(duì)噪聲和數(shù)據(jù)分辨率變化穩(wěn)健,其獲得了比spin image,THRIFT和LSP特征更好的性能。

      References)

      [1] Johnson A E, Hebert M. Surface matching for object recognition in complex three-dimensional scenes[J]. Image and Vision Computing, 1998, 16(9/10): 635-651.

      [2] Johnson A E, Hebert M. Using spin images for efficient object recognition in cluttered 3D scenes[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1999, 21(5): 433-449.

      [3] Hetzel G, Leibe B, Levi P, et al. 3D object recognition from range images using local feature histograms[C]//Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2001.

      [4] Flint A, Dick A, van den Hengel A. Thrift: local 3D structure recognition[C]//Proceedings of the 9th Biennial Conference of the Australian Pattern Recognition Society on Digital Image Computing Techniques and Applications, 2007: 182-188.

      [5] Flint A, Dick A,van den Hengel A. Local 3D structure recognition in range images[J]. IET Computer Vision, 2008, 2(4): 208-217.

      [6] Chen H, Bhanu B. 3D free-form object recognition in range images using local surface patches[J]. Pattern Recognition Letters, 2007, 28(10): 1252-1262.

      [7] Rusu R B, Blodow N, Beetz M. Fast point feature histograms (FPFH) for 3D registration[C]//Proceedings of IEEE International Conference on Robotics and Automation, 2009: 3212-3217.

      [8] Pang G, Neumann U. Training-based object recognition in cluttered 3D point clouds[C]//Proceedings of IEEE International Conference on 3D Vision, 2013: 87-94.

      [9] Salti S, Tombari F, Di Stefano L. SHOT: unique signatures of histograms for surface and texture description[J]. Computer Vision and Image Understanding, 2014, 125: 251-264.

      [10] Tombari F, Salti S, Di Stefano L. Unique signatures of histograms for local surface description[C]//Proceedings of European Conference on Computer Vision, 2010: 356-369.

      [11] Cirujeda P, Mateo X, Dicente Y, et al. MCOV: a covariance descriptor for fusion of texture and shape features in 3D point clouds[C]//Proceedings of IEEE 2nd International Conference on 3D Vision (3DV), 2014, 1: 551-558.

      [12] Hariri W, Tabia H, Farah N, et al. 3D face recognition using covariance based descriptors[J]. Pattern Recognition Letters, 2016, 78: 1-7.

      [13] Kasaei S H, Tomé A M, Lopes L S, et al. GOOD: a global orthographic object descriptor for 3D object recognition and manipulation[J]. Pattern Recognition Letters, 2016, 83(3): 312-320.

      [14] Kechagias-Stamatis O, Aouf N. Histogram of distances for local surface description[C]//Proceedings of IEEE International Conference on Robotics and Automation (ICRA), 2016: 2487-2493.

      [15] Romero-Gonz C, Mart J, Garc I, et al. Binary patterns for shape description in RGB-D object registration[C]//Proceedings of IEEE Winter Conference on Applications of Computer Vision (WACV), 2016: 1-9.

      [16] Yang J, Cao Z, Zhang Q. A fast and robust local descriptor for 3D point cloud registration[J]. Information Sciences, 2016, 346/347: 163-179.

      [17] Bae K H, Lichti D D. A method for automated registration of unorganized point clouds[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2008, 63(1): 36-54.[18] Gelfand N, Mitra N J, Guibas L J, et al. Robust global registration[C]//Proceedings of Symposium on Geometry Processing, 2005, 2(3): 5.

      [19] Rusu R B, Blodow N, Marton Z C, et al. Aligning point cloud views using persistent feature histograms[C]//Proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems, 2008: 3384-3391.

      [20] Petrelli A, Stefano L D. A repeatable and efficient canonical reference for surface matching[C]//Proceedings of IEEE Second International Conference on 3D Imaging, Modeling, Processing, Visualization and Transmission (3DIMPVT), 2012: 403-410.

      [21] Ke Y, Sukthankar R. PCA-SIFT:a more distinctive representation for local image descriptors[C]//Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2004, 2: 506-513.

      [22] Guo Y, Bennamoun M, Sohel F, et al. A comprehensive performance evaluation of 3D local feature descriptors[J]. International Journal of Computer Vision, 2016, 116(1): 66-89.

      Extended point feature histograms for 3D point cloud representation

      ZHUANG Zhiyun, ZHANG Jun, SUN Guangfu

      (College of Electronic Science and Engineering, National University of Defense Technology, Changsha 410073, China)

      Local feature extraction plays an important role in related point cloud applications. Therefore, an EPFH (extended point feature histograms) descriptor for the local feature representation of 3D point cloud was proposed. Each point pair was represented by several invariant pairwise point attributes. Then, a local reference frame was defined for a keypoint and the neighboring points of the keypoint were transformed into the local reference frame. These pairwise points attributing between the neighboring points and the keypoint were accumulated into several sub-features in a set of subspaces. These sub-features were finally concatenated and compressed into an overall feature descriptor. The EPFH descriptor was tested by a popular publicly available Bologna dataset and was compared with several existing methods. Experimental results show that the proposed EPFH method outperforms several existing methods under different levels of noise and point cloud resolutions.

      point cloud; local feature; feature representation; point sets; feature histograms

      10.11887/j.cn.201606020

      2016-05-19

      國(guó)家自然科學(xué)基金資助項(xiàng)目(61471371)

      莊祉昀(1986—),男,福建南安人,博士研究生,E-mail:jy00842031@163.com; 孫廣富(通信作者),男,研究員,博士,博士生導(dǎo)師,E-mail:sunguangfu_nnc@163.com

      TN95

      A

      1001-2486(2016)06-124-06

      http://journal.nudt.edu.cn

      猜你喜歡
      特征描述關(guān)鍵點(diǎn)鄰域
      In the Zoo
      船舶尾流圖像的數(shù)字化處理和特征描述技術(shù)
      聚焦金屬關(guān)鍵點(diǎn)
      肉兔育肥抓好七個(gè)關(guān)鍵點(diǎn)
      稀疏圖平方圖的染色數(shù)上界
      基于鄰域競(jìng)賽的多目標(biāo)優(yōu)化算法
      目標(biāo)魯棒識(shí)別的抗旋轉(zhuǎn)HDO 局部特征描述
      關(guān)于-型鄰域空間
      基于差異的圖像特征描述及其在絕緣子識(shí)別中的應(yīng)用
      醫(yī)聯(lián)體要把握三個(gè)關(guān)鍵點(diǎn)
      鹤壁市| 紫云| 邳州市| 蒙自县| 滕州市| 双柏县| 南宁市| 嘉祥县| 昌江| 海城市| 萨嘎县| 博客| 北流市| 南澳县| 恩施市| 乐昌市| 兴文县| 保康县| 凌云县| 舒兰市| 开原市| 准格尔旗| 固阳县| 万载县| 台中县| 腾冲县| 张家口市| 大渡口区| 马山县| 宜都市| 盈江县| 永清县| 宁蒗| 锦屏县| 监利县| 溆浦县| 阿合奇县| 华安县| 佛教| 沂水县| 平陆县|