• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于SURF的特征點(diǎn)快速匹配算法

      2014-06-25 06:53:20堯思遠(yuǎn)王曉明
      激光與紅外 2014年3期
      關(guān)鍵詞:歐氏鄰域灰度

      堯思遠(yuǎn),王曉明,左 帥

      (華北光電技術(shù)研究所,北京100015)

      1 引言

      匹配技術(shù)是圖像處理中的一項(xiàng)重要內(nèi)容,它將兩幅相似的圖像在空間中的位置作對比映射,是后續(xù)關(guān)鍵區(qū)域分析、相機(jī)標(biāo)定等操作的基礎(chǔ)。常見的圖像匹配方法主要有兩種:基于區(qū)域的匹配和基于特征的匹配。前者主要利用圖像的灰度或者幾何拓?fù)湫畔?,通過某種相似性測度算子搜索圖像空間,找出相似度最高的區(qū)域,進(jìn)而得到相應(yīng)的位置變化參數(shù)。該方法挖掘了圖像的空間灰度分布信息,因此準(zhǔn)確度較高,但區(qū)域搜索往往帶來較大的計(jì)算量,而且對于噪聲和光照的變化容忍度較差;基于特征的匹配首先尋找兩幅圖像中的關(guān)鍵特征(如關(guān)鍵點(diǎn)、線),然后對這些關(guān)鍵特征做篩選、映射,得到準(zhǔn)確的匹配?;谔卣鞯钠ヅ浞椒ɡ玫南袼?cái)?shù)較少,可以大大減少匹配計(jì)算量,應(yīng)用在對圖像處理實(shí)時(shí)性要求較高的光電跟蹤系統(tǒng)中具有明顯的優(yōu)勢。

      特征匹配的關(guān)鍵在于尋找一種較好的特征描述法和特征匹配算法。就點(diǎn)特征而言,目前常見的特征點(diǎn)提取方法有Harris特征、SUSAN特征、SIFT特征等[1-4]。其中,D.G.Lowe 提出的 SIFT 特征由于對光照、旋轉(zhuǎn)、尺度等變換具有不變性,受到了學(xué)者的廣泛關(guān)注[5],但是SIFT特征需要進(jìn)行128維的矢量特征運(yùn)算,在高速視頻處理系統(tǒng)中實(shí)時(shí)實(shí)現(xiàn)較為困難。Herbert Bay等提出的SURF特征在SIFT的基礎(chǔ)上簡化了圖像金字塔分解的操作[6]。類似于SIFT特征,SURF特征也是一種尺度、旋轉(zhuǎn)不變的特征描述方法。它對圖像的卷積做近似處理,在特征點(diǎn)定位環(huán)節(jié)引入的積分圖的概念,使求解Hessian矩陣的計(jì)算量大大降低,運(yùn)算時(shí)間相比SIFT減少了3倍以上。本文結(jié)合光電跟蹤系統(tǒng)的特點(diǎn),提出一種新的基于SURF特征的改進(jìn)快速近鄰匹配的方法。相比于傳統(tǒng)的匹配算法,此算法具有更高的匹配準(zhǔn)確度。

      2 光電跟蹤系統(tǒng)中的特征點(diǎn)匹配

      光電跟蹤系統(tǒng)經(jīng)典的目標(biāo)跟蹤算法主要有模板匹配、Kalman濾波等。上述方法在處理方式上雖各有不同,但是主要適用于尺度基本不變的剛體運(yùn)動目標(biāo),跟蹤內(nèi)容主要為圖像中的局部感興趣目標(biāo)區(qū)域(ROI)。對于光電圖像中具有復(fù)雜畸變、尺度伸縮,方向旋轉(zhuǎn)等特性的目標(biāo),采用常規(guī)的目標(biāo)跟蹤算法效果往往不盡如人意?;谔卣鼽c(diǎn)匹配的跟蹤方法克服了前述跟蹤方法的缺點(diǎn),它通過對圖像提取穩(wěn)定特征點(diǎn),完成前后幀特征點(diǎn)的匹配,并在特征點(diǎn)集的鄰域內(nèi)做局部搜索實(shí)現(xiàn)目標(biāo)的跟蹤[7-9]。如果選取的特征點(diǎn)具有對尺度、旋轉(zhuǎn)、光照的不變性,該方法在處理復(fù)雜目標(biāo)時(shí)能展現(xiàn)出更強(qiáng)的適應(yīng)性。本文的研究內(nèi)容即是光電圖像中的SURF特征點(diǎn)匹配方法。光電跟蹤系統(tǒng)中特征點(diǎn)匹配的主要流程為:

      (1)提取相鄰兩幀圖像的特征點(diǎn);

      (2)篩選感興趣的穩(wěn)定特征點(diǎn),選取適當(dāng)?shù)乃惴▽η昂髱鎏卣鼽c(diǎn)匹配,剔除誤配點(diǎn);

      (3)在完成匹配的當(dāng)前幀中采用局部搜索或仿射變換等方法定位目標(biāo)。

      3 SURF特征描述

      3.1 快速特征點(diǎn)檢測

      SURF特征利用積分圖的Hessian矩陣完成興趣點(diǎn)選取和尺度變換的操作,定義點(diǎn)x=(x,y)處的積分圖為:

      對于圖像I中的某一點(diǎn)x,Hessian矩陣定義為:

      其中,Lxx(x,σ)為圖像I在點(diǎn)x處與高斯濾波函數(shù)二階偏導(dǎo)數(shù)

      對應(yīng)的,可以仿照以上兩式求得Lxy(x,σ)和Lyy(x,σ)。

      為簡化圖像與高斯濾波核卷積計(jì)算,SURF算法采用了尺度盒子濾波的方法。以9×9的盒子濾波模板為例,取尺度值s=σ =1.2,其對高斯卷積核二階偏導(dǎo)的近似如圖1所示。

      圖1 高斯卷積二階導(dǎo)近似

      假設(shè)與上述模板卷積后得到的Hessian矩陣參數(shù)為 Dxx,Dxy,Dyy,則 Hessian 矩陣的行列式可近似為:

      改變盒子濾波器的大小即可獲得不同尺度下的卷積輸出。對大小為N×N的濾波模板,對應(yīng)選擇的尺度s=σ=1.2×N/9,在尺度空間中取每個(gè)點(diǎn)的Det(H)值與該尺度相鄰位置和相鄰尺度周邊的26個(gè)鄰域比較,得到候選的局部極大值點(diǎn),再對圖像插值就可以計(jì)算出穩(wěn)定的特征位置。

      3.2 特征點(diǎn)主方向

      為了獲取圖像的旋轉(zhuǎn)信息,需要確定特征點(diǎn)的方向。以3.1節(jié)中定位出的特征點(diǎn)為中心,在半徑為6s的圓形鄰域內(nèi)分別計(jì)算x和y方向的Haar小波響應(yīng)。然后對卷積響應(yīng)賦予高斯權(quán)重,將每π/3角度內(nèi)的水平和垂直響應(yīng)相加得到一個(gè)局部方向矢量,比較得出最長的矢量作為該特征點(diǎn)的主方向。

      3.3 特征描述符生成

      獲得特征點(diǎn)主方向后,以主方向?yàn)閤軸,選取20s×20s大小的區(qū)域,將其等分為4×4的子區(qū)域,在每個(gè)子區(qū)域內(nèi)計(jì)算Haar小波響應(yīng),記平行于主方向和垂直于主方向的Haar小波響應(yīng)為dx,dy,賦予高斯權(quán)重后統(tǒng)計(jì)每個(gè)子區(qū)域里響應(yīng)的總和及響應(yīng)絕對值之和,則每個(gè)子區(qū)域可由特征向量 V=表示。所以每個(gè)特征點(diǎn)就由4×4個(gè)子區(qū)域的特征向量組合而成,對特征向量做歸一化處理,最終生成總計(jì)64維的特征描述符。

      4 改進(jìn)近鄰搜索匹配

      近鄰歐氏距離比例法是特征點(diǎn)匹配中的常用方法,假設(shè) (x1,x2…,xN),(x1',x2'…,xN')為一對待匹配的特征向量,由式(6)可求得特征向量的歐氏距離,比較得到候選匹配對的最近鄰歐氏距離和次近鄰歐氏距離之比(公式(7)),當(dāng)η大于某一門限值時(shí),表明對應(yīng)的最近鄰歐氏距離匹配點(diǎn)和次近鄰歐氏距離匹配點(diǎn)與帶匹配特征點(diǎn)都很接近,剔除這一配對。

      然而,近鄰歐氏距離比例匹配存在明顯缺陷,η門限值對匹配效果的影響很大:若選取的η較大,容易引起誤匹配;若選取的η較小,雖然能夠得到準(zhǔn)確的匹配結(jié)果,但生成的匹配對很少,當(dāng)圖像的成像質(zhì)量較差時(shí),這一問題中尤為明顯。此外,待匹配圖像中往往存在相似的區(qū)域,一些相似點(diǎn)的SURF特征甚至比正確匹配點(diǎn)更接近于待匹配點(diǎn)。圖2是用近鄰歐氏距離匹配法仿真得到的結(jié)果,注意到每一花瓣周邊的輪廓非常接近,不同花瓣附近SURF特征點(diǎn)的歐氏距離相似度有可能超過同一點(diǎn)的相似度,而這非常容易造成特征點(diǎn)誤配。

      圖2 不同η值對匹配結(jié)果的影響

      造成上述特征點(diǎn)誤配的根本原因是待匹配的特征描述符在特定的匹配搜索策略下不具有足夠高的區(qū)分度[10]。盡管SURF描述符具有豐富的64維矢量信息,而且在特征描述符生成的過程中考慮了近鄰區(qū)域的Haar小波響應(yīng)特性,但是SURF最終提取出的特征點(diǎn)只反映了單個(gè)像素信息,而僅僅依賴單個(gè)像素信息難以獲得準(zhǔn)確的匹配結(jié)果。

      為了在特征點(diǎn)描述子中引入更多信息,T.Ojala等提出的LBP特征考慮了圖像的局部紋理[11]。相應(yīng)地,本文在特征匹配的過程中加入特征點(diǎn)近鄰區(qū)域的統(tǒng)計(jì)信息,匹配算法的主要流程如下:

      (1)計(jì)算前后幀匹配圖像的SURF特征,利用式(6)和式(7)得到每個(gè)待匹配特征點(diǎn)F0的最近鄰點(diǎn)與次近鄰點(diǎn)F1和F2,F(xiàn)1、F2與待配點(diǎn)對應(yīng)的歐氏距離為Dnear和Dsub_near;

      (2)以待匹配的SURF特征點(diǎn)F0為圓心,3.2節(jié)中獲取的特征點(diǎn)主方向?qū)?yīng)的尺度(記為smain)為半徑,建立平行于特征點(diǎn)主方向?yàn)閅軸,垂直于特征點(diǎn)主方向?yàn)閄軸的正交系。分別統(tǒng)計(jì)圓內(nèi)四個(gè)象限中灰度級大于特征點(diǎn)灰度的像素個(gè)數(shù){N1,N2,N3,N4},若統(tǒng)計(jì)得到的像素?cái)?shù)為0,視該待配點(diǎn)為噪聲點(diǎn)將其剔除。然后對統(tǒng)計(jì)結(jié)果做歸一化處理,得到F0四個(gè)方向鄰域的灰度分布P0={p1,p2,p3,p4}。類似地,對候選匹配點(diǎn)F1,F(xiàn)2執(zhí)行相同操作,F(xiàn)1,F(xiàn)2的鄰域灰度分布分別為P1={p1',p2',p3',p4'}和 P2={p1″,p2″,p3″,p4″};

      (3)依據(jù)最近鄰歐氏距離比率法進(jìn)行粗匹配,在式(7)中將起始閾值設(shè)為η1,初步選出區(qū)分度較強(qiáng)的特征點(diǎn);

      (4)在確定上一幀圖像中滿足步驟(3)中粗匹配條件的特征點(diǎn)后,計(jì)算當(dāng)前匹配幀中與之對應(yīng)最近鄰點(diǎn)鄰域灰度分布的Pearson相關(guān)系數(shù)。Pearson相關(guān)系數(shù)的表達(dá)式為:

      用同樣的方法計(jì)算出次近鄰點(diǎn)灰度分布相關(guān)系數(shù)ρsub_near;

      (5)候選特征點(diǎn)再匹配。對符合粗匹配要求的特征點(diǎn)求取近鄰灰度分布相關(guān)系數(shù)比若η'大于閾值η2,則確定此時(shí)得到的最近鄰點(diǎn)為正確匹配點(diǎn),否則,剔除此對匹配。

      上述算法的關(guān)鍵在于匹配過程中引入了二次匹配。最近鄰比例法首先用于特征點(diǎn)的粗匹配,初步挑選出區(qū)分度較好的待配點(diǎn),然后統(tǒng)計(jì)特征點(diǎn)在其對應(yīng)尺度下的四鄰域灰度分布信息,并引入Pearson相關(guān)系數(shù)對待配點(diǎn)做進(jìn)一步挑選,得到最終的匹配對。

      5 實(shí)驗(yàn)結(jié)果與結(jié)論

      5.1 實(shí)驗(yàn)結(jié)果

      根據(jù)以上論述,將算法應(yīng)用于采集的光電跟蹤系統(tǒng)圖像中。以車牌跟蹤為例,圖像的尺寸為640×480,實(shí)驗(yàn)平臺為 Intel i5-2400 3.1GHz四核處理器、4G內(nèi)存,分別用最近鄰歐氏距離比例法和本文提出的算法對已提取SURF特征的兩幀圖像進(jìn)行匹配,得到的結(jié)果如圖3所示。

      圖3 車牌匹配效果對比

      表1為近鄰比例法與本文算法對提取的車牌目標(biāo)特征匹配的性能比較,由表中數(shù)據(jù)可以看出,本文算法的匹配成功率達(dá)到95.45%,相比近鄰比例法在準(zhǔn)確度上有較大幅度提升;此外,由于實(shí)驗(yàn)中并未對提出的算法做并行優(yōu)化處理,因此在計(jì)算時(shí)間方面相比近鄰比例法有明顯提升,但17.87 ms的處理耗時(shí)依然能滿足一般光電系統(tǒng)的實(shí)時(shí)性要求。

      表1 匹配性能比較

      5.2 結(jié)論與展望

      實(shí)驗(yàn)表明本特征點(diǎn)匹配算法具有較好的匹配性能。SURF特征提取算法首先被用于提取光電圖像序列中魯棒的特征點(diǎn),接下來在點(diǎn)匹配的不同階段采用了不同策略:將誤配率較高的歐氏距離比率法作為第一級粗匹配,然后將特征點(diǎn)周邊的灰度信息引入匹配準(zhǔn)則中,從而大大提高了匹配準(zhǔn)確率。值得一提的是,該算法雖然利用了圖像的灰度信息,但挖掘并不充分,而且在計(jì)算時(shí)間方面還有待優(yōu)化。在后期的改進(jìn)工作中,有必要重點(diǎn)考慮特征點(diǎn)周邊局部紋理以及聚類分析方法在本研究中的應(yīng)用。

      [1] Harris C,Stephens MJ.A combined corner and edge detector[C].Processing of Fourth alvey Vision Conference,1988:147-151.

      [2] L Jing,N Allinson.A comprehensive review of current local features for computer vision[J].Neurocomputing,2008(2):1-17.

      [3] Z Zhen,H Wang,E Teoh.Analysis of gray level corner detection[J].Pattern Recognition Letters,1999,20(2):149-162.

      [4] S M Smith,J M Brady.SUSAN - a new approach to low level image processing[J].International Journal of Computer Vision,1997,23(1):43 -78.

      [5] Lowe D G.Dinstinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):90 -110.

      [6] Bay H,Tuytelaars T,Van Gool L.SURF:speeded up robust features[C].European Conference on Computer Vision,2006:1:404 -417.

      [7] Song Lin,Chen Yongmei,Song Chunhua,et al.Image matching method based on weighted shape context[J].Laser& Infrared,2013,43(5):826 -830.(in Chinese)宋琳,程詠梅,宋春華,等.基于加權(quán)形狀上下文的圖匹配[J].激光與紅外,2013,43(5):826 -830.

      [8] Yang Dongdong,Chang Danhua,Han Xia.Improvement and realization of the moving object detection and tracking[J].Laser and Infrared,2010,40(2):205 -209.(in Chinese)楊冬冬,常丹華,韓夏.運(yùn)動目標(biāo)檢測與跟蹤算法的改進(jìn)與實(shí)現(xiàn)[J].激光與紅外,2010,40(2):205 -209.

      [9] La Tuan Anh,Jae - Bok Song.Object tracking and visual servoing using features computed from local feature descriptor[C].International Conference on Control Automation and Systems,2010:1044 -1048.

      [10] Bian Houqin,Su Jianbo.Feature correspondence algorithm based on scene - independent constraint[J].Journal of Image and Graphics,2006,11(3):342 -348.(in Chinese)邊后琴,蘇劍波.場景無關(guān)約束下的特征匹配方法[J].中國圖像圖形學(xué)報(bào),2006,11(3):342 -348.

      [11] Timo Ojala,Matti Pietikainen,Topi Maenpaa.Multiresolution Gray-scale and rotation invariant texture classification with local binary patterns[J].IEEE Transactions on Pattern Recognition and Machine Intelligence,2002,24:971 -987.

      猜你喜歡
      歐氏鄰域灰度
      采用改進(jìn)導(dǎo)重法的拓?fù)浣Y(jié)構(gòu)灰度單元過濾技術(shù)
      基于灰度拉伸的圖像水位識別方法研究
      稀疏圖平方圖的染色數(shù)上界
      基于鄰域競賽的多目標(biāo)優(yōu)化算法
      基于最大加權(quán)投影求解的彩色圖像灰度化對比度保留算法
      基于灰度線性建模的亞像素圖像抖動量計(jì)算
      關(guān)于-型鄰域空間
      基于時(shí)序擴(kuò)展的鄰域保持嵌入算法及其在故障檢測中的應(yīng)用
      基于多維歐氏空間相似度的激光點(diǎn)云分割方法
      麗江“思奔記”(上)
      探索地理(2013年5期)2014-01-09 06:40:44
      库车县| 铅山县| 团风县| 吉安市| 兴和县| 玛多县| 台北县| 八宿县| 建宁县| 股票| 绵阳市| 赤城县| 临沧市| 莱州市| 龙南县| 禄丰县| 江华| 巴塘县| 阳江市| 全椒县| 扎赉特旗| 崇礼县| 神农架林区| 唐河县| 阿巴嘎旗| 柳江县| 营口市| 巩留县| 田林县| 舒兰市| 吴堡县| 莱州市| 昭平县| 犍为县| 满城县| 周口市| 榆中县| 永定县| 赫章县| 冀州市| 定南县|