• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      改進(jìn)FAST-SURF算法在卷煙包件識(shí)別定位中的應(yīng)用

      2020-02-19 14:10:22王彥博高奇峰楊德偉
      關(guān)鍵詞:魯棒性像素點(diǎn)卷煙

      張 毅,王彥博,高奇峰,楊德偉,魏 博

      1.重慶郵電大學(xué) 先進(jìn)制造工程學(xué)院,重慶400065

      2.重慶郵電大學(xué) 自動(dòng)化學(xué)院,重慶400065

      1 引言

      工業(yè)機(jī)器人廣泛用于物流分揀、碼垛等工業(yè)任務(wù)[1],而拾取和放置目標(biāo)物體是工業(yè)機(jī)器人的重要任務(wù)之一。大部分工業(yè)機(jī)器人的抓取仍停留在預(yù)先描點(diǎn)后重復(fù)工作的層次。這樣的工作方式對(duì)環(huán)境的穩(wěn)定性要求極高,不能應(yīng)對(duì)突發(fā)的變化。而在煙草物流的碼垛裝配中,由于客戶訂單的復(fù)雜性和隨機(jī)性會(huì)導(dǎo)致數(shù)量不同的條煙包裝成形狀不同的卷煙包件,卷煙行業(yè)要針對(duì)不同條數(shù)的卷煙包件有著一套特殊的碼放規(guī)則以利于碼放的穩(wěn)定性同時(shí)避免條煙的損壞,因此對(duì)卷煙包件碼垛系統(tǒng)的實(shí)用性、智能化要求較高。憑借視覺(jué)系統(tǒng)對(duì)卷煙包件進(jìn)行識(shí)別與定位,從而提高系統(tǒng)的魯棒性和實(shí)時(shí)性來(lái)應(yīng)對(duì)突發(fā)的情況。近年來(lái),視覺(jué)識(shí)別定位在工業(yè)上的應(yīng)用也越來(lái)越廣泛。機(jī)器視覺(jué)識(shí)別在工業(yè)機(jī)器人在抓取和放置功能等方面仍面臨著時(shí)效性不夠的問(wèn)題[2]。在這一問(wèn)題上,很多人做出了成果。2016年,陳劍虹,韓小珍提出結(jié)合FAST-SURF和改進(jìn)k-d樹(shù)最近鄰查找的圖像配準(zhǔn)[3],匹配精度有一定提高,但時(shí)效性稍低。2017年,儲(chǔ)蓄對(duì)基于改進(jìn)SURF算法圖像匹配方法研究,提高了SURF算法檢測(cè)的速度[4],但在后續(xù)定位中處理較為復(fù)雜,難以達(dá)到時(shí)效性。本文在前人工作的基礎(chǔ)上,提出采用改進(jìn)的FAST-SURF算法,以雙目立體視覺(jué)[5]的方式對(duì)目標(biāo)卷煙包件進(jìn)行識(shí)別然后定位。首先通過(guò)改進(jìn)的FAST算法檢測(cè)可能的特征點(diǎn),而后將特征點(diǎn)通過(guò)Haar小波生成特征向量,F(xiàn)LANN算法搜索待匹配特征點(diǎn)[6-7],歐式距離匹配[8],RANSAC算法剔除誤匹配對(duì),實(shí)現(xiàn)對(duì)目標(biāo)物體的匹配[9]。根據(jù)圖像匹配的結(jié)果與標(biāo)定得到的內(nèi)外參進(jìn)行定位。與基于SURF特征的目標(biāo)識(shí)別相比,本文提出的方法更能滿足卷煙包件碼垛系統(tǒng)實(shí)時(shí)性的要求,實(shí)驗(yàn)結(jié)果證明了本文方法在目標(biāo)物體匹配定位中的可行性。

      2 基于SURF特征的目標(biāo)識(shí)別

      SURF算法[10]是一種高魯棒性的局部特征點(diǎn)檢測(cè)器,是由Herbert Bay等人在2006年提出的。SURF特征具有尺度、旋轉(zhuǎn)等不變特性,因此常用于圖像拼接、三維建模、視頻跟蹤、目標(biāo)識(shí)別等。該算法采用積分圖像和近似的Hessian矩陣運(yùn)算提高運(yùn)算速度,使用Haar小波變換增加魯棒性。

      2.1 Hessian矩陣提取特征點(diǎn)

      SURF算法通過(guò)計(jì)算圖像像素點(diǎn)的Hessian矩陣提取圖像特征點(diǎn),這需要圖像和高斯函數(shù)做卷積運(yùn)算。根據(jù)卷積運(yùn)算性質(zhì),圖像與高斯函數(shù)的卷積可以轉(zhuǎn)化為積分圖像與高斯二階倒數(shù)模板的卷積運(yùn)算。

      SURF算法采用盒子濾波器近似高斯二階偏導(dǎo)數(shù),最終獲得了近似的Hessian矩陣,通過(guò)改變盒子濾波器的模板大小建立尺度圖像金字塔。Hessian矩陣的行列式的局部最大值點(diǎn)即為特征點(diǎn)[11]。

      2.2 Haar構(gòu)建特征描述符

      對(duì)提取到的特征點(diǎn),建立特征向量對(duì)其進(jìn)行描述,SURF算法在特征點(diǎn)圓形區(qū)域內(nèi)同構(gòu)Haar小波響應(yīng)確定一個(gè)主方向,使特征向量具有旋轉(zhuǎn)不變性,再以特征點(diǎn)為中心,構(gòu)建正方形區(qū)域,經(jīng)過(guò)Haar小波響應(yīng)最終生成一個(gè)64維的特征向量。

      2.3 最近鄰域特征匹配

      對(duì)于參考圖像與待匹配圖像特征點(diǎn)的匹配,SURF算法采用最近鄰域匹配方法[12],首先計(jì)算待匹配圖像上的特征點(diǎn)特征向量到參考圖像上所有特征點(diǎn)特征向量的歐氏距離[13],得到一個(gè)距離集合,其次通過(guò)對(duì)距離集合進(jìn)行比較運(yùn)算得到最小歐氏距離d1和次最小歐氏距離d2,即:

      式(1)中,T為設(shè)定閾值,一般為0.6。當(dāng)最小歐式距離d1和次最小歐式距離d2的比值小于該閾值時(shí),認(rèn)為特征點(diǎn)與對(duì)應(yīng)最小歐式距離的特征點(diǎn)是匹配的,否則沒(méi)有點(diǎn)與該特征點(diǎn)相匹配。

      3改進(jìn)的FAST-SURF算法

      改進(jìn)前的流程圖對(duì)比和改進(jìn)后的流程圖對(duì)比如圖1所示。

      圖1 流程圖對(duì)比

      3.1 改進(jìn)的FAST檢測(cè)

      FAST算法主要包含非特征點(diǎn)檢測(cè)、特征點(diǎn)檢測(cè)、非極大值抑制三個(gè)步驟:

      (1)傳統(tǒng)的FAST檢測(cè)從圖片中選取一個(gè)像素點(diǎn)P為圓心,半徑為3像素的離散化的Bresenhan圓,圓的邊界有16個(gè)像素,如圖2所示。本文改進(jìn)的FAST檢測(cè)算法如圖3所示。

      圖2 FAST特征點(diǎn)示意圖

      圖3 待檢測(cè)點(diǎn)示意圖

      由圖2可以看出,傳統(tǒng)的SURF檢測(cè)是IP與周?chē)?6個(gè)像素點(diǎn)進(jìn)行比較(IP為P點(diǎn)灰度值)。因像素點(diǎn)較多,檢測(cè)對(duì)比的時(shí)間較長(zhǎng)。因此本文利用圖3的陰影區(qū)域(編號(hào)1~12)的內(nèi)部像素點(diǎn)進(jìn)行檢測(cè),能達(dá)到檢測(cè)的效果,也減少了檢測(cè)的時(shí)間。t為閾值,檢測(cè)原則是連續(xù)9個(gè)像素點(diǎn)都比Ip+t大或者比Ip-t小,則該像素點(diǎn)為特征點(diǎn)候選點(diǎn)。

      (2)待檢測(cè)的點(diǎn)周?chē)囊蝗ο袼氐幕叶戎蹬c候選的點(diǎn)的灰度值差別夠大,可以認(rèn)為這個(gè)候選點(diǎn)是一個(gè)特征點(diǎn),在二維圖像中的任意一點(diǎn)圓心坐標(biāo)( x,y)。特征點(diǎn)描述算法公式如下:

      式(2)中,t為閾值,其中定義圓周上任意一點(diǎn)的灰度為Ix,圓心的灰度為Ip。當(dāng)中心像素的灰度值IP小于周?chē)c(diǎn)x處像素灰度值Ix+t時(shí),則認(rèn)為該灰度像素屬于更暗的,則SP→x=d;以此類推相似的s和更亮的灰度像素點(diǎn)b。這樣在一個(gè)以候選特征點(diǎn)p為圓心的圓形區(qū)域邊緣就找到了三種類型的灰度像素點(diǎn)d、s和b。統(tǒng)計(jì)d或b的次數(shù),如果大于n(當(dāng)分割測(cè)試點(diǎn)數(shù)目為9時(shí),即Ix的個(gè)數(shù)的3/4),則認(rèn)為該點(diǎn)為候選特征點(diǎn)。然后通過(guò)固定半徑圓上像素的灰度值進(jìn)行比較獲得候選特征點(diǎn)。利用ID3分類器,根據(jù)12個(gè)特征,判斷此候選特征點(diǎn)是否為特征點(diǎn)。將上面的步驟獲得d、s、b的記為Pd、Ps、Pb,計(jì)算得到的SP→x必定對(duì)應(yīng)式(2)的某種情況。令I(lǐng)P為特征點(diǎn)時(shí)kp=true,否則false,從而判定某個(gè)像素是否為特征點(diǎn)。

      (3)最后,對(duì)特征點(diǎn)進(jìn)行非極大值抑制,得到特征點(diǎn)輸出。

      關(guān)于本算法中閾值t的值取為55,取值論證在實(shí)驗(yàn)部分描述。

      3.2 改進(jìn)FAST-SURF算法

      正本文將得到的FAST檢測(cè)子進(jìn)行主方向的選取。首先,以特征點(diǎn)為圓心做一個(gè)半徑為6s的圓形鄰域(s即特征點(diǎn)的尺度值),然后計(jì)算區(qū)域內(nèi)像素點(diǎn)的水平方向和垂直方向的加權(quán)Haar小波響應(yīng)[14]。

      如圖4所示,左側(cè)為Haar小波在x方向上的響應(yīng),右側(cè)為Haar小波在y方向上的響應(yīng)。將高斯權(quán)重系數(shù)賦予響應(yīng)值,令越靠近特征點(diǎn)的Haar小波響應(yīng)的權(quán)值越大,然后用一個(gè)60°的扇形模板遍歷整個(gè)圓形區(qū)域,得到多個(gè)Haar響應(yīng)的構(gòu)成的累加矢量,矢量最長(zhǎng)的方向即為特征點(diǎn)主方向[15]。最后計(jì)算每個(gè)特征點(diǎn),獲得所有特征點(diǎn)的主方向。

      圖4 Haar小波響應(yīng)

      沿著特征點(diǎn)方向構(gòu)造以特征點(diǎn)為中心,邊長(zhǎng)為20s的正方形區(qū)域。如圖5所示,然后對(duì)該區(qū)域?qū)崿F(xiàn)等間隔采樣(采樣間隔為s),并將其化為成4×4=16個(gè)子區(qū)域,在每個(gè)子區(qū)域采樣5×5個(gè)點(diǎn)。計(jì)算所有子區(qū)域的Haar小波響應(yīng)。

      圖5 特征描述符生成過(guò)程

      將每個(gè)子區(qū)域的d x、d y、| d x|、| d y|相加,其中d x、d y分別表示Haar小波在x和y方向的相應(yīng)。獲得四維特征描述向量V:

      將16個(gè)子區(qū)域的V組合在一起,獲得16×4=64維特征描述向量,即生成了SURF描述符。對(duì)于參考圖像與待匹配圖像特征點(diǎn)的匹配,SURF算法采用最近鄰域匹配方法,得到的結(jié)果較準(zhǔn)確,但搜索速度慢。本文采用基于FLANN算法進(jìn)行特征搜索。通過(guò)最近歐式距離和次近歐式距離的比值同給定的閾值T來(lái)判定是否匹配。閾值T通常取0.4~0.8,閾值越大匹配點(diǎn)數(shù)越多,但匹配正確率會(huì)降低,本文取0.6。

      3.3改進(jìn)RANSAC算法

      經(jīng)過(guò)歐式距離匹配后的匹配點(diǎn)對(duì)仍會(huì)存在錯(cuò)誤匹配的情況,在本視覺(jué)系統(tǒng)中提出了一種改進(jìn)的RANSAC算法用以消除。利用準(zhǔn)確匹配點(diǎn)間相對(duì)斜率相同的關(guān)系來(lái)剔除誤匹配點(diǎn)。設(shè)(Ai,Aj)和(Bi,Bj)是處理后的圖像A和待匹配的模板圖像B兩兩正確的匹配對(duì)。那么Ai和Bi的絕對(duì)斜率k(Ai,Bi)應(yīng)該相等于Aj和Bj的絕對(duì)斜率k(Aj,Bj)?;谝陨显?,利用參考圖像A中的Ai與它自身中所有的特征點(diǎn)Aj的斜率關(guān)系和待匹配圖像B中的Bi與它自身中所有的特征點(diǎn)Bj的斜率關(guān)系的相似性評(píng)價(jià)兩點(diǎn)對(duì)應(yīng)關(guān)系,提出如下的評(píng)價(jià)函數(shù):

      其中R(i,j)表示Ai,Bi與各自圖像每個(gè)興趣點(diǎn)斜率的相對(duì)差異;K(i,j)表示Ai,Bi與各自圖像每個(gè)興趣點(diǎn)的評(píng)價(jià)斜率。

      經(jīng)過(guò)改進(jìn)的RANSAC算法去除誤匹配對(duì)后,可以看到誤匹配點(diǎn)對(duì)有明顯的消除,這樣模板圖與目標(biāo)處理圖實(shí)現(xiàn)了精確的特征點(diǎn)配對(duì)。

      4 雙目定位

      4.1 雙目定位理論

      雙目視覺(jué)定位技術(shù)的原理是模擬人類雙目感知距離,實(shí)現(xiàn)對(duì)物體三維空間位置的測(cè)量,是機(jī)器人視覺(jué)研究的一個(gè)重要內(nèi)容[16]。首先用兩個(gè)攝像頭對(duì)同一物體從不同位置成像,然后從視差中修復(fù)距離信息,其中視差是指左、右觀測(cè)點(diǎn)在觀看目標(biāo)物體時(shí)所產(chǎn)生的偏差,視差會(huì)受到觀測(cè)點(diǎn)與被目標(biāo)物體之間距離的影響[17]。三維空間內(nèi)的點(diǎn)能否在圖像中出現(xiàn)實(shí)際上取決于成像過(guò)程中的“視線”,如果一個(gè)對(duì)象被兩個(gè)視點(diǎn)觀測(cè)到,首先利用兩幅對(duì)應(yīng)的圖像,計(jì)算出空間點(diǎn)在兩幅圖像中像素點(diǎn)之間的位置偏差,然后由幾何原理計(jì)算出目標(biāo)物體的三維坐標(biāo)值。本文將兩個(gè)相同相機(jī)平行放置,對(duì)卷煙包件進(jìn)行測(cè)量與圖像采集。平視雙目立體視覺(jué)定位原理圖如圖6所示。

      圖6 三維重建原理圖

      在平視雙目立體視覺(jué)中,兩個(gè)相機(jī)擁有完全相同的內(nèi)部參數(shù),平行放置且有一對(duì)坐標(biāo)軸共線,因此兩個(gè)相機(jī)的光軸互相平行而且成像平面共面。假設(shè)左相機(jī)C1的相機(jī)坐標(biāo)系為O1X1Y1Z1,右相機(jī)C2的相機(jī)坐標(biāo)系為O2X2Y2Z2,相機(jī)焦距均為f,兩個(gè)相機(jī)的光心距離為d。對(duì)于任意一個(gè)空間點(diǎn)P,在相機(jī)坐標(biāo)系C1和C2中的坐標(biāo)分別為(x1,y1,z1)、(x2,y2,z2),P點(diǎn)在左、右相機(jī)拍攝到的圖片中的圖像坐標(biāo)分別為(u1,v1)、(u2,v2)??芍?,在得到空間中點(diǎn)P在雙目視覺(jué)系統(tǒng)中兩個(gè)二維圖像中的像素坐標(biāo),就可以重建P點(diǎn)的三維坐標(biāo)。

      4.2 雙目定位

      在卷煙包件的智能碼垛系統(tǒng)的定位過(guò)程中,需要獲取的是卷煙包件形心坐標(biāo)。由于工業(yè)場(chǎng)地有限,本系統(tǒng)采集圖像的方式是水平拍攝。根據(jù)圖像匹配的結(jié)果與標(biāo)定得到的內(nèi)外參,計(jì)算獲得所有匹配特征點(diǎn)的三維坐標(biāo)。由于匹配特征點(diǎn)近似均勻分布,所以將所有特征點(diǎn)的三維坐標(biāo)進(jìn)行平均運(yùn)算,得到近似平面形心坐標(biāo)。卷煙包件的煙包長(zhǎng)度已知為270 mm,將獲得的近似平面形心坐標(biāo)的Y軸值加上煙包長(zhǎng)度的一半135 mm,即獲得卷煙包件的近似形心坐標(biāo)。

      5 實(shí)驗(yàn)及結(jié)果分析

      5.1 相機(jī)標(biāo)定

      進(jìn)行匹配實(shí)驗(yàn)之前要先對(duì)攝像機(jī)進(jìn)行標(biāo)定[18]。本實(shí)驗(yàn)搭建的雙目平臺(tái)由兩攝像機(jī)組合而成,1號(hào)相機(jī)焦距6.764 mm,2號(hào)相機(jī)焦距6.758 mm,相機(jī)距離約195 mm。采用Halcon13、opencv2.4.9等軟件作為開(kāi)發(fā)工具。實(shí)驗(yàn)電腦參數(shù)如下:I5-3210處理器,CPU頻率為2.5 GHz,RAM容量為2 GB,64位操作系統(tǒng)。

      根據(jù)實(shí)際場(chǎng)景與實(shí)驗(yàn)條件,本實(shí)驗(yàn)采用170 mm×170 mm的標(biāo)定板,如圖7所示。

      圖7 標(biāo)定

      左右攝像機(jī)同時(shí)采集六組空間位置不同的標(biāo)定板圖像,采用Halcon對(duì)雙目立體視覺(jué)系統(tǒng)進(jìn)行標(biāo)定,標(biāo)定結(jié)果如表1所示。

      完成相機(jī)標(biāo)定后,對(duì)圖像進(jìn)行校準(zhǔn),目的是消除透鏡畸變并使雙目圖像的成像平面在同一平面且嚴(yán)格對(duì)齊彼此的行掃描線。

      5.2 閾值t的確定

      實(shí)驗(yàn)對(duì)縮小、放大、旋轉(zhuǎn)的情況下,改變本文算法中的閾值,根據(jù)三種情況的匹配結(jié)果來(lái)確定閾值t的值。

      實(shí)驗(yàn)在縮?。ㄟh(yuǎn)距離)、放大(近距離)、旋轉(zhuǎn)(順時(shí)針90°)下的情況,各采集兩幅圖像,在三種不同的情況,對(duì)閾值進(jìn)行討論實(shí)驗(yàn)。實(shí)驗(yàn)具體數(shù)據(jù)如表2所示。從實(shí)驗(yàn)數(shù)據(jù)可以得出結(jié)論:在大體上,整個(gè)匹配時(shí)間隨閾值的增大而減小,而正確匹配率隨閾值的增大而減小。在閾值t=55時(shí),在縮小、放大、旋轉(zhuǎn)三種情況下,匹配時(shí)間較短,且匹配正確率較高。因此,本算法將閾值t的值定為55。

      表1 攝像機(jī)標(biāo)定結(jié)果

      表2 三種情況下閾值變化與時(shí)間、正確匹配率的關(guān)系

      對(duì)采集的原圖像用Halcon軟件進(jìn)行校準(zhǔn),校準(zhǔn)后的圖像如圖8所示。

      圖8 校準(zhǔn)后的圖像

      為了驗(yàn)證FAST-SURF方法對(duì)目標(biāo)物體的匹配的可行性,完成攝像機(jī)標(biāo)定和校準(zhǔn)后,采用FAST-SURF、SURF、參考文獻(xiàn)[3]中的SURF改進(jìn)算法進(jìn)行目標(biāo)匹配。

      5.3 目標(biāo)匹配

      在將校準(zhǔn)后的圖像用三種算法匹配,得到的匹配結(jié)果如圖9~11所示。

      圖9 FAST-SURF算法

      通過(guò)三種不同算法的匹配實(shí)驗(yàn),可以得到實(shí)驗(yàn)結(jié)果。匹配結(jié)果對(duì)比表明:本文算法表現(xiàn)良好,速度快,正確率高;SURF算法匹配效果稍差,速度略慢,且正確匹配率相對(duì)較低;他人算法匹配效果良好,但是匹配速度和正確率不如本文算法。實(shí)驗(yàn)的具體數(shù)據(jù)如表3所示。

      圖10 文獻(xiàn)[3]算法

      圖11 本文算法

      表3 三種算法結(jié)果比較

      5.4 目標(biāo)定位

      對(duì)于卷煙包件,其長(zhǎng)度(即條煙的長(zhǎng)度)和寬度(即五條煙的寬度之和)是固定的。得到的不規(guī)則卷煙包件平面中心點(diǎn)的三維坐標(biāo)就可以得到不規(guī)則卷煙包件整體的三維坐標(biāo),得到的三維坐標(biāo)與實(shí)際三維坐標(biāo)對(duì)比分析如表4所示。

      從以上數(shù)據(jù)可以得出,在煙包條數(shù)不同的情況下,本文算法誤差在8 mm以內(nèi),平均定位時(shí)間約0.7 s,優(yōu)于FAST-SURF算法和SURF-RANSAC算法,而且本文算法誤差的波動(dòng)范圍小,適用于卷煙包件的智能碼垛系統(tǒng)中。

      表4 算法對(duì)比定位結(jié)果

      5.5 魯棒性測(cè)試

      在魯棒性實(shí)驗(yàn)中,主要測(cè)試了旋轉(zhuǎn)形變、噪聲干擾及亮度變化這三個(gè)方面的影響。所有測(cè)試的圖像集均是相同的,最后通過(guò)獲取的匹配點(diǎn)數(shù)量和匹配點(diǎn)對(duì)的正確匹配率來(lái)評(píng)估各算法的魯棒性。

      5.5.1 旋轉(zhuǎn)不變性

      圖12(a)所示為旋轉(zhuǎn)不變性測(cè)試曲線圖,可以看出:本文改進(jìn)的FAST-SURF算法和SURF-RANSAC算法在圖像旋轉(zhuǎn)中具有一定的魯棒性,且兩種算法對(duì)幾乎全部旋轉(zhuǎn)圖像都能夠獲取較多的匹配點(diǎn),而文獻(xiàn)[3]中的FAST-SURF算法雖然也具備一定的魯棒性,但對(duì)于部分圖像獲得的匹配點(diǎn)較少。所以,在圖像旋轉(zhuǎn)匹配的魯棒性測(cè)試中,本文算法和SURF-RANSAC算法更具優(yōu)勢(shì),且本文算法更加穩(wěn)定。

      5.5.2 干擾魯棒性

      圖12(b)、(c)所示分別為高斯噪聲魯棒性測(cè)試曲線圖和光照強(qiáng)度變化的魯棒性測(cè)試曲線圖??梢钥闯鋈N算法對(duì)于噪聲干擾和光照變化均具有強(qiáng)魯棒性,而且本文算法即使在各種干擾較為嚴(yán)重的情況下,仍然可以獲取一定數(shù)量的匹配點(diǎn)對(duì)。因此,本文算法在魯棒性測(cè)試中相對(duì)于另兩種算法有一定改進(jìn)。

      除此,本文根據(jù)差錯(cuò)率曲線描述算法匹配率的橫坐標(biāo),查全率描述為算法匹配率的縱坐標(biāo)來(lái)論證各算法的魯棒性,查全率及差錯(cuò)率定義如下:

      圖12 FAST-SURF算法

      圖13 算法性能對(duì)比

      圖13(a)~(c)分別為旋轉(zhuǎn)變換、噪聲干擾以及光照變化條件下差錯(cuò)率與查全率曲線圖,可以看出各項(xiàng)結(jié)果與圖12接近,在旋轉(zhuǎn)變換中,本文算法和FAST-SURF算法查全率相當(dāng)?shù)珒?yōu)于SURF-RANSAC算法,匹配的精度也更高。在噪聲干擾下,本文算法與SURF-RANSAC算法相似但好于FAST-SURF算法,這是因?yàn)楸疚乃惴▽?duì)圖像的縮放保持不變性。圖13(c)為亮度變化條件下的圖像匹配,可以看出三種算法很接近且對(duì)非線性光照變化不敏感。

      由于本文算法以Harr描述符的特征方向?yàn)閰⒖挤较驅(qū)ζ洳蓸狱c(diǎn)進(jìn)行坐標(biāo)變換,使其對(duì)圖像旋轉(zhuǎn)具有較好的不變性。并優(yōu)化FAST算法,快速提取圖像重復(fù)率較高的特征點(diǎn)。最后,通過(guò)改進(jìn)的RANSAC算法,剔除誤匹配點(diǎn)對(duì),提高匹配精度。因此,本文算法在魯棒性測(cè)試中更具優(yōu)勢(shì)。

      圖14分別給出了圖像匹配魯棒性實(shí)驗(yàn)的匹配實(shí)例。結(jié)果表明本文算法的魯棒性較強(qiáng),可以很好地滿足碼垛系統(tǒng)中的應(yīng)用。

      圖14 魯棒性測(cè)試匹配效果圖

      6 結(jié)語(yǔ)

      本文針對(duì)卷煙包件在智能碼垛中的識(shí)別定位問(wèn)題,提出了一種基于改進(jìn)的FAST-SURF算法的雙目目標(biāo)識(shí)別定位方法。通過(guò)將FAST的16個(gè)點(diǎn)降低為12個(gè)點(diǎn)進(jìn)行比較,減小了FAST的檢測(cè)時(shí)間,采用FLANN算法搜索特征點(diǎn)進(jìn)行粗搜索,與最近鄰算法相比,搜索精度略微降低,但速度更快,利用歐式距離匹配后,用改進(jìn)RANSAC算法來(lái)剔除FLANN算法粗搜索帶來(lái)的誤匹配,實(shí)現(xiàn)了左右圖像的優(yōu)質(zhì)匹配,并利用卷煙包件形狀規(guī)則和其匹配特征點(diǎn)近似均勻分布的規(guī)律計(jì)算得到不規(guī)則卷煙包件的形心位置。本文在卷煙包件識(shí)別定位的速度和正確率上都有一定提高且具有良好的魯棒性,實(shí)驗(yàn)驗(yàn)證了本文方法的可行性,具有一定的實(shí)用價(jià)值。

      猜你喜歡
      魯棒性像素點(diǎn)卷煙
      荒漠綠洲區(qū)潛在生態(tài)網(wǎng)絡(luò)增邊優(yōu)化魯棒性分析
      基于確定性指標(biāo)的弦支結(jié)構(gòu)魯棒性評(píng)價(jià)
      基于canvas的前端數(shù)據(jù)加密
      基于逐像素點(diǎn)深度卷積網(wǎng)絡(luò)分割模型的上皮和間質(zhì)組織分割
      基于非支配解集的多模式裝備項(xiàng)目群調(diào)度魯棒性優(yōu)化
      西南交通大學(xué)學(xué)報(bào)(2016年6期)2016-05-04 04:13:11
      基于Node-Cell結(jié)構(gòu)的HEVC幀內(nèi)編碼
      卷煙包裝痕跡分析
      我國(guó)卷煙需求預(yù)測(cè)研究述評(píng)
      卷煙引燃傾向測(cè)試方法的研究與改進(jìn)
      新野县| 温泉县| 常山县| 江城| 隆回县| 金堂县| 鸡泽县| 宝清县| 林芝县| 延安市| 丰都县| 罗定市| 滨海县| 长乐市| 赤壁市| 奈曼旗| 花垣县| 邢台县| 丹寨县| 惠安县| 新河县| 青神县| 滦平县| 阿坝县| 四子王旗| 灌南县| 双辽市| 防城港市| 岳池县| 北安市| 招远市| 宁城县| 平潭县| 上饶市| 鹿邑县| 洛扎县| 三原县| 分宜县| 定襄县| 库尔勒市| 黔江区|