張 毅,王彥博,高奇峰,楊德偉,魏 博
1.重慶郵電大學(xué) 先進(jìn)制造工程學(xué)院,重慶400065
2.重慶郵電大學(xué) 自動(dòng)化學(xué)院,重慶400065
工業(yè)機(jī)器人廣泛用于物流分揀、碼垛等工業(yè)任務(wù)[1],而拾取和放置目標(biāo)物體是工業(yè)機(jī)器人的重要任務(wù)之一。大部分工業(yè)機(jī)器人的抓取仍停留在預(yù)先描點(diǎn)后重復(fù)工作的層次。這樣的工作方式對(duì)環(huán)境的穩(wěn)定性要求極高,不能應(yīng)對(duì)突發(fā)的變化。而在煙草物流的碼垛裝配中,由于客戶訂單的復(fù)雜性和隨機(jī)性會(huì)導(dǎo)致數(shù)量不同的條煙包裝成形狀不同的卷煙包件,卷煙行業(yè)要針對(duì)不同條數(shù)的卷煙包件有著一套特殊的碼放規(guī)則以利于碼放的穩(wěn)定性同時(shí)避免條煙的損壞,因此對(duì)卷煙包件碼垛系統(tǒng)的實(shí)用性、智能化要求較高。憑借視覺(jué)系統(tǒng)對(duì)卷煙包件進(jìn)行識(shí)別與定位,從而提高系統(tǒng)的魯棒性和實(shí)時(shí)性來(lái)應(yīng)對(duì)突發(fā)的情況。近年來(lái),視覺(jué)識(shí)別定位在工業(yè)上的應(yīng)用也越來(lái)越廣泛。機(jī)器視覺(jué)識(shí)別在工業(yè)機(jī)器人在抓取和放置功能等方面仍面臨著時(shí)效性不夠的問(wèn)題[2]。在這一問(wèn)題上,很多人做出了成果。2016年,陳劍虹,韓小珍提出結(jié)合FAST-SURF和改進(jìn)k-d樹(shù)最近鄰查找的圖像配準(zhǔn)[3],匹配精度有一定提高,但時(shí)效性稍低。2017年,儲(chǔ)蓄對(duì)基于改進(jìn)SURF算法圖像匹配方法研究,提高了SURF算法檢測(cè)的速度[4],但在后續(xù)定位中處理較為復(fù)雜,難以達(dá)到時(shí)效性。本文在前人工作的基礎(chǔ)上,提出采用改進(jìn)的FAST-SURF算法,以雙目立體視覺(jué)[5]的方式對(duì)目標(biāo)卷煙包件進(jìn)行識(shí)別然后定位。首先通過(guò)改進(jìn)的FAST算法檢測(cè)可能的特征點(diǎn),而后將特征點(diǎn)通過(guò)Haar小波生成特征向量,F(xiàn)LANN算法搜索待匹配特征點(diǎn)[6-7],歐式距離匹配[8],RANSAC算法剔除誤匹配對(duì),實(shí)現(xiàn)對(duì)目標(biāo)物體的匹配[9]。根據(jù)圖像匹配的結(jié)果與標(biāo)定得到的內(nèi)外參進(jìn)行定位。與基于SURF特征的目標(biāo)識(shí)別相比,本文提出的方法更能滿足卷煙包件碼垛系統(tǒng)實(shí)時(shí)性的要求,實(shí)驗(yàn)結(jié)果證明了本文方法在目標(biāo)物體匹配定位中的可行性。
SURF算法[10]是一種高魯棒性的局部特征點(diǎn)檢測(cè)器,是由Herbert Bay等人在2006年提出的。SURF特征具有尺度、旋轉(zhuǎn)等不變特性,因此常用于圖像拼接、三維建模、視頻跟蹤、目標(biāo)識(shí)別等。該算法采用積分圖像和近似的Hessian矩陣運(yùn)算提高運(yùn)算速度,使用Haar小波變換增加魯棒性。
SURF算法通過(guò)計(jì)算圖像像素點(diǎn)的Hessian矩陣提取圖像特征點(diǎn),這需要圖像和高斯函數(shù)做卷積運(yùn)算。根據(jù)卷積運(yùn)算性質(zhì),圖像與高斯函數(shù)的卷積可以轉(zhuǎn)化為積分圖像與高斯二階倒數(shù)模板的卷積運(yùn)算。
SURF算法采用盒子濾波器近似高斯二階偏導(dǎo)數(shù),最終獲得了近似的Hessian矩陣,通過(guò)改變盒子濾波器的模板大小建立尺度圖像金字塔。Hessian矩陣的行列式的局部最大值點(diǎn)即為特征點(diǎn)[11]。
對(duì)提取到的特征點(diǎn),建立特征向量對(duì)其進(jìn)行描述,SURF算法在特征點(diǎn)圓形區(qū)域內(nèi)同構(gòu)Haar小波響應(yīng)確定一個(gè)主方向,使特征向量具有旋轉(zhuǎn)不變性,再以特征點(diǎn)為中心,構(gòu)建正方形區(qū)域,經(jīng)過(guò)Haar小波響應(yīng)最終生成一個(gè)64維的特征向量。
對(duì)于參考圖像與待匹配圖像特征點(diǎn)的匹配,SURF算法采用最近鄰域匹配方法[12],首先計(jì)算待匹配圖像上的特征點(diǎn)特征向量到參考圖像上所有特征點(diǎn)特征向量的歐氏距離[13],得到一個(gè)距離集合,其次通過(guò)對(duì)距離集合進(jìn)行比較運(yùn)算得到最小歐氏距離d1和次最小歐氏距離d2,即:
式(1)中,T為設(shè)定閾值,一般為0.6。當(dāng)最小歐式距離d1和次最小歐式距離d2的比值小于該閾值時(shí),認(rèn)為特征點(diǎn)與對(duì)應(yīng)最小歐式距離的特征點(diǎn)是匹配的,否則沒(méi)有點(diǎn)與該特征點(diǎn)相匹配。
改進(jìn)前的流程圖對(duì)比和改進(jìn)后的流程圖對(duì)比如圖1所示。
圖1 流程圖對(duì)比
FAST算法主要包含非特征點(diǎn)檢測(cè)、特征點(diǎn)檢測(cè)、非極大值抑制三個(gè)步驟:
(1)傳統(tǒng)的FAST檢測(cè)從圖片中選取一個(gè)像素點(diǎn)P為圓心,半徑為3像素的離散化的Bresenhan圓,圓的邊界有16個(gè)像素,如圖2所示。本文改進(jìn)的FAST檢測(cè)算法如圖3所示。
圖2 FAST特征點(diǎn)示意圖
圖3 待檢測(cè)點(diǎn)示意圖
由圖2可以看出,傳統(tǒng)的SURF檢測(cè)是IP與周?chē)?6個(gè)像素點(diǎn)進(jìn)行比較(IP為P點(diǎn)灰度值)。因像素點(diǎn)較多,檢測(cè)對(duì)比的時(shí)間較長(zhǎng)。因此本文利用圖3的陰影區(qū)域(編號(hào)1~12)的內(nèi)部像素點(diǎn)進(jìn)行檢測(cè),能達(dá)到檢測(cè)的效果,也減少了檢測(cè)的時(shí)間。t為閾值,檢測(cè)原則是連續(xù)9個(gè)像素點(diǎn)都比Ip+t大或者比Ip-t小,則該像素點(diǎn)為特征點(diǎn)候選點(diǎn)。
(2)待檢測(cè)的點(diǎn)周?chē)囊蝗ο袼氐幕叶戎蹬c候選的點(diǎn)的灰度值差別夠大,可以認(rèn)為這個(gè)候選點(diǎn)是一個(gè)特征點(diǎn),在二維圖像中的任意一點(diǎn)圓心坐標(biāo)( x,y)。特征點(diǎn)描述算法公式如下:
式(2)中,t為閾值,其中定義圓周上任意一點(diǎn)的灰度為Ix,圓心的灰度為Ip。當(dāng)中心像素的灰度值IP小于周?chē)c(diǎn)x處像素灰度值Ix+t時(shí),則認(rèn)為該灰度像素屬于更暗的,則SP→x=d;以此類推相似的s和更亮的灰度像素點(diǎn)b。這樣在一個(gè)以候選特征點(diǎn)p為圓心的圓形區(qū)域邊緣就找到了三種類型的灰度像素點(diǎn)d、s和b。統(tǒng)計(jì)d或b的次數(shù),如果大于n(當(dāng)分割測(cè)試點(diǎn)數(shù)目為9時(shí),即Ix的個(gè)數(shù)的3/4),則認(rèn)為該點(diǎn)為候選特征點(diǎn)。然后通過(guò)固定半徑圓上像素的灰度值進(jìn)行比較獲得候選特征點(diǎn)。利用ID3分類器,根據(jù)12個(gè)特征,判斷此候選特征點(diǎn)是否為特征點(diǎn)。將上面的步驟獲得d、s、b的記為Pd、Ps、Pb,計(jì)算得到的SP→x必定對(duì)應(yīng)式(2)的某種情況。令I(lǐng)P為特征點(diǎn)時(shí)kp=true,否則false,從而判定某個(gè)像素是否為特征點(diǎn)。
(3)最后,對(duì)特征點(diǎn)進(jìn)行非極大值抑制,得到特征點(diǎn)輸出。
關(guān)于本算法中閾值t的值取為55,取值論證在實(shí)驗(yàn)部分描述。
正本文將得到的FAST檢測(cè)子進(jìn)行主方向的選取。首先,以特征點(diǎn)為圓心做一個(gè)半徑為6s的圓形鄰域(s即特征點(diǎn)的尺度值),然后計(jì)算區(qū)域內(nèi)像素點(diǎn)的水平方向和垂直方向的加權(quán)Haar小波響應(yīng)[14]。
如圖4所示,左側(cè)為Haar小波在x方向上的響應(yīng),右側(cè)為Haar小波在y方向上的響應(yīng)。將高斯權(quán)重系數(shù)賦予響應(yīng)值,令越靠近特征點(diǎn)的Haar小波響應(yīng)的權(quán)值越大,然后用一個(gè)60°的扇形模板遍歷整個(gè)圓形區(qū)域,得到多個(gè)Haar響應(yīng)的構(gòu)成的累加矢量,矢量最長(zhǎng)的方向即為特征點(diǎn)主方向[15]。最后計(jì)算每個(gè)特征點(diǎn),獲得所有特征點(diǎn)的主方向。
圖4 Haar小波響應(yīng)
沿著特征點(diǎn)方向構(gòu)造以特征點(diǎn)為中心,邊長(zhǎng)為20s的正方形區(qū)域。如圖5所示,然后對(duì)該區(qū)域?qū)崿F(xiàn)等間隔采樣(采樣間隔為s),并將其化為成4×4=16個(gè)子區(qū)域,在每個(gè)子區(qū)域采樣5×5個(gè)點(diǎn)。計(jì)算所有子區(qū)域的Haar小波響應(yīng)。
圖5 特征描述符生成過(guò)程
將每個(gè)子區(qū)域的d x、d y、| d x|、| d y|相加,其中d x、d y分別表示Haar小波在x和y方向的相應(yīng)。獲得四維特征描述向量V:
將16個(gè)子區(qū)域的V組合在一起,獲得16×4=64維特征描述向量,即生成了SURF描述符。對(duì)于參考圖像與待匹配圖像特征點(diǎn)的匹配,SURF算法采用最近鄰域匹配方法,得到的結(jié)果較準(zhǔn)確,但搜索速度慢。本文采用基于FLANN算法進(jìn)行特征搜索。通過(guò)最近歐式距離和次近歐式距離的比值同給定的閾值T來(lái)判定是否匹配。閾值T通常取0.4~0.8,閾值越大匹配點(diǎn)數(shù)越多,但匹配正確率會(huì)降低,本文取0.6。
經(jīng)過(guò)歐式距離匹配后的匹配點(diǎn)對(duì)仍會(huì)存在錯(cuò)誤匹配的情況,在本視覺(jué)系統(tǒng)中提出了一種改進(jìn)的RANSAC算法用以消除。利用準(zhǔn)確匹配點(diǎn)間相對(duì)斜率相同的關(guān)系來(lái)剔除誤匹配點(diǎn)。設(shè)(Ai,Aj)和(Bi,Bj)是處理后的圖像A和待匹配的模板圖像B兩兩正確的匹配對(duì)。那么Ai和Bi的絕對(duì)斜率k(Ai,Bi)應(yīng)該相等于Aj和Bj的絕對(duì)斜率k(Aj,Bj)?;谝陨显?,利用參考圖像A中的Ai與它自身中所有的特征點(diǎn)Aj的斜率關(guān)系和待匹配圖像B中的Bi與它自身中所有的特征點(diǎn)Bj的斜率關(guān)系的相似性評(píng)價(jià)兩點(diǎn)對(duì)應(yīng)關(guān)系,提出如下的評(píng)價(jià)函數(shù):
其中R(i,j)表示Ai,Bi與各自圖像每個(gè)興趣點(diǎn)斜率的相對(duì)差異;K(i,j)表示Ai,Bi與各自圖像每個(gè)興趣點(diǎn)的評(píng)價(jià)斜率。
經(jīng)過(guò)改進(jìn)的RANSAC算法去除誤匹配對(duì)后,可以看到誤匹配點(diǎn)對(duì)有明顯的消除,這樣模板圖與目標(biāo)處理圖實(shí)現(xiàn)了精確的特征點(diǎn)配對(duì)。
雙目視覺(jué)定位技術(shù)的原理是模擬人類雙目感知距離,實(shí)現(xiàn)對(duì)物體三維空間位置的測(cè)量,是機(jī)器人視覺(jué)研究的一個(gè)重要內(nèi)容[16]。首先用兩個(gè)攝像頭對(duì)同一物體從不同位置成像,然后從視差中修復(fù)距離信息,其中視差是指左、右觀測(cè)點(diǎn)在觀看目標(biāo)物體時(shí)所產(chǎn)生的偏差,視差會(huì)受到觀測(cè)點(diǎn)與被目標(biāo)物體之間距離的影響[17]。三維空間內(nèi)的點(diǎn)能否在圖像中出現(xiàn)實(shí)際上取決于成像過(guò)程中的“視線”,如果一個(gè)對(duì)象被兩個(gè)視點(diǎn)觀測(cè)到,首先利用兩幅對(duì)應(yīng)的圖像,計(jì)算出空間點(diǎn)在兩幅圖像中像素點(diǎn)之間的位置偏差,然后由幾何原理計(jì)算出目標(biāo)物體的三維坐標(biāo)值。本文將兩個(gè)相同相機(jī)平行放置,對(duì)卷煙包件進(jìn)行測(cè)量與圖像采集。平視雙目立體視覺(jué)定位原理圖如圖6所示。
圖6 三維重建原理圖
在平視雙目立體視覺(jué)中,兩個(gè)相機(jī)擁有完全相同的內(nèi)部參數(shù),平行放置且有一對(duì)坐標(biāo)軸共線,因此兩個(gè)相機(jī)的光軸互相平行而且成像平面共面。假設(shè)左相機(jī)C1的相機(jī)坐標(biāo)系為O1X1Y1Z1,右相機(jī)C2的相機(jī)坐標(biāo)系為O2X2Y2Z2,相機(jī)焦距均為f,兩個(gè)相機(jī)的光心距離為d。對(duì)于任意一個(gè)空間點(diǎn)P,在相機(jī)坐標(biāo)系C1和C2中的坐標(biāo)分別為(x1,y1,z1)、(x2,y2,z2),P點(diǎn)在左、右相機(jī)拍攝到的圖片中的圖像坐標(biāo)分別為(u1,v1)、(u2,v2)??芍?,在得到空間中點(diǎn)P在雙目視覺(jué)系統(tǒng)中兩個(gè)二維圖像中的像素坐標(biāo),就可以重建P點(diǎn)的三維坐標(biāo)。
在卷煙包件的智能碼垛系統(tǒng)的定位過(guò)程中,需要獲取的是卷煙包件形心坐標(biāo)。由于工業(yè)場(chǎng)地有限,本系統(tǒng)采集圖像的方式是水平拍攝。根據(jù)圖像匹配的結(jié)果與標(biāo)定得到的內(nèi)外參,計(jì)算獲得所有匹配特征點(diǎn)的三維坐標(biāo)。由于匹配特征點(diǎn)近似均勻分布,所以將所有特征點(diǎn)的三維坐標(biāo)進(jìn)行平均運(yùn)算,得到近似平面形心坐標(biāo)。卷煙包件的煙包長(zhǎng)度已知為270 mm,將獲得的近似平面形心坐標(biāo)的Y軸值加上煙包長(zhǎng)度的一半135 mm,即獲得卷煙包件的近似形心坐標(biāo)。
進(jìn)行匹配實(shí)驗(yàn)之前要先對(duì)攝像機(jī)進(jìn)行標(biāo)定[18]。本實(shí)驗(yàn)搭建的雙目平臺(tái)由兩攝像機(jī)組合而成,1號(hào)相機(jī)焦距6.764 mm,2號(hào)相機(jī)焦距6.758 mm,相機(jī)距離約195 mm。采用Halcon13、opencv2.4.9等軟件作為開(kāi)發(fā)工具。實(shí)驗(yàn)電腦參數(shù)如下:I5-3210處理器,CPU頻率為2.5 GHz,RAM容量為2 GB,64位操作系統(tǒng)。
根據(jù)實(shí)際場(chǎng)景與實(shí)驗(yàn)條件,本實(shí)驗(yàn)采用170 mm×170 mm的標(biāo)定板,如圖7所示。
圖7 標(biāo)定
左右攝像機(jī)同時(shí)采集六組空間位置不同的標(biāo)定板圖像,采用Halcon對(duì)雙目立體視覺(jué)系統(tǒng)進(jìn)行標(biāo)定,標(biāo)定結(jié)果如表1所示。
完成相機(jī)標(biāo)定后,對(duì)圖像進(jìn)行校準(zhǔn),目的是消除透鏡畸變并使雙目圖像的成像平面在同一平面且嚴(yán)格對(duì)齊彼此的行掃描線。
實(shí)驗(yàn)對(duì)縮小、放大、旋轉(zhuǎn)的情況下,改變本文算法中的閾值,根據(jù)三種情況的匹配結(jié)果來(lái)確定閾值t的值。
實(shí)驗(yàn)在縮?。ㄟh(yuǎn)距離)、放大(近距離)、旋轉(zhuǎn)(順時(shí)針90°)下的情況,各采集兩幅圖像,在三種不同的情況,對(duì)閾值進(jìn)行討論實(shí)驗(yàn)。實(shí)驗(yàn)具體數(shù)據(jù)如表2所示。從實(shí)驗(yàn)數(shù)據(jù)可以得出結(jié)論:在大體上,整個(gè)匹配時(shí)間隨閾值的增大而減小,而正確匹配率隨閾值的增大而減小。在閾值t=55時(shí),在縮小、放大、旋轉(zhuǎn)三種情況下,匹配時(shí)間較短,且匹配正確率較高。因此,本算法將閾值t的值定為55。
表1 攝像機(jī)標(biāo)定結(jié)果
表2 三種情況下閾值變化與時(shí)間、正確匹配率的關(guān)系
對(duì)采集的原圖像用Halcon軟件進(jìn)行校準(zhǔn),校準(zhǔn)后的圖像如圖8所示。
圖8 校準(zhǔn)后的圖像
為了驗(yàn)證FAST-SURF方法對(duì)目標(biāo)物體的匹配的可行性,完成攝像機(jī)標(biāo)定和校準(zhǔn)后,采用FAST-SURF、SURF、參考文獻(xiàn)[3]中的SURF改進(jìn)算法進(jìn)行目標(biāo)匹配。
在將校準(zhǔn)后的圖像用三種算法匹配,得到的匹配結(jié)果如圖9~11所示。
圖9 FAST-SURF算法
通過(guò)三種不同算法的匹配實(shí)驗(yàn),可以得到實(shí)驗(yàn)結(jié)果。匹配結(jié)果對(duì)比表明:本文算法表現(xiàn)良好,速度快,正確率高;SURF算法匹配效果稍差,速度略慢,且正確匹配率相對(duì)較低;他人算法匹配效果良好,但是匹配速度和正確率不如本文算法。實(shí)驗(yàn)的具體數(shù)據(jù)如表3所示。
圖10 文獻(xiàn)[3]算法
圖11 本文算法
表3 三種算法結(jié)果比較
對(duì)于卷煙包件,其長(zhǎng)度(即條煙的長(zhǎng)度)和寬度(即五條煙的寬度之和)是固定的。得到的不規(guī)則卷煙包件平面中心點(diǎn)的三維坐標(biāo)就可以得到不規(guī)則卷煙包件整體的三維坐標(biāo),得到的三維坐標(biāo)與實(shí)際三維坐標(biāo)對(duì)比分析如表4所示。
從以上數(shù)據(jù)可以得出,在煙包條數(shù)不同的情況下,本文算法誤差在8 mm以內(nèi),平均定位時(shí)間約0.7 s,優(yōu)于FAST-SURF算法和SURF-RANSAC算法,而且本文算法誤差的波動(dòng)范圍小,適用于卷煙包件的智能碼垛系統(tǒng)中。
表4 算法對(duì)比定位結(jié)果
在魯棒性實(shí)驗(yàn)中,主要測(cè)試了旋轉(zhuǎn)形變、噪聲干擾及亮度變化這三個(gè)方面的影響。所有測(cè)試的圖像集均是相同的,最后通過(guò)獲取的匹配點(diǎn)數(shù)量和匹配點(diǎn)對(duì)的正確匹配率來(lái)評(píng)估各算法的魯棒性。
5.5.1 旋轉(zhuǎn)不變性
圖12(a)所示為旋轉(zhuǎn)不變性測(cè)試曲線圖,可以看出:本文改進(jìn)的FAST-SURF算法和SURF-RANSAC算法在圖像旋轉(zhuǎn)中具有一定的魯棒性,且兩種算法對(duì)幾乎全部旋轉(zhuǎn)圖像都能夠獲取較多的匹配點(diǎn),而文獻(xiàn)[3]中的FAST-SURF算法雖然也具備一定的魯棒性,但對(duì)于部分圖像獲得的匹配點(diǎn)較少。所以,在圖像旋轉(zhuǎn)匹配的魯棒性測(cè)試中,本文算法和SURF-RANSAC算法更具優(yōu)勢(shì),且本文算法更加穩(wěn)定。
5.5.2 干擾魯棒性
圖12(b)、(c)所示分別為高斯噪聲魯棒性測(cè)試曲線圖和光照強(qiáng)度變化的魯棒性測(cè)試曲線圖??梢钥闯鋈N算法對(duì)于噪聲干擾和光照變化均具有強(qiáng)魯棒性,而且本文算法即使在各種干擾較為嚴(yán)重的情況下,仍然可以獲取一定數(shù)量的匹配點(diǎn)對(duì)。因此,本文算法在魯棒性測(cè)試中相對(duì)于另兩種算法有一定改進(jìn)。
除此,本文根據(jù)差錯(cuò)率曲線描述算法匹配率的橫坐標(biāo),查全率描述為算法匹配率的縱坐標(biāo)來(lái)論證各算法的魯棒性,查全率及差錯(cuò)率定義如下:
圖12 FAST-SURF算法
圖13 算法性能對(duì)比
圖13(a)~(c)分別為旋轉(zhuǎn)變換、噪聲干擾以及光照變化條件下差錯(cuò)率與查全率曲線圖,可以看出各項(xiàng)結(jié)果與圖12接近,在旋轉(zhuǎn)變換中,本文算法和FAST-SURF算法查全率相當(dāng)?shù)珒?yōu)于SURF-RANSAC算法,匹配的精度也更高。在噪聲干擾下,本文算法與SURF-RANSAC算法相似但好于FAST-SURF算法,這是因?yàn)楸疚乃惴▽?duì)圖像的縮放保持不變性。圖13(c)為亮度變化條件下的圖像匹配,可以看出三種算法很接近且對(duì)非線性光照變化不敏感。
由于本文算法以Harr描述符的特征方向?yàn)閰⒖挤较驅(qū)ζ洳蓸狱c(diǎn)進(jìn)行坐標(biāo)變換,使其對(duì)圖像旋轉(zhuǎn)具有較好的不變性。并優(yōu)化FAST算法,快速提取圖像重復(fù)率較高的特征點(diǎn)。最后,通過(guò)改進(jìn)的RANSAC算法,剔除誤匹配點(diǎn)對(duì),提高匹配精度。因此,本文算法在魯棒性測(cè)試中更具優(yōu)勢(shì)。
圖14分別給出了圖像匹配魯棒性實(shí)驗(yàn)的匹配實(shí)例。結(jié)果表明本文算法的魯棒性較強(qiáng),可以很好地滿足碼垛系統(tǒng)中的應(yīng)用。
圖14 魯棒性測(cè)試匹配效果圖
本文針對(duì)卷煙包件在智能碼垛中的識(shí)別定位問(wèn)題,提出了一種基于改進(jìn)的FAST-SURF算法的雙目目標(biāo)識(shí)別定位方法。通過(guò)將FAST的16個(gè)點(diǎn)降低為12個(gè)點(diǎn)進(jìn)行比較,減小了FAST的檢測(cè)時(shí)間,采用FLANN算法搜索特征點(diǎn)進(jìn)行粗搜索,與最近鄰算法相比,搜索精度略微降低,但速度更快,利用歐式距離匹配后,用改進(jìn)RANSAC算法來(lái)剔除FLANN算法粗搜索帶來(lái)的誤匹配,實(shí)現(xiàn)了左右圖像的優(yōu)質(zhì)匹配,并利用卷煙包件形狀規(guī)則和其匹配特征點(diǎn)近似均勻分布的規(guī)律計(jì)算得到不規(guī)則卷煙包件的形心位置。本文在卷煙包件識(shí)別定位的速度和正確率上都有一定提高且具有良好的魯棒性,實(shí)驗(yàn)驗(yàn)證了本文方法的可行性,具有一定的實(shí)用價(jià)值。