袁泉,鄒沖,閔鋒*
1.昆明理工大學(xué)信息工程與自動(dòng)化學(xué)院,云南昆明 650504;
2.武漢工程大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院,湖北武漢 430205
雙目視覺(jué)在類人機(jī)器人測(cè)距中的應(yīng)用
袁泉1,鄒沖2,閔鋒2*
1.昆明理工大學(xué)信息工程與自動(dòng)化學(xué)院,云南昆明 650504;
2.武漢工程大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院,湖北武漢 430205
為實(shí)現(xiàn)類人機(jī)器人對(duì)復(fù)雜目標(biāo)高精度識(shí)別并測(cè)量出目標(biāo)實(shí)際距離,提出一種雙目目標(biāo)識(shí)別與測(cè)距方法.首先利用棋盤標(biāo)定法對(duì)攝像機(jī)進(jìn)行標(biāo)定并捕獲圖像;然后利用局部二值模式算子(LBP)和優(yōu)化后支持向量機(jī)(SVM)對(duì)目標(biāo)進(jìn)行識(shí)別;在識(shí)別的基礎(chǔ)上,再采用尺度不變特征變換(SIFT)算法對(duì)特征點(diǎn)進(jìn)行匹配并根據(jù)三角測(cè)距原理計(jì)算出目標(biāo)實(shí)際距離.實(shí)驗(yàn)結(jié)果表明該方法不但減少了人為參數(shù)指定,并且提高了特征點(diǎn)匹配效率,測(cè)距精度能夠達(dá)到94%以上,滿足類人機(jī)器人高精度測(cè)距和實(shí)時(shí)性要求.
類人機(jī)器人;雙目視覺(jué);目標(biāo)識(shí)別;雙目測(cè)距;立體匹配
基于雙目立體視覺(jué)的測(cè)距技術(shù)是國(guó)內(nèi)外學(xué)者研究的主要熱點(diǎn),在機(jī)器人定位、導(dǎo)航、避障以及工業(yè)技術(shù)測(cè)量等領(lǐng)域有著廣泛的前景[1].基于機(jī)器人的雙目立體視覺(jué)技術(shù)從兩個(gè)不同的視角去捕獲世界中的同一個(gè)物體,從而得到不同的感知圖像,最后依據(jù)三角測(cè)量的原理得出兩幅圖像的位置偏差,從而得到物體的三維坐標(biāo)[2].文獻(xiàn)[3]提出了一種用張正友棋盤標(biāo)定法與“絕對(duì)誤差累計(jì)”的小窗口匹配法相結(jié)合的方法來(lái)實(shí)現(xiàn)雙目立體視覺(jué)的測(cè)距.文獻(xiàn)[4]采用基于外極線約束和灰度相關(guān)性的立體匹配算法.在雙目測(cè)距的研究中,立體匹配可以說(shuō)是最困難、最熱門的研究問(wèn)題之一.為了能夠獲得更好的匹配效果以及使得測(cè)距更加精準(zhǔn),在進(jìn)行特征點(diǎn)提取與匹配之前,本文采用基于局部二值模式算子(LBP)中旋轉(zhuǎn)不變統(tǒng)一模式算子和優(yōu)化后支持向量機(jī)(SVM)的方法來(lái)對(duì)目標(biāo)進(jìn)行識(shí)別.這樣則無(wú)需人為的去選擇目標(biāo)點(diǎn)或線區(qū)域,只需對(duì)少量的特征點(diǎn)進(jìn)行匹配,從而提高了計(jì)算效率.本文基于雙目視覺(jué)原理,對(duì)類人機(jī)器人測(cè)距的方法進(jìn)行了改進(jìn),在一定程度上,提高了類人機(jī)器人測(cè)距的效率和準(zhǔn)確性.
雙目立體視覺(jué)屬于機(jī)器視覺(jué)的一種重要形式.雙目立體成像原理圖如圖1所示.2臺(tái)焦距均為f且平行放置的攝像機(jī)在同一時(shí)間獲取同一物體P;基線距B為左攝像頭的投影中心與右攝像頭的投影中心之間的距離,分別在2個(gè)攝像機(jī)上獲取了物體P的圖像且分別成像于位置O1(X2,Y2) X1,Y1,O2(X2,Y2).
圖1 雙目立體成像Fig.1X-Z plane imaging of binocular stereo
根據(jù)三角形相似關(guān)系,由此可以得到
其中視差D=X1-X2,公式中B和f可以在立體標(biāo)定中得到,X1與X2則在圖像處理中得到.因此本文只需要找到目標(biāo)物體在左右兩攝像機(jī)上的投影并計(jì)算出其坐標(biāo),便可實(shí)現(xiàn)距離的測(cè)量.
攝像機(jī)標(biāo)定的主要目的是為了獲得設(shè)備的內(nèi)參數(shù)和表示兩個(gè)攝像頭相對(duì)位置的外參數(shù),可以由已知特征點(diǎn)的世界坐標(biāo)以及圖像坐標(biāo)來(lái)求得攝像機(jī)參數(shù)[5-7].其中內(nèi)參數(shù)有:焦距fx、fy和基準(zhǔn)距u0、v0;外參數(shù)有:旋轉(zhuǎn)矩陣R和平移向量T.本文采用的是棋盤標(biāo)定法[8]來(lái)對(duì)攝像機(jī)進(jìn)行標(biāo)定.利用對(duì)10幅以上不同方向的棋盤提取若干角點(diǎn).由于相機(jī)成像可以被看作是針孔模型,依據(jù)成像原理可得圖像坐標(biāo)與世界坐標(biāo)之間的轉(zhuǎn)換關(guān)系如下:
其中,[u v 1]T為圖像坐標(biāo),[XwYwZw1]T為世界坐標(biāo).
一般攝像機(jī)很難保證左右攝像機(jī)圖像嚴(yán)格的平行對(duì)準(zhǔn),為了避免畸變,需要通過(guò)數(shù)學(xué)計(jì)算的方法來(lái)校正圖像,從而使得左右攝像機(jī)圖像極線平行,這樣可以大大節(jié)省匹配時(shí)間.
在實(shí)際的賽場(chǎng)上,由于足球會(huì)受到光照的影響而引起較大的顏色畸變,單純地依靠顏色對(duì)目標(biāo)球體進(jìn)行識(shí)別效果不佳.由于球體表面有顯著的紋理特征,因此本文使用LBP算子[9]提取樣本的紋理特征并利用SVM對(duì)檢測(cè)對(duì)象進(jìn)行分類的方法來(lái)實(shí)現(xiàn)對(duì)目標(biāo)球體的識(shí)別.
3.1 LBP算子獲取樣本紋理特征
首先在HSL(色相、飽和度、亮度)空間下對(duì)圖像做分割處理,初步確定待檢區(qū)域.將待檢區(qū)域轉(zhuǎn)化為灰度圖像,以備下一步操作.然后利用LBP算子提取該區(qū)域的紋理特征.局部二值模式(LBP)紋理描述算子分為灰度不變LBP算子、旋轉(zhuǎn)不變LBP算子、uniform旋轉(zhuǎn)不變LBP算子3種方法.經(jīng)過(guò)實(shí)驗(yàn)發(fā)現(xiàn),其中,uniform旋轉(zhuǎn)不變LBP模式更能滿足目標(biāo)球體在平移、旋轉(zhuǎn)時(shí)特征不變的需求,并且計(jì)算量最小.
提取LBP的特征向量的具體步驟如下:首先將待檢部分劃分為16×16的小模塊;然后將每個(gè)小區(qū)域中的每個(gè)像素依次與相鄰位置8個(gè)像素的灰度值進(jìn)行比較,如果相鄰像素點(diǎn)的灰度值大于中心像素點(diǎn)的灰度值,則該像素點(diǎn)所在的位置被標(biāo)記為1,否則標(biāo)記為0.因此,經(jīng)過(guò)計(jì)算可以產(chǎn)生8位二進(jìn)制數(shù),從而該區(qū)域中心位置像素點(diǎn)的LBP值可以獲得;再計(jì)算每個(gè)小區(qū)域的直方圖,并對(duì)其進(jìn)行歸一化處理;最后將每個(gè)小區(qū)域的統(tǒng)計(jì)直方圖組合成為一個(gè)特征向量,即可得到整個(gè)待檢區(qū)域的紋理特征向量.
目標(biāo)識(shí)別算法具體流程,如圖2所示.
圖2 目標(biāo)識(shí)別算法流程Fig.2Flowchart of target recognition algorithm
3.2 GA優(yōu)化的SVM分類模型
利用SVM分類器對(duì)樣本進(jìn)行分類,SVM[10]通過(guò)某一種事先選擇的非線性映射將輸入向量映射到一個(gè)高維特征空間,在此構(gòu)造一個(gè)最優(yōu)分類超平面[11].首先需要對(duì)訓(xùn)練樣本以及測(cè)試樣本進(jìn)行特征數(shù)據(jù)歸一化預(yù)處理;然后對(duì)樣本進(jìn)行分類,SVM分類決策函數(shù)為:
其中,非線性變換通過(guò)核函數(shù)來(lái)實(shí)現(xiàn),本文內(nèi)積核函數(shù)選用徑向基核函數(shù)(RBF),公式如下:
核函數(shù)參數(shù)的選取十分關(guān)鍵,將影響到分類器的性能,在所有的參數(shù)中最重要的參數(shù)是模型的懲罰因子C以及核函數(shù)參數(shù)g.本文利用遺傳算法GA優(yōu)化SVM模型的參數(shù)[12],具體步驟如下:
1)對(duì)C和g進(jìn)行二進(jìn)制編碼,從而得到初始化的種群;
2)對(duì)種群中的各染色體進(jìn)行解碼,從而獲得C和g的值;
3)利用訓(xùn)練樣本集來(lái)訓(xùn)練SVM分類器模型,并利用訓(xùn)練好的模型來(lái)計(jì)算測(cè)試樣本的識(shí)別率;
4)最后依據(jù)識(shí)別率來(lái)作為遺傳算法是否終止的條件,若滿足條件則停止迭代,并輸出最優(yōu)參數(shù),否則繼續(xù)遺傳迭代,直至得到最優(yōu)解為止.
對(duì)于已經(jīng)識(shí)別為目標(biāo)的圖像,使用霍夫圓擬合確定目標(biāo)球的具體位置.
圖像匹配的實(shí)質(zhì)在于已知其中一幅圖像中的一點(diǎn),去尋找另外一幅圖像中相對(duì)應(yīng)的點(diǎn),從而滿足這兩個(gè)點(diǎn)為空間中同一個(gè)點(diǎn)的投影[4].機(jī)器人在實(shí)際的運(yùn)動(dòng)中必然會(huì)受到光照強(qiáng)度的影響或者會(huì)存在視角的改變,而sift算法無(wú)論改變旋轉(zhuǎn)角度,圖像亮度還是拍攝視角,仍然能夠得到較好的檢測(cè)效果.但是實(shí)際上機(jī)器人所識(shí)別的圖像中大量的包含著相似的結(jié)構(gòu),為了提高特征匹配的精度,選用基于極線約束的SIFT特征匹配算法[13]對(duì)左右攝像機(jī)圖像進(jìn)行立體匹配.根據(jù)目標(biāo)識(shí)別中所得到的目標(biāo)球的位置,利用此算法檢測(cè)并選取目標(biāo)球上少量特征點(diǎn),將這些特征點(diǎn)標(biāo)識(shí)在圖像上,最后根據(jù)特征點(diǎn)與雙目圖像的相對(duì)目標(biāo)關(guān)鍵點(diǎn)進(jìn)行匹配.算法的主要步驟如圖3所示.
圖3 基于極線約束的SIFT特征匹配算法主要流程Fig.3Main process of SIFT feature matching algorithm based on pole constraint
基于雙目視覺(jué)基本原理,在原有的單目類人機(jī)器人上安裝了兩個(gè)高清攝像頭,左右兩個(gè)攝像頭處于同一平面水平位置,其中心距離為6 cm,距離地面的高度為40 cm.同時(shí)從雙目攝像機(jī)中獲取兩幅圖像,分別對(duì)它們進(jìn)行目標(biāo)識(shí)別、特征提取和立體匹配等操作,并得到相應(yīng)二維像素匹配點(diǎn)坐標(biāo);然后將匹配點(diǎn)坐標(biāo)帶入攝像機(jī)標(biāo)定后所建立的方程中構(gòu)建方程組進(jìn)行求解,即能得到相應(yīng)特征點(diǎn)的三維坐標(biāo),以此計(jì)算出雙目類人機(jī)器人與目標(biāo)的距離.
在進(jìn)行立體標(biāo)定之前需要對(duì)兩個(gè)攝像機(jī)進(jìn)行單個(gè)的標(biāo)定.在程序計(jì)算之后,會(huì)得到攝像機(jī)的內(nèi)外參數(shù),右攝像頭與左攝像頭的標(biāo)定方法相同.實(shí)驗(yàn)之后,分別保存左右攝像頭參數(shù)結(jié)果.通過(guò)兩臺(tái)攝像機(jī)標(biāo)定的結(jié)果來(lái)進(jìn)行立體標(biāo)定,從而得到表示兩個(gè)攝像頭之間的位置關(guān)系的旋轉(zhuǎn)矩陣和平移向量,導(dǎo)入OpenCV中,結(jié)果如下.
左攝像頭內(nèi)參數(shù)矩陣:
右攝像頭內(nèi)參數(shù)矩陣:
本文按文獻(xiàn)[14]中提及的校正算法對(duì)左右圖像進(jìn)行校正.在OpenCV中提供了一個(gè)校正算法,通過(guò)調(diào)用cvStereoRectify函數(shù)、cvInitUndistortRectify-Map函數(shù)、cvRemap函數(shù)來(lái)消除畸變,從而進(jìn)行校正.經(jīng)過(guò)立體校正后的左右攝像機(jī)圖像如圖4所示.
圖4 校正圖像Fig.4Images after correction
機(jī)器人目標(biāo)識(shí)別階段,首先在HSL空間下對(duì)圖像進(jìn)行分割,初步確定待檢區(qū)域,并將待檢區(qū)域轉(zhuǎn)化為灰度圖.然后利用LBP算子獲取樣本紋理特征,本文對(duì)LBP算子的3種方法進(jìn)行了實(shí)驗(yàn),分別為灰度不變LBP、旋轉(zhuǎn)不變LBP、uniform旋轉(zhuǎn)不變LBP,效果如圖5所示.
圖5 LBP算子實(shí)驗(yàn)結(jié)果(a)灰度不變LBP紋理特征;(b)旋轉(zhuǎn)不變LBP紋理特征;(c)uniform旋轉(zhuǎn)不變LBP紋理特征Fig.5Experimental results of LBP operators(a)Texture feature of gray-scale LBP;(b)Texture feature of rotational invariant LBP;(c)Texture feature of uniform rotational invariant LBP
其中采樣點(diǎn)數(shù)量均為8,采樣半徑均為10.由實(shí)驗(yàn)結(jié)果可知,3種LBP算子分別得到256個(gè)特征、36個(gè)特征、9個(gè)特征,分別用時(shí)60 ms、52 ms、49 ms.因此選取計(jì)算量小、耗時(shí)短的uniform旋轉(zhuǎn)不變LBP算子來(lái)提取樣本紋理.
接下來(lái)使用優(yōu)化后的SVM分類模型對(duì)樣本進(jìn)行訓(xùn)練和測(cè)試.本文選取200個(gè)訓(xùn)練樣本,其中150張為目標(biāo)球圖片,50張為非目標(biāo)球圖片,經(jīng)LBP處理后,將紋理特征矩陣輸入SVM進(jìn)行訓(xùn)練.將測(cè)試樣本集的紋理特征矩陣輸入GA優(yōu)化的SVM分類模型進(jìn)行分類處理,并輸出識(shí)別結(jié)果和識(shí)別率.其中,GA終止代數(shù)設(shè)為100,種群大小設(shè)為50,交叉概率為0.4,變異概率為0.01,選擇算子采用輪盤賭算法確定.實(shí)驗(yàn)發(fā)現(xiàn)大約21次左右即可達(dá)到最優(yōu)分類精度,平均識(shí)別率為92.7%.對(duì)于已經(jīng)識(shí)別為目標(biāo)的圖像,使用霍夫圓擬合確定目標(biāo)球的具體位置,效果如圖6所示.
圖6 霍夫圓擬合確定目標(biāo)球位置Fig.6Determined target ball position by hough circles
由標(biāo)定部分的分析可得轉(zhuǎn)換關(guān)系,根據(jù)此關(guān)系代入已知點(diǎn)的像素坐標(biāo)可得,左目攝像頭的坐標(biāo)轉(zhuǎn)換公式為:
右目攝像頭的坐標(biāo)轉(zhuǎn)換公式為:
采用最小二乘法求解[15][X,Y,Z]T.再根據(jù)相對(duì)位置求出攝像機(jī)到目標(biāo)的距離.為了驗(yàn)證本文所使用算法的有效性,將本文算法與所對(duì)比的算法分別進(jìn)行實(shí)驗(yàn),運(yùn)算結(jié)果如表1所示.其中,算法1為張正友棋盤標(biāo)定法與“絕對(duì)誤差累計(jì)”的小窗口匹配法相結(jié)合的雙目測(cè)距方法;算法2將改進(jìn)的平面攝像機(jī)標(biāo)定法與基于外極線約束以及灰度相關(guān)性特征點(diǎn)匹配相結(jié)合的雙目視覺(jué)目標(biāo)定位方法;算法3為本文算法.
表1 測(cè)距結(jié)果Tab.1Ranging resultsmm
對(duì)3種算法的誤差進(jìn)行分析,結(jié)果如圖7所示.其中,星號(hào)線為算法1的誤差,虛線為算法2的誤差,實(shí)線為本文測(cè)距算法的誤差.本文算法平均誤差相比算法1和算法2分別下降了18.9%和23.9%.由測(cè)距結(jié)果可知,實(shí)現(xiàn)了對(duì)目標(biāo)的測(cè)距,誤差在允許的范圍內(nèi),基本上滿足了雙目類人機(jī)器人對(duì)目標(biāo)測(cè)距的要求.由誤差對(duì)比可知,本文所使用的方法在大部分情況下測(cè)距的精度更高、穩(wěn)定性更好.
圖7 三種算法的誤差對(duì)比Fig.7Error comparison of three algorithms
對(duì)3種算法的時(shí)間復(fù)雜度進(jìn)行分析,結(jié)果如圖8所示.其中,統(tǒng)計(jì)了4組實(shí)驗(yàn)數(shù)據(jù),實(shí)際距離分別為300 mm、700 mm、1 500 mm、2 300 mm時(shí)3種算法運(yùn)行的時(shí)間.本文算法運(yùn)行時(shí)間相比算法1和算法2分別下降了25.6%和54.1%.由數(shù)據(jù)結(jié)果可知,運(yùn)行時(shí)間在允許的范圍內(nèi),基本上滿足了雙目類人機(jī)器人對(duì)目標(biāo)測(cè)距的實(shí)時(shí)性要求.由時(shí)間復(fù)雜度對(duì)比可知,本文所使用的方法在保證較高測(cè)距精度的情況下,降低了運(yùn)算的時(shí)間復(fù)雜度.
圖8 3種算法運(yùn)行時(shí)間對(duì)比Fig.8Comparison of running time of three algorithms
鑒于雙目視覺(jué)系統(tǒng)模擬了人眼及眾多生物的視覺(jué)處理方式,在視覺(jué)處理技術(shù)日趨成熟的今天,雙目視覺(jué)乃至多目視覺(jué)將會(huì)成為未來(lái)視覺(jué)技術(shù)發(fā)展的風(fēng)向標(biāo),并被廣泛運(yùn)用到各個(gè)領(lǐng)域.本文建立了一套基于改造后的雙目類人機(jī)器人實(shí)驗(yàn)平臺(tái),提出了一種簡(jiǎn)單可靠地對(duì)目標(biāo)進(jìn)行識(shí)別、測(cè)距的方法.本文提出的目標(biāo)識(shí)別的方法相比較于傳統(tǒng)方法,在精度以及計(jì)算速度上都有了明顯的提高.該方法經(jīng)過(guò)多次測(cè)試,測(cè)試結(jié)果表明,該方法在類人機(jī)器人測(cè)距中具有測(cè)量精度較高、實(shí)時(shí)性好、對(duì)目標(biāo)的識(shí)別更為準(zhǔn)確等優(yōu)點(diǎn).本文算法提高了系統(tǒng)的魯棒性并且取得了較為理想的結(jié)果.今后可以進(jìn)一步研究目標(biāo)運(yùn)動(dòng)軌跡預(yù)測(cè),從而實(shí)現(xiàn)機(jī)器人完成高難度動(dòng)作.
[1]李旭港.計(jì)算機(jī)視覺(jué)及其發(fā)展與應(yīng)用[J].中國(guó)科技縱橫,2010(6):42.
LI X G.Computer vision and its development and application[J].China Science&Technology,2010(6):42.
[2]張蓬,王金磊,趙弘.機(jī)器人雙目立體視覺(jué)測(cè)距技術(shù)研究與實(shí)現(xiàn)[J].計(jì)算機(jī)測(cè)量與控制,2013,21(7):1775-1778.
ZHANG P,WANG J L,ZHAO H.Research and implementation of robotic binocular visual distance measuring technology[J].Computer Measurement& Control,2013,21(7):1775-1778.
[3]沈彤,劉文波,王京.基于雙目立體視覺(jué)的目標(biāo)測(cè)距系統(tǒng)[J].電子測(cè)量技術(shù),2015,38(4):52-54.
SHEN T,LIU W B,WANG J.Distance measurement system based on binocular stereo vision[J].Electronic Measurement Technology,2015,38(4):52-54.
[4]時(shí)洪光,張鳳生,鄭春蘭.基于雙目視覺(jué)的目標(biāo)定位系統(tǒng)設(shè)計(jì)[J].現(xiàn)代儀器與醫(yī)療,2010,16(4):45-47.
SHI H G,ZHANG F S,ZHENG C L.Design of target location system based on binocular vision[J].Modern Instruments&Medical Treatment,2010,16(4):45-47.
[5]姜雨彤,楊進(jìn)華,劉釗,等.雙目CCD測(cè)距系統(tǒng)的高精度標(biāo)定[J].計(jì)算機(jī)工程,2013,39(7):228-232.
JIANG Y T,YANG J H,LIU Z,et al.High precision calibrationofbinocularCCDrangingsystem[J]. Computer Engineering,2013,39(7):228-232.
[6]陳念,李進(jìn),王海暉.雙目立體視覺(jué)測(cè)量系統(tǒng)的研究與實(shí)現(xiàn)[J].武漢工程大學(xué)學(xué)報(bào),2011,33(5):101-105.
CHENN,LIJ,WANGHH.Researchand implementationofmeasurementsystembasedon binocular stereo vision[J].Journal of Wuhan Institute of Technology,2011,33(5):101-105.
[7]楊明,王海暉,陳君,等.雙目標(biāo)定系統(tǒng)精度提高的方法[J].武漢工程大學(xué)學(xué)報(bào),2012,34(1):69-73.
YANG M,WANG H H,CHEN J,et al.Methods of accuracy improvement based on binocular calibration system[J].Journal of Wuhan Institute of Technology,2012,34(1):69-73.
[8]汪柏勝,高幼年,沈文忠.基于OpenCV的攝像機(jī)標(biāo)定方法的實(shí)現(xiàn)[J].上海電力學(xué)院學(xué)報(bào),2010,26(4):383-386.
WANG B S,GAO Y N,SHEN W Z.Method on camera calibration based on OpenCV[J].Journal of Shanghai University of Electric Power,2010,26(4):383-386.
[9]OJALA T,PIETIK,LNEN M,et al.Multiresolution gray-scale and rotation invariant texture classification with local binary patterns[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2002,24(7):971-987.
[10]BURGES C J C.A tutorial on support vector machines for pattern recognition[J].Data Mining and Knowledge Discovery,1998,2(2):121-167.
[11]嚴(yán)云洋,唐巖巖,劉以安,等.使用多尺度LBP特征和SVM的火焰識(shí)別算法[J].山東大學(xué)學(xué)報(bào)(工學(xué)版),2012,42(5):47-52.
YAN Y Y,TANG Y Y,LIU Y A,et al.Flame detection based on LBP features with multi-scales and SVM[J]. Journal of Shandong University(Engineering Science),2012,42(5):47-52.
[12]趙強(qiáng),崔暢.基于多尺度LBP和SVM的掌紋識(shí)別算法研究[J].激光雜志,2015(1):27-30.
ZHAO Q,CUI C.Research of palmprint identification algorithm based on multiscale LBP and SVM[J].Laser Journal,2015(1):27-30.
[13]吳楚,劉士榮,楊帆,等.基于極線約束的SIFT特征匹配算法研究[J].南京理工大學(xué)學(xué)報(bào)(自然科學(xué)版),2011,35(增刊):78-84.
WU C,LIU S R,YANG F,et al.Research on SIFT featurematchingbasedonepipolarconstraint[J]. Journal of Nanjing University of Science and Technology(Nature Science),2011,35(suppl.):78-84.
[14]BRADSKIG,KAEBLERA.LearningOpenCV:computer vision with the OpenCV library[M].Beijing:Tsinghua University Press,2009.
[15]鄒樂(lè)強(qiáng).最小二乘法原理及其簡(jiǎn)單應(yīng)用[J].科技信息,2010,23(2):282-283.
ZOULQ.Leastsquaremethodanditssimple application[J].Science&Technology Information,2010,23(2):282-283.
本文編輯:陳小平
Application of Binocular Vision Range Measuring in Humanoid Robots
YUAN Quan1,ZOU Chong2,MIN Feng2*
1.Faculty of Information Engineering and Automation,Kunming University of Science and Technology,Kunming 650504,China;
2.School of Computer Science and Engineering,Wuhan Institute of Technology,Wuhan 430205,China
To realize the idea that humanoid robots can recognize complicated targets with high accuracy and measure the actual distance of the target,a binocular method was proposed for recognizing target and measuring distance.Firstly,the camera calibration was realized by the checkerboard method to capture images afterwards. Then Local Binary Pattern operator and optimized Support Vector Machine were employed to identify the target. On the basis of recognition,Scale-invariant Feature Transform algorithm was used to match feature points and to determine the actual distance based on the principle of triangulation.Experimental results show that this method can reduce the designation of artificial parameters and improve the efficiency of matching features,and the accuracy of measuring actual distance is more than 94%,satisfying real-time and high-accuracy requirements of humanoid robots.
humanoid robot;binocular vision;object recognition;binocular ranging;stereo matching
TP242
A
10.3969/j.issn.1674-2869.2017.02.016
1674-2869(2017)02-0193-06
2016-11-01
袁泉,碩士研究生.E-mail:1978005001@qq.com
*通訊作者:閔鋒,博士,副教授.E-mail:23018298@qq.com
袁泉,鄒沖,閔鋒.雙目視覺(jué)在類人機(jī)器人測(cè)距中的應(yīng)用[J].武漢工程大學(xué)學(xué)報(bào),2017,39(2):193-198.
YUAN Q,ZOU C,MIN F.Application of binocular vision range measuring in humanoid robots[J].Journal of Wuhan Institute of Technology,2017,39(2):193-198.