梅江平,王?浩,張?舵,閆?寒,李?策
基于單目視覺(jué)的高速并聯(lián)機(jī)器人動(dòng)態(tài)目標(biāo)跟蹤算法
梅江平,王?浩,張?舵,閆?寒,李?策
(天津大學(xué)機(jī)構(gòu)理論與裝備設(shè)計(jì)教育部重點(diǎn)實(shí)驗(yàn)室,天津 300350)
在高速并聯(lián)機(jī)器人視覺(jué)分揀系統(tǒng)中,由于安裝誤差等原因,視覺(jué)系統(tǒng)與傳送帶以及機(jī)器人與傳送帶之間會(huì)存在一定的角度偏差,導(dǎo)致目標(biāo)物體在分揀系統(tǒng)中的定位精度較低,使機(jī)器人末端不能精確抓取動(dòng)態(tài)目標(biāo).而且傳統(tǒng)的單目視覺(jué)定位及跟蹤算法存在精度低、運(yùn)算速度慢等問(wèn)題,影響視覺(jué)分揀系統(tǒng)的計(jì)算速度,降低系統(tǒng)的實(shí)時(shí)性.針對(duì)以上問(wèn)題,提出了一種基于圓特征的單目視覺(jué)定位與傳送帶標(biāo)定結(jié)合的動(dòng)態(tài)目標(biāo)跟蹤算法,首先不需考慮相機(jī)坐標(biāo)系與傳送帶坐標(biāo)系的角度偏差,拍攝一個(gè)圓形目標(biāo),并以光心為頂點(diǎn)構(gòu)造直橢圓錐的幾何成像模型.在此基礎(chǔ)上利用其幾何關(guān)系求取圓心在相機(jī)坐標(biāo)系下的深度信息,再結(jié)合傳送帶標(biāo)定與張正友標(biāo)定方法,確定傳送帶編碼器的比例因子以及機(jī)器人坐標(biāo)系和傳送帶坐標(biāo)系之間的角度偏差,并實(shí)時(shí)跟蹤圓形目標(biāo)運(yùn)動(dòng)過(guò)程中圓心在機(jī)器人下的位置.最后,對(duì)所提算法和傳統(tǒng)算法分別進(jìn)行實(shí)驗(yàn)對(duì)比,結(jié)果表明,該動(dòng)態(tài)跟蹤算法通過(guò)圓錐投影的幾何關(guān)系推導(dǎo)圓心的空間坐標(biāo),避免了傳統(tǒng)復(fù)雜的非線性方程求解,定位精度和計(jì)算速度大幅提高.該算法消除了傳統(tǒng)算法的角度偏差,平均位置誤差為0.82mm,具有較高的定位精度.運(yùn)行中系統(tǒng)耗時(shí)較短,運(yùn)行效率得到了有效提高,且誤抓率和漏抓率分別為0.2%和0,具有很高的實(shí)用價(jià)值.
單目視覺(jué)定位;高速并聯(lián)機(jī)器人;相機(jī)標(biāo)定;傳送帶標(biāo)定;動(dòng)態(tài)跟蹤
作為應(yīng)用最為成功的并聯(lián)機(jī)構(gòu)之一,高速并聯(lián)機(jī)器人因具有剛度大、精度高、速度快等優(yōu)勢(shì)而廣泛應(yīng)用于電子、食品、醫(yī)藥等行業(yè)[1-2].傳統(tǒng)的機(jī)器人分揀生產(chǎn)線,常采用離線示教的方法對(duì)物品進(jìn)行抓取分揀,該方法易受到周圍環(huán)境的干擾.近年來(lái),隨著機(jī)器人與其相關(guān)領(lǐng)域的結(jié)合日益緊密,機(jī)器視覺(jué)技術(shù)的引入增強(qiáng)了機(jī)器人對(duì)環(huán)境變化的適應(yīng)能力,使其向更加智能化的方向發(fā)展[3].高速并聯(lián)機(jī)器人視覺(jué)分揀系統(tǒng),通過(guò)相機(jī)實(shí)時(shí)獲取傳送帶上的圖像,經(jīng)圖像處理分析得到目標(biāo)物體的形狀位置等信息,并傳輸給運(yùn)動(dòng)控制系統(tǒng),實(shí)現(xiàn)高速并聯(lián)機(jī)器人對(duì)動(dòng)態(tài)目標(biāo)的抓取?任務(wù)[4].
單目視覺(jué)定位僅用一臺(tái)相機(jī)完成定位而無(wú)需解決立體視覺(jué)中兩相機(jī)間的最優(yōu)距離和特征點(diǎn)匹配問(wèn)題,具有簡(jiǎn)單易用、適用范圍廣等優(yōu)點(diǎn)[5].但由于其損失了目標(biāo)點(diǎn)的深度信息而無(wú)法得到完整的圖像信息,如何解決目標(biāo)和投影圖像之間的匹配問(wèn)題是其研究的重點(diǎn)[6].常用的基于單幀圖像的方法利用點(diǎn)或直線等特征進(jìn)行定位[7],但均存在實(shí)時(shí)性低、精度差等缺點(diǎn)[8].此外,在實(shí)際工程應(yīng)用中由于安裝誤差等原因,相機(jī)與傳送帶以及機(jī)器人與傳送帶之間均有一定角度偏差,也會(huì)影響目標(biāo)物體的定位精度,最終導(dǎo)致機(jī)器人末端不能精準(zhǔn)地抓取動(dòng)態(tài)目標(biāo)[9],如果采用提高加工精度的方法,則勢(shì)必會(huì)增加成本.
針對(duì)上述問(wèn)題,本文提出了一種基于圓特征的單目視覺(jué)定位與傳送帶標(biāo)定結(jié)合的動(dòng)態(tài)目標(biāo)跟蹤算法.該算法不需考慮相機(jī)和傳送帶之間的角度關(guān)系拍攝一個(gè)圓形目標(biāo),根據(jù)成像模型構(gòu)造出一個(gè)以光心為頂點(diǎn)的斜橢圓錐,并將其映射為直橢圓錐,通過(guò)直橢圓錐的幾何關(guān)系,計(jì)算圓心在相機(jī)下的空間三維坐標(biāo),避免了傳統(tǒng)復(fù)雜的非線性代數(shù)方程求解,提高了計(jì)算速度和定位精度.再結(jié)合傳送帶標(biāo)定和張正友標(biāo)定方法,實(shí)時(shí)跟蹤圓形目標(biāo)的位置.最后與傳統(tǒng)方法進(jìn)行對(duì)比實(shí)驗(yàn),驗(yàn)證了該視覺(jué)定位及跟蹤算法的精確性,結(jié)果表明本文算法提高了分揀系統(tǒng)的實(shí)時(shí)性和定位精度.
高速并聯(lián)機(jī)器人視覺(jué)分揀系統(tǒng)一般應(yīng)用于對(duì)輕小物料分揀的自動(dòng)化生產(chǎn)線上,如圖1所示,該系統(tǒng)主要分為機(jī)器視覺(jué)系統(tǒng)與機(jī)器人控制系統(tǒng). 機(jī)器視覺(jué)系統(tǒng)利用工業(yè)相機(jī)實(shí)時(shí)獲取傳送帶上物料的圖像,實(shí)現(xiàn)對(duì)物料的識(shí)別定位等功能,并將所得信息發(fā)送到機(jī)器人控制系統(tǒng),引導(dǎo)高速并聯(lián)機(jī)器人完成物料的分揀工作.
圖1?高速并聯(lián)機(jī)器人視覺(jué)分揀系統(tǒng)
傳統(tǒng)的單目視覺(jué)定位方法多采用點(diǎn)特征或線特征,基于曲線特征的定位算法如經(jīng)典的利用共面曲線和非共面曲線,由于需要對(duì)幾個(gè)高次多項(xiàng)式進(jìn)行求解,算法比較復(fù)雜而較少應(yīng)用[10].圓作為二次曲線的一種且用其定位可以擺脫匹配問(wèn)題而被廣泛關(guān)注,本算法基于圓特征并運(yùn)用圓錐投影的幾何關(guān)系推導(dǎo)出圓心的空間坐標(biāo),避免了復(fù)雜的非線性方程求解.
由于實(shí)際安裝中相機(jī)相對(duì)傳送帶會(huì)有一定偏角,光軸不垂直于傳送帶平面,故拍攝一個(gè)圓形目標(biāo)在成像平面上所得圖像被映射成橢圓.圖2為目標(biāo)在相機(jī)坐標(biāo)系下的成像模型,通過(guò)圖像處理分析得到橢圓輪廓的圖像像素坐標(biāo)(u,v),其成像點(diǎn)的圖像物理坐標(biāo)(x,y)為
設(shè)相機(jī)坐標(biāo)系為C,并以向量元素左上方字母表示其所在坐標(biāo)系,后面類似記法與此含義相同,則成像點(diǎn)在相機(jī)坐標(biāo)系下的位置為[Cxi,Cyi,f]T.
將相機(jī)光心作為頂點(diǎn),以圓目標(biāo)為底面形成一個(gè)斜圓錐,以成像橢圓為底面形成一個(gè)斜橢圓錐,由于斜橢圓錐幾何關(guān)系不標(biāo)準(zhǔn),很難進(jìn)行幾何運(yùn)算,故擬對(duì)該斜橢圓錐進(jìn)行變換.當(dāng)給定光心至任意平面的距離時(shí),必然存在一個(gè)與斜橢圓錐共用所有母線的直橢圓錐,故當(dāng)構(gòu)造其母線為任意長(zhǎng)度時(shí),可形成一個(gè)以光心為頂點(diǎn)的直橢圓錐,此橢圓可以在任意平面上,并將其記為1,直橢圓錐記為1,有
式中:C為橢圓1輪廓點(diǎn)在相機(jī)下的坐標(biāo);焦距由相機(jī)內(nèi)參數(shù)標(biāo)定獲得;為母線長(zhǎng)度,可取同一數(shù)量級(jí)的任意值.
求取橢圓1輪廓坐標(biāo)集的平均值得到其中心0在相機(jī)下的坐標(biāo)為
式中為橢圓輪廓坐標(biāo)點(diǎn)的個(gè)數(shù).
得到成像點(diǎn)在新相機(jī)坐標(biāo)系下的位置為
式中:C′為新成像點(diǎn)在新相機(jī)坐標(biāo)系下的位置;X3為C′的第3行元素.
由上述得到了橢圓2的輪廓點(diǎn)坐標(biāo),下面用橢圓擬合算法求取橢圓方程[11].式(10)為橢圓的一般方程,由最小二乘法,擬合目標(biāo)函數(shù)如式(11)所示.
為使函數(shù)最小,由式(12)求取、、、、的值.
最后由式(13)~(15)擬合出橢圓標(biāo)準(zhǔn)方程,如式(16)所示.
式中:(0,0)為橢圓中心坐標(biāo);為橢圓傾斜角;、分別為橢圓的長(zhǎng)軸和短軸.
圖3為新相機(jī)坐標(biāo)系下圓目標(biāo)和直橢圓錐2的投影關(guān)系,幾何關(guān)系為
式中:1=∠;2=∠;為圓目標(biāo)半徑;為點(diǎn)1和2的距離.
圖3?圓形目標(biāo)與直橢圓錐的投影關(guān)系
在△1與△1中,由正弦定理得
式中∠1.解此方程得到.
在△和△2中分別利用正弦定理和余弦定理得
最終得到目標(biāo)圓心在相機(jī)下的坐標(biāo)為
式中(Cx,Cy,)T為成像平面橢圓圓心在相機(jī)下的坐標(biāo),由成像點(diǎn)通過(guò)橢圓擬合算法求得.
傳送帶標(biāo)定即確定傳送帶和機(jī)器人之間的轉(zhuǎn)換關(guān)系和編碼器的比例因子[12].設(shè)機(jī)器人坐標(biāo)系為R,傳送帶坐標(biāo)系為B,若知道任意點(diǎn)在傳送帶坐標(biāo)系下的坐標(biāo)B,則通過(guò)式(23)即可得到其在機(jī)器人坐標(biāo)系下的坐標(biāo)[13].
如圖4所示,讓圓形目標(biāo)在機(jī)器人工作空間隨傳送帶移動(dòng)一段距離,以始末位置圓心連線為軸,方向指向傳送帶運(yùn)動(dòng)方向,并記錄兩位置編碼器的讀數(shù)1、2.
圖4?傳送帶標(biāo)定
用機(jī)器人末端觸碰始末位置目標(biāo)圓心,從控制器中讀出兩圓心在機(jī)器人下的位置分別為R1=(R1,R1,R1)T和R2=(R2,R2,R2)T,有如下關(guān)系:
式中:DR為始末兩點(diǎn)的距離;DB為傳送帶始末示數(shù)變化;為編碼器比例因子.
因此當(dāng)目標(biāo)隨傳送帶移動(dòng),由始末位置的編碼器讀數(shù)差D即可求得目標(biāo)移動(dòng)的距離為
接著控制機(jī)器人末端沿其R軸移動(dòng)一段距離,由于機(jī)器人相對(duì)傳送帶有偏角,故機(jī)器人末端的軌跡不垂直于傳送帶移動(dòng)方向,記終點(diǎn)的位置為R3=(R3,R3,R3)T.
建立傳送帶坐標(biāo)系BBBB,有如下關(guān)系:
其中
傳送帶基坐標(biāo)系為
則傳送帶相對(duì)于機(jī)器人的轉(zhuǎn)換矩陣為
圖5?相機(jī)針孔成像模型
機(jī)器人視覺(jué)分揀系統(tǒng)中的相機(jī)標(biāo)定分為基于機(jī)器人的相機(jī)標(biāo)定與基于傳送帶的相機(jī)標(biāo)定[19].前者相機(jī)位于機(jī)器人工作空間內(nèi),依靠機(jī)器人坐標(biāo)系標(biāo)定相機(jī),確定二者轉(zhuǎn)換矩陣,本文基于傳送帶對(duì)相機(jī)標(biāo)定,是指相機(jī)安裝在機(jī)器人工作空間外的情況.
相機(jī)從不同角度拍攝20張如圖6所示的棋盤(pán)格,采用張正友標(biāo)定法[20],確定相機(jī)的內(nèi)參數(shù).外參數(shù)求取即依靠傳送帶坐標(biāo)系作為媒介,確定相機(jī)坐標(biāo)系與機(jī)器人坐標(biāo)系之間的關(guān)系.
根據(jù)式(22)得到拍照時(shí)刻目標(biāo)圓心在相機(jī)下的坐標(biāo),記為C,由式(34)可得圓心在傳送帶坐標(biāo)系下的位置,并記錄此時(shí)編碼器讀值為.
圖6?黑白棋盤(pán)格標(biāo)定板
接著,當(dāng)圓目標(biāo)隨傳送帶移動(dòng)到機(jī)器人工作空間時(shí)停止運(yùn)動(dòng)并記錄編碼器讀數(shù),可得此時(shí)圓心在傳送帶坐標(biāo)系下的位置為
其中
然后,用機(jī)器人末端觸碰目標(biāo)圓心,從控制器讀出其在機(jī)器人坐標(biāo)系下的位置為
聯(lián)立式(34)~(36),有
因此,該綜合算法通過(guò)從圖像中獲任意圓形目標(biāo)圓心位置2就能夠?qū)崟r(shí)跟蹤其在傳送帶上移動(dòng)任意距離D后在機(jī)器人坐標(biāo)系下的位置為
傳統(tǒng)的動(dòng)態(tài)目標(biāo)定位算法沒(méi)有考慮相機(jī)相對(duì)傳送帶的偏角,并且假定傳送帶坐標(biāo)系與機(jī)器人坐標(biāo)系僅有位置偏移而沒(méi)有姿態(tài)變化,而本文算法均考慮了二者的角度偏差.
如圖7所示,本實(shí)驗(yàn)采用瑞思機(jī)器人有限公司開(kāi)發(fā)的D3S-500型Delta高速并聯(lián)機(jī)器人視覺(jué)分揀系統(tǒng)進(jìn)行,該系統(tǒng)采用Windows操作系統(tǒng),相機(jī)選用Congnex-CAM-CIC-300-120-G,標(biāo)稱幀率為120幀/s,配套使用軟件In-Sight Explore 5.4.0,并采用Ether CAT總線傳輸數(shù)據(jù),控制器選用KeControl CP263/X及擴(kuò)展I/O模塊DM272/A和編碼器模塊MM240/A,伺服驅(qū)動(dòng)器為清能德創(chuàng)CoolDrive-R4,并搭載200W多摩川伺服電機(jī),圓形目標(biāo)采用直徑為60mm的圓形薄板.
圖7?Delta機(jī)器人視覺(jué)分揀系統(tǒng)實(shí)驗(yàn)平臺(tái)
首先,根據(jù)第2節(jié)所述方法進(jìn)行傳送帶標(biāo)定,使圓形薄板在機(jī)器人工作空間中隨傳送帶運(yùn)動(dòng)一段距離,傳送帶速度為300mm/s.通過(guò)始末位置編碼器脈沖值及圓心在機(jī)器人下的坐標(biāo)由式(24)~(26)計(jì)算編碼器比例因子0.078.接著,使機(jī)器人末端從終止位置圓心開(kāi)始沿垂直于薄板運(yùn)動(dòng)方向移動(dòng)任意距離,并測(cè)量終止位置圓心坐標(biāo),通過(guò)式(28)~(31)求得轉(zhuǎn)換矩陣為
由歐拉角的定義,旋轉(zhuǎn)矩陣=()()(),進(jìn)而解方程求出傳送帶坐標(biāo)系與機(jī)器人坐標(biāo)系、、軸之間的角度偏差分別為0.78°,=0.52°,1.27°.
然后使圓形薄板從傳送帶開(kāi)始端進(jìn)入系統(tǒng),在經(jīng)過(guò)相機(jī)視野下時(shí)拍照,并通過(guò)圖像處理算法在計(jì)算機(jī)中獲取100個(gè)圓周點(diǎn)坐標(biāo),進(jìn)而利用第1節(jié)中所提算法并根據(jù)式(17)~(22)求得圓心在相機(jī)下的空間坐標(biāo)C2=[10.641,12.847,510.085]T.當(dāng)圓形薄板移動(dòng)到機(jī)器人工作空間時(shí)停止運(yùn)動(dòng),利用此時(shí)和拍照時(shí)刻的編碼器脈沖的差值計(jì)算薄板移動(dòng)的距離D,并由式(35)~(37)計(jì)算出相機(jī)相對(duì)傳送帶的轉(zhuǎn)換矩陣
同樣由歐拉角定義,推導(dǎo)出相機(jī)坐標(biāo)系與機(jī)器人坐標(biāo)系、、軸之間的角度偏差分別為′90.67°、′=90.48°、′1.13°.至此,影響分揀系統(tǒng)定位精度的角度偏差均已求出.
考慮上述角度偏差,分別測(cè)量圓形薄板在5組不同運(yùn)動(dòng)距離D′下,在終止位置處其圓心在機(jī)器人下的實(shí)際位置,如表1所示.然后通過(guò)式(38)求取圓心在機(jī)器人下的計(jì)算位置,并以兩位置的平均誤差是否在毫米級(jí)內(nèi)來(lái)驗(yàn)證視覺(jué)定位及跟蹤算法的準(zhǔn)確性.最后讓圓形薄板運(yùn)動(dòng)同樣的距離,傳送帶速度不變,用傳統(tǒng)的動(dòng)態(tài)跟蹤算法[21]進(jìn)行相同的5組實(shí)驗(yàn),并測(cè)量每組的圓心在機(jī)器人下的位置,與本文算法所得結(jié)果進(jìn)行誤差比較.
表1?本文算法和傳統(tǒng)算法的數(shù)據(jù)及誤差
Tab.1?Date and errors of the proposed algorithm and the traditional algorithm
通過(guò)兩種算法對(duì)比,可以看到本文算法的平均位置誤差為0.816mm,而傳統(tǒng)方法平均位置誤差為1.455mm,顯然本文算法的定位精度較高,且該算法的誤差均在毫米級(jí)以內(nèi),驗(yàn)證了視覺(jué)定位算法的精確性,使得機(jī)器人末端能夠?qū)崟r(shí)跟蹤目標(biāo)物體的位置,為后續(xù)機(jī)器人高精確抓取目標(biāo)奠定了基礎(chǔ).
如圖8所示,在此基礎(chǔ)上,分別用本文算法和傳統(tǒng)算法對(duì)連續(xù)的200個(gè)圓形薄板進(jìn)行循環(huán)抓取實(shí)驗(yàn),機(jī)器人抓放行程為30mm,傳送帶速度均為500mm/s,并且保證放置的每個(gè)圓形薄板間隔近似相等,傳送帶共循環(huán)5次,測(cè)量每一次從第1個(gè)目標(biāo)進(jìn)入相機(jī)視野到最后一個(gè)目標(biāo)放置完成時(shí)刻所消耗的時(shí)間,實(shí)驗(yàn)結(jié)果如表2所示.
顯然本文算法耗時(shí)較短,抓取200個(gè)圓形薄板系統(tǒng)平均用時(shí)約為98.80s,而傳統(tǒng)方法系統(tǒng)平均用時(shí)約為101.70s.相比較下,本文算法提高了該機(jī)器人視覺(jué)分揀系統(tǒng)的運(yùn)行效率.最后,對(duì)總共約500個(gè)圓形薄板進(jìn)行2次相同的循環(huán)抓取實(shí)驗(yàn),并記錄總的誤抓數(shù)和漏抓數(shù),如表3所示.通過(guò)計(jì)算可得本文算法漏抓率為0,誤抓率為0.2%,相比傳統(tǒng)算法均有提高,能滿足一般的工程需求.
表2?本文算法與傳統(tǒng)算法循環(huán)抓取時(shí)間對(duì)比
Tab.2?Comparisons of cyclic catching time between the proposed and traditional algorithms
圖8?Delta機(jī)器人連續(xù)抓取動(dòng)態(tài)目標(biāo)
表3 本文算法與傳統(tǒng)算法進(jìn)行5次循環(huán)實(shí)驗(yàn)的總誤抓數(shù)與漏抓數(shù)
Tab.3 Error and miss catching number of the proposed and traditional algorithms in five cycling tests
(1) 本文針對(duì)高速并聯(lián)機(jī)器人抓取動(dòng)態(tài)物料的需求,提出了一種基于圓特征的單目視覺(jué)定位與傳送帶標(biāo)定相結(jié)合的動(dòng)態(tài)目標(biāo)跟蹤算法,該算法獲取平面圓形目標(biāo)物的輪廓圖像坐標(biāo),通過(guò)構(gòu)建的直橢圓錐的幾何成像模型,求取了圓心深度信息,進(jìn)而結(jié)合傳送帶標(biāo)定方法,可以實(shí)時(shí)跟蹤運(yùn)動(dòng)薄板圓心在機(jī)器人下的位置.
(2) 與傳統(tǒng)方法相比,本文算法考慮了由于安裝誤差等原因?qū)е碌南鄼C(jī)與傳送帶以及機(jī)器人與傳送帶之間的角度偏差,定位精度較高,符合實(shí)際工程中機(jī)器人視覺(jué)分揀系統(tǒng)的運(yùn)用.
(3) 在視覺(jué)定位算法中將斜橢圓錐映射為直橢圓錐,運(yùn)用直橢圓錐投影的幾何關(guān)系推導(dǎo)出目標(biāo)圓心的空間坐標(biāo),避免了復(fù)雜的高階方程求解,加快了運(yùn)算速度,提高了計(jì)算精度.
(4) 對(duì)本文算法和傳統(tǒng)算法分別進(jìn)行了圓形薄板抓取實(shí)驗(yàn),對(duì)比了兩種算法的位置誤差和系統(tǒng)運(yùn)行時(shí)間,并計(jì)算了漏抓率與誤抓率.結(jié)果表明該算法的定位精度較高,耗時(shí)較短,系統(tǒng)的運(yùn)行效率得到了提高,符合動(dòng)態(tài)物料分揀的實(shí)際工程需求.在未來(lái),希望該算法不僅限于具有圓形特征的目標(biāo)物體,且能夠應(yīng)用到更多的領(lǐng)域中.
[1] 馮李航,張為公,龔宗洋,等. Delta系列并聯(lián)機(jī)器人研究進(jìn)展與現(xiàn)狀[J]. 機(jī)器人,2014,36(3):375-384.
Feng Lihang,Zhang Weigong,Gong Zongyang,et al. Developments of Delta-like parallel manipulators:A review[J]. Robot,2014,36(3):375-384(in Chinese).
[2] 劉海濤,熊?坤,賈昕胤,等. 3自由度冗余驅(qū)動(dòng)下肢康復(fù)并聯(lián)機(jī)構(gòu)的運(yùn)動(dòng)學(xué)優(yōu)化設(shè)計(jì)[J]. 天津大學(xué)學(xué)報(bào):自然科學(xué)與工程技術(shù)版,2018,51(4):357-366.
Liu Haitao,Xiong Kun,Jia Xinyin,et al. Kinematic optimization of a redundantly actuated 3-DOF parallel mechanism for lower-limb rehabilitation[J]. Journal of Tianjin University:Science and Technology,2018,51(4):357-366(in Chinese).
[3] 倪鶴鵬,劉亞男,張承端,等. 基于機(jī)器視覺(jué)的Delta機(jī)器人分揀系統(tǒng)算法[J]. 機(jī)器人,2016,38(1):49-55.
Ni Hepeng,Liu Yanan,Zhang Chengduan,et al. Sorting system algorithms based on machine vision for Delta robot[J]. Robot,2016,38(1):49-55(in Chinese).
[4] 查?英,劉鐵根,杜?東,等. 基于機(jī)器視覺(jué)的零件自動(dòng)裝配系統(tǒng)[J]. 天津大學(xué)學(xué)報(bào),2006,39(6):722-726.
Zha Ying,Liu Tiegen,Du Dong,et al. Part automatic assembling system based on machine vision[J]. Journal of Tianjin University,2006,39(6):722-726(in Chinese).
[5] Wei Luosi,Jiao Zongxia. Research and application of visual location technology for solder paste printing based on machine vision[J]. Frontiers of Mechanical Engineering in China,2009,4(2):184-191.
[6] 趙?霞,袁家政,劉宏哲. 基于視覺(jué)的目標(biāo)定位技術(shù)的研究進(jìn)展[J]. 計(jì)算機(jī)科學(xué),2016,43(6):10-16.
Zhao Xia,Yuan Jiazheng,Liu Hongzhe. Advances in vision-based target location technology[J]. Computer Science,2016,43(6):10-16(in Chinese).
[7] Jia Yunwei,Liu Tiegen,Gao Lilan,et al. Mobile robot localization and navigation system based on monocular vision[J]. Transactions of Tianjin University,2012,25(5):335-342.
[8] 張子淼,王?鵬,孫長(zhǎng)庫(kù). 單目視覺(jué)位姿測(cè)量方法及數(shù)字仿真[J]. 天津大學(xué)學(xué)報(bào),2011,44(5):440-444.
Zhang Zimiao,Wang Peng,Sun Changku. Position and orientation measurement method with monocular vision and digital simulation[J]. Journal of Tianjin University,2011,44(5):440-444(in Chinese).
[9] 許?勇,郭鵬宇,苑?云,等. 相機(jī)靶面安裝誤差標(biāo)定方法[J]. 光學(xué)學(xué)報(bào),2013,33(4):139-147.
Xu Yong,Guo Pengyu,Yuan Yun,et al. Calibration method of installation error of camera sensor plane[J]. Acta Optica Sinica,2013,33(4):139-147(in Chinese).
[10] Forsyth D A,Munday J L,Zisserman A,et al. Projective. invariant representation using implicit algebraic curves[J]. Image and Vision Compute,1991,9(2):130-136.
[11] 閆?蓓,王?斌,李?媛. 基于最小二乘法的橢圓擬合改進(jìn)算法[J]. 北京航空航天大學(xué)學(xué)報(bào),2008,34(3):295-298.
Yan Bei,Wang Bin,Li Yuan. Optimal ellipse fitting method based on least square principle[J]. Journal of Beijing University of Aeronautics and Astronautics,2008,34(3):295-298(in Chinese).
[12] 陳?丹,石國(guó)良. 基于視覺(jué)幾何的傳送帶測(cè)速方法研究[J]. 儀器儀表學(xué)報(bào),2016,37(10):2307-2315.
Chen Dan,Shi Guoliang. Research on velocity measurement method of conveyor belt based on view geometry[J]. Chinese Journal of Scientific Instrument,2016,37(10):2307-2315(in Chinese).
[13] 鄧明星,劉冠峰,張國(guó)英. 基于Delta并聯(lián)機(jī)器人的傳送帶動(dòng)態(tài)跟蹤[J]. 機(jī)械工程與自動(dòng)化,2015(1):153-156.
Deng Mingxing,Liu Guanfeng,Zhang Guoying. Dynamic conveyor tracking for Delta robot[J]. Mechanical Engineering & Automation,2015(1):153-156(in Chinese).
[14] 賈丙西,劉?山,張凱祥,等. 機(jī)器人視覺(jué)伺服研究進(jìn)展:視覺(jué)系統(tǒng)與控制策略[J]. 自動(dòng)化學(xué)報(bào),2015,41(5):861-873.
Jia Bingxi,Liu Shan,Zhang Kaixiang,et al. Survey on robot visual servo control:Vision system and control strategies[J]. Acta Automatica Sinica,2015,41(5):861-873(in Chinese).
[15] 孫月海,王?蘭,梅江平,等. 基于單目視覺(jué)的Delta機(jī)器人零點(diǎn)標(biāo)定方法[J]. 天津大學(xué)學(xué)報(bào):自然科學(xué)與工程技術(shù)版,2013,46(3):239-243.
Sun Yuehai,Wang Lan,Mei Jiangping,et al. Zero calibration of delta robot based on monocular vision[J]. Journal of Tianjin University:Science and Technology,2013,46(3):239-243(in Chinese).
[16] Kruger L,Wohler C. Accurate chequerboard corner localisation for camera calibration[J]. Pattern Recognition Letter,2011,54(10):1428-1435.
[17] 解則曉,辛少輝,李緒勇,等. 基于單目視覺(jué)的機(jī)器人標(biāo)定方法[J]. 機(jī)械工程學(xué)報(bào),2011,47(5):35-39.
Xie Zexiao,Xin Shaohui,Li Xuyong,et al. Method of robot calibration based on monocular vision[J]. Journal of Mechanical Engineering,2011,47(5):35-39(in Chinese).
[18] 朱?嘉,李醒飛,徐穎欣. 攝像機(jī)的一種主動(dòng)視覺(jué)標(biāo)定方法[J]. 光學(xué)學(xué)報(bào),2010,30(5):1297-1303.
Zhu Jia,Li Xingfei,Xu Yingxin. Camera calibration technique based on active vision[J]. Acta Optica Sinica,2010,30(5):1297-1303(in Chinese).
[19] 楊?強(qiáng),劉冠峰. Delta機(jī)器人傳送帶與視覺(jué)的綜合標(biāo)定方法[J]. 機(jī)電工程技術(shù),2015,44(1):5-10.
Yang Qiang,Liu Guanfeng. Method of integrated calibration on Delta robot conveyor and vision[J]. Mechanical and Electrical Engineering Technology,2015,44(1):5-10(in Chinese).
[20] Zhang Z Y. A flexible new technique for camera calibration[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2000,22(11):1330-1334.
[21] 張文昌. Delta高速并聯(lián)機(jī)器人視覺(jué)控制技術(shù)及視覺(jué)標(biāo)定技術(shù)研究[D]. 天津:天津大學(xué)機(jī)械工程學(xué)院,2012.
Zhang Wenchang. Control Technique and Kinematic Calibrition of Delta Robot Based on Computer Vision[D]. Tianjin:School of Mechanical Engineering,Tianjin University,2012(in Chinese).
Dynamic Target Tracking Algorithm of a High-Speed Parallel Robot Based on Monocular Vision
Mei Jiangping,Wang Hao,Zhang Duo,Yan Han,Li Ce
(Key Laboratory of Mechanism Theory and Equipment Design,Ministry of Education,Tianjin University,Tianjin 300350,China)
Due to installation errors and other reasons,a certain angle deviation has existed between the visual system and the conveyor belt and between the robot and the conveyor belt,leading to a low-positioning accuracy of the target object in the visual system.This has made the robot end unable to catch its dynamic target accurately. Moreover,the traditional monocular vision positioning and tracking algorithm has had some problems,such as low accuracy and slow operation speed,affecting the calculation speed of the visual sorting system and reducing real-time system performance.Addressing these problems,a dynamic target tracking algorithm,based on a circular feature combining monocular vision positioning and a conveyor belt calibration is proposed.A circular target was shot by the camera without consideration of the angle of deviation between the camera coordinate system and the conveyor coordinate system,and a geometric imaging model of the straight elliptical cone,with its optical center as the apex,was constructed.On this basis,the depth information of the center of a circle in the camera coordinate system was obtained using its geometric relationship.Combining conveyor belt calibration and the Zhang Zhengyou calibration method,the ratio factor of the conveyor belt encoder and the angle deviation between the robot coordinate system and the conveyor belt coordinate system were determined.The position of the center of the circle under the robot was then tracked in real time.Finally,experiments were carried out on both the proposed algorithm and traditional algorithms.Results showed that this dynamic tracking algorithm can deduce the spatial coordinates of the center of a circle through the geometric relationship of conical projection,while avoiding solution of the traditional complex non-linear equation.The positioning accuracy and calculation speed were improved greatly.This algorithm can eliminate the angle deviation of traditional methods.The average positioning error was 0.82mm,achieving a higher positioning accuracy.The system consumed less time in the operation,the operation efficiency was effectively improved,and the rate of wrong catch and missing catch were 0.2% and 0respectively,which displayed good practical value.
monocular vision positioning;high-speed parallel robot;camera calibration;conveyor calibration;dynamic tracking
TP242
A
0493-2137(2020)02-0138-09
10.11784/tdxbz201903009
2019-03-11;
2019-05-05.
梅江平(1969—??),男,博士,研究員.
梅江平,ppm@tju.edu.cn.
國(guó)家科技重大專項(xiàng)資助項(xiàng)目(2017ZX04013-001).
Supported by the Major National Science and Technology Program(No.2017ZX04013-001).
(責(zé)任編輯:金順愛(ài))