劉海芹
(聊城大學(xué)東昌學(xué)院數(shù)學(xué)與信息工程系,山東聊城252000)
基于貝塞爾軌跡的視覺導(dǎo)引AGV路徑跟蹤研究
劉海芹
(聊城大學(xué)東昌學(xué)院數(shù)學(xué)與信息工程系,山東聊城252000)
為提高視覺導(dǎo)引自動(dòng)導(dǎo)引車(automatic guided vehicle,AGV)路徑跟蹤精度,提出一種基于貝塞爾軌跡的精確路徑跟蹤算法。該算法首先將采集的多種路徑特征圖像進(jìn)行預(yù)處理得到形狀信息,訓(xùn)練SVM多層路徑形狀特征分類器;然后根據(jù)命令,改變AGV采集到的分支路徑圖像的權(quán)重,迭代計(jì)算所選擇路徑的若干最小內(nèi)接圓;最后,利用最小二乘規(guī)則,將最小內(nèi)接圓的圓心擬合成貝塞爾軌跡,實(shí)現(xiàn)AGV的精確路徑跟蹤。將該算法應(yīng)用于視覺引導(dǎo)AGV中,并進(jìn)行路徑特征的在線識(shí)別和軌跡跟蹤實(shí)驗(yàn)。結(jié)果表明:路徑特征的識(shí)別準(zhǔn)確率為99.7%以上,識(shí)別時(shí)間約為22ms,彎道軌跡跟蹤準(zhǔn)確度為20mm和20°;與傳統(tǒng)方法相比,該方法顯著提高路徑特征識(shí)別和軌跡跟蹤的準(zhǔn)確率,更能滿足工業(yè)現(xiàn)場(chǎng)需求。
視覺導(dǎo)引;自動(dòng)導(dǎo)引車;貝塞爾軌跡;軌跡跟蹤;支持向量機(jī)
自動(dòng)導(dǎo)引車(automated guided vehicle,AGV)是自動(dòng)化生產(chǎn)線、柔性制造、智能倉儲(chǔ)物流系統(tǒng)的關(guān)鍵設(shè)備之一[1-4]。其中,通過配置視覺測(cè)量系統(tǒng)的視覺導(dǎo)引AGV因其具備更高的導(dǎo)引精度和信息獲取能力,已在近年來獲得了更廣泛的工程應(yīng)用。
目前,視覺導(dǎo)引AGV一般使用RFID或其他標(biāo)志物來識(shí)別不同種類的路徑[5-6]。為了改善柔性識(shí)別水平,喻俊等[7]使用支持向量機(jī)完成了對(duì)L型、T型和十字型的識(shí)別。但在工程上,L型導(dǎo)引路徑效率較低,不適用于圓弧等特征模糊的路徑識(shí)別。為了改善識(shí)別效率,張建鵬等[8]使用KPCA方法對(duì)路徑特征進(jìn)行降維,并通過神經(jīng)網(wǎng)絡(luò)法對(duì)降維的路徑特征進(jìn)行識(shí)別。然而,實(shí)際上,降維后的路徑識(shí)別率較低。高國琴等[9]使用K-means算法識(shí)別溫室移動(dòng)機(jī)器人的路徑,但是在多分支路徑的識(shí)別問題上,其魯棒性較差。
為了提高視覺導(dǎo)引AGV對(duì)不同種類路徑的軌跡跟蹤精度,本文提出一種基于貝塞爾軌跡的精確路徑跟蹤方法。首先,利用AGV視覺系統(tǒng)采集6類路徑的訓(xùn)練樣本,預(yù)處理后得到形狀信息,訓(xùn)練CART決策樹SVM路徑分類器;其次,創(chuàng)建兩個(gè)線程,一個(gè)用于路徑的在線識(shí)別和跟蹤,另一個(gè)用來在線訓(xùn)練SVM分類器。然后,AGV根據(jù)命令需要選擇不同的動(dòng)作時(shí),改變需要選擇的路徑的權(quán)重,迭代計(jì)算所選擇路徑的所有最小內(nèi)接圓。因?yàn)樨惾麪柷€具有連續(xù)及光滑等良好的幾何屬性,使用貝塞爾曲線規(guī)劃AGV的導(dǎo)引軌跡能夠滿足曲率連續(xù)和最大曲率限制的約束,可以保證AGV滿足運(yùn)動(dòng)學(xué)約束、為了滿足運(yùn)動(dòng)學(xué)約束、初始狀態(tài)約束、目標(biāo)狀態(tài)約束以及曲率連續(xù)約束,可以在AGV跟蹤多分支路徑時(shí),實(shí)時(shí)優(yōu)化平滑軌跡,可以提高AGV工作的穩(wěn)定性,以及降低不確定延時(shí)[10-11]。所以在最小二乘規(guī)則的基礎(chǔ)上,將最小內(nèi)接圓的圓心擬合為一條貝塞爾軌跡,通過運(yùn)動(dòng)控制算法實(shí)現(xiàn)AGV的準(zhǔn)確軌跡跟蹤。最后通過自制的視覺引導(dǎo)AGV驗(yàn)證了本文算法的有效性。
首先,采集不同種類路徑作為訓(xùn)練樣本,預(yù)處理后使用SURF算法提取路徑特征,將特征樣本聚類后,訓(xùn)練多層SVM路徑分類器,如圖1中虛線所示。初始化路徑特征識(shí)別器,為其分配兩個(gè)線程,分別負(fù)責(zé)在線訓(xùn)練分類器和在線識(shí)別路徑。
其次,在視覺導(dǎo)引AGV的工作過程中,使用CCD相機(jī)實(shí)時(shí)采集的圖像,利用Canny算法提取在線采集到的路徑圖像形狀特征,利用多線程技術(shù),使用訓(xùn)練好的多層SVM分類器進(jìn)行路徑種類識(shí)別的同時(shí),使用在線圖像保持多層SVM路徑特征分類器在線訓(xùn)練,如圖1中實(shí)線所示。
圖1 視覺導(dǎo)引流程
最后,根據(jù)路徑的種類通過指令選擇不同的動(dòng)作,提高所選擇的路徑權(quán)重,離散得到若干最小內(nèi)接圓的重心。利用貝塞爾曲線將最小內(nèi)接正方形的重心擬合為一條最小二乘誤差的貝塞爾軌跡,進(jìn)行運(yùn)動(dòng)控制。
工業(yè)現(xiàn)場(chǎng)中,曲線轉(zhuǎn)彎比直角轉(zhuǎn)彎具有更高的工作效率,針對(duì)常見的視覺導(dǎo)引路徑,將直線路徑歸納為2類:直線和十字工位,將曲線多分支路徑歸納為4類:直-左、直-右、左-右和左-直-右,分別如圖2所示。
因?yàn)楹谏桶咨膶?duì)比度較高,所以在白色地面上使用黑色膠帶鋪設(shè)6種不同的路徑。為不同類別的路徑設(shè)置不同的索引,根據(jù)不同類別路徑的特征復(fù)雜程度,直線和十字工位結(jié)構(gòu)簡(jiǎn)單均采集80組樣本,其余4種路徑結(jié)構(gòu)較為復(fù)雜,分別采集100,100,120,120組樣本數(shù)據(jù),如表1所示。
圖26 種類別路徑
表16 種路徑索引及樣本數(shù)
相機(jī)在獲取目標(biāo)圖像時(shí),由于光敏元件的顆粒性,以及圖像傳感器存在分辨率降低和定量的問題,圖像將會(huì)存在噪聲。因此,首先使用15×15模板,對(duì)得到的二值路徑特征圖像進(jìn)行一次腐蝕運(yùn)算,消除毛刺,平滑圖像輪廓;再使用10×10模板,對(duì)平滑后的圖像進(jìn)行一次膨脹運(yùn)算,填充細(xì)小孔洞,完成預(yù)處理。
常用的圖像特征提取方法有SIFT[12]和SURF[13],但是通常都比較耗時(shí),實(shí)時(shí)性較差。而且本文歸納的6類路徑特征模型主要為形狀上的差異,所以本文提取經(jīng)過預(yù)處理的路徑圖像的形狀特征,通過多層SVM路徑特征分類器進(jìn)行識(shí)別。
在腐蝕和膨脹操作的基礎(chǔ)上,檢測(cè)路徑圖像邊緣,提取形狀特征。本文選用Canny算法進(jìn)行邊緣檢測(cè),只要指定合適的雙閾值,Canny算法就可以生成高質(zhì)量的輪廓。分析路徑圖像的灰度直方圖,如圖3所示。
路徑灰度圖像是明顯的雙峰直方圖的圖像,使用雙峰的灰度值作為Canny算法的雙閾值通??梢缘玫奖容^好的邊緣檢測(cè)效果。所以選用一個(gè)10×10的圓形模板,從兩端迭代至谷底檢測(cè)灰度直方圖的雙峰為
圖3 雙峰灰度直方圖
式中ui為路徑圖像灰度為i的像素個(gè)數(shù),ul和uh分別為雙峰低閾值和高閾值,將得到的雙峰灰度值帶入Canny算法:
得到圖4所示的路徑輪廓圖像。
圖46 類路徑形狀特征
提取表1中路徑圖像訓(xùn)練樣本的路徑形狀特征,訓(xùn)練多層SVM分類器,用作路徑種類識(shí)別。
為了提高路徑特征的識(shí)別精度,本文選用CART決策樹實(shí)現(xiàn)SVM多分類;同時(shí),為了避免過擬合,采用悲觀剪枝策略,當(dāng)子樹的誤判個(gè)數(shù)大于對(duì)應(yīng)葉子節(jié)點(diǎn)的誤判個(gè)數(shù)一個(gè)標(biāo)準(zhǔn)差后,就決定剪枝,即:
其中:
E(substree)和var(substree)為該樹的誤判次數(shù)均值和標(biāo)準(zhǔn)差。
E(leaf)為葉子節(jié)點(diǎn)的誤判次數(shù)均值。將路徑特征相似度歸一化,得到如圖5所示的路徑種類匹配結(jié)果。
圖5 路徑種類匹配結(jié)果
圖中橫軸為路徑種類,不同顏色的折線為測(cè)試的路徑種類,可見,SVM分類器可以實(shí)現(xiàn)對(duì)路徑形狀的正確識(shí)別。
當(dāng)工業(yè)攝相機(jī)采集到多分支路徑時(shí),根據(jù)指令選取其中一只路徑進(jìn)行跟蹤。路徑的自動(dòng)選取可以通過改變不同分支路徑的權(quán)重來實(shí)現(xiàn),如圖6所示。
圖6 分支路徑權(quán)重模型
以LHR類型路徑為例,將路徑形狀圖像分為3部分:分支路徑、權(quán)重細(xì)分和直線路徑,分支路徑和權(quán)重細(xì)分部分L、H和R分支的權(quán)重分別為wl、wh、wr,直線路徑部分權(quán)重均為w,路徑權(quán)重計(jì)算公式為
根據(jù)指令,將3個(gè)分支權(quán)重值的其中兩個(gè)置位0,可以得到AGV需要跟蹤的軌跡。為了提高路徑跟蹤的精度,將權(quán)重軌跡擬合成一條可以反映AGV位姿偏差的直線,對(duì)權(quán)重軌跡進(jìn)行迭代求取最小內(nèi)接圓。為了保證轉(zhuǎn)向機(jī)構(gòu)可行,滿足速度連續(xù)約束、加速度連續(xù)約束、加速度有界約束以及目標(biāo)狀態(tài)側(cè)滑約束,采用由2個(gè)參數(shù)確定的三階貝塞爾曲線規(guī)劃出曲率變化最小的軌跡。根據(jù)最小二乘規(guī)則,計(jì)算另外2個(gè)控制點(diǎn),將若干最小內(nèi)接圓的圓心擬合成一條三階貝塞爾曲線,為AGV提供糾偏信息。三階貝塞爾曲線公式如下:
式中Pk為三階貝塞爾曲線的4個(gè)控制點(diǎn),在路徑圖像與圖像窗口的交線上,如圖6中所示P0~P3,已知最小二乘規(guī)則為
式中:f(xˉi)——擬合三階貝塞爾曲線;
yi——最小內(nèi)接圓圓心。
根據(jù)最小二乘規(guī)則迭代得到P1和P2使Δ最小,分別得到LHR路徑L、H和R方向的軌跡如圖7所示。
圖7 最小二乘貝塞爾軌跡
圖中紅色、綠色、和藍(lán)色的線分別代表L、H和R方向的軌跡。
圖8 自研AGV實(shí)物
為了驗(yàn)證基于決策樹SVM的識(shí)別方法對(duì)視覺導(dǎo)引AGV導(dǎo)引路徑的識(shí)別能力,研制了一臺(tái)差速轉(zhuǎn)向式AGV,如圖8所示。
該AGV驅(qū)動(dòng)輪位于后橋,工業(yè)攝相機(jī)安裝在前橋上方,使工業(yè)攝相機(jī)在得到路徑特征后,車載控制系統(tǒng)有足夠的時(shí)間對(duì)其進(jìn)行分類,提高AGV在路徑選擇上的魯棒性。另外,將本文的基于決策樹SVM路徑形狀識(shí)別方法分別與文獻(xiàn)[7]和文獻(xiàn)[8]的識(shí)別方法進(jìn)行了比對(duì)研究;同樣,分別使用文獻(xiàn)[7]和文獻(xiàn)[8]中方法對(duì)表1中的樣本進(jìn)行訓(xùn)練,得到訓(xùn)練后的對(duì)比測(cè)試數(shù)據(jù),如表2所示。
由于直線和十字工位的特征比較明顯,所以分別經(jīng)過80個(gè)樣本訓(xùn)練后,已經(jīng)可以達(dá)到100%的識(shí)別率。LH和HR與LR和LHR特征存在類似的關(guān)系,且由于AGV車體的傾斜,工業(yè)攝相機(jī)存在曲線漏采集的情況,所以識(shí)別率約為95%。LR和LHR特征不僅與LH和HR特征相似,二者之間也存在著相似關(guān)系,且在采集圖像的過程中,容易將這兩種特征截?cái)喑善渌卣?,識(shí)別率僅為91.67%。但識(shí)別時(shí)間為27 ms,低于文獻(xiàn)[7]的51 ms,遠(yuǎn)低于文獻(xiàn)[8]的97 ms;同時(shí),識(shí)別率高于文獻(xiàn)[7]的73.4%和文獻(xiàn)[8]的85.9%。
表2 特征識(shí)別結(jié)果對(duì)比
使分類器保持在線訓(xùn)練1h,得到各算法的識(shí)別時(shí)間和識(shí)別準(zhǔn)確率,如圖9所示。
圖9 在線訓(xùn)練結(jié)果
可以看出,AGV自主運(yùn)行15 min后,路徑的識(shí)別率達(dá)98%,識(shí)別時(shí)間降低為22 ms;當(dāng)AGV自主運(yùn)行50 min后,路徑的識(shí)別率達(dá)99.73%,識(shí)別時(shí)間小于21ms,進(jìn)一步降低識(shí)別時(shí)間;當(dāng)AGV自主運(yùn)行1 h后,路徑的識(shí)別率接近100%,識(shí)別時(shí)間在23ms左右。而文獻(xiàn)[8]的方法雖然實(shí)時(shí)性較好,但其魯棒性較差,文獻(xiàn)[9]的方法實(shí)時(shí)性較差。因此,本文方法更滿足工業(yè)現(xiàn)場(chǎng)的測(cè)試要求。
以圖7中的LHR類型路徑為例,驗(yàn)證本文基于貝塞爾軌跡的AGV精確路徑跟蹤方法,得到如圖10所示L、H、R分支的橫向和航向軌跡跟蹤偏差數(shù)據(jù)。
圖10(a)、圖10(b)、圖10(c)分別代表AGV在進(jìn)入LHR類型路徑后,分別選擇L、H、R分支的軌跡跟蹤精度,整個(gè)AGV的轉(zhuǎn)向過程約為100幀。由圖10可知,AGV在選擇H路徑進(jìn)行跟蹤時(shí),精度最高,橫向偏差可達(dá)±4mm,航向偏差僅為±2°。當(dāng)選擇L或R路徑進(jìn)行跟蹤時(shí),隨著AGV進(jìn)入彎道,車體相對(duì)導(dǎo)引軌跡的偏差增大,跟蹤精度降低,這很大程度上是因?yàn)閿M合貝塞爾軌跡,并進(jìn)行位姿糾偏時(shí)造成的偏差。由于AGV的工業(yè)攝像機(jī)位于前橋,當(dāng)AGV采集到分支路徑,進(jìn)行權(quán)重細(xì)分,擬合貝塞爾軌跡時(shí),其車體中心仍在直線路徑上,相當(dāng)于輸入了一個(gè)AGV位姿偏差的階躍信號(hào),同時(shí)由于AGV的驅(qū)動(dòng)輪和工業(yè)攝像機(jī)均不在車體中心,會(huì)增加AGV位姿糾偏輸出量的幅度,降低位姿偏差消除快速性與穩(wěn)定性。所以當(dāng)AGV進(jìn)行L或R路徑跟蹤時(shí)最大跟蹤橫向偏差絕對(duì)值約為20 mm,航向偏差絕對(duì)值約為20°。
圖10 LHR型路徑跟蹤精度曲線
1)為提高AGV對(duì)不同種類路徑的識(shí)別精度,提出了一種基于SVM的路徑特征形狀的識(shí)別方法。在線訓(xùn)練1h以后識(shí)別準(zhǔn)確率接近100%,識(shí)別時(shí)間接近20ms,顯著的提升了路徑識(shí)別的準(zhǔn)確率和識(shí)別時(shí)間。
2)針對(duì)分支路徑的軌跡跟蹤問題,提出了基于分支軌跡最小內(nèi)接圓擬合貝塞爾軌跡的方法,有效的提高了AGV的軌跡跟蹤精度。L、R路徑的跟蹤精度絕對(duì)值可以達(dá)到20 mm、20°,H路徑的跟蹤精度絕對(duì)值可以達(dá)到4mm和2°,滿足工業(yè)現(xiàn)場(chǎng)的需求。
3)由于自制的AGV工作速度為0.3m/s,采集到的路徑圖像或樣本數(shù)據(jù)模糊程度均不嚴(yán)重,當(dāng)AGV運(yùn)行速度過快時(shí)可能會(huì)影響路徑識(shí)別精度。因此,下一步工作希望AGV在較高速度下工作時(shí)也可以保證軌跡的識(shí)別和跟蹤精度。
[1]張建鵬,樓佩煌,錢曉明,等.多窗口實(shí)時(shí)測(cè)距的視覺導(dǎo)引AGV精確定位技術(shù)研究[J].儀器儀表學(xué)報(bào),2016,37(6):1356-1363.
[2]陳無畏,孫海濤,李碧春,等.基于標(biāo)識(shí)線導(dǎo)航的自動(dòng)導(dǎo)引車跟蹤控制[J].機(jī)械工程學(xué)報(bào),2006,42(8):164-170.
[3]朱從民,黃玉美,上官望義,等.AGV多傳感器導(dǎo)航系統(tǒng)研究[J].儀器儀表學(xué)報(bào),2008,29(11):2419-2423.
[4]DRAGANJAC I,MIKLIC D,KOVACIC Z,et al.Decentralized control of multi-AGV systems in autonomous warehousing applications[J].IEEE Transactions on Autom ation Science&Engineering,2016,13(4):1433-1447.
[5]LU S,XU C,ZHONG R Y.An active RFID tagenabledlocatingapproachwithmultipatheffect elimination in AGV[J].IEEE Transactions on Automation Science&Engineering,2016,13(3):1-10.
[6]周家瑋,張光新,蔡晉輝,等.用于自動(dòng)導(dǎo)引車輛的數(shù)字工位實(shí)時(shí)識(shí)別系統(tǒng)設(shè)計(jì)[J].江南大學(xué)學(xué)報(bào)(自然科學(xué)版),2008,7(2):141-145.
[7]喻俊,樓佩煌,武星,等.基于粗糙集和分層支持向量機(jī)的AGV多分支路徑識(shí)別[J].南京航空航天大學(xué)學(xué)報(bào)(社科版),2013,45(1):62-69.
[8]武星,沈偉良,樓佩煌,等.視覺導(dǎo)引AGV魯棒特征識(shí)別與精確路徑跟蹤研究[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2016,47(7):48-56.
[9]高國琴,李明.基于K-means算法的溫室移動(dòng)機(jī)器人導(dǎo)航路徑識(shí)別[J].農(nóng)業(yè)工程學(xué)報(bào),2014,30(7):25-33.
[10]陳成,何玉慶,卜春光,等.基于四階貝塞爾曲線的無人車可行軌跡規(guī)劃[J].自動(dòng)化學(xué)報(bào),2015,41(3):486-496.
[11]余伶俐,龍子威,周開軍.基于貝塞爾曲線的機(jī)器人非時(shí)間軌跡跟蹤方法[J].儀器儀表學(xué)報(bào),2016,37(7):1564-1572.
[12]劉佳,傅衛(wèi)平,王雯,等.基于改進(jìn)SIFT算法的圖像匹配[J].儀器儀表學(xué)報(bào),2013,34(5):1107-1112.
[13]BAY H,ESS A,TUYTELAARS T,et al.Speeded-Up robust features[J].Computer Vision&Image Understanding,2008,110(3):404-417.
(編輯:劉楊)
Research on path tracking of visual navigation AGV based on Bessel trajectory
LIU Haiqin
(Department of Mathematics and Information Engineering,Dongchang College of Liaocheng University,Liaocheng 252000,China)
To increase path tracking accuracy of visual navigation AGV(automatic guided vehicle),a precise path tracking algorithm based on Bessel trajectory is proposed.Firstly,the algorithm will pre-process the collected feature images of various paths to obtain shape information,and train the SVM multi-path shape feature classifier,and then change the weight of the branch paths of the collected images and iteratively calculate the minimum inscribed circles of the selected paths according to the order.Finally,based on the least squares rule,the centre of the minimum inscribed circle will be fitted into the Bessel trajectory to realizing the precise path tracking of AGV.The algorithm was applied in visual navigation AGV and on-line recognition and trajectory tracking test of path features were carried out and the results shown that the recognition accuracy of path features is up to 99.7%,and the recognition time is about 22 ms,curve trajectory tracking accuracy is 20 mm and 20°.Comparing with the traditional method,the method can improve the accuracy rate of path recognition and path tracking,which meets industrial field applications.
visual navigation;AGV;Bessel trajectory;path tracking;SVM
A
1674-5124(2017)08-0113-06
2017-04-05;
2017-05-10
劉海芹(1979-),女,山東聊城市人,講師,碩士,研究方向?yàn)闄C(jī)器視覺、計(jì)算機(jī)網(wǎng)絡(luò)與安全、計(jì)算機(jī)軟件與應(yīng)用。
10.11857/j.issn.1674-5124.2017.08.023