張穎超,段京易,胡 凱,茅 丹
(南京信息工程大學(xué)信息與控制學(xué)院,南京 210044)
?
基于自然環(huán)境辨識(shí)的移動(dòng)機(jī)器人位姿快速檢測(cè)*
張穎超*,段京易,胡凱,茅丹
(南京信息工程大學(xué)信息與控制學(xué)院,南京 210044)
摘要:為了對(duì)室外移動(dòng)機(jī)器人進(jìn)行快速準(zhǔn)確的位姿檢測(cè),基于Poineer3平臺(tái),運(yùn)用單目對(duì)室外環(huán)境進(jìn)行圖像采集,對(duì)圖像采用基于圖像特征和神經(jīng)網(wǎng)絡(luò)的方法進(jìn)行了環(huán)境的理解,進(jìn)而以地面為研究對(duì)象,運(yùn)用Horn-Schunck光流法獲得局部地面光流。進(jìn)而由圖像坐標(biāo)系和機(jī)器人坐標(biāo)系的變化關(guān)系以及運(yùn)動(dòng)速度和光流速度的關(guān)系,把光流速度轉(zhuǎn)化為機(jī)器人的運(yùn)動(dòng)速度,從而實(shí)現(xiàn)了機(jī)器人的位姿檢測(cè)。實(shí)驗(yàn)結(jié)果表明,該方法可行且易操作,檢測(cè)速度快。
關(guān)鍵詞:機(jī)器人視覺;位姿檢測(cè);光流;室外環(huán)境辨識(shí)
所謂機(jī)器視覺,也就是使用計(jì)算機(jī)來實(shí)現(xiàn)人的視覺功能——對(duì)客觀世界的三維場(chǎng)景的感知、識(shí)別和理解。換言之,即利用機(jī)器人所攜帶的視覺傳感器,如單目、雙目來完成替代人眼視覺功能達(dá)到認(rèn)知外界環(huán)境的任務(wù)。在此基礎(chǔ)上,人們提出了視覺導(dǎo)航,就是利用計(jì)算機(jī)來代替人的視覺功能,從外界獲得有價(jià)值的信息,然后進(jìn)行辨識(shí)和理解。目前為止,國(guó)內(nèi)外智能車輛幾乎均使用機(jī)器視覺,可見這種感知方式的可靠性與重要性。道路的識(shí)別是智能車輛視覺導(dǎo)航的關(guān)鍵技術(shù),因其較大的復(fù)雜性和挑戰(zhàn)性而備受關(guān)注。本文的研究就是基于單目視覺,通過處理視頻圖像達(dá)到自然環(huán)境的快速辨識(shí),對(duì)環(huán)境中的地面進(jìn)行識(shí)別,從而展開進(jìn)一步的研究。
通過視頻圖像來進(jìn)行速度檢測(cè)的方法有很多,例如相鄰幀差法、背景差分法、光流法等。但其中各個(gè)方法具體優(yōu)勢(shì)和缺點(diǎn)也比較明顯。相鄰幀差法[1]是使用時(shí)間連續(xù)的兩幀圖像相減,來判斷是否有運(yùn)動(dòng)目標(biāo)的出現(xiàn),但幀差法的缺點(diǎn)在于其得不到純背景的圖像,因?yàn)檫@種方法不能對(duì)所有相關(guān)特征點(diǎn)進(jìn)行狀態(tài)提取,從而使得這種方法下所得結(jié)果精確度不夠。背景差分法[2]是將當(dāng)前幀和背景圖像相減,結(jié)合背景更新算法來得到運(yùn)動(dòng)目標(biāo)的信息,但是在這種方法下場(chǎng)景變化對(duì)其來說是個(gè)比較大的挑戰(zhàn),這種方法對(duì)場(chǎng)景的適應(yīng)存在明顯的缺陷。相比之下,光流法在速度檢測(cè)方面就存在比較大的優(yōu)勢(shì)。當(dāng)人眼觀察三維場(chǎng)景中的運(yùn)動(dòng)目標(biāo)時(shí),目標(biāo)的輪廓在視網(wǎng)膜上形成一系列連續(xù)變化的圖像,這一系列連續(xù)變化的信息不斷“流過”視網(wǎng)膜(即平面圖像),好像一種光的“流”,稱為光流[3-5]OF(Optical Flow)。具體來講,光流算是一種瞬時(shí)速度場(chǎng),它是由圖像上的像素點(diǎn)在圖像平面運(yùn)動(dòng)而產(chǎn)生的。
1953年,Gibson和Wallach首次提出了結(jié)構(gòu)運(yùn)動(dòng)SFM(Structure From Motion)假設(shè),該假設(shè)可以與光流法相結(jié)合,使得光流場(chǎng)的二維平面到三維運(yùn)動(dòng)空間的轉(zhuǎn)變登上歷史舞臺(tái),但其只是對(duì)上述二維平面與三維空間的轉(zhuǎn)換提出了假設(shè),到七十年代末,Ullman等學(xué)者對(duì)上述假設(shè)進(jìn)行了成功的驗(yàn)證[6-7]。1981年,Horn和Schunck將灰度與二維速度場(chǎng)進(jìn)行了關(guān)聯(lián),提出了光流約束方程的計(jì)算算法,成為了光流法發(fā)展的一個(gè)重要的里程碑[8]。如今,光流算法已經(jīng)發(fā)展到幾十種,因其效率高和易于實(shí)現(xiàn)被廣泛使用。光流法的運(yùn)動(dòng)檢測(cè)是運(yùn)用了運(yùn)動(dòng)目標(biāo)的光流特性隨時(shí)間的變化來計(jì)算的,其優(yōu)勢(shì)在于其既能支持?jǐn)z像機(jī)運(yùn)動(dòng),在多目標(biāo)檢測(cè)方面也有相當(dāng)強(qiáng)的區(qū)分能力。其對(duì)場(chǎng)景中的研究對(duì)象的運(yùn)動(dòng)狀態(tài)以及場(chǎng)景的結(jié)構(gòu)分布能深度還原。這就是本文采用此種方法的原因。
本文所做研究基于先鋒機(jī)器人Poineer3平臺(tái),其自身攜帶VC-C50i攝像機(jī)一臺(tái),通過對(duì)室外環(huán)境進(jìn)行視頻采集,基于機(jī)器人單目視覺,對(duì)自然環(huán)境進(jìn)行了快速的辨識(shí),識(shí)別出采集圖像中的地面,運(yùn)用單目測(cè)距與Horn-Schunck光流法計(jì)算了機(jī)器人三維運(yùn)動(dòng)場(chǎng)的真實(shí)運(yùn)動(dòng)速度,進(jìn)而實(shí)現(xiàn)了室外移動(dòng)機(jī)器人的位姿檢測(cè)。
本文由5個(gè)部分組成,如圖1是流程圖。
圖1 流程圖
當(dāng)機(jī)器人處在一個(gè)陌生環(huán)境中時(shí),如果想利用其進(jìn)行自主優(yōu)化并可靠地完成所要做的任務(wù),對(duì)所處環(huán)境的辨識(shí)與認(rèn)知便顯得格外重要,因?yàn)榄h(huán)境的辨識(shí)認(rèn)知是進(jìn)行一系列運(yùn)作的前提和基礎(chǔ)。自然環(huán)境的辨識(shí)與認(rèn)知也就是在對(duì)環(huán)境認(rèn)識(shí)的基礎(chǔ)情況下,對(duì)場(chǎng)景中的主體有著進(jìn)一步的理解,這樣便有利于機(jī)器人進(jìn)行更為智能合理地運(yùn)動(dòng),從而高效可靠地完成任務(wù)。
自然環(huán)境認(rèn)知的關(guān)鍵問題便是怎樣實(shí)現(xiàn)場(chǎng)景中物體的區(qū)分與識(shí)別。在此領(lǐng)域中,有關(guān)圖像處理技術(shù)的方法被廣泛地使用[9-10]。本章所提出的思路是基于圖像外觀技術(shù),其特點(diǎn)是利用了類似于紋理的LFD特征,以及顏色特征,達(dá)到對(duì)環(huán)境的大略理解。
本方法是一種基于LFD與神經(jīng)網(wǎng)絡(luò)的新算法[11-12]。其具體步驟如下:
步驟1建立一個(gè)樣本庫,其中包含樹木、道路,天空。每個(gè)像素的數(shù)據(jù)位置、顏色值、局部分形維數(shù)都輸入到樣本庫。樣品的收集來自不同的環(huán)境、不同的距離。
步驟2建立一個(gè)神經(jīng)網(wǎng)絡(luò),上述數(shù)據(jù)作為輸入,相應(yīng)的類別作為輸出。神經(jīng)網(wǎng)絡(luò)訓(xùn)練成千上萬的樣本數(shù)據(jù)。建立一個(gè)像素之間的關(guān)系的參數(shù)及其分類,然后存儲(chǔ)加權(quán)值。
步驟3通過圖像的視覺系統(tǒng),神經(jīng)網(wǎng)絡(luò)訓(xùn)練用于分割獲得的圖像,區(qū)分圖像中的道路、樹木等等。
通過這種方法,機(jī)器人能很好地感知周圍的環(huán)境,如圖2所示,圖2(a)為原始圖片,圖2(b)為輸出圖片,其中天空為藍(lán)色區(qū)域,樹木為灰色區(qū)域,道路為綠色區(qū)域。
圖2 自然環(huán)境的辨識(shí)
本文便是采用這種方法,對(duì)Poineer3所采集的室外視頻圖像作為一個(gè)樣本,進(jìn)行了圖像的道路(地面)識(shí)別。
20世紀(jì)80年代,有關(guān)光流的計(jì)算問題中提出了光流平滑性的約束概念。Horn和Schunck利用了運(yùn)動(dòng)場(chǎng)中圖像點(diǎn)既滿足光流平滑性又滿足光流約束方程的條件進(jìn)行了光流的計(jì)算。這就是Horn-Schunck算法的問世。
下面來分析一下光流約束方程。設(shè)I(x,y,t)表示圖像平面上點(diǎn)(x,y)在時(shí)刻t的的亮度,用u(x,y)以及v(x,y)來表示該圖像點(diǎn)光流的x和y分量,如果該圖像點(diǎn)在βα?xí)r運(yùn)動(dòng)到(x+δt,y+δt)時(shí),其亮度沒有發(fā)生變化,其中δx=δt,δy=vδt,也就是:
I(x+uδt,y+vδt,t+δt)=I(x,y,t)
(1)
把圖像灰度當(dāng)作是圖像點(diǎn)在其對(duì)應(yīng)位置和時(shí)間的連續(xù)變化的函數(shù),對(duì)式(1)進(jìn)行泰勒級(jí)數(shù)展開,式子兩邊再同時(shí)除以δt,并取δt極限趨于零。那么有:
(2)
uIx+vIy+It=0
(3)
此式即為光流約束方程表達(dá)式?;诖?20世紀(jì)80年代,Horn和Schunck利用了運(yùn)動(dòng)場(chǎng)中圖像點(diǎn)既滿足光流平滑性又滿足光流約束方程的條件進(jìn)行了光流的計(jì)算。首先做以下前提約束:所研究圖像的灰度是不發(fā)生改變的;光流滿足全局性約束;光流滿足平滑性約束;研究圖像中物體的重疊問題是不予考慮的。
由上述光流約束方程我們可以記光流誤差為:
e2(x)=(uIx+vIy+It)2
(4)
其中X=(x,y)T。因?yàn)楣饬鳚M足平滑性約束,所以其速度分量平方和的積分可寫為:
s2(X)=?[(?u/?x)2+(?u/?y)2+(?v/?x)2+
(?v/?y)2]dxdy
(5)
把光滑性測(cè)度以及加權(quán)微分約束測(cè)量結(jié)合,則:
E=?[e2(X)+αs2(X)]dxdy
(6)
式中,α是控制平滑度的參數(shù),α的值越大,那么估計(jì)精度也就愈高,也就是平滑度越高。對(duì)式(6),我們采用變分法可得如下偏微分方程:
(7)
對(duì)于式(7),可以使用有限差分法把局部圖像流矢量的加權(quán)和代替其中的拉普拉斯算子,然后運(yùn)用迭代的方法求解。
接下來來研究離散情況。在一點(diǎn)(i,j)及其四領(lǐng)域上,由光流約束方程,可以得到光流誤差的離散量e2(i,j),由該點(diǎn)以及其四鄰域點(diǎn)的光流值差分來計(jì)算光流平滑量s2(i,j),那么極小化函數(shù)則為:
(8)
另外,E關(guān)于u和v的微分可記為下式:
(9)
上式中,和分別是u和v在點(diǎn)(i,j)處的領(lǐng)域平均值。根據(jù)式(9)從而可以計(jì)算出u和v。
上述過程便是Horn-Schunck的光流計(jì)算法過程。為了提高速度,本算法僅計(jì)算圖像中地面部分所成像中的、固定的、局部部分的光流,即采用局部光流法。
圖像中任一像素點(diǎn)在運(yùn)動(dòng)場(chǎng)中都有相對(duì)應(yīng)的位置,如果想使用移動(dòng)機(jī)器人的單目攝像頭來測(cè)量圖像中任一像素點(diǎn)所對(duì)應(yīng)運(yùn)動(dòng)場(chǎng)位置到移動(dòng)機(jī)器人的實(shí)際位置信息,我們要建立2個(gè)坐標(biāo)系:機(jī)器人坐標(biāo)系和圖像坐標(biāo)系。對(duì)于這2個(gè)坐標(biāo)系我們可以運(yùn)用攝像機(jī)模型的幾何關(guān)系來推導(dǎo)圖像坐標(biāo)與移動(dòng)機(jī)器人坐標(biāo)的轉(zhuǎn)換關(guān)系,從而實(shí)現(xiàn)單目視覺計(jì)算真實(shí)距離。如圖3,攝像機(jī)以一定的俯仰角在機(jī)器人上拍攝其前方的圖像。
圖3 模型圖
從中可以得到如下關(guān)系。
(10)
其中,δ是攝像機(jī)俯仰角,本論文中其值為0。b為攝像機(jī)前方盲區(qū)長(zhǎng)度。d是攝像機(jī)光軸與地面的焦點(diǎn)處沿y軸的長(zhǎng)度。h是攝像機(jī)的安裝高度。由該研究基于的平臺(tái),可測(cè)得h=54.0cm,b=93.5cm。從而可以得知β=60°,α=30°。根據(jù)小孔成像原理,可以把單目視覺系統(tǒng)簡(jiǎn)化為攝像機(jī)投影模型,如圖4、圖5。
圖4 投影關(guān)系圖
圖4中,O為單目攝像頭鏡頭光心,G為光軸與地面的交點(diǎn),O點(diǎn)在地面的投影即是I點(diǎn),ABCD是單目所拍攝到的矩形區(qū)域。圖4中的ABCD與圖5平面圖像中abcd是對(duì)應(yīng)的。m和n分別是圖像的寬和高,也就是圖像的分辨率,本文單目所得視頻圖像的分辨率為720×480。圖3中,x-y坐標(biāo)系是機(jī)器人坐標(biāo)系,u-v坐標(biāo)系即是圖像坐標(biāo)系。
圖5 圖像平面
圖像中每列像素對(duì)應(yīng)的垂直視場(chǎng)角為2α/(n-1)。由此可得,圖像上任一坐標(biāo)為(u,v)的點(diǎn)其沿y軸的長(zhǎng)度也就是其到移動(dòng)機(jī)器人的真實(shí)距離為:
y=htan(β+2α(n-1-v)/(n-1))
(11)
其中,α和β可計(jì)算得出,m×n是圖像分辨率,h是攝像頭安置的高度。從而實(shí)現(xiàn)了單目視覺的距離測(cè)量。
運(yùn)動(dòng)場(chǎng)可以解釋目標(biāo)的運(yùn)動(dòng),反映了研究對(duì)象在真實(shí)場(chǎng)景中的三維關(guān)系。而光流場(chǎng)是運(yùn)動(dòng)場(chǎng)在二維圖像上的投影,其蘊(yùn)含著豐富的研究信息。假設(shè)某個(gè)時(shí)刻,二維圖像中一點(diǎn)pi對(duì)應(yīng)于真實(shí)場(chǎng)景中的點(diǎn)p0,p0與pi的投影關(guān)系如圖6所示。
圖6 運(yùn)動(dòng)場(chǎng)與光流場(chǎng)模型圖
設(shè)目標(biāo)點(diǎn)p0與攝像機(jī)的相對(duì)運(yùn)動(dòng)速度為v0,那么由運(yùn)動(dòng)場(chǎng)中該點(diǎn)對(duì)應(yīng)二維圖像中的點(diǎn)Pi也會(huì)產(chǎn)生一個(gè)速度為vi的運(yùn)動(dòng)。對(duì)于這2個(gè)速度,我們有下式:
vi=dvi/dtv0=ds0/dt
(12)
而s0和si之間的運(yùn)動(dòng)關(guān)系是:
si/λ=s0/z
(13)其中,λ為鏡頭焦距,z為鏡頭中心到目標(biāo)的距離,即圖像中像素點(diǎn)對(duì)應(yīng)在運(yùn)動(dòng)場(chǎng)中位置到攝像頭的真實(shí)距離。其計(jì)算公式見式(11)。由式(12)、式(13)可得
v0/vi=z/λ
(14)
其中vi為光流速度,可由圖像獲得。由此我們便可以得出運(yùn)動(dòng)場(chǎng)中機(jī)器人的實(shí)際速度v0。
在實(shí)驗(yàn)過程中,我們對(duì)由Poineer3采集的室外視頻圖像做了研究處理。使用Horn-Schunck光流計(jì)算方法對(duì)連續(xù)的N=750幀進(jìn)行了光流計(jì)算,下面為其中的第468和第469連續(xù)的兩幀圖像。
圖7 光流圖的計(jì)算
為了提高速度,我們選用的是局部光流法。圖像分辨率720×480,經(jīng)過統(tǒng)計(jì),為了保證所取對(duì)象完全處于之前識(shí)別的地面中,我們選取圖像的第470行,。由式(11)
y=htan(β+2α(n-1-v)/(n-1))
其中,h=540.0mm,n=480,v=470,β=60°,β=30°。我們可以得出,所取對(duì)象即運(yùn)動(dòng)場(chǎng)景中所研究地面距離機(jī)器人的實(shí)際距離為9 360.36mm.
由上所述,可以把這750幀圖像的每幀地面所取行的光流通過計(jì)算進(jìn)而得出v0,再根據(jù)式(14),其中v0/vi=z/λ,z=9 360.36mm,λ即為單目攝像頭的焦距,λ=30.0mm.可以計(jì)算出運(yùn)動(dòng)場(chǎng)中機(jī)器人的真實(shí)速度,我們使用MATLAB把這種方法計(jì)算出的每一幀速度與機(jī)器人在室外運(yùn)動(dòng)的實(shí)際速度(由自身所攜帶傳感器獲得)做了如下的比較。
圖8 計(jì)算速度與實(shí)際速度比較圖
由圖8,我們可以得知,在本文算法下計(jì)算得出的機(jī)器人速度大小和實(shí)際運(yùn)動(dòng)速度大小存在著比較明顯的噪聲。鑒于我們研究的環(huán)境是在室外,不可避免地會(huì)出現(xiàn)噪聲和光線變化等問題,所以我們將對(duì)原始信號(hào)(所測(cè)速度)進(jìn)行小波處理。如下是在MATLAB環(huán)境下編程實(shí)現(xiàn)‘db1’下對(duì)速度信號(hào)進(jìn)行3層處理的細(xì)節(jié)圖。同時(shí),我們使用小波工具箱,對(duì)原始信號(hào)進(jìn)行來看同樣的處理,細(xì)節(jié)圖如圖10所示。
圖10即處理之后速度信號(hào)的詳細(xì)數(shù)據(jù)。從中可以得知,經(jīng)過小波處理后的原始速度平均值為162.2 mm/s,而Pioneer3機(jī)器人提供的平均值為160.7 mm/s,這樣非常逼近真實(shí)值。從圖8~圖10可以得到圖11。
圖9 ‘db1’下三層小波處理
圖10 小波工具箱處理之后信號(hào)數(shù)據(jù)
圖11 速度對(duì)比圖
在從圖11我們可以得出,在移動(dòng)機(jī)器人啟動(dòng)的時(shí)候存在著比較明顯的速度誤差,但當(dāng)機(jī)器人啟動(dòng)之后,速度誤差穩(wěn)定在一個(gè)比較可觀的數(shù)值之內(nèi)。對(duì)機(jī)器人啟動(dòng)時(shí)的誤差處理也是我們下一步要做的工作。
在得到機(jī)器人對(duì)應(yīng)每幀圖片的速度信息后我們便可以準(zhǔn)確對(duì)其位姿進(jìn)行檢測(cè)。
本文在處理由單目獲得的室外環(huán)境圖像時(shí),對(duì)750幀圖片也采用了傳統(tǒng)光流法來計(jì)算機(jī)器人速度,但是傳統(tǒng)光流對(duì)外界環(huán)境的高要求使得處理整幅圖片時(shí)噪聲偏大,而且所使用的時(shí)間也比較長(zhǎng)。在使用MATLAB運(yùn)行程序時(shí),傳統(tǒng)光流處理完750幀照片使用的時(shí)間是4 214 s,平均每幀處理時(shí)間6.02 s。而使用本文方法,基于LFD與神經(jīng)網(wǎng)絡(luò)的算法進(jìn)行地面識(shí)別的局部光流法,處理完上述數(shù)據(jù)的時(shí)間僅為8.8 s,平均每幀0.012 5 s,在速度檢測(cè)的準(zhǔn)確性前提下,大大節(jié)約了時(shí)間,突出了本文方法的快速性。
綜上所述,我們可以得出,本文算法計(jì)算的速度與在先鋒機(jī)器人平臺(tái)下的機(jī)器人真實(shí)速度是十分切合的,從而,也驗(yàn)證了本文算法的可行性,這種方法的位姿檢測(cè)對(duì)以后有關(guān)移動(dòng)機(jī)器人室外基于視覺的定位與地圖構(gòu)建的進(jìn)一步研究奠定了基礎(chǔ)。
本文的創(chuàng)新點(diǎn)便在于將室外自然環(huán)境的辨識(shí)與機(jī)器人位姿檢測(cè)結(jié)合,根據(jù)自然辨識(shí)對(duì)地面進(jìn)行研究,運(yùn)用地面局部光流,對(duì)機(jī)器人的位姿達(dá)到了快速的檢測(cè)。這和以往通過室外的圖像采集處理所有圖像信息節(jié)省了大量的運(yùn)算時(shí)間。這對(duì)將來移動(dòng)機(jī)器人在室外領(lǐng)域的開闊有著十分重要的意義。實(shí)驗(yàn)結(jié)果和對(duì)比說明,本文使用的方法是行之有效且準(zhǔn)確度較高的。這對(duì)接下來在此基礎(chǔ)上室外環(huán)境下視覺的定位與地圖構(gòu)建的進(jìn)一步研究奠定了基礎(chǔ)。
參考文獻(xiàn):
[1]Shi J,Tomasi C.Good Features to Track[C]//Computer Vision and Pattern Recognition,1994.Proceedings CVPR’94.,1994 IEEE Computer Society Conference on.IEEE,1994:593-600.
[2]Long W,Yang Y H.Stationary Background Generation:An Alternative to the Difference of Two Images[J].Pattern Recognition,1990,23(12):1351-1359.
[3]Singh A,Allen P.Image-Flow Computation:An Estimation-Theoretic Framework and a Unified Perspective[J].CVGIP:Image Understanding,1992,56(2):152-177.
[4]Adelson E H,Bergen J R.Spatiotemporal Energy Models for the Perception of Motion[J].J.Opt Soc Am A,1985,2(2):284-299.
[5]Heeger D J.Model for the Extraction of Image Flow[J].JOSA A,1987,4(8):1455-1471.
[6]Ullman S.The Interpretation of Structure from Motion.Proceedings of the Royal Society of London.Series B[J].Biological Sciences,1979,203(1153):405-426.
[7]Ullman S.Maximizing Rigidity:The Incremental Recovery of 3-D Structure from Rigid and Rubbery Motion[J].1983.
[8]Horn B K P,Schunck B G.Determining Optical Flow[J].Artificial Intelligence,1981,17(1):185-203.
[9]Van De Sande K E A,Gevers T,Snoek C G M.Evaluating Color Descriptors for Object and Scene Recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,32(9):1582-1596.
[10]Felzenszwalb P F,Girshick R B,McAllester D,et al.Object Detection with Discriminatively Trained Part-Based Models[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,32(9):1627-1645.
[11]Hu K,Song A G,Wang W L,et al.Fault Detection and Estimation for Non-Gaussian Stochastic Systems with Time Varying Delay[J].Advances in Difference Equations,2013,2013(1):1-12.
[12]Kai Hu,AiGuo Song,WeiLiang Wang,et al.Algorithm for Natural Object Recognition Based on Local Fractal Dimension[J].International Journal of Advancements in Computing Technology,2012,4(20):149-155.
張穎超(1961-),男,漢族,江蘇沛縣人,教授,博士生導(dǎo)師,研究方向?yàn)槟:刂?物聯(lián)網(wǎng),嵌入式技術(shù),儀表技術(shù)與傳感器;
段京易(1988-),男,漢族,江蘇徐州人。南京信息工程大學(xué)碩士,研究方向?yàn)闄C(jī)器人視覺。
FastDetectionofMobileRobotPoseBasedontheNatureEnvironmentRecognition*
ZHANGYingchao*,DUANJingyi,HUKai,MAODan
(School of Information Science and Control,NUST,Nanjing 210044,China)
Abstract:In order to detect the pose of outdoor mobile robot fast and exactly,and based on Poineer3 platform,we have carried on the outdoor video image acquisition.With the method of local fractal dimension and neutral network,we achieve the recognition of the ground.Then to the ground as the research object,Horn-Schunck optical flow method is used to calculate optical flow of the ground.And then by the relation between the image coordinate system and the robot coordinate system,the distance is measured between the research object and the robot.According to the relationship of velocity of movement and optical flow velocity,the optical flow velocity is converted to the speed of robot,so as to realize the position detection of the robot.The experimental result shows that the method is feasible and easy to operate with fast inspection speed.
Key words:robot vision;the position detection;optical flow;identification of the outdoor environment
doi:EEACC:7210B10.3969/j.issn.1005-9490.2014.05.017
中圖分類號(hào):TP242.6
文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):1005-9490(2014)05-0876-06
收稿日期:2013-10-31修改日期:2013-12-05
項(xiàng)目來源:國(guó)家公益性行業(yè)(氣象)科研專項(xiàng)項(xiàng)目(GYHY201106040);江蘇省產(chǎn)學(xué)研聯(lián)合創(chuàng)新資金——前瞻性聯(lián)合研究項(xiàng)目(BY2011111);江蘇省產(chǎn)學(xué)研項(xiàng)目(2012t026)