郝剛濤 杜小平
裝備學(xué)院,北京 101416
基于單目視覺(jué)圖像序列的空間非合作目標(biāo)相對(duì)姿態(tài)估計(jì)
郝剛濤 杜小平
裝備學(xué)院,北京 101416
非合作目標(biāo)相對(duì)姿態(tài)測(cè)量是非合作自主交會(huì)對(duì)接中的難點(diǎn)問(wèn)題。提出了一種基于單目視覺(jué)圖像序列的非合作目標(biāo)相對(duì)姿態(tài)估計(jì)方法。首先建立基于姿態(tài)四元數(shù)的目標(biāo)特征點(diǎn)運(yùn)動(dòng)觀測(cè)模型,通過(guò)特征點(diǎn)提取、幀間特征點(diǎn)匹配和迭代擴(kuò)展卡爾曼濾波估計(jì)等步驟,成功實(shí)現(xiàn)了非合作目標(biāo)的姿態(tài)估計(jì)。該方法僅需利用1個(gè)單目相機(jī)獲取圖像序列,不需要復(fù)雜的視覺(jué)傳感器和目標(biāo)上安裝人工標(biāo)記點(diǎn),也不需要知道目標(biāo)的幾何尺寸等先驗(yàn)信息,且具有較高的估計(jì)精度。計(jì)算機(jī)合成數(shù)據(jù)仿真和真實(shí)圖像序列仿真驗(yàn)證了方法的有效性。
單目相機(jī);非合作目標(biāo);迭代擴(kuò)展卡爾曼濾波;姿態(tài)估計(jì)
空間非合作目標(biāo)相對(duì)姿態(tài)測(cè)量是非合作自主交會(huì)對(duì)接導(dǎo)航中的難點(diǎn)問(wèn)題,已經(jīng)引起了國(guó)內(nèi)外有關(guān)學(xué)者和研究機(jī)構(gòu)的廣泛關(guān)注。目前存在的姿態(tài)測(cè)量算法大多數(shù)是針對(duì)合作目標(biāo)的,這些算法往往依賴于目標(biāo)上的人工標(biāo)記點(diǎn)或已知目標(biāo)的幾何結(jié)構(gòu)[1-2]。由于非合作目標(biāo)沒(méi)有安裝人工標(biāo)記,且運(yùn)動(dòng)情況和空間結(jié)構(gòu)完全或部分未知,因此這些算法不再適用,非合作目標(biāo)相對(duì)姿態(tài)測(cè)量必須利用視覺(jué)系統(tǒng)獲取目標(biāo)自身幾何結(jié)構(gòu)或灰度等作為特征信息。
單目相機(jī)作為大部分航天器的標(biāo)準(zhǔn)裝備,常常是空間探測(cè)的有效載荷,開(kāi)發(fā)基于單目視覺(jué)的空間非合作目標(biāo)姿態(tài)測(cè)量算法能夠增加航天器在不需要額外硬件情況下的導(dǎo)航能力;單目相機(jī)具有的小巧和低功耗的特點(diǎn)使得它可以集成到微小衛(wèi)星平臺(tái)上,這對(duì)空間目標(biāo)探測(cè)是重要的,因?yàn)槭褂梦⑿⌒l(wèi)星完成在軌服務(wù)已經(jīng)是一個(gè)趨勢(shì)。張世杰等[3]推導(dǎo)了利用單個(gè)光學(xué)相機(jī)實(shí)現(xiàn)非合作航天器相對(duì)位姿參數(shù)測(cè)量的迭代算法,該方法需要假設(shè)目標(biāo)航天器詳細(xì)結(jié)構(gòu)模型已知;張勁鋒等[4]將基于單目相機(jī)的相對(duì)姿態(tài)估計(jì)問(wèn)題描述為一個(gè)非線性約束優(yōu)化問(wèn)題,通過(guò)迭代求解特征值問(wèn)題來(lái)確定姿態(tài)參數(shù),該方法需要確定較多數(shù)量的特征點(diǎn);岳曉奎等[5]提出基于羅格里斯參數(shù)的相對(duì)位姿測(cè)量方法,該方法需要已知特征點(diǎn)在本體坐標(biāo)下的坐標(biāo)。相比于單目視覺(jué),雙目視覺(jué)能夠獲取距離信息,但其缺點(diǎn)在于觀測(cè)范圍和測(cè)量精度受限于基線長(zhǎng)度,且系統(tǒng)安裝和標(biāo)定復(fù)雜,徐文福等[6]提出基于雙目視覺(jué)的空間機(jī)器人捕獲非合作目標(biāo)的位姿測(cè)量方法,該方法選取太陽(yáng)帆板支架作為幾何特征,初始化階段需要人的參與,無(wú)法做到完全自主;日本宇航開(kāi)發(fā)局利用“在軌可視化環(huán)境模擬裝置”開(kāi)展地面試驗(yàn)[7],采用雙目視覺(jué)成像獲取非合作微小衛(wèi)星的三維形狀,并利用ICP(Iterative Closest Point,ICP)算法估計(jì)目標(biāo)相對(duì)姿態(tài),由于算法復(fù)雜,無(wú)法實(shí)現(xiàn)姿態(tài)的實(shí)時(shí)估計(jì)。此外,近年來(lái)發(fā)展的一些非合作目標(biāo)姿態(tài)測(cè)量方法往往依賴于能夠獲取更多目標(biāo)信息的先進(jìn)傳感器,這些傳感器往往更復(fù)雜和更昂貴。加拿大Neptec公司開(kāi)發(fā)的TriDAR(Triangulation+LIDAR)視覺(jué)系統(tǒng)[8]可以獲取目標(biāo)的3D點(diǎn)云信息,利用ICP算法實(shí)現(xiàn)非合作目標(biāo)的自主導(dǎo)航;美國(guó)波爾航空公司研制的三維閃光雷達(dá)(3D Flash LIDAR)[9]能夠提供目標(biāo)3D圖像,利用提取的三維特征信息實(shí)現(xiàn)姿態(tài)解算;劉濤等[10]設(shè)計(jì)的相對(duì)導(dǎo)航濾波器能夠確定非合作目標(biāo)相對(duì)位姿,該方法需要借助于GPS(Global Position System,GPS)獲取追蹤航天器到目標(biāo)航天器的視線仰角和方位角等信息;周軍等[11]為實(shí)現(xiàn)主星和從星間相對(duì)狀態(tài)的自主精確估計(jì),提出采用陀螺、立體視覺(jué)系統(tǒng)和加速度計(jì)3者融合的非合作目標(biāo)相對(duì)位姿確定方法。
針對(duì)空間非合作目標(biāo)姿態(tài)測(cè)量難題,本文建立基于姿態(tài)四元數(shù)的目標(biāo)特征點(diǎn)運(yùn)動(dòng)觀測(cè)模型,提出一種基于單目視覺(jué)圖像序列的非合作目標(biāo)相對(duì)姿態(tài)測(cè)量方法,該方法無(wú)需人工標(biāo)記和目標(biāo)的幾何信息,僅利用一個(gè)單目相機(jī),通過(guò)特征點(diǎn)提取和匹配、迭代擴(kuò)展卡爾曼濾波(Iterated Extended Kalman,F(xiàn)iltering IEKF)估計(jì)等步驟實(shí)現(xiàn)了非合作目標(biāo)的姿態(tài)解算。
本文所涉及的坐標(biāo)系包括相機(jī)坐標(biāo)系OcXcYcZc,目標(biāo)中心坐標(biāo)系OoXoYoZo,圖像物理坐標(biāo)系OpXY以及圖像像素坐標(biāo)系OIUV,并假設(shè)相機(jī)坐標(biāo)系為慣性坐標(biāo)系。各坐標(biāo)系的位置關(guān)系如圖1所示。目標(biāo)中心坐標(biāo)系原點(diǎn)位于非合作目標(biāo)本體上,但無(wú)法確定其具體位置。
圖1 坐標(biāo)系定義
設(shè)成像模型滿足映射h:S→P,其中s=(x,y,z)T∈S={(x,y,z)T∈R3,z 〉 0}為空間點(diǎn)在相機(jī)坐標(biāo)系下的坐標(biāo),p=(X,Y)T∈P?R2為圖像物理坐標(biāo);設(shè)相機(jī)焦距為f,則空間點(diǎn)s映射到圖像平面上的物理坐標(biāo)為:
式中,vX和vY為成像噪聲,則空間點(diǎn)s的成像觀測(cè)模型可表示為:
由于實(shí)際測(cè)量中,圖像物理坐標(biāo)無(wú)法直接讀取,需要利用圖像像素坐標(biāo)轉(zhuǎn)換得到。設(shè)I=(v,u)T∈I?R2為圖像像素坐標(biāo),相機(jī)像元尺寸為dx,dy,圖像主點(diǎn)坐標(biāo)為(v0,u0),則圖像物理坐標(biāo)到圖像像素坐標(biāo)轉(zhuǎn)換關(guān)系為
式中τ為傾斜因子,τ,v0,u0通過(guò)相機(jī)標(biāo)定得到。
由于目標(biāo)特征點(diǎn)在連續(xù)序列圖像中的坐標(biāo)變化能夠?qū)崟r(shí)地反映目標(biāo)相對(duì)于相機(jī)的運(yùn)動(dòng)情況,因此可以將目標(biāo)的相對(duì)運(yùn)動(dòng)參數(shù)估計(jì)問(wèn)題轉(zhuǎn)化為對(duì)其特征點(diǎn)運(yùn)動(dòng)參數(shù)的估計(jì)問(wèn)題。目標(biāo)的平動(dòng)可以看作目標(biāo)中心坐標(biāo)系原點(diǎn)在相機(jī)坐標(biāo)系下的位置改變;而目標(biāo)的姿態(tài)運(yùn)動(dòng)可以等效于特征點(diǎn)在目標(biāo)中心坐標(biāo)系下繞各軸的旋轉(zhuǎn)運(yùn)動(dòng)。
在非合作目標(biāo)上選取M個(gè)特征點(diǎn),設(shè)sio=(xi,yi,zi)T為特征點(diǎn)i(i=1,2,…,M)在目標(biāo)中心坐標(biāo)下的坐標(biāo),sr(t)=(xr(t),yr(t),zr(t))T為目標(biāo)中心坐標(biāo)系原點(diǎn)在相機(jī)坐標(biāo)系下平動(dòng)后的坐標(biāo),R(t)為t時(shí)刻目標(biāo)中心坐標(biāo)系到相機(jī)坐標(biāo)系的旋轉(zhuǎn)矩陣,設(shè)t時(shí)刻特征點(diǎn)i在相機(jī)坐標(biāo)系下的坐標(biāo)為sic(t),則有
根據(jù)式(2)可得tk時(shí)刻特征點(diǎn)i的運(yùn)動(dòng)觀測(cè)模型
其中,sr(t)可利用Taylor公式表示為
又旋轉(zhuǎn)矩陣R(t)可采用姿態(tài)四元數(shù)表示為
設(shè)目標(biāo)繞XO,YO和ZO軸的旋轉(zhuǎn)速率分別為ωx,ωy和ωz,在非合作目標(biāo)航天器交會(huì)對(duì)接導(dǎo)航中,為了實(shí)現(xiàn)高精度逼近,目標(biāo)航天器與跟蹤航天器之間的相對(duì)運(yùn)動(dòng)雖然復(fù)雜但較平緩,又考慮到采樣間隔很小,假定目標(biāo)航天器未發(fā)生翻滾運(yùn)動(dòng),可以認(rèn)為在一個(gè)采樣間隔內(nèi)目標(biāo)的轉(zhuǎn)動(dòng)速度及加速度保持不變,可以用勻速運(yùn)動(dòng)模型逼近實(shí)際的不規(guī)則運(yùn)動(dòng),引入的偏差用系統(tǒng)噪聲來(lái)補(bǔ)償。此時(shí)可求得:
則特征點(diǎn)運(yùn)動(dòng)觀測(cè)模型的姿態(tài)四元數(shù)表示形式為
由于非合作目標(biāo)不具有人工標(biāo)記的特征點(diǎn),因此,首先需要提取可以反映目標(biāo)姿態(tài)運(yùn)動(dòng)的特征點(diǎn),并實(shí)現(xiàn)幀間特征點(diǎn)的自動(dòng)匹配。假定目標(biāo)航天器的本體為長(zhǎng)方體,但具體尺寸未知。由于太陽(yáng)帆板需要不斷旋轉(zhuǎn)以實(shí)現(xiàn)對(duì)日定向,故太陽(yáng)帆板上的點(diǎn)是不穩(wěn)定的,無(wú)法有效反映目標(biāo)的姿態(tài)運(yùn)動(dòng),因此選擇較為穩(wěn)定的本體上的角點(diǎn)作為特征點(diǎn)。
特征點(diǎn)的選擇是一項(xiàng)復(fù)雜繁瑣的工作,由于篇幅所限,本文只介紹其主要步驟,如圖2所示。1)對(duì)采集到的目標(biāo)圖像經(jīng)過(guò)一系列的圖像去噪、濾波和增強(qiáng)等預(yù)處理;2)利用Canny算子對(duì)其進(jìn)行邊緣提取,生成二值輪廓圖像,由于太陽(yáng)帆板展開(kāi)后的尺寸往往要比航天器本體大得多,利用這一點(diǎn),可以識(shí)別出目標(biāo)本體;3)利用Harris算子進(jìn)行角點(diǎn)檢測(cè),并利用Hough變換對(duì)目標(biāo)本體進(jìn)行直線段檢測(cè),對(duì)檢測(cè)出的線段進(jìn)行長(zhǎng)度排序,則最長(zhǎng)線段的始點(diǎn)和終點(diǎn)即可確定為長(zhǎng)方體本體的頂點(diǎn),并確定為特征點(diǎn)。由于圖像采集時(shí)間間隔較小,且相機(jī)與目標(biāo)航天器之間的相對(duì)運(yùn)動(dòng)平緩,幀間特征點(diǎn)匹配采用運(yùn)算簡(jiǎn)單的近鄰法實(shí)現(xiàn)。
圖2 特征點(diǎn)提取及幀間特征點(diǎn)匹配主要步驟
本文采用IEKF估計(jì)算法對(duì)目標(biāo)的姿態(tài)參數(shù)進(jìn)行估計(jì),原因在于:1)從式(8)可以看出,特征點(diǎn)運(yùn)動(dòng)觀測(cè)模型是非線性的,IEKF可以更好地處理非線性觀測(cè)模型下的參數(shù)估計(jì)問(wèn)題;2)IEKF算法是一種遞歸算法,穩(wěn)定性高,運(yùn)算速度快,且稍微經(jīng)過(guò)修正即可處理非合作目標(biāo)運(yùn)動(dòng)中部分特征點(diǎn)消失或被遮擋的問(wèn)題,具有很好的自適應(yīng)性。
1)狀態(tài)變量和觀測(cè)變量的選擇。為描述非合作目標(biāo)的姿態(tài)運(yùn)動(dòng),且保證任意時(shí)刻的目標(biāo)運(yùn)動(dòng)都以成像平面作為參考,同時(shí)考慮到單目相機(jī)成像中深度信息zr(t)無(wú)法獲取,令1/zr(t)作為所有位置變量的歸一化系數(shù)。設(shè)特征點(diǎn)個(gè)數(shù)為M,此時(shí)狀態(tài)向量為
式中,xi(t),yi(t),zi(t)表示t時(shí)刻第i個(gè)特征點(diǎn)在目標(biāo)中心坐標(biāo)系下的坐標(biāo)。
選擇特征點(diǎn)的圖像物理坐標(biāo)Z(t)=[X1(t),Y1(t),X2(t),Y2(t),…,XM(t),YM(t)]T作為觀測(cè)向量,則姿態(tài)預(yù)估的離散卡爾曼濾波模型為
式中,S(·)為離散系統(tǒng)下?tīng)顟B(tài)變量,Φk+1,k為k時(shí)刻到k+1時(shí)刻的狀態(tài)轉(zhuǎn)移矩陣,且 Φk+1,k=exp[(tk+1-tk)F],F(xiàn)為連續(xù)時(shí)間系統(tǒng)下的狀態(tài)轉(zhuǎn)移矩陣,Z(k)為觀測(cè)向量,H(k)為觀測(cè)矩陣,w(k)和v(k)分別為過(guò)程噪聲和觀測(cè)噪聲,且相關(guān)矩陣cov(w(k))=Rk,cov(v(k))=Qk。假設(shè)均為零均值高斯白噪聲。下面著重介紹狀態(tài)轉(zhuǎn)移矩陣Φk+1,k和狀態(tài)觀測(cè)矩陣H(k)的確定。
2)狀態(tài)轉(zhuǎn)移矩陣Φk+1,k的求解。根據(jù)式(9)可求得
由連續(xù)時(shí)間下?tīng)顟B(tài)方程˙S(t)=FS(t)+w(t),
根據(jù) Φk+1,k=exp[(tk+1-tk)F],Φk+1,k可求解,限于篇幅,不再詳細(xì)推導(dǎo)。
3)狀態(tài)觀測(cè)矩陣H(k)的求解。由式(8)知映射h為非線性的,對(duì)h進(jìn)行線性化處理。根據(jù)式(2),i個(gè)特征點(diǎn)的成像觀測(cè)模型可以寫(xiě)為
其中,s1(tk),s2(tk)為歸一化后的目標(biāo)中心坐標(biāo)系原點(diǎn)坐標(biāo),Rx(s,i,tk),Ry(s,i,tk),Rz(s,i,tk)分別表示tk時(shí)刻第i個(gè)特征點(diǎn)的歸一化后的目標(biāo)中心坐標(biāo)。如
Si為2×3的子矩陣,各元素為
表1 基于IEKF的非合作目標(biāo)姿態(tài)估計(jì)公式
綜上所述,利用單目視覺(jué)圖像序列估計(jì)姿態(tài)參數(shù)的原理可用圖3表示。首先對(duì)單目相機(jī)進(jìn)行標(biāo)定,建立三維空間到二維圖像的非線性映射h;在獲取k時(shí)刻的目標(biāo)圖像I后,利用特征點(diǎn)提取算法,獲取目標(biāo)圖像的特征點(diǎn)集P={p1,p2,…,pn};之后利用特征點(diǎn)匹配算法實(shí)現(xiàn)第k幀和k-1幀的特征點(diǎn)匹配,得到k時(shí)刻特征點(diǎn)的圖像像素坐標(biāo)(un,vn)k;最后,建立以M個(gè)(3≤M≤n)特征點(diǎn)圖像物理坐標(biāo)為觀測(cè)值、姿態(tài)運(yùn)動(dòng)參數(shù)為狀態(tài)值的狀態(tài)方程和觀測(cè)方程,利用IEKF算法實(shí)現(xiàn)姿態(tài)參數(shù)估計(jì)。
圖3 單目視覺(jué)姿態(tài)估計(jì)原理
為驗(yàn)證本文所提出的非合作目標(biāo)姿態(tài)估計(jì)方法,分別進(jìn)行了計(jì)算機(jī)合成圖像數(shù)據(jù)仿真實(shí)驗(yàn)和真實(shí)圖像序列實(shí)驗(yàn)。
假設(shè)目標(biāo)為2m×2m×2m的正方體,提取正方體的8個(gè)頂點(diǎn)作為特征點(diǎn)。仿真過(guò)程中,假設(shè)特征點(diǎn)已經(jīng)提取,且?guī)g特征點(diǎn)已正確匹配。目標(biāo)按以下運(yùn)動(dòng)參數(shù)生成序列圖像:旋轉(zhuǎn)速度 ωx=0.02rad/s,ωy=0.025rad/s,ωz=0.015rad/s,平動(dòng)速度vx=0.025m/s,vy=0.02m/s,vz=0.015m/s,目標(biāo)的初始位置為(0,0,10)m,采樣間隔T=1s,相機(jī)的焦距f=20mm,過(guò)程噪聲和觀測(cè)噪聲均設(shè)為零均值高斯白噪聲。為了簡(jiǎn)化計(jì)算,假定特征點(diǎn)沒(méi)有被遮擋,取特征點(diǎn)個(gè)數(shù)M=4,仿真共進(jìn)行了300幀的圖像序列跟蹤,位置和姿態(tài)估計(jì)結(jié)果如圖所示。
圖4 歸一化后的位置估計(jì)誤差變化
從圖4中可以看出,大約經(jīng)過(guò)80幀后位置估計(jì)開(kāi)始收斂,但位置誤差呈現(xiàn)一定的不穩(wěn)定性,歸一化后的位置誤差在-0.02到0.02之間跳動(dòng),相對(duì)誤差較大,雖然整體是收斂的,但收斂時(shí)間較長(zhǎng),這可以通過(guò)優(yōu)化IEKF的初值加以改善;
圖5 旋轉(zhuǎn)四元數(shù)估計(jì)值與實(shí)際值的比較
圖5給出了姿態(tài)四元數(shù)估計(jì)值與理論值的比較,從圖中可以看出,q1,q2,q3的估計(jì)結(jié)果均呈現(xiàn)正弦規(guī)律變化,q4的估計(jì)值呈現(xiàn)余弦規(guī)律變化,這與理論情況完全相符,且估計(jì)值與理論值的差異很小,這表明所提出的方法能夠成功估計(jì)非合作目標(biāo)的姿態(tài),所建立的基于單目視覺(jué)圖像序列的IEKF姿態(tài)估計(jì)模型是正確而有效的。
為進(jìn)一步驗(yàn)證本文提出的姿態(tài)估計(jì)算法的正確性,利用真實(shí)相機(jī)采集目標(biāo)圖像序列進(jìn)行姿態(tài)解算。所采用的CCD相機(jī)型號(hào)為Basler scA780-54fm,像元尺寸dx=dy=8.3μm,分辨率為782×582,最大幀速率為54幀/s,標(biāo)定后的相機(jī)有效焦距f=16.9mm,忽略相機(jī)畸變。目標(biāo)構(gòu)型如圖6所示,利用單軸轉(zhuǎn)臺(tái)使目標(biāo)做勻速旋轉(zhuǎn)運(yùn)動(dòng),相關(guān)參數(shù)如表2所示。特征點(diǎn)提取及幀間特征點(diǎn)匹配采用3.1節(jié)所述方法,目標(biāo)邊緣提取及特征點(diǎn)提取結(jié)果如圖7和8 所示,選擇本體上的頂點(diǎn)P1,P2,P3,P4點(diǎn)為特征點(diǎn)。由于硬件條件限制,特征點(diǎn)的提取采用離線方式處理,實(shí)驗(yàn)共獲取100幀圖像序列,采樣間隔為1s,仿真結(jié)果如圖9和10所示。
表2 仿真參數(shù)
圖6 目標(biāo)航天器構(gòu)型
圖7 提取到的目標(biāo)二值輪廓圖像
圖8 角點(diǎn)提取及特征點(diǎn)選擇
圖9 姿態(tài)角估計(jì)值與實(shí)際值的比較
從圖9可以看出,在第60幀之前姿態(tài)估計(jì)與實(shí)際值有較大的偏差,大約在第60幀時(shí)開(kāi)始收斂,收斂后的姿態(tài)角估計(jì)值與實(shí)際值的偏差≤10°,相對(duì)誤差≤3.5%,估計(jì)精度較高,但收斂時(shí)間較長(zhǎng),因此需要對(duì)仿真初值加以優(yōu)化,以縮短收斂時(shí)間。
從特征點(diǎn)的運(yùn)動(dòng)軌跡(圖10)來(lái)看,IEKF估計(jì)算法能夠很好地實(shí)現(xiàn)對(duì)特征點(diǎn)的跟蹤,從第2節(jié)中可知,特征點(diǎn)的運(yùn)動(dòng)軌跡能夠很好地反映目標(biāo)的姿態(tài)運(yùn)動(dòng),也就表明了基于單目視覺(jué)圖像序列的非合作目標(biāo)姿態(tài)估計(jì)方法的可行性。
圖10 特征點(diǎn)運(yùn)動(dòng)軌跡跟蹤結(jié)果
本文提出了一種基于單目視覺(jué)圖像序列的非合作目標(biāo)三維姿態(tài)估計(jì)方法,該方法僅利用1個(gè)單目相機(jī),無(wú)需目標(biāo)上安裝人工標(biāo)記,也不需要知道目標(biāo)的幾何尺寸等先驗(yàn)信息,在特征點(diǎn)成功提取和幀間特征點(diǎn)準(zhǔn)確匹配的情況下,所采用的IEKF姿態(tài)估計(jì)算法能夠?qū)崿F(xiàn)較高精度的姿態(tài)估計(jì),計(jì)算機(jī)合成數(shù)據(jù)仿真和真實(shí)圖像序列仿真都驗(yàn)證了這一點(diǎn)。但該方法仍然存在一些局限性和需要改進(jìn)的方面:1)該方法是以幀間特征點(diǎn)精確匹配為前提的,而特征點(diǎn)的提取和匹配非常繁瑣,需要花費(fèi)大量時(shí)間,難以實(shí)現(xiàn)完全自主和實(shí)時(shí)處理;2)單目視覺(jué)無(wú)法獲取目標(biāo)的深度信息,該方法只能估計(jì)目標(biāo)歸一化后的位置信息,在實(shí)際應(yīng)用中,如果要實(shí)現(xiàn)目標(biāo)位置和姿態(tài)的同時(shí)估計(jì),需要借助于激光測(cè)距儀等距離傳感器;3)不同非合作目標(biāo)具有不同的自然特征,而該方法是針對(duì)一類非合作目標(biāo)的,如何將該方法擴(kuò)展到不同的非合作目標(biāo)姿態(tài)估計(jì)中是下一步需要努力的。
[1]李建鋒,杜小平,張慧星.基于四元數(shù)的航天器間相對(duì)姿態(tài)光學(xué)測(cè)量方法研究[J].航天控制,2011,29(2):46-51.(LI Jianfeng,DU Xiaoping,ZHANG Huixing.The Research on Spacecraft Relative State Optical Measurement Based on Quaternion[J].Aerospace Control,2011,29(2):46-51.)
[2]黃玉明,周世安,王立新,等.航天器位置和姿態(tài)的光學(xué)測(cè)量算法[J].航天控制,1992,10(3):8-15.(HUANG Yuming,ZHOU Shian,WANG Lixin,et al.Optical Measurement Algorithm of Position&Attitude for Spacecraft[J].Aerospace Control,1992,10(3):8-15.)
[3]張世杰,曹喜濱,陳 閩.非合作航天器間相對(duì)位姿的單目視覺(jué)確定算法[J].南京理工大學(xué)學(xué)報(bào),2006,30(5):565-568.(ZHANG Shijie,CAO Xibin,CHEN Min.Monocular Vision based Relative Pose Parameters Determination for Non-cooperative Spacecrafts[J].Journal of Nanjing University of Science and Technology,2006,30(5):564-568.)
[4]張勁峰,蔡偉,孫承啟.基于單目視覺(jué)的空間非合作目標(biāo)相對(duì)運(yùn)動(dòng)參數(shù)估計(jì)[J].空間控制技術(shù)與應(yīng)用,2010,36(2):31-35.(Zhang Jinfeng,Cai Wei,Sun Chengqi.Monocular Vision-Based Relative Motion Parameter Estimation for Non-Cooperative Objects in Space[J].Aerospace Control and Application,2010,36(2):31-35.)
[5]岳曉奎,侯小娟.基于Rodrigues參數(shù)的視覺(jué)相對(duì)位姿確定算法[J].宇航學(xué)報(bào),2010,31(3):753-757.(Yue Xiaokui,Hou Xiaojuan.Vision-based Relative Position and Attitude Determination Using Rodrigues Parameters[J].Journal of Astronautics,2010,31(3):753-757.)
[6]Xu W F,Liang B,Li C,et al.Autonomous Rendezvous and Robotic Capturing of Non-cooperative Target in Space[J].Robotica,2010,28:705-718.
[7]Fuyuto T,Heihachiro K,Shin’ichiro N.Motion Estimation to a Failed Satellite on Orbit Using Stereo Vision and 3D Model Matching[C].International Conference on Control Automation Robotics& Vision(ICARCV),Singapore,2006:1-8.
[8]Ruel S,Luu T,Berube A.Space Shuttle Testing of the TriDAR 3D Rendezvous and Docking Sensor[J].Journal of Field Robotics,2012,29(4):535-553.
[9]Miller L K,Masciarelli J,Rohrschneider R,et al.Critical Advancement in Telerobotic Servicing Vision Technology[C].AIAA Space Conference & Exposition,Anaheim California,2010:1-9.
[10]劉濤,解永春.非合作目標(biāo)交會(huì)相對(duì)導(dǎo)航方法研究[J].航天控制,2006,24(2):48-53.(LIU Tao,XIE Yongchun.A Study on Relative Navigation for Spacecraft Rendezvous with a Non-cooperative Target[J].Aerospace Control,2006,24(2):48-53.)
[11]周軍,白博,于曉洲.一種非合作目標(biāo)相對(duì)位置和姿態(tài)確定方法[J].宇航學(xué)報(bào),2011,32(3):516-521.(ZHOU Jun,BAI Bo,YU Xiaozhou.A New Method of Relative Position and Attitude Determination for Non-Cooperative Target[J].Journal of Astronautics,2011,32(3):516-521.)
Relative Attitude Estimation for Space Non-cooperative Targets Based on Sequence of Monocular Images
HAO Gangtao DU Xiaoping
The Academy of Equipment,Beijing 101416,China
To solve the problem of relative attitude parameters estimation for space non-cooperative targets,a monocular vision-based method is proposed.Based on the attitude quaternion,firstly,the measurement model of feature points is established.Then,the feature points extraction,feature points matching and iterated extendedKalmanfiltering(IEKF)estimation are implemented and relative attitude parameters estimation is finished.This method only needs one monocular camera and can accurately work without the complex vision sensor,manual gauge points and prior information such as geometric information.The experimental results of both synthetic data and the real image sequence show that the algorithm is effective.
Monocular camera;Non-cooperative targets;Iterated extendedKalmanfiltering;Attitude estimation
TP24
A
1006-3242(2014)02-0060-08
2013-04-08
郝剛濤(1986-),男,河北人,博士研究生,主要研究方向?yàn)楹教炱髯藨B(tài)控制技術(shù)和圖像配準(zhǔn)技術(shù);杜小平(1966-),女,河北人,博士生導(dǎo)師,主要研究方向?yàn)楹教煅b備總體理論與技術(shù)、目標(biāo)探測(cè)及信號(hào)處理。