吳 斌,葉 東,張 鑫,趙振慶
(哈爾濱工業(yè)大學(xué) 電氣工程及其自動化學(xué)院,黑龍江 哈爾濱 150001)
?
非合作目標(biāo)姿態(tài)測量的嵌入式算法
吳 斌,葉 東*,張 鑫,趙振慶
(哈爾濱工業(yè)大學(xué) 電氣工程及其自動化學(xué)院,黑龍江 哈爾濱 150001)
針對一系列含有圓和直線特征的航天器,提出了基于嵌入式算法來實現(xiàn)非合作目標(biāo)的姿態(tài)測量。該算法在現(xiàn)場可編程門陣列(FPGA)中完成邊緣點的檢測和邊緣圖像的細(xì)化;在數(shù)字信號處理器(DSP)中通過基于弧段的快速橢圓檢測方法檢測目標(biāo)上的橢圓特征;同時用快速高精度的二次Hough直線檢測方法檢測目標(biāo)上的直線特征。最后,針對實際在軌任務(wù)進(jìn)行了地面模擬實驗,基于橢圓特征和直線特征計算了目標(biāo)飛行器和一個CCD相機(jī)的相對姿態(tài)。結(jié)果顯示:該嵌入式方法所需資源較少,更新率優(yōu)于3 Hz;其測量精度隨著測量距離的變大而變差,同一距離3個方向的測量精度不同,近距離(小于4 m)、深度方向的測量精度優(yōu)于100 mm,其他方向最高優(yōu)于60 mm,角度精度優(yōu)于1°,滿足嵌入式系統(tǒng)對資源、在軌更新率和精度的要求。
計算機(jī)視覺;非合作目標(biāo);姿態(tài)測量;橢圓檢測;二次Hough變換
隨著空間技術(shù)的發(fā)展,空間飛行器交會對接、在軌維修和維護(hù)等在空間計劃和任務(wù)中扮演著越來越重要的角色,已經(jīng)成為空間活動不可或缺的重要組成部分。在空間交會對接、在軌服務(wù)等航天任務(wù)的最后逼近階段,通常采用光學(xué)成像敏感器來測量追蹤航天器與目標(biāo)航天器之間的相對位置和姿態(tài)。最初采用的測量方式是合作目標(biāo)的方式[1-3],即在目標(biāo)航天器上放置特定的光學(xué)靶標(biāo),通過識別靶標(biāo)來測量追蹤航天器與目標(biāo)航天器之間的相對位置和姿態(tài)。但這種方式只能對裝有目標(biāo)識別器的航天器進(jìn)行測量。因此,相關(guān)研究人員又提出了針對非合作目標(biāo)的相對位姿測量方法,其可對沒有安裝目標(biāo)識別器的非合作目標(biāo)航天器進(jìn)行相對位姿測量。非合作目標(biāo)的相對位姿測量方法已廣泛地應(yīng)用于傳統(tǒng)航天器的在軌維護(hù)、太空垃圾清理以及軍事目標(biāo)的空間攻防等方面[4]。
C.Miravet[5]利用形態(tài)學(xué)方法在地球背景下提取出目標(biāo)航天器的外輪廓,進(jìn)而粗略計算航天器的姿態(tài),這種方法精度不高,適用于遠(yuǎn)距離估算;Fuyutot[6]將航天器外形進(jìn)行重構(gòu),從而得到當(dāng)前航天器的姿態(tài),這種方法計算速度慢、資源消耗高,難以在軌和嵌入式實現(xiàn);Chien[7]通過匹配模板得到航天器的姿態(tài),需要較大的存儲空間;徐文福[8]等提取航天器上的直線交點作為計算特征點,再通過雙目視覺得到目標(biāo)航天器的姿態(tài),直線容易被遮擋,同時基于點的雙目視覺測量精度受相機(jī)之間的基線限制,測量距離有限;苗錫奎[9]等通過提取航天器星箭對接環(huán)的圓形特征,利用單目視覺計算目標(biāo)航天器的姿態(tài),然而文章并沒有介紹橢圓提取這一關(guān)鍵性步驟,而且其解決姿態(tài)的二義性需要額外已知一個點的空間坐標(biāo)。
圓形物體常見于人造航天器的對接裝置上,其在像面上的投影一般呈橢圓形,是較易于計算的特征。相對于點、線特征,圓特征具有抗干擾(遮擋、光照)能力強(qiáng)、提取的特征少等優(yōu)點。然而,準(zhǔn)確地提取橢圓是一個比較具有挑戰(zhàn)性的任務(wù)。一般來說橢圓提取方法主要有3種:擬合方法、Hough變換、基于弧段提取的方法。擬合方法提取橢圓時大多基于最小二乘方法[10-12],由于這類方法要求所有參與計算的點都要在同一個橢圓上,通常不能單獨(dú)使用。Hough[13-15]變換方法對橢圓檢測有著較強(qiáng)的抗噪聲能力,然而這種方法計算速度慢并且需要大量的存儲空間,因此難以滿足計算速度的要求和嵌入式實現(xiàn)?;诨《翁崛〉臋E圓檢測方法[16-18]首先基于連續(xù)性、凹凸性、橢圓幾何特征等將屬于同一橢圓上的弧段聚類,然后利用這些弧段計算橢圓的參數(shù)。這是一種快速有效的檢測方法,是目前橢圓檢測研究的主要方向。
本文提出一種將圓形和直線特征相結(jié)合的快速姿態(tài)測量方法,首先利用基于弧段的橢圓檢測算法檢測橢圓,利用橢圓計算目標(biāo)的姿態(tài)參數(shù)(圓心位置和圓所在平面的法線方向),然后利用提取的直線參數(shù)解決姿態(tài)計算的二義性問題,得到正確的姿態(tài)參數(shù)。相比于現(xiàn)有的一些方法,本文算法無需額外的輔助設(shè)備就可以解決利用單目橢圓特征計算姿態(tài)產(chǎn)生的二義性,并且兼顧了實際應(yīng)用時嵌入式系統(tǒng)的資源、計算速度等一系列現(xiàn)實要求。本文不僅對算法進(jìn)行了仿真實驗,并且實現(xiàn)了算法的嵌入式,針對實際在軌任務(wù)進(jìn)行了地面模擬實驗。
本文算法流程圖如圖1所示。
圖1 算法框圖
由于構(gòu)成橢圓的弧段是光滑、無分叉的,本節(jié)通過以下幾個步驟檢測弧段:首先,在原圖上進(jìn)行邊緣檢測,得到邊緣圖像;然后,對邊緣圖像進(jìn)行基于形態(tài)學(xué)的邊緣細(xì)化,獲得單像素邊緣;再通過改進(jìn)的鏈碼算法連接相鄰的邊緣點得到無分叉的弧段;最后,采用一種新的快速的弧段分割方法處理得到光滑的弧段。
2.1 邊緣提取與細(xì)化
圖2 需刪除的邊緣點及其鄰域舉例(數(shù)字是查詢表的索引)
Fig.2 Illustration of edge points that should be removed
接下來需要對邊緣圖像進(jìn)行邊緣細(xì)化,邊緣細(xì)化可以得到單像素邊緣,是后續(xù)算法實現(xiàn)的前提。為了快速實現(xiàn)細(xì)化,本文采用查詢表的方式,表中列出了需要刪除的邊緣點周圍八鄰域像素排列的所有可能情況[19],通過比較當(dāng)前邊緣點周圍八鄰域像素和表中對應(yīng)的位置,刪除不必要的邊緣點,從而得到單像素邊緣。圖2列出了細(xì)化過程中需要刪除的邊緣點周圍八鄰域排列的幾種可能。
2.2 弧段提取與移除
為了能夠提取無分叉的弧段,本文提出一種改進(jìn)的鏈碼算法用于弧段提取。即在標(biāo)準(zhǔn)鏈碼檢測方法的基礎(chǔ)上加入了一個約束條件:對于某個弧段上的點,如果其周圍八鄰域像素內(nèi)含有的邊緣點大于2,則弧段在該點斷裂。如圖3,值得注意的是,該方法使用的前提是邊緣細(xì)化,如果沒有進(jìn)行邊緣細(xì)化,這種方法將產(chǎn)生大量錯誤的斷裂點。
經(jīng)過弧段提取之后,需要刪除兩類不是橢圓上的弧段以提高計算速度。第一類是非常短的弧段,這類弧段容易被噪聲影響;第二類是直線度較高的弧段,這類弧段極大可能是直線而不是橢圓上的弧段。本文定義此節(jié)被刪除的邊緣點集為Pr,圖像上所有邊緣點集為Pw,顯然Pr?Pw。
圖3 簡單約束下快速弧段提取
2.3 弧段分割
由于2.2節(jié)并不能保證弧段上的點都是橢圓上的點,如圖4(彩圖見期刊電子版)所示,顯然該弧段只包含了一部分橢圓上的點。由于橢圓上的曲率變化是連續(xù)、平穩(wěn)的,因此需要得到光滑的弧段,該弧段在任意一點上的曲率都不會發(fā)生突變。當(dāng)弧段上某個點處的曲率發(fā)生了突變,則可以認(rèn)為該點是分割點。
圖4 弧段上得到的分割點(藍(lán)色的點是經(jīng)過2.2節(jié)得到的一條弧段上的邊緣點;綠色的點是分割點;紅色帶箭頭的線段代表其中一個分割點處的向量)
Fig.4 Segmentation points on the arcs(blue points are edge points extracted in section 2.2, green points are inflexion points, red line segments with arrows are vector)
在弧段檢測之后,根據(jù)橢圓及光滑弧段的性質(zhì)將位于同一橢圓上的弧段聚類,每一類弧段對應(yīng)一個橢圓。
本文提出兩種弧段約束聚類方法:凹凸性約束和擬合誤差約束。凹凸性約束提供了一種簡單快速的方法判斷兩條弧段是否可以聚類,是聚類的必要不充分條件。最小擬合誤差約束依據(jù)的是橢圓的基本性質(zhì),是兩條弧段是否屬于同一橢圓的決定性約束。相對于凹凸性約束,擬合誤差約束的計算量較大。因此本文首先通過凹凸性約束快速去除一些不可能的聚合情況,然后采用最小擬合約束進(jìn)行最終聚類。
3.1 凹凸性約束
給定兩條弧段P=(p1,p2,…,pm)和Q=(q1,q2,…,qn)。分別計算得到兩條弧段的中點Cp和Cq,連接Cp和Cq得到線段l1;連接弧段P的首末端點p1、pm得到線段l2,連接弧段Q的首末端點q1、qn得到線段l3。那么P和Q可以聚類當(dāng)且僅當(dāng)條件1成立。
條件1:l1和l2相交并且l1和l3相交。
圖5 凹凸性約束
圖5是兩條弧段的相對位置的4種情況,顯然只有第一種情況下兩條弧段才可能屬于同一個橢圓。
3.2 擬合誤差約束
如上給定的兩條弧段P和Q,對兩條弧段上所有的邊緣點進(jìn)行橢圓擬合,擬合誤差E可表示為式(1):
E (1) 其中:e0表示能夠接受的最大誤差,M表示兩條弧段上所有邊緣點的數(shù)量,N表示兩條弧段上滿足擬合橢圓的邊緣點的數(shù)量。顯然E越小,效果越好,兩條弧段越有可能屬于同一橢圓。本文取e0為0.1。 考慮到基于橢圓的單目視覺姿態(tài)解算只能得到目標(biāo)的5個姿態(tài)參數(shù),缺少滾轉(zhuǎn)角,本文通過檢測直線、依據(jù)直線的參數(shù)確定最后一個姿態(tài)角。 目前最常用的直線檢測方法是Hough變換,通過提高Hough空間分辨率理論上可以得到極高的精度,但是這也會帶來沉重的計算負(fù)擔(dān)和巨大的存儲需求。例如,在實際項目中相機(jī)獲取的圖片分辨率為2 048×2 048,在像素級Hough提取精度下的Hough空間大小為:(8 193+2)×(180+2)個16位數(shù)據(jù),如果要實現(xiàn)更高精度比如十倍精度,Hough空間將是上述大小的十倍。因此,高精度的Hough變換難以在嵌入式系統(tǒng)中實現(xiàn)。針對這種情況,本文提出了一種分層高精度直線提取方法,完成Hough變換直線提取的嵌入式實現(xiàn)。 算法的第一層是像素級Hough變換初提取。為了能夠在整個圖像中提取任意直線,同時限制Hough空間的大小,這層算法采用像素級Hough變換進(jìn)行直線初提取。使用2.2節(jié)中的邊緣點集Pr代替整個圖像的邊緣點集Pw作為本層輸入,以提高第一層的計算速度。通過本層計算,能夠得到圖像中的直線參數(shù),但是提取精度只有像素級邊緣圖像。 算法的第二層是二次高精度Hough變換。本層從兩個方面降低Hough變換需要的存儲空間和計算量:減少Hough變換的輸入邊緣點、縮小Hough空間。具體步驟如下:給定第一層得到的直線參數(shù)為(ρ,θ)。首先,尋找第一層得到直線附近的邊緣點集Ps?Pr,將其作為第二層計算的輸入邊緣點,進(jìn)一步減少Hough的計算量,Ps可由算法1得到,其中e0是允許的最大誤差。然后,在第一層計算得到的直線參數(shù)鄰近區(qū)域進(jìn)行第二層Hough變換,其空間大小如式(2): lρ×lθ=(2RρSρ+1)×(RθSθ+1), (2) 其中:RρRθ表示對第一層計算結(jié)果ρθ的不信任程度,不信任程度越高,第二層Hough空間越大,SρSθ表示了第二層Hough空間的精度,SρSθ越大,得到的直線參數(shù)精度越高,第二層Hough空間越大,計算時間越長。第二層Hough空如圖6所示。 圖6 第二層Hough空間 算法1 計算直線附近的邊緣點,輸入:直線參數(shù)(ρ,θ)及邊緣點集Pr,輸出:邊緣點集Ps For all pointspi(xi,yi)∈Prdo e=xicosθ+yisinθ-ρ Ife EnterpiintoPs End if End for 本文算法可以應(yīng)用于一類含有圓形和直線特征的航天器模型,如圖7。其中,依據(jù)圖像上的橢圓特征可以計算姿態(tài)參數(shù)[20],而利用直線特征可以解決姿態(tài)的二義性。 圖7 航天器模型與坐標(biāo)系 5.1 基于圓的單目姿態(tài)解算 如果已知空間圓的半徑R,僅僅利用單目視覺即可計算空間圓的姿態(tài)。其算法原理為:空間圓及其投影到圖像上的橢圓均位于以相機(jī)原點為頂點的空間圓錐上,所以用平面和圓錐相交,截面為圓并且半徑為R即可確定圓的空間姿態(tài)。算法主要由以下幾步實現(xiàn): (1)得到空間圓錐方程。設(shè)從圖像中提取的橢圓方程為: a′u2+2h′uv+b′v2+2g′u+2f′v+d′=0. (3) 由小孔成像原理: (4) 其中fc為相機(jī)的焦距。 將式(4)帶入式(3),可得空間圓錐方程為: ax2+by2+cz2+2fyz+2gzx+2hxy=0, (5) 其中: (2)得到空間圓錐的標(biāo)準(zhǔn)形式,對系數(shù)矩陣: (6) 進(jìn)行特征值分解,通過特征向量構(gòu)成的正交矩陣P將(5)化為標(biāo)準(zhǔn)形式: λ1x′2+λ2y′2+λ3z′2=0, (7) 其中:λ1,λ2,λ3是系數(shù)矩陣Q的特征值。 (3)得到標(biāo)準(zhǔn)坐標(biāo)系下的姿態(tài)。圓心位置為: (8) 圓平面法線為: (9) (4)得到攝像機(jī)坐標(biāo)系下姿態(tài)。將標(biāo)準(zhǔn)坐標(biāo)系轉(zhuǎn)換到攝像機(jī)坐標(biāo)系下: (10) (11) 5.2 基于直線消除多解 由上節(jié)結(jié)果可知,基于橢圓的單目視覺姿態(tài)解算會產(chǎn)生兩個解,實際上只有當(dāng)空間圓平面垂直于相機(jī)光軸時,才能唯一確定一個解。本節(jié)利用航天器上兩對平行直線的圖像確定圓平面的法線方向,從而確定空間圓的唯一姿態(tài)。 圖7所示的航天器外輪廓上一對平行直線,可由第4節(jié)方法快速提取,設(shè)其齊次坐標(biāo)為: L1=(l1,m1,n1)T,L2=(l2,m2,n2)T. (12) 其對應(yīng)的影消點可由這兩條直線的交點得到: v1=L1×L2. (13) 則在相機(jī)坐標(biāo)系下這兩條平行直線的方向為: d1=K-1v1, (14) 其中,K為攝像機(jī)內(nèi)參矩陣。 同理可得到另外一對平行線的方向為: d2=K-1v2. (15) 最終,在相機(jī)坐標(biāo)系下空間圓平面的法線方向為: n=d1×d2. (16) 本文算法中橢圓提取是至關(guān)重要的部分,因此本文實驗分為兩個部分:橢圓提取實驗與姿態(tài)測量實驗。 6.1 橢圓檢測實驗結(jié)果 為了驗證橢圓檢測算法的有效性,建立了基于VC的算法仿真系統(tǒng),對一些真實圖像進(jìn)行處理、檢測橢圓并和其他橢圓檢測算法進(jìn)行比較。因為本文算法是基于弧段的橢圓檢測算法,本文選擇Mai等[16]和Chia等[17]方法作為比較算法。此外,應(yīng)用最廣泛的橢圓檢測算法:隨機(jī)Hough變換(RHT)[22]也被選擇作為比較算法。 真實圖像來源于本文的太空模擬實驗,包含400幅由同一航天器在不同距離、不同光照、不同姿態(tài)下拍攝的圖片(2 048 pixel×2 048 pixel)。如圖8。 圖8 不同情況下實驗圖片 依據(jù)檢測到的橢圓Ed內(nèi)部區(qū)域Rd和真實橢圓Et內(nèi)部區(qū)域Rt的重合程度評價檢測精度p: (17) 其中:Nb表示既屬于區(qū)域Rd又屬于Rt的像素的數(shù)量,是Rd和Rt的交集,Nt表示區(qū)域Rd和Rt內(nèi)所有像素的數(shù)量,是Rd和Rt的并集。 本實驗在PC(Core i7-860)中實現(xiàn),結(jié)果如表1所示。由表1可見:RHT算法耗時最長,一般情況下不采用這種方法檢測橢圓;Mai算法雖然計算速度最快,但是計算精度很差,這是因為這種算法中缺少對拐點的處理,無法刪除錯誤弧段;RHT、Chia算法無論從計算速度還是精度方面都不如本文算法。 表1 橢圓檢測效果 6.2 姿態(tài)測量嵌入式實驗 本文算法的目的是在嵌入式系統(tǒng)中實現(xiàn)航天器姿態(tài)測量,故在嵌入式系統(tǒng)中實現(xiàn)了本算法,并設(shè)計了模擬航天器在太空中姿態(tài)變化的地面測試系統(tǒng)。 6.2.1 系統(tǒng)組成 地面測試系統(tǒng)主要包括姿態(tài)測量嵌入式系統(tǒng)、航天器模型、CCD攝像機(jī)、六自由度運(yùn)動系統(tǒng)以及測試比較系統(tǒng)。 嵌入式系統(tǒng)具有高度集成化、低重量、小尺寸、低功耗等特點,用于完成光學(xué)相機(jī)圖像數(shù)據(jù)采集、橢圓和直線特征檢測、目標(biāo)姿態(tài)解算、數(shù)據(jù)發(fā)送等功能。硬件實物及其原理圖如圖9,為了更好地利用硬件資源、加快嵌入式運(yùn)算速度,邊緣提取和細(xì)化在FPGA中實現(xiàn),其他算法在DSP中運(yùn)行。 圖9 嵌入式系統(tǒng) 航天器模型和真實航天器按照1∶2比例加工,見圖10。加工精度為0.01 mm,航天器主體是1 m×1 m×1 m的立方體,噴管直徑為125 mm(內(nèi)圈小圓),對接環(huán)直徑為450 mm(外圈大圓),上面有加強(qiáng)筋、星敏模型等。 圖10 衛(wèi)星實物模型 六自由度運(yùn)動系統(tǒng)見圖11,其可提供相對運(yùn)動的真值。其平移量和旋轉(zhuǎn)量通過激光測距、光柵尺等內(nèi)部設(shè)備測出。該系統(tǒng)的兩個運(yùn)動部件可以做水平、豎直、深度三維方向相對平移,以及俯仰、偏航、滾轉(zhuǎn)三個自由度相對旋轉(zhuǎn)。系統(tǒng)參數(shù)為:水平及豎直平移范圍:±0.5 m;深度方向平移范圍:0.1~15 m;俯仰和偏航旋轉(zhuǎn)范圍:±60°;滾轉(zhuǎn)旋轉(zhuǎn)范圍:360°。 圖11 運(yùn)動系統(tǒng)與實驗環(huán)境 CCD攝像機(jī)分辨率為2 048×2 048,焦距為10.02 mm,主點位置為(1 005.07, 1 029.84),像元大小為0.015 mm×0.015 mm。 測試比較系統(tǒng)通過RS422串口分別從姿態(tài)測量嵌入式系統(tǒng)和六自由度測試系統(tǒng)中傳出數(shù)據(jù)到電腦主機(jī)中,實時比較測量效果。 將CCD攝像機(jī)和目標(biāo)航天器模型分別固定于六自由度測試系統(tǒng)上,它隨著六自由度運(yùn)動系統(tǒng)做運(yùn)動,從而實現(xiàn)CCD攝像機(jī)和目標(biāo)模型的相對運(yùn)動。CCD攝像機(jī)、目標(biāo)航天器模型和六自由度運(yùn)動系統(tǒng)的相對關(guān)系由激光跟蹤儀標(biāo)定。當(dāng)CCD攝像機(jī)和目標(biāo)航天器模型隨著六自由度運(yùn)動系統(tǒng)運(yùn)動時,它們之間相對位姿的準(zhǔn)確值可以由六自由度運(yùn)動系統(tǒng)給出的值可經(jīng)過坐標(biāo)系變換得到。 6.2.2 試驗過程及結(jié)果 為了模擬太空環(huán)境,本文所有實驗均在搭建的光學(xué)暗室中進(jìn)行,如圖11。CCD攝像機(jī)和目標(biāo)航天器模型的距離不同時,單位像素代表的實際尺寸不同,因此姿態(tài)測量精度主要受到測量距離的影響,實驗將驗證姿態(tài)測量精度和距離的關(guān)系。實驗分為兩類:靜態(tài)定點測量和動態(tài)測量。 靜態(tài)定點測量。CCD攝像機(jī)和目標(biāo)航天器模型間的距離范圍是0.5~10 m,每隔0.5 m進(jìn)行一組定點測量,在相機(jī)可見目標(biāo)范圍內(nèi)隨機(jī)選擇20個位置進(jìn)行靜態(tài)測量,總共有400個位置,將每組測量的最大誤差作為這組精度的描述指標(biāo)。靜態(tài)定點測量能夠避免數(shù)據(jù)不同步,保證嵌入式系統(tǒng)測量得到的姿態(tài)和六自由度系統(tǒng)給出的姿態(tài)是同一個位置。測量結(jié)果如圖12,在近距離時(小于4 m)能夠達(dá)到:深度方向平移誤差優(yōu)于100 mm,非深度方向平移誤差優(yōu)于60 mm,角度旋轉(zhuǎn)測量誤差優(yōu)于1°。這個測量誤差隨著測量距離的變大而變大。 圖12 靜態(tài)測量位置誤差和角度誤差 動態(tài)測量。設(shè)計了一系列的CCD攝像機(jī)和目標(biāo)航天器模型之間的相對運(yùn)動:由近及遠(yuǎn)實驗?zāi)M航天器之間的分離、由近及遠(yuǎn)實驗?zāi)M航天器之間的對接。圖13是動態(tài)測量分離實驗舉例,初始狀態(tài)CCD攝像機(jī)和目標(biāo)航天器模型的相對姿態(tài)為:x方向Tx=0 mm、y方向Ty=0 mm、z方向Tz=500 mm、繞x軸旋轉(zhuǎn)ψ=0°、繞y軸旋轉(zhuǎn)θ=0°、繞z軸旋轉(zhuǎn)φ=0°,以0.2 m/s的位移速度、0.5 (°)/s的角度旋轉(zhuǎn)速度運(yùn)動到:Tx=500 mm、Ty=-500 mm、Tz=10 000 mm、ψ=60°、θ=45°、φ=30°。結(jié)果如圖13所示,實驗結(jié)果表明動態(tài)實驗結(jié)果和靜態(tài)結(jié)果基本一致,測量精度隨著距離的增加而變差。 (a)x軸方向動態(tài)測量位置誤差 (b)y軸方向動態(tài)測量位置誤差 (c)z軸方向動態(tài)測量位置誤差 (d)繞x軸動態(tài)測量角度誤差 (e)繞y軸動態(tài)測量角度誤差 (f)繞z軸動態(tài)測量角度誤差 本文針對一系列含有圓和直線特征的航天器,提出一種基于嵌入式實現(xiàn)的非合作視覺姿態(tài)測量系統(tǒng)。算法通過基于弧段的快速橢圓檢測以及高精度二次Hough直線提取降低了內(nèi)存空間的需求并且提高了計算速度,實現(xiàn)嵌入式。分兩部分實驗證明了該算法的有效性,橢圓檢測實驗證明了本算法在綜合考慮檢測精度和計算時間方面是最優(yōu)的,姿態(tài)檢測實驗證明了本算法可嵌入式實現(xiàn),并且具有良好的性能。近距離時小于4 m:深度方向平移誤差優(yōu)于100 mm,非深度方向平移誤差優(yōu)于60 mm,角度旋轉(zhuǎn)測量誤差優(yōu)于1°?;灸軌驖M足在軌任務(wù)的要求。 [1] JOEL A, STERGIOS I. A direct least-squares(dls) solution for PnP[C].ProceedingsoftheIEEEInternationalConferenceonComputerVision, 2011:383-390. [2] 趙汝進(jìn),張啟衡, 左顥睿,等. 基于去離群點策略提高目標(biāo)位姿測量精度[J]. 光學(xué)學(xué)報,2009,29(9):2463-2467 ZHAO R J, ZHANG Q H, ZUO H R,etal.. A method of improving the measuring accuracy of the pose of targets based on outliers-removal [J].ActaOpticaSinica, 2009,29(9): 2463-2467.(in Chinese) [3] VINCENT L, FRANCESC M N, PASCAL F. EPnP: an accurate non-iterativeO(n) solution to thePnPproblem [J].InternationalJ.ComputerVision, 2009, 81(2):155-166. [4] 崔乃剛,王平,郭繼峰,等.空間在軌服務(wù)技術(shù)發(fā)展綜述[J].宇航學(xué)報,2007,28(4):805-811. CUI N G, WANG P,GUO J F,etal.. A review of on-orbit servicing [J].JournalofAstronautics,2007,28(4):805-811.(in Chinese) [5] MIRAVET C, PASCUAL L, KROUCH E,etal.. An image-based sensor system for autonomous rendez-vous with uncooperative satellites [J].EprintArxiv, 2008. [6] TERUI F, KAMIMURA H, NISHIDA S. Motion estimation to a failed satellite on orbit using stereo vision and 3D model matching [C].9thInternationalConferenceonControl,Automation,RoboticsandVision, 2006,ICARCV′06, 2006:1-8. [7] CHIEN C H. Target acquisition using natural feature image recognition [C].AerospaceConference,IEEE,2009:1-7. [8] 徐文福,劉宇,梁斌,等.非合作航天器的相對位姿測量[J].光學(xué) 精密工程,2009,17(7): 1570-1581. XU W F, LIU Y, LIANG B,etal.. Mearsurement of relative poses between two non-cooperative spacecrafts [J].Opt,PrecisionEng., 2009, 17(7): 1570-1581.(in Chinese) [9] 苗錫奎,朱楓,丁慶海,等. 基于星箭對接環(huán)部件的飛行器單目視覺位姿測量方法[J].光學(xué)學(xué)報,2013,33(4):0412006. MIAO X K, ZHU F, DING Q H. Monocular vision pose measurement based on Docking ring component [J].ActaOpticaSinica, 2013, 33(4):0412006.(in Chinese) [10] CHAUDHURI D. A simple least squares method for fitting of ellipses and circles depends on border points of a two-tone image and their 3-D extensions [J].PatternRecognitionLetters, 2010, 31(9): 818-829. [11] FITZGIBBON A, PILU M, FISHER R B. Direct least square fitting of ellipses [J].IEEETransactionsonPatternAnalysisandMachineIntelligence, 1999, 21(5): 476-480. [12] CABRERA J, MEER P. Unbiased estimation of ellipses by bootstrapping [J].IEEETransactionsonPatternAnalysisandMachineIntelligence, 1996, 18(7): 752-756. [13] DUDA R O, HART P E.PatternClassificationandSceneAnalysis[M]. New York: Wiley Publishers, 1973. [14] CHIA A, LEUNG M, ENG H L,etal.. Ellipse detection with Hough transform in one dimensional parametric space [C].ProceedingsofIEEEInternationalConferenceonImageProcessing, 2007, 5: 333-336. [15] CHENG Z G, LIU Y C. Efficient technique for ellipse detection using restricted randomized Hough transform [C].ProceedingsoftheInternationalConferenceonInformationTechnology, 2004: 714-718. [16] MAI F, HUNG Y, ZHONG H,etal.. A hierarchical approach for fast and robust ellipse extraction [J].PatternRecognition, 2008, 41(8): 2512-2524. [17] CHIA A S, RAHARDJA S, RAJAN D,etal. A split and merge based ellipse detector with self-correcting capability [J].IEEETrans.ImageProcess, 2011, 20(7): 1991-2006. [18] PRASAD D K, LEUNG M K, CHO S Y. Edge curvature and convexity based ellipse detection method [J].PatternRecognition, 2012 45(9): 3204-3221. [19] LAM L, LEE S W. Thinning methodologies-a comprehensive survey [J].IEEETransactionsonPatternAnalysisandMachineIntelligence, 1992,14(9): 869-885. [20] SHIU Y C, AHMAD S. 3D location of circular and spherical features by monocular model-based vision [C].ProceedingsoftheIEEEInternationalConferenceonSystems,ManandCybernetics. 1989: 576-581. [21] MCLAUGHLIN R A. Randomized hough transform: improved ellipse detection with comparison [J].PatternRecognitionLetter, 1998, 19(3): 299-305. 吳 斌(1987-),男,江西南昌人,博士研究生,2011年于哈爾濱工業(yè)大學(xué)獲得碩士學(xué)位,主要從事機(jī)器視覺的研究。E-mail: wubin5652005@163.com 導(dǎo)師簡介: 葉 東(1968-),男,博士,教授,主要從事基于串/并聯(lián)結(jié)構(gòu)的坐標(biāo)測量理論和技術(shù)、雙目/單目視覺坐標(biāo)測量理論和技術(shù)等方向的研究。E-mail:yedong@hit.edu.cn (版權(quán)所有 未經(jīng)許可 不得轉(zhuǎn)載) Embedded algorithm for relative pose measurement between non-cooperative targets WU Bin, YE Dong*, ZHANG Xin,ZHAO Zhen-qing (School of Electrical Engineering and Automation,HarbinInstituteofTechnology,Harbin150001,China) For the spacecrafts with circle and line features, an algorithm for embedded vision applications was proposed for the relative pose measurement between non-cooperative targets. The edge points were detected by a Canny edge detector and the image thinning was performed in a Field Programming Gate Array(FPGA). Then, elliptic characters on the target were detected by a novel ellipse detection algorithm based on edge contour in a Digital Signal Processor(DSP), and line features on the target were detected by a real-time and high accuracy method base on Hough Transform(HT). Finally, a ground simulation experiment was performed for a practical mission on orbit. and the relative attitude between target spacecraft and CCD camera was calculated by the obtained ellipse and lines. Experimental results show that the proposed method have been implemented in the embedded system and the update rate is more than 3 Hz. The measurement accuracy becomes poorer with the increasing of measuring distance and that in three directions is different even in the same measure distance. When the measuring distance is less than 4 m, the measurement accuracy in the depth direction is higher than 100 mm, other directions is higher than 60 mm and the angle accuracy is higher than 1°. The obtained results meet the requirement of the embedded system for the system resource, update rate and the detection accuracy. computer vision; non-cooperative target; pose measurement; ellipse detection; hough transform 2016-06-06; 2016-07-02. 國家自然科學(xué)基金資助項目(No.51075095) 1004-924X(2016)11-2804-10 V448.22 A 10.3788/OPE.20162411.2804 *Correspondingauthor,E-mail:yedong@hit.edu.cn4 直線檢測
5 姿態(tài)解算
6 實驗結(jié)果
7 結(jié) 論