鄭 鍇,殷少鋒,鄭獻民,林宏旭,陳光武
(1.陸軍炮兵防空兵學院鄭州校區(qū),鄭州 450000;2.解放軍32146 部隊,河南 焦作 454000)
無人機具有機動性強、風險小、代價低等優(yōu)點,無人機偵察已成為現(xiàn)代戰(zhàn)爭中重要的偵察手段。無人機高精度多目標快速定位,是國內(nèi)外廣泛關注的研究熱點,在偵察監(jiān)視、引導打擊、效能評估等領域具有迫切的應用需求[1-3]。當前無人機偵察應用中,存在定位精度不高的技術難題,尤其無人機在高空、大角度、存在操作誤差等條件下定位誤差較大,難以實現(xiàn)戰(zhàn)場精確偵察。
無人機目標定位方法主要包括:基于成像模型的共線定位方法、多點目標定位方法、基于基準地圖的目標定位方法等。共線定位方法和多點目標定位方法,應用無人機位置和姿態(tài)數(shù)據(jù)、光電云臺姿態(tài)等定位定向(positioning and orientation system,POS)數(shù)據(jù)進行空間解算,受到各種安裝誤差和測量誤差的限制,難以大幅度提高目標定位精度[4-5];基于基準地圖的目標定位方法,受到航拍圖像與基準圖像的范圍、尺度、旋轉和光照等差異影響,匹配定位的可靠性受到制約[6-8]。為了提高匹配定位方法的性能,許多學者提出了不同的解決方法。文獻[9]根據(jù)圖像序列生成稠密三維點云,通過變換觀察視角由稠密三維點云生成與衛(wèi)星圖像拍攝視角相近的虛擬視圖,將虛擬視圖與衛(wèi)星圖像匹配并得到無人機的地理坐標。文獻[10]根據(jù)任務規(guī)劃獲取某固定區(qū)域的航攝影像,分析了坐標解算及底圖生成方法,基于特征匹配算法完成景象匹配,實現(xiàn)航攝影像二維定位。文獻[11]利用機載慣性導航信息求解實時圖與參考圖之間的單應性矩陣,對實時圖進行視角變換以減小圖像間視角差異,使用改進ORB(oriented fast and rotated brief)算法實現(xiàn)了快速圖像匹配。
基于POS 數(shù)據(jù)的無人機高精度匹配定位的典型應用場景為:無人機根據(jù)設定的任務航跡飛行,無人機任務操作手操控航空相機或光電載荷搜索目標,當發(fā)現(xiàn)感興趣目標時,開啟航空相機拍照或控制光電云臺鎖定跟蹤目標,而后應用航空相片或航拍視頻幀圖像、POS 數(shù)據(jù)、基準衛(wèi)星地圖或預先拼接圖像,實現(xiàn)目標匹配定位,獲取任意點的目標精確位置數(shù)據(jù),實施偵察監(jiān)視、引導打擊、效能評估等應用。
基于POS 數(shù)據(jù)的無人機高精度匹配定位方法的原理架構,如圖1 所示。具體表述為:1)圖像采集。無人機航拍圖像包括航拍相片或視頻幀圖像,當無人機載荷為數(shù)碼相機時采集航拍相片和POS數(shù)據(jù),當無人機載荷為光電云臺時采集視頻幀圖像和POS 數(shù)據(jù)?;鶞势ヅ鋱D像包括具有精確位置信息的數(shù)字衛(wèi)星地圖或預先拼接圖像。數(shù)字衛(wèi)星地圖可通過測繪部門申請或資源下載等形式獲?。活A先拼接圖像可應用預先偵察所獲取的航空相片或視頻,基于自動空三測量方法獲取拼接圖像。2)基于POS數(shù)據(jù)的航拍圖像粗匹配。應用無人機和光電云臺的位置和姿態(tài)數(shù)據(jù),基于共線成像方程校正實時偵察圖像,獲取偵察圖像的區(qū)域位置,基于區(qū)域位置裁剪基準衛(wèi)星圖或拼接圖,獲取包含偵察圖像范圍的小區(qū)域基準匹配底圖。3)基于改進SIFT 特征的圖像精匹配。提取航拍校正圖像和基準裁剪圖像中的SIFT 特征關鍵點,采用改進SIFT 特征描述符描述關鍵點;根據(jù)暴力匹配(brute force,BF)方法構建初始SIFT 匹配點對;基于特征向量歐式距離、地理位置距離的二次誤匹配剔除方法,充分抑制匹配點對的誤匹配;而后基于隨機采樣一致性(random sample consensus,RANSAC)算法計算航拍圖像與基準底圖的變換矩陣;根據(jù)變換矩陣實現(xiàn)圖像匹配融合,并依據(jù)融合圖像的位置信息引導至地理信息系統(tǒng)(geographic information system,GIS),進而獲知航拍圖像上任意點位置數(shù)據(jù)和區(qū)域態(tài)勢信息。
圖1 匹配定位方法流程框圖Fig.1 Block diagram of matching positiong approach process
利用無人機位置和姿態(tài)角、光電平臺姿態(tài)角等POS 參數(shù),基于共線成像方程初步解算出圖像中任意點位置數(shù)據(jù),實現(xiàn)航拍圖像校正。根據(jù)航拍圖像的四角點位置,確定基準圖像的區(qū)域范圍,減小匹配搜索范圍,裁剪出小區(qū)域的匹配底圖。
基于POS 數(shù)據(jù)的共線定位方法中使用了像空間坐標系、無人機機體坐標系、無人機地理坐標系、高斯平面直角坐標系等4 個坐標系[5]。各坐標系定義如下:1)像空間坐標系s。原點Os為投影中心,Xs、Ys分別平行于成像面陣外框且與圖像顯示存儲方向一致,Zs依右手坐標系確定,相機光軸為Zs軸;2)無人機機體坐標系b。坐標原點Ob為飛機質(zhì)心,Xb指右,Yb指前,Zb指上;3)無人機地理坐標系e。坐標原點Oe為飛機質(zhì)心,Xe指東,Ye指北,Ze指天;4)高斯平面直角坐標系g。
設航空相機或攝像機云臺的高低角為α,方位角為β,設無人機的航向角為ψ,俯仰角為θ,傾斜角為γ。根據(jù)坐標變換原理,得到不同坐標系之間的坐標變換矩陣。設目標在無人機地理坐標系e 中的坐標為(xe,ye,ze),目標在像空間坐標系s 中的坐標為(xs,ys,-f),f 為相機或攝像機焦距。則兩者之間的坐標變換關系表示為:
設目標在高斯平面直角坐標系g 中的坐標為(xg,yg),無人機在高斯平面直角坐標系g 中的坐標為(xa,ya),H 為無人機與地面目標點的相對高度。則基于無人機姿態(tài)數(shù)據(jù)、航空相機或攝像機的姿態(tài)數(shù)據(jù)和內(nèi)參數(shù)等遙測參數(shù),根據(jù)成像模型的共線條件方程可得
隨著互聯(lián)網(wǎng)的出現(xiàn)和廣泛使用,越來越多傳統(tǒng)行業(yè)都在與互聯(lián)網(wǎng)技術結合,形成“互聯(lián)網(wǎng)+”模式。傳統(tǒng)金融行業(yè)的借款和貸款業(yè)務也在與互聯(lián)網(wǎng)技術的基礎上,形成了互聯(lián)網(wǎng)金融理財業(yè)務和互聯(lián)網(wǎng)貸款業(yè)務。
基于上式,可以求出航拍圖像中任意像素點的高斯平面直角坐標。根據(jù)航拍圖像的像素坐標、高斯平面直角坐標和坐標變換矩陣,應用最鄰近插值重采樣實現(xiàn)圖像校正。正射校正圖像可抑制圖像畸變、減弱拍攝角度差異等,與衛(wèi)星地圖或預先拼接圖像視角類似,從而有效提高圖像匹配定位的成功率和精度。
數(shù)字衛(wèi)星地圖或預先拼接圖像的區(qū)域范圍,遠大于單幅航拍圖像。為縮小圖像匹配區(qū)域、減小圖像匹配時間,根據(jù)航拍圖像的四角點位置裁剪基準地圖,獲取圖像匹配的基準底圖。根據(jù)式(2)可得航拍圖像四角點位置分別為(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4),各點的坐標極值(xmin,xmax,ymin,ymax)分別為
共線定位方法求得的位置坐標存在定位誤差,為確保航拍圖像在基準底圖范圍內(nèi),需要將航拍圖像范圍適當外擴。如圖2 所示基準圖像裁剪示意圖,設最大定位誤差值為l,則可確定裁剪圖像的左上角坐標為(xmax+l,ymin-l)、右下角坐標為(xmin-l,ymax+l)。根據(jù)裁剪圖像坐標進行基準圖像裁剪,獲得小區(qū)域范圍的基準底圖,實現(xiàn)航拍圖像的粗匹配。
圖2 基準圖像裁剪示意圖Fig.2 Schematic diagram of reference image clipping
圖像裁剪通常依據(jù)像素坐標進行裁剪,需要進行位置坐標與像素坐標之間的坐標變換。設基準圖像左上角位置坐標(x0,y0),裁剪圖像左上角位置坐標(xs,ys)、像素坐標(rs,cs),x 方向上的圖像像素分辨率t1,y 方向上的圖像像素分辨率t2,行旋轉參數(shù)t3,列旋轉參數(shù)t4,圖像上方指北時旋轉參數(shù)為0。位置坐標與像素坐標變換關系表示為:
SIFT 特征具有旋轉、縮放和仿射不變性,對視角亮度變化及噪聲具有一定的穩(wěn)定性[12-13]。結合POS數(shù)據(jù)輔助高精度匹配定位的場景,改進了SIFT 特征描述,設計基于特征向量歐式距離、POS 地理距離的二次誤匹配剔除方法,提高圖像匹配定位的成功概率和匹配精度。
SIFT 特征是一種圖像尺度不變特征,利用高斯差分(difference of gaussian,DOG)算子提取關鍵點,精確確定關鍵點位置和主方向,生成關鍵點的局部鄰域描述子。
Step 1 SIFT 特征提取。SIFT 特征提取主要包括尺度空間構建、空間極值點檢測兩個步驟。尺度空間構建的基礎是DOG 金字塔,二維圖像I(x,y)在不同尺度下的尺度空間表示為L(x,y,σ),可由圖像I(x,y)與高斯核G(x,y,σ)的卷積得到。
其中,x,y 分別表示像素點的橫縱坐標;σ 代表高斯正態(tài)分布的方差。尺度空間中某一個點在周圍8 個點以及上下層18 個鄰域點中是最大或最小值,就可確定該點是一個極值點。為了提高特征點匹配的穩(wěn)定性,通過三維二次擬合函數(shù)精確確定關鍵點的位置和尺度。
Step 2 改進SIFT 特征描述。傳統(tǒng)SIFT 特征描述主要包括確定關鍵點主方向、生成關鍵點特征描述子兩個步驟。利用關鍵點鄰域內(nèi)所有像素點的梯度方向投影,確定關鍵點的主方向,使關鍵點保持旋轉不變性;而后生成關鍵點特征描述子,以關鍵點為中心選取16 個4×4 像素的小鄰域,在每個小鄰域形成8 個方向的梯度直方圖,最終得到一個128 維的特征向量。
針對航拍校正圖像與基準圖像匹配的應用場景,校正圖像與基準底圖的視角類似,可忽略確定關鍵點主方向步驟,直接設特征主方向為0。省略關鍵點主方向判定,能夠提高算法速度,獲得更多匹配控制點,提高匹配成功率。
由于航拍圖像和基準圖像異源特征的復雜性,SIFT 特征匹配點往往存在大量的錯誤匹配點對,將可能使無人機匹配定位精度降低,甚至導致匹配定位失敗。傳統(tǒng)SIFT 特征匹配采用固定閾值的相似性度量,剔除錯誤特征匹配點,難以適應不同圖像的差異性。設計了基于特征向量歐式距離、匹配點對地理距離的二次匹配方法,充分剔除誤匹配點對,并結合RANSAC 算法解算出圖像變換矩陣。
Step 1 應用暴力匹配方法,確定基準圖像和航拍圖像之間的初始匹配點對,采用匹配點對的特征向量歐式距離,初步濾除誤差較大的匹配點對。計算出待配準圖像中匹配點對的歐式距離,求出所有匹配點對的最小和最大距離。若匹配點對距離小于設定閾值的最近和最遠距離,則保留該匹配點對,否則舍棄該匹配點對。
式中,xi,k為航拍圖像中第i 個特征點的特征向量的第k 個元素;yi,k為基準圖像中第j 個特征點的特征向量的第k 個元素;n 為特征向量的維數(shù);di,j為航拍圖像第i 個特征點與基準圖像第j 個特征點的匹配點對歐式距離;dmax為匹配點對最大歐式距離;dmin為匹配點對最小歐式距離;α 和β 為設定閾值。
Step 2 應用POS 數(shù)據(jù)計算匹配點對的地理距離,進一步剔除誤匹配點對。利用POS 數(shù)據(jù)計算匹配點對的位置坐標和地理距離,將最大定位誤差值作為閾值剔除誤匹配點,可適應不同類型的輸入圖像,提高匹配概率和匹配精度。定義基準圖像中特征匹配點Pa的像素坐標(ra,ca)、高斯平面直角坐標(xa,ya),航拍圖像中Pb的像素坐標(rb,cb)、高斯平面直角坐標(xb,yb),基準圖像中Pa的高斯平面直角坐標可參考式(4)解算,航拍圖像中Pb的高斯平面直角坐標可參考式(2)解算。Pa和Pb的地理位置距離k 為
若k<l,即匹配特征點對的地理距離k 小于最大定位誤差l,則接受該匹配點對,否則丟棄該匹配點對。
Step 3 依據(jù)RANSAC 算法,計算基準圖像與航拍圖像之間的變換矩陣。通過基于特征向量歐式距離、地理距離的二次匹配方法,有效濾除了誤匹配點,減少了RANSAC 的計算量。設航拍圖像匹配控制點的像素坐標為(ri,ci),基準圖像匹配控制點的像素坐標為(rri,cri),變換矩陣H 表示為
Step 4 根據(jù)圖像變換矩陣,實現(xiàn)航拍圖像和基準圖像的圖像融合。航拍圖像疊嵌在基準裁剪圖像上,根據(jù)匹配圖像四角點位置引導至地理信息系統(tǒng)上,獲取航拍圖像上任意點精確位置坐標,并可將實時圖像與周圍環(huán)境、歷史記錄形成對照,輸出可視化的目標態(tài)勢信息。
針對無人機高精度匹配定位的應用需求,采用Visual Studio 2015、QT5.8、osgearth2.7 開發(fā)環(huán)境,基于本文提出的匹配定位方法,開發(fā)了無人機高精度匹配定位軟件。軟件界面如圖3 所示,主要包括菜單欄、GIS 顯示區(qū)域、狀態(tài)顯示區(qū)域等。
圖3 基于共線定位位置引導的測試結果Fig.3 Test result guided by the location of collinear positioning
測試1:偵察視頻的匹配定位。無人機任務載荷為光電云臺,采集航拍視頻幀圖像和POS 數(shù)據(jù)。主要POS 參數(shù)為:無人機相對高度為2 000 m,無人機俯仰角1.87°,無人機傾斜角296.2°,無人機航向角0.12°,圖像分辨率為1 920*1 080。分別基于共線定位位置引導方法和本文提出的匹配定位方法進行測試,圖3 和圖4 為測試結果圖,表1 為測試結果比較表。
表1 視頻幀圖像的定位測試分析Table 1 Positioning test analysis of video frame images
圖4 基于POS 數(shù)據(jù)匹配定位的測試結果Fig.4 Test result of matching positioning based on POS data
圖3 所示為共線定位位置引導方法的測試結果。依據(jù)共線定位方法解算位置坐標,將航拍視頻幀校正圖像依四角點位置引導至GIS 系統(tǒng),在GIS中通過移動鼠標獲知航拍圖像目標點的位置數(shù)據(jù),定位解算時間為9 s。可以看出,航拍視頻幀圖像與基準底圖存在一定的位置偏差,位置偏差主要來自于測量誤差和計算誤差。采集10 個目標點解算出定位誤差均值為82 m。
圖4 所示為本文提出的匹配定位方法的測試結果。在共線定位解算的基礎上,裁剪出小區(qū)域的基準底圖,基于改進SIFT 特征的圖像匹配方法,實現(xiàn)航拍校正圖像和基準底圖的匹配融合,根據(jù)基準匹配圖像位置數(shù)據(jù),將匹配融合圖像引導至GIS 系統(tǒng),可獲知任意點位置數(shù)據(jù),定位解算時間為13 s??梢钥闯?,航拍圖像精確匹配至基準圖像,匹配定位誤差較小,定位誤差主要來自基準地圖誤差和匹配誤差等。采集10 個目標點解算出定位誤差均值為7 m,具有較高的定位精度。
測試2:航拍相片的匹配定位。無人機任務載荷為數(shù)碼相機,采集航拍相片和POS 數(shù)據(jù)。主要POS參數(shù)為:無人機相對高度為1 110 m,無人機俯仰角2.56°,無人機傾斜角3.55°,無人機航向角183.7°,圖像分辨率為4 000*5 000。分別基于共線定位位置引導方法和本文提出的匹配定位方法進行測試,下頁圖5 和圖6 為測試結果圖,表2 為測試結果比較表。
表2 航拍相片的定位測試分析Table 2 Positioning test analysis of aerial photos
圖5 基于共線定位位置引導的測試結果Fig.5 Test result guided by the location of collinear positioning
圖6 基于POS 數(shù)據(jù)匹配定位的測試結果Fig.6 Test result of matching positioning based on POS data
圖5 所示為共線定位位置引導方法的測試結果。依據(jù)共線定位方法解算位置坐標,將航拍視頻幀校正圖像依四角點位置引導至GIS 系統(tǒng),在GIS中通過移動鼠標獲知任意點位置數(shù)據(jù)。定位解算時間為10 s??梢钥闯?,航拍視頻幀圖像與基準底圖存在較大的位置偏差,位置偏差主要來自于測量誤差和計算誤差。采集10 個目標點解算出定位誤差均值為105 m。
圖6 所示為本文提出的匹配定位方法的測試結果。在共線定位解算的基礎上,裁剪出小區(qū)域的基準底圖,基于改進SIFT 特征的圖像匹配方法,實現(xiàn)航拍校正圖像和基準底圖的匹配融合,根據(jù)基準匹配圖像位置數(shù)據(jù),將匹配融合圖像引導至GIS 系統(tǒng),可獲知任意點位置數(shù)據(jù)。定位解算時間為21 s??梢钥闯觯脚膱D像精確匹配至基準圖像,匹配定位誤差較小,定位誤差主要來自基準地圖誤差和匹配誤差等。采集10 個目標點解算出定位誤差均值為6 m,具有較高的定位精度。
基于POS 數(shù)據(jù)的無人機高精度圖像匹配定位方法,綜合應用無人機的POS 數(shù)據(jù)和圖像信息,從原理上克服了定位精度直接受制于導航系統(tǒng)姿態(tài)測量誤差的問題,并可基于POS 數(shù)據(jù)提高圖像匹配概率和匹配精度。首先利用無人機POS 數(shù)據(jù)解算出圖像區(qū)域坐標,獲取航拍圖像的正射校正圖像,裁剪出局部基準匹配圖像;而后基于改進SIFT 特征提取匹配點對,基于特征向量歐式距離、地理距離的二次匹配方法剔除誤匹配點,實現(xiàn)航拍正射圖像和基準圖像的匹配融合,匹配后的圖像依據(jù)位置信息引導至GIS 系統(tǒng)中,獲取航拍圖像中任意點的坐標數(shù)據(jù)和態(tài)勢信息。設計了無人機匹配定位軟件,驗證了本文方法可實現(xiàn)高精度多目標定位。該方法定位精度高、適應性好、易于工程實現(xiàn)。下一步,將進一步結合更多的測試場景,與多種目標定位方法對比分析,優(yōu)化提高匹配定位方法的魯棒性和適用性。