李冬冬 范紅旗 王麗萍 蒯楊柳
摘 要:?????? 在傳統(tǒng)的雷達(dá)目標(biāo)跟蹤算法中,目標(biāo)通常作為點(diǎn)目標(biāo)來進(jìn)行跟蹤濾波。隨著雷達(dá)傳感器分辨率的不斷提高,一個(gè)目標(biāo)可占據(jù)多個(gè)分辨單元,雷達(dá)可以提供高分辨率的觀測(cè)結(jié)果。當(dāng)目標(biāo)變成擴(kuò)展目標(biāo)時(shí),由于單個(gè)目標(biāo)多個(gè)量測(cè)的產(chǎn)生,基于傳統(tǒng)點(diǎn)目標(biāo)假設(shè)的目標(biāo)跟蹤算法無法實(shí)現(xiàn)對(duì)擴(kuò)展目標(biāo)的穩(wěn)定跟蹤。本文基于計(jì)算機(jī)視覺領(lǐng)域的相關(guān)濾波算法提出了一種雷達(dá)單擴(kuò)展目標(biāo)跟蹤算法。該算法首先對(duì)雷達(dá)回波數(shù)據(jù)進(jìn)行歸一化, 從而得到可視化的雷達(dá)距離-方位向圖像,然后將該圖像從極坐標(biāo)系轉(zhuǎn)換到笛卡爾坐標(biāo)系,最后利用相關(guān)濾波器對(duì)擴(kuò)展目標(biāo)的外觀進(jìn)行精細(xì)化的在線學(xué)習(xí), 并基于濾波器響應(yīng)圖實(shí)現(xiàn)目標(biāo)跟蹤?;趯?shí)測(cè)數(shù)據(jù)的實(shí)驗(yàn)結(jié)果表明,該算法可以得到每個(gè)時(shí)刻目標(biāo)的位置和長(zhǎng)度信息,和傳統(tǒng)跟蹤濾波算法相比具有更加準(zhǔn)確和魯棒的跟蹤性能。
關(guān)鍵詞:???? 時(shí)敏目標(biāo); 相關(guān)濾波算法; 濾波器響應(yīng); 擴(kuò)展目標(biāo); 在線學(xué)習(xí); 目標(biāo)跟蹤; 雷達(dá)
中圖分類號(hào):???? TJ760; TN958
文獻(xiàn)標(biāo)識(shí)碼:??? A
文章編號(hào):???? 1673-5048(2022)02-0019-05
DOI:10.12132/ISSN.1673-5048.2020.0249
0 引? 言
雷達(dá)在軍事和民用上均有重要應(yīng)用,常用于檢測(cè)和跟蹤感興趣區(qū)域內(nèi)的移動(dòng)目標(biāo),如空中飛機(jī)和海面艦船等[1]。傳統(tǒng)的雷達(dá)通常將目標(biāo)假設(shè)為一個(gè)點(diǎn)目標(biāo)(最小可分辨單元)[2-4]。隨著雷達(dá)分辨率的不斷提高,感興趣區(qū)域內(nèi)的目標(biāo)由點(diǎn)目標(biāo)變?yōu)橐粋€(gè)點(diǎn)群即擴(kuò)展目標(biāo)。傳統(tǒng)跟蹤濾波算法(如卡爾曼濾波)通常在預(yù)處理階段將目標(biāo)進(jìn)行聚類并提取中心點(diǎn)作為目標(biāo)的實(shí)際位置。這種假設(shè)對(duì)于遠(yuǎn)距離探測(cè)是合理的,因?yàn)槟繕?biāo)的回波強(qiáng)度通常強(qiáng)于背景雜波,且回波信息較為集中。對(duì)于近距離探測(cè)和高分辨率雷達(dá)探測(cè),目標(biāo)占據(jù)多個(gè)分辨單元,目標(biāo)的回波由同一個(gè)目標(biāo)不同區(qū)域的回波構(gòu)成,因而目標(biāo)從一個(gè)點(diǎn)目標(biāo)變?yōu)橐粋€(gè)擴(kuò)展目標(biāo)。因此,傳統(tǒng)的跟蹤濾波算法將目標(biāo)視為點(diǎn)目標(biāo),忽略了擴(kuò)展目標(biāo)的實(shí)際形狀信息,從而導(dǎo)致目標(biāo)狀態(tài)估計(jì)的不穩(wěn)定,進(jìn)而出現(xiàn)跟蹤漂移。
為了精確跟蹤目標(biāo),擴(kuò)展目標(biāo)跟蹤(Extended Object Tracking, EOT) 算法被提出用于處理高分辨雷達(dá)目標(biāo)數(shù)據(jù)[5-6]。擴(kuò)展目標(biāo)跟蹤可同時(shí)估計(jì)目標(biāo)的中心點(diǎn)位置和目標(biāo)的形狀。通常,構(gòu)成擴(kuò)展目標(biāo)的離散點(diǎn)被擬合成一個(gè)預(yù)先定義的形狀(如矩形和橢圓)。和點(diǎn)目標(biāo)跟蹤模型相比,擴(kuò)展目標(biāo)跟蹤算法考慮了目標(biāo)的輪廓信息,因而具有更強(qiáng)的準(zhǔn)確性。但是,當(dāng)擴(kuò)展目標(biāo)被遮擋或發(fā)生航跡交會(huì)時(shí),形狀擬合會(huì)產(chǎn)生誤差,擴(kuò)展目標(biāo)跟蹤算法無法準(zhǔn)確定位目標(biāo)的位置。不準(zhǔn)確的目標(biāo)定位會(huì)進(jìn)一步引起錯(cuò)誤的目標(biāo)關(guān)聯(lián),從而產(chǎn)生跟蹤漂移。
受到計(jì)算機(jī)視覺領(lǐng)域跟蹤算法[7-8]的啟發(fā),本文提出了基于相關(guān)濾波器[9-14]的雷達(dá)單擴(kuò)展目標(biāo)跟蹤算法。和傳統(tǒng)的基于輪廓模型的擴(kuò)展目標(biāo)跟蹤算法相比,基于相關(guān)濾波器的擴(kuò)展目標(biāo)跟蹤算法將擴(kuò)展目標(biāo)假設(shè)為一個(gè)矩形目標(biāo),同時(shí)將矩形區(qū)域內(nèi)目標(biāo)回波強(qiáng)度作為擴(kuò)展目標(biāo)的外觀特征。和傳統(tǒng)的基于運(yùn)動(dòng)模型的跟蹤濾波算法相比,相關(guān)濾波器更關(guān)注于目標(biāo)的外觀信息,也就是目標(biāo)的回波強(qiáng)度。在跟蹤過程中,目標(biāo)的回波強(qiáng)度會(huì)隨著目標(biāo)和雷達(dá)的距離變化而不斷發(fā)生變化,目標(biāo)的矩形框也會(huì)隨著目標(biāo)在極坐標(biāo)系的運(yùn)動(dòng)而不斷發(fā)生旋轉(zhuǎn)。 相關(guān)濾波器可以利用在線學(xué)習(xí)不斷適應(yīng)變化的目標(biāo)外觀。 基于在線學(xué)習(xí)得到的判別式濾波器, 可以將跟蹤擴(kuò)展目標(biāo)和背景雜波以及其他臨近擴(kuò)展目標(biāo)區(qū)分開, 從而實(shí)現(xiàn)穩(wěn)定的目標(biāo)跟蹤。同時(shí),相關(guān)濾波器可以利用傅里葉變化將空域內(nèi)的模板匹配轉(zhuǎn)換為頻域內(nèi)的點(diǎn)乘計(jì)算,代碼執(zhí)行效率高,算法實(shí)時(shí)性強(qiáng)。故本文提出一個(gè)基于相關(guān)濾波器的雷達(dá)單擴(kuò)展目標(biāo)跟蹤框架,主要貢獻(xiàn)如下:
(1) 提出了一種雷達(dá)數(shù)據(jù)預(yù)處理方法。該方法對(duì)雷達(dá)數(shù)據(jù)進(jìn)行歸一化,并生成可視的雷達(dá)距離-方位向圖像。距離-方位向圖像從極坐標(biāo)被變換為笛卡爾坐標(biāo)系,從而一定程度上消除目標(biāo)外觀的旋轉(zhuǎn)變化。
(2) 提出了基于背景上下文相關(guān)濾波器的雷達(dá)單擴(kuò)展目標(biāo)跟蹤算法。該算法利用雷達(dá)圖像的回波強(qiáng)度作為灰度信息并提取外觀特征,從而在線訓(xùn)練相關(guān)濾波器系數(shù)并實(shí)現(xiàn)穩(wěn)定跟蹤。
(3) 基于開源的X波段海用雷達(dá)實(shí)際觀測(cè)數(shù)據(jù),對(duì)本文提出的雷達(dá)單擴(kuò)展目標(biāo)跟蹤算法進(jìn)行評(píng)估。實(shí)驗(yàn)證明所提跟蹤算法在整段觀測(cè)數(shù)據(jù)中能夠?qū)?個(gè)觀測(cè)目標(biāo)實(shí)現(xiàn)穩(wěn)定跟蹤。
1 相關(guān)濾波器數(shù)學(xué)原理
本文采用計(jì)算機(jī)視覺領(lǐng)域中的一個(gè)基于相關(guān)濾波器的跟蹤算法對(duì)雷達(dá)擴(kuò)展目標(biāo)進(jìn)行跟蹤。這里采用背景上下文相關(guān)濾波器(Background Aware Correlation Filters, BACF)[14]對(duì)擴(kuò)展目標(biāo)進(jìn)行跟蹤。
傳統(tǒng)的基于標(biāo)準(zhǔn)相關(guān)濾波器的視覺跟蹤算法具有較高的準(zhǔn)確性和速度,但搜索區(qū)域較小且容易受到邊界效應(yīng)的影響而發(fā)生漂移。BACF解決了邊界效應(yīng)的影響并擴(kuò)展了搜索區(qū)域。給定當(dāng)前時(shí)刻雷達(dá)圖像上以目標(biāo)為中心的圖像切片,BACF從切片上提取高維外觀特征。通過對(duì)高維特征進(jìn)行循環(huán)移位,可以得到大量循環(huán)移位樣本。BACF通過回歸優(yōu)化可以得到一個(gè)和樣本相同大小的多通道相關(guān)濾波器f。假設(shè)前景目標(biāo)樣本為x,對(duì)應(yīng)的標(biāo)簽為y,BACF可以通過訓(xùn)練得到一個(gè)多通道相關(guān)濾波器f。假設(shè)xl表示樣本x的第l維特征。相關(guān)濾波器f可以通過求解式(1)中的優(yōu)化目標(biāo)得到:
ε(f)=∑dl=1xl*(p·fl)-y22+λf22(1)
式中: *為循環(huán)卷積運(yùn)算; ·為點(diǎn)積運(yùn)算; p為施加在特征x上的矩形掩模; y為高斯標(biāo)簽; λ為正則化參數(shù)。
為了利用傅里葉變換加速求解速度,式(1)可以轉(zhuǎn)換到頻域內(nèi)求解:
ε(f, g)=∑dl=1xl*gl-y22+λf22
s.t. gl=p·fl(2)
式(2)可以利用ADMM算法求解,詳細(xì)內(nèi)容參見文獻(xiàn)[14]。
基于相關(guān)濾波器的原理,雷達(dá)圖像中目標(biāo)跟蹤的基本流程如圖1所示。
2 雷達(dá)單擴(kuò)展目標(biāo)跟蹤框架
針對(duì)X波段海用雷達(dá)實(shí)測(cè)回波數(shù)據(jù),基于相關(guān)濾波器提出了整套艦船目標(biāo)跟蹤的數(shù)據(jù)處理框架。
2.1 雷達(dá)數(shù)據(jù)可視化
采用文獻(xiàn)[15]中位于宜昌市長(zhǎng)江岸邊的X波段船用雷達(dá)于2013年8月8日采集的實(shí)驗(yàn)數(shù)據(jù),雷達(dá)視野如圖2所示。雷達(dá)的具體參數(shù)如表1所示。
采集的雷達(dá)數(shù)據(jù)共460幀,時(shí)長(zhǎng)20 min。由于BACF算法的輸入是灰度值為0~255的圖像,需要對(duì)雷達(dá)數(shù)據(jù)
進(jìn)行預(yù)處理,從而得到可視化的雷達(dá)圖像。處理方法為
I1=256·I0-min(I0)max(I0)-min(I0) (3)
式中: I0為原始的雷達(dá)數(shù)據(jù); I1為歸一化后的雷達(dá)圖像,如圖3所示。
2.2 坐標(biāo)系轉(zhuǎn)換
基于相關(guān)濾波器的視覺跟蹤算法一般將目標(biāo)假設(shè)為一個(gè)與橫軸和縱軸平行的矩形框。因此,當(dāng)艦船等狹長(zhǎng)型目標(biāo)發(fā)生大角度旋轉(zhuǎn)時(shí),目標(biāo)矩形框無法完全包圍目標(biāo)輪廓,導(dǎo)致目標(biāo)跟蹤失敗。雷達(dá)距離-方位向圖像處于極坐標(biāo)系中,所以沿直線運(yùn)動(dòng)的動(dòng)態(tài)目標(biāo)軌跡經(jīng)常會(huì)變成圓弧,導(dǎo)致目標(biāo)發(fā)生大角度平面旋轉(zhuǎn)。
為消除由極坐標(biāo)系帶來的目標(biāo)旋轉(zhuǎn)問題,可將雷達(dá)圖像從極坐標(biāo)系轉(zhuǎn)換為笛卡爾坐標(biāo)系。假設(shè)雷達(dá)在極坐標(biāo)系中的距離-方位向圖像為p(r, θ),期望得到的笛卡爾坐標(biāo)系為q(x, y)。通過平面幾何理論,可以得到如下坐標(biāo)轉(zhuǎn)換公式:
x=rcosθy=rsinθ? (4)
對(duì)式(4)進(jìn)行坐標(biāo)反算,可以得到:
r=x2+y2θ=arctanyx? (5)
利用式(5),可以對(duì)笛卡爾坐標(biāo)系下圖像q(x, y)的任意像素點(diǎn)(x, y)在距離-方位向圖像p(r, θ)上進(jìn)行像素映射,從而得到笛卡爾坐標(biāo)系下的雷達(dá)圖像,如圖4所示。
2.3 雷達(dá)單擴(kuò)展目標(biāo)跟蹤
在對(duì)雷達(dá)單擴(kuò)展目標(biāo)進(jìn)行跟蹤時(shí),給定包含目標(biāo)的矩形框,在目標(biāo)的背景區(qū)域添加3倍的padding區(qū)域作為目標(biāo)樣本。為提高對(duì)目標(biāo)外觀的表征能力,將目標(biāo)樣本(雷達(dá)回波強(qiáng)度圖像)中提取的高維HOG特征作為真實(shí)訓(xùn)練樣本x。
利用訓(xùn)練樣本x,可以基于BACF算法得到相關(guān)濾波器f。假設(shè)z表示從下一幀圖片中提取到的特征圖,代表這幀圖片所有位置分類器分?jǐn)?shù)的響應(yīng)圖可以通過卷積操作的性質(zhì)得到:
Sf(z)=F-1∑dl=1z^l·f^l(6)
式中: F-1表示傅里葉的逆變換,其響應(yīng)最大的位置即為這幀圖片預(yù)測(cè)的中心位置。
和其他基于相關(guān)濾波器的跟蹤算法相同,本文采用了一種在線更新的策略,以提高跟蹤算法對(duì)目標(biāo)外觀變化(航向、尺度、回波強(qiáng)度)的魯棒性。假如目標(biāo)在第t幀的訓(xùn)練樣本為z(t),采用線性插值對(duì)訓(xùn)練樣本進(jìn)行在線更新,即
z(t)=(1-η)z(t-1)+ηz(t)(7)
式中: η是線性插值系數(shù),代表在線更新的速率。
3 實(shí)驗(yàn)及分析
為了驗(yàn)證本文提出算法的有效性,在文獻(xiàn)[15]提供的雷達(dá)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)。該數(shù)據(jù)集共標(biāo)注了5個(gè)雷達(dá)擴(kuò)展目標(biāo),分別命名為Alice, Billy, Camen, Dolphin和Ellen。圖5給出了雷達(dá)測(cè)試數(shù)據(jù)中5個(gè)目標(biāo)在初始幀中的外觀。
為了驗(yàn)證BACF算法的優(yōu)越性,將BACF算法與DSST算法[12]、Staple算法[13]在預(yù)處理后的雷達(dá)數(shù)據(jù)上進(jìn)行對(duì)比實(shí)驗(yàn)。其中,DSST算法將目標(biāo)近似為一個(gè)矩形區(qū)域,利用相關(guān)濾波器對(duì)目標(biāo)進(jìn)行跟蹤,同時(shí)對(duì)目標(biāo)矩形框的長(zhǎng)和寬進(jìn)行自適應(yīng)調(diào)整。Staple算法進(jìn)一步將顏色直方圖信息加入相關(guān)濾波器學(xué)習(xí)中,提高對(duì)目標(biāo)幾何形變的魯棒性。
上述3種跟蹤算法都是利用MATLAB實(shí)現(xiàn)的,并且可以在個(gè)人Github網(wǎng)頁(yè)下載。每個(gè)算法的跟蹤速度如表2所示。本文采用的BACF算法可以通過并行多個(gè)進(jìn)程實(shí)現(xiàn)多目標(biāo)的跟蹤。由于所用雷達(dá)每2.5 s掃描一周,因此可以利用BACF算法同時(shí)完成對(duì)2.5×52=130個(gè)目標(biāo)的實(shí)時(shí)跟蹤。
然后,分別在文獻(xiàn)[15]中的五段數(shù)據(jù)(Alice,Billy,Camen,Dolphin,Ellen)上對(duì)DSST,Staple和BACF三個(gè)算法進(jìn)行對(duì)比,跟蹤結(jié)果如圖6所示。
在Alice中,被跟蹤目標(biāo)和背景中相鄰目標(biāo)在99幀發(fā)生重疊效應(yīng),3個(gè)算法均沒有受到干擾,保持準(zhǔn)確跟蹤。在302幀中,被跟蹤目標(biāo)穿越橋梁時(shí)被遮擋,DSST算法發(fā)生跟蹤漂移,Staple和BACF保持準(zhǔn)確跟蹤。
在Billy中,目標(biāo)在第1幀到117幀之間發(fā)生旋轉(zhuǎn)和外觀變化,3個(gè)算法均能保持準(zhǔn)確跟蹤。在第153幀中,被跟蹤目標(biāo)穿越橋梁時(shí),DSST算法發(fā)生跟蹤漂移,而Staple和BACF均能夠保持準(zhǔn)確跟蹤。
在Camen中,目標(biāo)在第59幀穿越橋梁發(fā)生遮擋,3個(gè)算法都沒有丟失目標(biāo)。在后續(xù)時(shí)刻中,目標(biāo)不斷接近雷達(dá)從而回波不斷增強(qiáng),使外觀發(fā)生劇烈變化,3個(gè)算法都能夠保持準(zhǔn)確跟蹤。
在Dolphin中,在第88幀,被跟蹤目標(biāo)與背景中臨近目標(biāo)發(fā)生交會(huì),3個(gè)算法均沒有受到干擾。 在第237幀中,被跟蹤目標(biāo)穿越橋梁發(fā)生遮擋,DSST和Staple算法發(fā)生跟蹤漂移。在第256幀中,當(dāng)目標(biāo)遠(yuǎn)離橋梁時(shí),DSST和Staple算法完全丟失目標(biāo),BACF算法仍然能夠準(zhǔn)確跟蹤目標(biāo)。
在Ellen中,從初始幀到285幀,目標(biāo)距離雷達(dá)的距離不斷減小,回波強(qiáng)度不斷增強(qiáng),目標(biāo)外觀發(fā)生劇烈變化,但3個(gè)算法都能夠保持準(zhǔn)確跟蹤。在第336幀中,目標(biāo)穿越橋梁時(shí)發(fā)生遮擋,Staple算法發(fā)生跟蹤漂移并逐漸丟失目標(biāo)。DSST和BACF算法能夠保持準(zhǔn)確跟蹤。
可以看到,在數(shù)據(jù)集的5段數(shù)據(jù)中,BACF算法均能夠?qū)δ繕?biāo)保持準(zhǔn)確跟蹤,同時(shí)對(duì)目標(biāo)的雷達(dá)回波強(qiáng)度變化和背景中的干擾和遮擋具有較強(qiáng)的魯棒性。
4 結(jié)? 論
本文針對(duì)X波段雷達(dá)實(shí)測(cè)回波數(shù)據(jù),尤其是對(duì)于擴(kuò)展目標(biāo)跟蹤難度大的問題,提出了基于相關(guān)濾波器的雷達(dá)單擴(kuò)展目標(biāo)跟蹤算法。該算法通過對(duì)雷達(dá)回波數(shù)據(jù)進(jìn)行歸一化將雷達(dá)目標(biāo)跟蹤轉(zhuǎn)換為視頻目標(biāo)跟蹤問題,然后將極坐標(biāo)下的距離-方位向圖像轉(zhuǎn)換為笛卡爾坐標(biāo)系下的圖像,從而消除目標(biāo)在曲線航跡中的旋轉(zhuǎn)問題。最后利用相關(guān)濾波器在線學(xué)習(xí)目標(biāo)的外觀變化,并實(shí)現(xiàn)魯棒的目標(biāo)跟蹤。與其他跟蹤算法進(jìn)行實(shí)驗(yàn)比較,本文提出的雷達(dá)擴(kuò)展單目標(biāo)跟蹤算法更加準(zhǔn)確,魯棒性更強(qiáng),且可以實(shí)時(shí)運(yùn)行。在下一步的工作中,將建立一個(gè)X波段雷達(dá)圖像跟蹤數(shù)據(jù)集并對(duì)海面目標(biāo)進(jìn)行標(biāo)注,從而對(duì)雷達(dá)擴(kuò)展目標(biāo)跟蹤算法進(jìn)行定量評(píng)估。
參考文獻(xiàn):
[1] 劉本源, 宋志勇, 范紅旗. 聚焦、檢測(cè)、跟蹤、再聚焦: 基于經(jīng)典跟蹤前檢測(cè)框架的實(shí)時(shí)小目標(biāo)檢測(cè)技術(shù)[J]. 航空兵器, 2019, 26(6): 10-16.
Liu Benyuan, Song Zhiyong, Fan Hongqi. Focus, Detect, Track and Re-Focus: A Dim Target Detection Technique Using the Classical Detect before Track Architecture[J]. Aero Weaponry, 2019, 26(6): 10-16.(in Chinese)
[2] 王錚, 韓寶玲. 基于交互多模型的粒子濾波導(dǎo)引頭機(jī)動(dòng)目標(biāo)檢測(cè)技術(shù)研究[J]. 航空兵器, 2020, 27(1): 26-32.
Wang Zheng, Han Baoling. Research on Maneuvering Target Tracking Technology for Seeker Based on Particle Filter of Interacting Multiple Model[J]. Aero Weaponry, 2020, 27(1): 26-32.(in Chinese)
[3] 李云坤, 陳偉, 曹旭東. 粒子濾波檢測(cè)前跟蹤算法的粒子比優(yōu)化方法研究[J]. 航空兵器, 2017(5): 25-30.
Li Yunkun, Chen Wei, Cao Xudong. Particle Ratio Optimization of Particle Filter Track-before-Detect Algorithm[J]. Aero Weaponry, 2017(5): 25-30.(in Chinese)
[4] 廖雪陽(yáng), 任宏光, 章惠君. 基于重采樣粒子濾波的目標(biāo)跟蹤算法研究[J]. 航空兵器, 2016(5): 25-28.
Liao Xueyang, Ren Hongguang, Zhang Huijun. Research on Target Tracking Method Based on the Resampling Particle Filter[J]. Aero Weaponry, 2016(5): 25-28.(in Chinese)
[5] Vermaak J, Ikoma N, Godsill S J. A Sequential Monte Carlo Framework for Extended Object Tracking[J]. IEE Proceedings-Radar, Sonar and Navigation, 2005, 152(5): 353.
[6] 回丙偉, 宋志勇, 王琦, 等. 空中弱小目標(biāo)檢測(cè)跟蹤測(cè)試基準(zhǔn)[J]. 航空兵器, 2019, 26(6): 56-59.
Hui Bingwei, Song Zhiyong, Wang Qi, et al. A Benchmark for Dim or Small Aircraft Targets Detection and Tracking[J]. Aero Weaponry, 2019, 26(6): 56-59.(in Chinese)
[7] 管皓, 薛向陽(yáng), 安志勇. 在線單目標(biāo)視頻跟蹤算法綜述[J]. 小型微型計(jì)算機(jī)系統(tǒng), 2017, 38(1): 147-153.
Guan Hao, Xue Xiangyang, An Zhiyong. Survey of Video Object Tracking[J]. Journal of Chinese Computer Systems, 2017, 38(1): 147-153.(in Chinese)
[8] Yilmaz A, Javed O, Shah M. Object Tracking[J]. ACM Computing Surveys, 2006, 38(4): 13.
[9] Bolme D S, Beveridge J R, Draper B A, et al. Visual Object Tracking Using Adaptive Correlation Filters[C]∥IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2010: 2544-2550.
[10] Henriques J F, Caseiro R, Martins P, et al. Exploiting the Circulant Structure of Tracking-by-Detection with Kernels[C]∥Computer Vision-ECCV, 2012: 702-715.
[11] Henriques J F, Caseiro R, Martins P, et al. High-Speed Tracking with Kernelized Correlation Filters[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(3): 583-596.
[12] Danelljan M, Hger G, Khan F S, et al. Discriminative Scale Space Tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(8): 1561-1575.
[13] Bertinetto L, Valmadre J, Golodetz S, et al. Staple: Complementary Learners for Real-Time Tracking[C]∥IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2016: 1401-1409.
[14] Galoogahi H K, Fagg A, Lucey S. Learning Background-Aware Correlation Filters for Visual Tracking[C]∥IEEE International Conference on Computer Vision (ICCV), 2017: 1144-1152.
[15] Zhou Y, Wang T, Hu R H, et al. Multiple Kernelized Correlation Filters (MKCF) for Extended Object Tracking Using X-Band Marine Radar Data[J]. IEEE Transactions on Signal Processing, 2019, 67(14): 3676-3688.
Radar Single Extended Object Tracking Based on Correlation Filter
Li Dongdong1, Fan Hongqi1, Wang Liping1, Kuai Yangliu2*
(1. College of Electronic Science and Technology, National University of Defense Technology, Changsha 410073, China;
2. Mechanical Service Center for Vocational Education, National University of Defense Technology, Changsha 410073, China)
Abstract: In traditional radar object tracking algorithms, targets are regarded as points in tracking filtering algorithms. With higher resolution in range and azimuth directions, a target can occupy multiple resolution units, so radars can obtain high-resolution observation results. When point targets turn into extended objects, the traditional point target tracking filtering algorithms can hardly achieve stable tracking to the extended object due to the increasing complexity in data association. In this paper, a radar single extended object tracking algorithm is proposed based on correlation filtering algorithm in the computer vision field. This algorithm normalizes radar echoes to get the visual radar range-azimuth image firstly. Then,this image is transformed into the Cartesian coordinate system from the polar coordinate system. At last, the target appearance of the extended object are online learned by the correlation filter to realize the target tracking based on filtering response diagram. Real data based experimental results demonstrate that this algorithm can obtain the object location and size in each frame. Compared with traditional filtering algorithms, this algorithm is more accurate and robust.
Key words:? time-sensitive target; correlation filtering algorithm; filter response;extended object; online learning; target tracking; radar