劉軼倫 奚崢皓
摘 要:現(xiàn)有大部分融合跟蹤算法都使用分類器型跟蹤算法,這種算法在目標(biāo)尺度發(fā)生變化時(shí)會(huì)存在一定誤差。雖然已有一些解決方案,但仍不能從根本上解決該問題,而且一般無法估算目標(biāo)的旋轉(zhuǎn)狀態(tài)。為此,基于CMT算法提出一種新的基于點(diǎn)的多傳感器融合跟蹤算法。在獲取目標(biāo)狀態(tài)上綜合了多傳感器信息,并對(duì)目標(biāo)中心使用卡爾曼濾波進(jìn)行修正,能夠跟蹤目標(biāo)并獲得目標(biāo)的尺度及旋轉(zhuǎn)信息。實(shí)驗(yàn)結(jié)果表明,該算法在常見分辨率下跟蹤非旋轉(zhuǎn)目標(biāo),重疊率與現(xiàn)有算法相當(dāng),在分辨率較高的情況下,在實(shí)時(shí)性上具有優(yōu)勢(shì)。
關(guān)鍵詞:融合跟蹤;CMT;紅外視頻;可見視頻;特征點(diǎn)
DOI:10. 11907/rjdk. 192043 開放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):
中圖分類號(hào):TP317.4 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-7800(2020)007-0210-05
Infrared Visible Fusion Tracking Algorithm Based on CMT
LIU Yi-lun,XI Zheng-hao
(School of Electronic and Electrical Engineering, Shanghai University of Engineering Science, Shanghai 201620, China)
Abstract: Most of the fusion tracking algorithms use the classifier-type tracking algorithm. This algorithm has certain errors when the target scale changes. Although there are certain solutions, it can not be solved fundamentally, and generally can not estimate the rotation state of the target. In order to solve these problems, a new point-based multi-sensor fusion tracking algorithm based on CMT is proposed. The multi-sensor information is integrated on the acquisition target state, and the target center is corrected by using Kalman filtering, and the target can be tracked and the scale and rotation information of the target can be obtained. Experiments show that the algorithm tracks non-rotating targets at common resolutions and the overlap ratio is comparable to existing algorithms, and it has advantages in real-time performance at higher resolutions.
Key Words: fusion tracking; CMT; infrared videos;visible video; feature point
0 引言
目標(biāo)跟蹤一直是計(jì)算機(jī)視覺的研究熱點(diǎn)之一,在軍事、醫(yī)學(xué)、監(jiān)控等多個(gè)領(lǐng)域都應(yīng)用廣泛。一般使用可見光攝像頭作為目標(biāo)跟蹤的圖像源,但在光照條件惡劣的環(huán)境下,可見光圖像會(huì)丟失一定的場(chǎng)景信息。熱紅外傳感器能適應(yīng)光照條件惡劣的環(huán)境,但其具有亮度、對(duì)比度與清晰度低,以及缺乏豐富的顏色紋理信息等缺點(diǎn)[1]。因此,需要綜合利用不同傳感器信息,以獲得更好的跟蹤效果。
已有很多學(xué)者對(duì)融合跟蹤進(jìn)行了研究,如文獻(xiàn)[2]提出一種基于多視圖多核融合模型的可見光與紅外融合跟蹤算法,該模型考慮了可見光與紅外視圖的多樣性,并嵌入了來自它們的補(bǔ)充信息;文獻(xiàn)[3]在彩色圖像基礎(chǔ)上,通過核函數(shù)建立紅外目標(biāo)模型的顏色直方圖,采用粒子濾波算法實(shí)現(xiàn)對(duì)紅外目標(biāo)的穩(wěn)定跟蹤;文獻(xiàn)[4]設(shè)計(jì)聯(lián)合稀疏表示相似結(jié)構(gòu),構(gòu)造粒子濾波跟蹤器的似然函數(shù),可以融合彩色可見光譜與紅外熱圖像進(jìn)行目標(biāo)跟蹤。其中文獻(xiàn)[3]屬于基于像素級(jí)融合的跟蹤,在跟蹤步驟之前執(zhí)行融合,文獻(xiàn)[2]、[4]屬于基于特征級(jí)融合的跟蹤,特征級(jí)融合跟蹤不直接對(duì)圖像進(jìn)行融合,而是通過跟蹤器從各種圖像源中提取有效特征,將原始圖像數(shù)據(jù)轉(zhuǎn)換為更具信息性的表達(dá),確保成功使用不同模態(tài)之間的自然互補(bǔ)性,在提取特征之后結(jié)合不同模態(tài)特征分析目標(biāo)運(yùn)動(dòng)狀態(tài),因此比其它級(jí)別更適用于跟蹤[5]。
現(xiàn)有大部分融合跟蹤算法都使用分類器型跟蹤算法,但這種算法在目標(biāo)尺度或旋轉(zhuǎn)狀態(tài)發(fā)生變化時(shí)會(huì)存在一定誤差。文獻(xiàn)[6]提出的SAMF(A Scale Adaptive Kernel Correlation Filter Tracker with Feature Integration)算法,利用圖像金字塔方法解決目標(biāo)尺度變換問題,但存在運(yùn)算速度慢,且無法精確處理目標(biāo)旋轉(zhuǎn)的問題?;谔卣鼽c(diǎn)的跟蹤算法能夠很好地處理目標(biāo)尺度變換及旋轉(zhuǎn)問題,一般屬于生成類算法;文獻(xiàn)[7]提出一種基于關(guān)鍵點(diǎn)匹配與超像素匹配的跟蹤方法,該方法不僅使用對(duì)象的初始特征信息,還使用相鄰幀之間的特征信息;文獻(xiàn)[8]采用兩階段匹配方法提高SURF(Speeded Up Robust Features)匹配點(diǎn)的準(zhǔn)確性,并使用模板更新方法解決對(duì)象外觀變化的問題。但目前針對(duì)基于特征點(diǎn)的紅外可見融合跟蹤算法的研究還很少,因此本文提出一種基于CMT(Consensus-based Matching and Tracking of Keypoints for Object Tracking)[9]的紅外可見融合跟蹤算法,并使用卡爾曼濾波估計(jì)目標(biāo)運(yùn)動(dòng)狀態(tài)。
1 改進(jìn)CMT算法
1.1 算法原理
跟蹤是指使用圖像信息估計(jì)目標(biāo)狀態(tài),本文圖像信息為紅外與可見光連續(xù)圖像序列[{I(t),V(t)}],由于紅外圖像與可見光圖像序列不一定在幾何上對(duì)齊,因此需要對(duì)其進(jìn)行配準(zhǔn)[10],其中[I(t)]與[V(t)]是指經(jīng)過配準(zhǔn)在幾何上已對(duì)齊的圖像。需要估計(jì)的目標(biāo)狀態(tài)包括中心[ct=(xt,yt)]、尺度[st]與角度[at]。
在紅外與可見光連續(xù)圖像序列[{I(t),V(t)}]的圖像各自第一幀[{I(0),V(0)}]中初始化目標(biāo),目標(biāo)模型包括完全靜態(tài)外觀模型以及自適應(yīng)模型,二者均由特征點(diǎn)表示[11],將其融合為兩組特征點(diǎn)[Pt={Pvt,Pit}]作為目標(biāo)模型,包括可見光圖像特征點(diǎn)[Pvt={ptv1,?,ptvn}]與紅外圖像特征點(diǎn)[Pit={pti1,?,ptim}],用于描述目標(biāo)可見光與紅外部分的特征點(diǎn)數(shù)量分別為[nv]和[ni]。獲取第[j]個(gè)特征點(diǎn)在第[t]幀點(diǎn)與第0幀點(diǎn)的匹配關(guān)系稱為[mtj=(p0j,ptj)],則存在匹配集[Lt={Lvt,Lit}],[Lt={m1,?,mnv+ni}],包括可見光匹配集[Lvt={mv1,?,mvnv}]與紅外匹配集[Lit={mi1,?,mini}] 。
1.2 點(diǎn)匹配與跟蹤
靜態(tài)外觀模型在[t]幀的匹配[Lst]依靠第[0]幀靜態(tài)外觀模型的特征匹配,每一個(gè)特征點(diǎn)[ptj]都具有其對(duì)應(yīng)的特征描述子[dtj]。靜態(tài)外觀模型需要在目標(biāo)發(fā)生任何改變時(shí),特征點(diǎn)仍能被正確匹配。使用FAST[12](Features from Accelerated Segment test)作為特征點(diǎn)檢測(cè)器,BRISK[13](Binary Robust Invariant Scalable Keypoints)作為特征描述子,分別在各自的圖像中按照第二最鄰近距離標(biāo)準(zhǔn)搜索[p0j] 在對(duì)應(yīng)視頻[t] 幀的匹配點(diǎn)[ptj][14]。第二最鄰近距離標(biāo)準(zhǔn)即在[t]幀圖像下,搜索與特征描述子距離最近的兩個(gè)點(diǎn),其特征描述子稱為[dtj]、[dtk],若滿足等式(1),則認(rèn)為[p0j]與[ptj]匹配成功。
其中[θ]、[γ]均為閾值,搜索采用快速最近鄰搜索包(FLANN,F(xiàn)ast Library for Approximate Nearest Neighbors)方法。
自適應(yīng)模型在[t]幀的匹配[Lat]依靠對(duì)[t-1]幀目標(biāo)特征點(diǎn)的跟蹤,假設(shè)特征點(diǎn)都滿足LK光流法[15]條件,即運(yùn)動(dòng)物體灰度在很短的時(shí)間間隔內(nèi)保持不變,且給定鄰域內(nèi)的速度向量場(chǎng)變化緩慢,則自適應(yīng)模型的匹配通過LK光流跟蹤產(chǎn)生,并采用前后向誤差[16]濾除錯(cuò)誤匹配關(guān)系。
依靠靜態(tài)模型優(yōu)先原則[17-18],融合[Lst]與[Lat]獲得初步的匹配集[Lt]。
1.3 狀態(tài)估計(jì)
首先借助初步匹配集[Lt]中的匹配對(duì)[mtj]、[mtk],獲得尺度[st]與角度[αt],當(dāng)[mtj]來自可見光時(shí),[mtk]也來自可見光。該規(guī)則對(duì)紅外特征點(diǎn)同樣適用,即選取點(diǎn)對(duì)可同時(shí)由可見光圖像或紅外圖像檢測(cè)出,并定義點(diǎn)對(duì)向量如式(2)所示。
對(duì)于尺度[st]的求取,使用[ltjk]表示求取[ptj]與[ptk]的歐氏距離。為了保證尺度求取對(duì)異常值的魯棒性,選擇所有比例的中位數(shù)作為目標(biāo)尺度,即滿足式(3)。
對(duì)于尺度[αt]的求取,[atan2(ltjk)] 指求取[ltjk]的向量角[9],[αt]滿足等式(4)。
等式(3)、(4)的算法復(fù)雜度為[O(n2)],其中[n]取決于特征點(diǎn)總量,在[n]過多時(shí),會(huì)在一定程度上影響計(jì)算速度。對(duì)于本文算法而言,由于存在紅外與可見光兩個(gè)目標(biāo)模型,若簡(jiǎn)單代入將使復(fù)雜度增加,即[O(n2),(n=ni+nv)],采用僅來自同類圖像的點(diǎn)對(duì)求取[ltjk],并統(tǒng)計(jì)與[ltjk]相關(guān)的值,則能夠使復(fù)雜度變?yōu)椋篬O(n2),(n=max(ni,nv))]。
可以獲得包括尺度和旋轉(zhuǎn)的映射矩陣[Ht],如式(5)所示。
每對(duì)[mtj]、[mtk]映射一個(gè)目標(biāo)的中心[19],通過聚類求取目標(biāo)中心[ct],同時(shí)通過聚類結(jié)果去除錯(cuò)誤匹配,并獲得正確匹配集[L*t]。定義每組投票向量之間的差異[Dt],并由此構(gòu)成距離矩陣[19],用于反映目標(biāo)的變形狀態(tài),[Dt]被定義為式(6)。
同時(shí),定義投票集合[19]如式(7)所示。
對(duì)[Ut]使用凝聚聚類[20]分割[Lt],假設(shè)最大的聚類簇[L+t]反映正確的匹配,其余簇均為錯(cuò)誤匹配。
中心偏移度[μ]由[L+t]內(nèi)包含的點(diǎn)決定,即由滿足正確跟蹤的內(nèi)點(diǎn)決定,由于[L+t]中匹配的點(diǎn)對(duì)包括紅外的點(diǎn)以及可見光的點(diǎn),因此可被分割為紅外匹配集[L+it]與可見光匹配集[L+vt]。[μ]的求取如式(8)所示。
則目標(biāo)中心[ct=(xt,yt)]根據(jù)時(shí)間的變換可以表示為[ct=c0+μ],其中[c0]表示初始目標(biāo)中心。
2 運(yùn)動(dòng)狀態(tài)修正
目標(biāo)中心[ct]在[t]時(shí)刻的狀態(tài)包括目標(biāo)位置[xt]、[yt]及速度[xt]、[yt],則目標(biāo)狀態(tài)向量被表示為式(9)。
目標(biāo)運(yùn)動(dòng)模型可以被表示為式(10)、(11)。
其中[Yt]即為觀測(cè)到的目標(biāo)坐標(biāo),[Wt]表示在[t]時(shí)刻存在的噪聲。假設(shè)噪聲滿足卡爾曼濾波條件,即假設(shè)[Wt=][Kt(Yt-CX-t)]。
使用卡爾曼濾波[21]求取運(yùn)動(dòng)狀態(tài)及其噪聲,滿足式(12)-(16)。
式(12)借助[t-1] 幀的運(yùn)動(dòng)模型對(duì)當(dāng)前幀運(yùn)動(dòng)結(jié)果進(jìn)行預(yù)測(cè),式(13)結(jié)合預(yù)測(cè)修正觀測(cè)值,式(14)用于計(jì)算卡爾曼增益,式(15)、(16)對(duì)噪聲進(jìn)行預(yù)測(cè)。其中[Q]、[R]表示協(xié)方差矩陣,根據(jù)實(shí)驗(yàn)實(shí)際情況進(jìn)行選取。通過式(12)-(16)獲得經(jīng)過卡爾曼濾波修正后的目標(biāo)中心狀態(tài)[Xt],最后再根據(jù)式(9)得到最終估計(jì)的目標(biāo)位置[ct]。
3 主循環(huán)流程
在進(jìn)入主循環(huán)前,首先對(duì)目標(biāo)進(jìn)行手動(dòng)框選,并在框內(nèi)初始化目標(biāo)模型[{p0j}]及背景模型。主循環(huán)使用[t-1]幀的目標(biāo)模型信息[{pt-1j}],估計(jì)[t] 幀的目標(biāo)模型信息[{ptj}],同時(shí)計(jì)算目標(biāo)中心[ct=(xt,yt)]、尺度[st]與角度[at]。本文方法主循環(huán)流程如下:
主循環(huán)流程
輸入: 紅外圖像序列[I(t)],可見光圖像序列[V(t)]
輸出: 目標(biāo)中心[ct],尺度[st] ,角度[at]
1 While (圖像序列未結(jié)束)
2 ? ? 讀取[I(t)]、[V(t)]
3 ? ? 獲取與靜態(tài)外觀模型的匹配[Lst]
4 ? ? 獲取與自適應(yīng)模型的匹配[Lat]
5 ? ? 融合[Lst]、[Lat]獲得[Lt]
6 ? ? 通過式(2)-(5)獲得[st] 、[at],進(jìn)而求取[Ht]
7 ? ? 通過式(6)、(7)獲得[Dt]、[Ut]
8 ? ? 對(duì)[Ut]聚類分割[Lt]獲得[L+t]
9 ? ? 通過式(8)求取中心[ct]
10 ? ? 按式(9)-(16)對(duì)[ct]使用卡爾曼濾波,獲得修正后的中心[ct]
18 End while
4 實(shí)驗(yàn)與結(jié)果分析
本文算法在文獻(xiàn)[18]提供的開源代碼上進(jìn)行修改,并在cpp+opencv2.14中實(shí)現(xiàn)了多模態(tài)的跟蹤算法,本文實(shí)驗(yàn)環(huán)境使用的CPU為I5CPU,頻率為2.60GHZ,內(nèi)存為4G。其中參數(shù)設(shè)置與文獻(xiàn)[18]相同,采用默認(rèn)設(shè)置。
文獻(xiàn)[22]總結(jié)了大多數(shù)公共紅外和可見光圖像序列數(shù)據(jù)集以及融合跟蹤方法。本文使用該數(shù)據(jù)集以及對(duì)比的融合跟蹤方法,但該數(shù)據(jù)集中未能測(cè)試旋轉(zhuǎn)目標(biāo)的視頻序列,因此本文也使用了部分自行拍攝的數(shù)據(jù)集。在數(shù)據(jù)集[22]跟蹤圖像的標(biāo)注框及重疊率表中,用紅色表示STRUCK(Structured Output Tracking with Kernels)算法,青色表示TLD(Tracking-Learning-Detection)算法,紫色表示KCF(High-Speed Tracking with Kernelized Correlation Filters)算法,黃色表示SAMF算法,綠色表示本文算法,藍(lán)色表示地面實(shí)況。
跟蹤器輸出[bt]表示為一個(gè)矩形,由[ct]、[st]進(jìn)行求取,[bt]與目標(biāo)基準(zhǔn)位置數(shù)據(jù)[bGt]獲得標(biāo)準(zhǔn)重疊率[?],如式(17)所示。
4.1 文獻(xiàn)[22]數(shù)據(jù)集實(shí)驗(yàn)與結(jié)果分析
本節(jié)選取數(shù)據(jù)集[22]中名稱為BlackCar與Exposure2的圖像序列進(jìn)行實(shí)驗(yàn),兩者尺寸均為[384×288],跟蹤目標(biāo)均為車輛,跟蹤結(jié)果如圖2、圖3所示(彩圖掃描OSID碼可見)。
根據(jù)每幀重疊率能夠獲得重疊率—幀的圖像如圖4、圖5所示(彩圖掃描OSID碼可見),坐標(biāo)中橫軸表示圖像序列的幀序號(hào),縱軸表示幀對(duì)應(yīng)的重疊率。
由于本文算法能夠適應(yīng)目標(biāo)發(fā)生的尺度變化,因此與沒有尺度變化的跟蹤器如KCF和STRUCK算法相比,在重疊率上具有顯著優(yōu)勢(shì)。針對(duì)BlackCar數(shù)據(jù),除SAMF外的大部分跟蹤器均在目標(biāo)受遮擋后發(fā)生錯(cuò)誤,導(dǎo)致重疊率下降,但本文跟蹤器由于靜態(tài)模型的作用,在丟失目標(biāo)后仍能再次成功跟蹤,表現(xiàn)為后期重疊率上升;針對(duì)Exposure2數(shù)據(jù),本文算法能夠獲得與SAMF接近的跟蹤效果,而TLD算法卻在部分幀上丟失了目標(biāo)。
4.2 自行拍攝數(shù)據(jù)集實(shí)驗(yàn)與結(jié)果分析
本節(jié)使用自行拍攝的紅外與可見光視頻進(jìn)行實(shí)驗(yàn),圖像序列尺寸為[704×576],目標(biāo)為視頻中出現(xiàn)的手。由于缺乏客觀、合適的目標(biāo)基準(zhǔn)位置數(shù)據(jù),因此不使用重疊率進(jìn)行比較,僅展現(xiàn)跟蹤的框選效果。本節(jié)跟蹤目標(biāo)中心使用[ct],而非修正后的[ct]。
在分辨率較高的視頻下,本文算法在實(shí)時(shí)性上體現(xiàn)出優(yōu)越性,每幀平均花費(fèi)時(shí)間少于其它算法,如表1所示。
由于STRUCK與TLD算法的運(yùn)算實(shí)時(shí)性較差,KCF不存在尺度檢測(cè),因此僅與SAMF跟蹤效果進(jìn)行對(duì)比。藍(lán)色表示本文算法,綠色表示SAMF算法,如圖6所示(彩圖掃描OSID碼可見),帶旋轉(zhuǎn)檢測(cè)的本文算法相比SAMF算法能更準(zhǔn)確地跟蹤目標(biāo)。
5 結(jié)語
本文在CMT跟蹤算法框架下進(jìn)行擴(kuò)展,提出一種多傳感器的CMT跟蹤算法,同樣采用對(duì)應(yīng)聚類作為區(qū)分內(nèi)部與外部關(guān)鍵點(diǎn)的中心思想。在目標(biāo)尺度、旋轉(zhuǎn)、中心的估計(jì)上結(jié)合了多傳感器信息,并使用卡爾曼濾波對(duì)目標(biāo)中心進(jìn)行修正,解決了傳統(tǒng)融合跟蹤算法無法高效估計(jì)目標(biāo)尺度、旋轉(zhuǎn)變化等問題。實(shí)驗(yàn)結(jié)果表明,本文算法在常見分辨率下跟蹤不旋轉(zhuǎn)的目標(biāo),重疊率與現(xiàn)有算法相當(dāng),在較高分辨率下,本文算法在實(shí)時(shí)性上具有優(yōu)勢(shì)。在未來研究工作中,可以對(duì)目標(biāo)的運(yùn)動(dòng)模型進(jìn)行優(yōu)化,使之適應(yīng)更復(fù)雜的運(yùn)動(dòng)目標(biāo)。
參考文獻(xiàn):
[1] GADE R, MOESLUND T B. Thermal cameras and applications: a survey[J]. Machine Vision and Applications, 2014,25(1SI):245-262.
[2] YUN X,JING Z,JIN B. Visible and infrared tracking based on multi-view multi-kernel fusion model[J]. Optical Review, 2016,23(2):244-253.
[3] LI W,PAN F,XIAO Y, et al. Infrared target tracking based on color fusion image and particle filter[C]. International Conference on Instrumentation Measurement Computer Communication and Control,2015:1424-1428.
[4] LIU H,SUN F. Fusion tracking in color and infrared images using joint sparse representation[J]. Science China-Information Sciences, 2012,55(3):590-599.
[5] LUO C,SUN B, DENG Q, et al. Comparison of different level fusion schemes for infrared-visible object tracking: an experimental survey [C]. Wuhan:The 2nd International Conference on Robotics and Automation Sciences,2018.
[6] LI Y,ZHU J. A scale adaptive kernel correlation filter tracker with feature integration[M]. Lecture Notes in Computer Science,2015:254-265.
[7] SHEN M,ZHANG Y,WANG R, et al. Robust object tracking via superpixels and keypoints[J]. Multimedia Tools and Applications, 2018,77(19):25109-25129.
[8] ZHOU D, HU D. A robust object tracking algorithm based on SURF[C]. Hangzhou: International Conference on Wireless Communications and Signal Processing,2013.
[9] NEBEHAY G,PFLUGFELDER R. Clustering of static-adaptive correspondences for deformable object tracking[C].IEEE Conference on Computer Vision and Pattern Recognition, 2015:2784-2791.
[10] BARBARA ZITOVá,F(xiàn)LUSSER J. Image registration methods: a survey[J]. Image and Vision Computing,2003,21(11):977-1000.
[11] SANTNER J,LEISTNER C,SAFFARI A,et al. PROST: parallel robust online simple tracking[C]. IEEE Conference on Computer Vision and Pattern Recognition,2010:723-730.
[12] ROSTEN E,PORTER R,DRUMMOND T. Faster and better: a machine learning approach to corner detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,32(1):105-119.
[13] LEUTENEGGER S, CHLI M, SIEGWART R Y. BRISK: binary robust invariant scalable keypoints[C].IEEE International Conference on Computer Vision, 2011:2548-2555.
[14] LOWE D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004, 60(2):91-110.
[15] LUCAS B D,KANADE T. An iterative image registration technique with an application to stereo vision [C]. Proceedings of the International Joint Conference on ArtificialIntelligence,1997:674-679.
[16] KALAL Z,MIKOLAJCZYK K,MATAS J. Forward-backward error: automatic detection of tracking failures[C]. The 20th International Conference on Pattern Recognition,2010:?2756-2759.
[17] SANTNER J, LEISTNER C, SAFFARI A, et al. PROST: parallel robust online simple tracking[C].IEEE Conference on Computer Vision and Pattern Recognition, 2010:723-730.
[18] NEBEHAY G, PFLUGFELDER R. Clustering of static-adaptive correspondences for deformable object tracking[C].IEEE Conference on Computer Vision and Pattern Recognition,2015:2784-2791.
[19] 閆旭偉. CMT目標(biāo)跟蹤算法研究與異構(gòu)系統(tǒng)實(shí)現(xiàn)[D].西安:西安電子科技大學(xué),2017.
[20] XU R,WUNSCH D C. Survey of clustering algorithms[J]. IEEE Transactions on Neural Networks, 2005, 16(3):645-678.
[21] 謝澤奇,張會(huì)敏,張佳佳,等. 復(fù)雜背景下的快速機(jī)動(dòng)目標(biāo)跟蹤算法[J]. 傳感器與微系統(tǒng),2018,37(5):132-134.
[22] LUO C,SUN B, DENG Q,et al. Comparison of different level fusion schemes for infrared-visible object tracking: an experimental survey [C]. Wuhan:The 2nd International Conference on Robotics and Automation Sciences, 2018.
(責(zé)任編輯:黃 ?。?/p>