徐燕華,李 榮,王華君,徐平平(.無錫太湖學(xué)院,江蘇 無錫 4064;.東南大學(xué) 信息科學(xué)與工程學(xué)院,江蘇 南京 89)
混合特征匹配結(jié)合Viterbi數(shù)據(jù)關(guān)聯(lián)的目標(biāo)跟蹤算法
徐燕華1,李榮1,王華君1,徐平平2
(1.無錫太湖學(xué)院,江蘇 無錫214064;2.東南大學(xué) 信息科學(xué)與工程學(xué)院,江蘇 南京211189)
傳統(tǒng)跟蹤算法在視頻分辨率低、幀圖像模糊或噪聲較多時(shí)跟蹤效果較差。針對此情況,提出一種混合特征匹配結(jié)合Viterbi數(shù)據(jù)關(guān)聯(lián)的目標(biāo)跟蹤算法。首先,采用直方圖反向投影技術(shù)對雙局部閾值圖像中的目標(biāo)邊緣進(jìn)行有效分割,克服了低對比度問題;然后,將鄰域特征、區(qū)域特征、運(yùn)動(dòng)方向特征和直方圖特征作為目標(biāo)表征特征,建立混合特征代價(jià)函數(shù);最后,采用Viterbi數(shù)據(jù)關(guān)聯(lián)計(jì)算代價(jià)總和,求得最相似目標(biāo)。實(shí)驗(yàn)結(jié)果表明,在幀圖像模糊或噪聲較多的情況下,目標(biāo)跟蹤穩(wěn)定且有效,單目標(biāo)跟蹤準(zhǔn)確率為0.89,多目標(biāo)跟蹤精度達(dá)0.975,召回率達(dá)0.920,優(yōu)于其他幾種同類跟蹤算法。
分割跟蹤;混合特征匹配;雙局部閾值;直方圖反向投影;Viterbi數(shù)據(jù)關(guān)聯(lián)
目標(biāo)跟蹤在軍事、安防、交通等領(lǐng)域應(yīng)用極其廣泛[1-2],目前是模式識(shí)別、圖像處理等學(xué)科領(lǐng)域的熱門研究課題。根據(jù)跟蹤目標(biāo)的數(shù)量,目標(biāo)跟蹤可分為單目標(biāo)跟蹤和多目標(biāo)跟蹤,兩者的處理方式有很大不同。多目標(biāo)跟蹤涉及到目標(biāo)特征相似或互斥情況,有時(shí)還需解決目標(biāo)遮擋、重疊和分類問題[3-5]。單目標(biāo)跟蹤僅需選取目標(biāo)單個(gè)特征即可[6-7]。
傳統(tǒng)跟蹤算法在視頻分辨率低,幀圖像模糊或噪聲較多時(shí)跟蹤效果較差。針對此情況,本文選擇鄰域特征、區(qū)域特征、運(yùn)動(dòng)方向特征和直方圖特征等多個(gè)目標(biāo)特征進(jìn)行跟蹤,并給出了聯(lián)合特征代價(jià)函數(shù)以及數(shù)據(jù)關(guān)聯(lián)運(yùn)算方法。
近年來,許多學(xué)者對單目標(biāo)跟蹤[4-7]和多目標(biāo)跟蹤[8-10]進(jìn)行了研究。
文獻(xiàn)[7]提出了TLD(Tracking-Learning-Detecting)算法。算法實(shí)現(xiàn)目標(biāo)檢測和跟蹤同時(shí)進(jìn)行,TLD算法使用NP學(xué)習(xí)方法檢測和糾正跟蹤過程中的錯(cuò)誤,但NP不適合聯(lián)合學(xué)習(xí),在多目標(biāo)情況下無法使用該算法。
文獻(xiàn)[8]提出了一種基于視頻的多目標(biāo)跟蹤算法。算法使用碼本模型檢測前景,提取每一幀的頭部和腳部特征,根據(jù)幾何約束關(guān)系計(jì)算目標(biāo)高度,具有一定精度和魯棒性。但碼本模型僅適用于簡單場景中的前景提取。
文獻(xiàn)[9]提出標(biāo)記點(diǎn)處理方法(Marked Point Processes,MPP)。算法能獲取所有未知目標(biāo)的后驗(yàn)概率,得出時(shí)空信息;并能識(shí)別和了解特定事件變化的外力。
針對復(fù)雜、低信噪比背景的紅外小目標(biāo)跟蹤問題,文獻(xiàn)[10]提出用閾值分割和形態(tài)學(xué)濾波檢測目標(biāo),采用鄰域軌跡和Kalman濾波跟蹤目標(biāo),避免了噪聲干擾。但跟蹤的目標(biāo)數(shù)量有限,也沒考慮目標(biāo)遮擋消失問題。
本文提出一種新的帶圖像分割的多目標(biāo)跟蹤算法。算法將多個(gè)有用的特征用于目標(biāo)匹配,并設(shè)計(jì)了總代價(jià)函數(shù),給出了代價(jià)函數(shù)的數(shù)據(jù)關(guān)聯(lián)計(jì)算方法。實(shí)驗(yàn)視頻結(jié)果證明,本文算法能獲取良好的目標(biāo)跟蹤效果。
本文提出的自動(dòng)分割算法由四個(gè)步驟組成,如圖1所示。
(1)進(jìn)行局部雙閾值處理;
(2)利用基于直方圖反向投影的方法將兩個(gè)不同閾值處理生成的二值目標(biāo)掩碼進(jìn)行有效整合;
(3)利用區(qū)域和方差閾值移除噪聲和干擾目標(biāo);
(4)對分割后的目標(biāo)邊界進(jìn)行精提取。
圖1 目標(biāo)自動(dòng)分割流程圖
2.1局部雙閾值處理
Otsu算法[11]是一種常用的閾值確定算法。通過Otsu算法確定的閾值可將直方圖分為兩類,使合并后的類內(nèi)方差最小。利用Otsu改進(jìn)型方法對每個(gè)區(qū)域選取自適應(yīng)閾值。對于較暗的目標(biāo),閾值的大小需接近背景,位置的大小值為:
式中:τ是Otsu方法獲取的閾值;μL(τ)表示直方圖中經(jīng)過閾值τ分類后獲取較小的一類;p為偏移系數(shù)。利用式(1),通過設(shè)置不同大小的 p可以獲取兩個(gè)閾值,即τlow=τ-plow(τ-μL(τ)作為低閾值,τhigh=τ-phigh(τ-μL(τ))作為高閾值。通過這兩個(gè)閾值處理視頻幀中的局部區(qū)域可獲取兩個(gè)相應(yīng)的目標(biāo)掩碼Mlow和Mhigh,如文獻(xiàn)[12-13]所述,利用一個(gè)3×3的中值濾波算子處理兩個(gè)二值目標(biāo)掩碼。
2.2直方圖反向投影
由于兩個(gè)目標(biāo)掩碼包含有不同數(shù)量的背景像素,所以通過兩個(gè)目標(biāo)掩碼中像素分布的比較和聚合對分割邊界進(jìn)行精提?。?4]。
首先,根據(jù)目標(biāo)掩碼的Mlow和Mhigh分別計(jì)算出兩個(gè)灰度級(jí)別的直方圖Hlow(r)和Hhigh(r)。任何灰度大小r的比例直方圖定義如下所示:
其次,將比例直方圖反向投影到視頻幀域,即BP(x,y)=HR[I(x,y)],1≤x≤W,1≤y≤H,其中,I(x,y)表示(x,y)所處位置的像素灰度值大小。對比例直方圖HR(r)的反向投影進(jìn)行閾值處理,二值分割掩碼B(x,y)定義如下:
式中:θBP為范圍在0~1之間的一個(gè)閾值。
2.3區(qū)域和方差閾值處理
本文算法既利用直方圖對掩碼進(jìn)行精確分割,還通過目標(biāo)的區(qū)域和目標(biāo)內(nèi)像素值的方差去除區(qū)域內(nèi)大于閾值上限或小于閾值下限的值。對于第k個(gè)分割目標(biāo)Ok內(nèi)的每個(gè)像素點(diǎn)(x,y),通過式(4)對其在前景掩碼中對應(yīng)的像素進(jìn)行修改。
使用每個(gè)分割目標(biāo)內(nèi)像素的方差對候選目標(biāo)進(jìn)行檢測。因前景目標(biāo)擁有比背景或干擾目標(biāo)更多的紋理特征,導(dǎo)致分割目標(biāo)的方差可能更大。每個(gè)目標(biāo)像素的方差為:
式中:īk表示第k個(gè)目標(biāo)內(nèi)像素的平均值。給定方差,利用式(6)對該目標(biāo)的前景掩碼進(jìn)行閾值處理。
2.4形態(tài)學(xué)處理
通過以上算法提取的前景目標(biāo),經(jīng)常會(huì)出現(xiàn)一些噪聲。例如,直方圖反向投影在對目標(biāo)邊界進(jìn)行精提取時(shí)會(huì)生成斑點(diǎn)。本文進(jìn)一步利用形態(tài)學(xué)操作精確提取分割邊界。首先利用結(jié)構(gòu)元素對目標(biāo)掩碼做開形態(tài)學(xué)操作;然后進(jìn)行閉合操作。平滑目標(biāo)邊界不會(huì)影響目標(biāo)外形的細(xì)節(jié)信息[11]。
對目標(biāo)進(jìn)行分割后,利用混合特征進(jìn)行快速匹配。本文所提跟蹤算法利用目標(biāo)整個(gè)壽命的時(shí)間相關(guān)性,而不僅僅是兩個(gè)視頻幀間的相關(guān)性。本文跟蹤系統(tǒng)流程圖如圖2所示。
圖2 本文的跟蹤系統(tǒng)
3.1混合特征匹配
混合特征匹配利用各種有用特征測量目標(biāo)間的相似性。對于在時(shí)間t和t-1處的目標(biāo)本文對四個(gè)線索進(jìn)行如下調(diào)查。
(2)區(qū)域線索:為了消除區(qū)域間的視差問題,通過立體三角形計(jì)算目標(biāo)的深度信息,對目標(biāo)區(qū)域進(jìn)行相應(yīng)的歸一化處理,使得多目標(biāo)相對立體相機(jī)具有相同的距離。兩個(gè)連續(xù)幀中關(guān)聯(lián)目標(biāo)間區(qū)域的差異十分微小,利用連接組件算法計(jì)算目標(biāo)區(qū)域,用A(·)表示。時(shí)刻t的目標(biāo)Otj和時(shí)刻t-1的目標(biāo)間區(qū)域的視差用表示。
根據(jù)運(yùn)動(dòng)趨勢或者運(yùn)動(dòng)方向可以選取預(yù)定義的參考向量。
(4)直方圖:本文采用32灰度級(jí)直方圖間的距離矩陣。
在本文所有視頻數(shù)據(jù)的每幀圖像上通過收集所有混合特征匹配候選者的特征值,系統(tǒng)計(jì)算出標(biāo)準(zhǔn)偏差。
匹配代價(jià)定義如式(9)所示:
式中{σ}表示特征的標(biāo)準(zhǔn)偏差。
3.2Viterbi數(shù)據(jù)關(guān)聯(lián)
在本文提出的Viterbi數(shù)據(jù)關(guān)聯(lián)[15]系統(tǒng)中,所利用的立體信息是指匹配目標(biāo)的立體信息,即視頻幀中相同的目標(biāo)作為一個(gè)目標(biāo)進(jìn)行觀察以執(zhí)行跟蹤,為此,需要計(jì)算混合特征匹配代價(jià)的總和,即其基本思想如圖3所示,框架是一種有向圖,每個(gè)節(jié)點(diǎn)在其壽命中都含有單獨(dú)的框架、開始節(jié)點(diǎn)(三角形)和結(jié)束節(jié)點(diǎn)(正方形)。彩色箭頭標(biāo)記每個(gè)框架中的最優(yōu)路徑。從圖3可以看出,節(jié)點(diǎn)被劃分為有序子集接相鄰子集中任意的配對節(jié)點(diǎn)。節(jié)點(diǎn)表示一幀中存在的目標(biāo),將每個(gè)邊界設(shè)定為cij(t)。一條路徑(一系列的邊)的總代價(jià)為:
其中:
圖3 目標(biāo)跟蹤有向圖形式
3.2.1單目標(biāo)跟蹤
對于單目標(biāo)跟蹤,本文利用文獻(xiàn)[15]尋找最小代價(jià)。利用零代價(jià)和初始化一個(gè)節(jié)點(diǎn)的觀察值,根據(jù)式(9)獲取每個(gè)節(jié)點(diǎn)nj(t),j=1,2,…,||N(t)。設(shè)定一個(gè)節(jié)點(diǎn)nj(t)的前身和累積代價(jià)分別為:
目標(biāo)一旦離開視頻邊界,即到達(dá)框架的最后一級(jí),則執(zhí)行回溯。在最后一級(jí)中,以代價(jià)最小的節(jié)點(diǎn)開始執(zhí)行回溯,根據(jù)事先在每一級(jí)中存儲(chǔ)的數(shù)據(jù)遍歷第一級(jí)以發(fā)現(xiàn)最優(yōu)路徑P*=argminPC(P)。
3.2.2多目標(biāo)跟蹤
每個(gè)目標(biāo)的起始幀可能不同,每個(gè)節(jié)點(diǎn)處的前期和最小代價(jià)也可能不同。本文為每個(gè)目標(biāo)創(chuàng)建一個(gè)單獨(dú)的框架進(jìn)行跟蹤,如圖3所示。根據(jù)式(11)和式(12),利用所有觀測值分別對每個(gè)目標(biāo)進(jìn)行數(shù)據(jù)關(guān)聯(lián),其中大多數(shù)錯(cuò)誤警告都是在分割后處理階段產(chǎn)生的,因此分割區(qū)域通常較小。對觀測的位置和區(qū)域進(jìn)行測試以將新目標(biāo)和錯(cuò)誤警告區(qū)分開來。因此,僅當(dāng)目標(biāo)的預(yù)期位置距離幀邊界很近時(shí)才設(shè)定這個(gè)目標(biāo)的跟蹤過程結(jié)束,這也阻止了因暫時(shí)遮擋而引起的目標(biāo)刪除。其實(shí)就是為每個(gè)目標(biāo)設(shè)置存活時(shí)間。圖3中給出了目標(biāo)跟蹤總體框架,圖中節(jié)點(diǎn)在任何階段都允許包含多個(gè)路徑。
數(shù)據(jù)關(guān)聯(lián)中需要更新目標(biāo)的位置和速度,設(shè)定幀t-1時(shí)刻第k個(gè)跟蹤目標(biāo)的位置和速度分別為 xkt-1和數(shù)據(jù)關(guān)聯(lián)后,選取代價(jià)最小的觀測節(jié)點(diǎn)更新位置和速度,即:分別表示代價(jià)最小觀察節(jié)點(diǎn)的位置和速度,α表示更新比例。每一幀的數(shù)據(jù)關(guān)聯(lián)及總結(jié)算法如下所示:
4.1參數(shù)說明及度量函數(shù)
視頻幀的尺寸為1 280×768像素,幀率為8 f/s。本文利用形態(tài)學(xué)做開操作時(shí)結(jié)構(gòu)元素設(shè)定為7×7像素大小的模板(7×7為一個(gè)經(jīng)驗(yàn)值),表1為根據(jù)經(jīng)驗(yàn)設(shè)定的形態(tài)學(xué)操作模板中的參數(shù)大小。
為了對多目標(biāo)跟蹤的精度進(jìn)行評(píng)估,本文設(shè)計(jì)了兩種類型錯(cuò)誤:假陽性(FP)和假陰性(FN),兩種類型錯(cuò)誤的權(quán)重相同。本文規(guī)定了真陽性(TP)的數(shù)量并提供了運(yùn)動(dòng)目標(biāo)總的個(gè)數(shù)。運(yùn)動(dòng)目標(biāo)總的個(gè)數(shù)(TO)是所有圖像幀中目標(biāo)的總和。主要跟蹤(MT)和主要丟失(ML)的分?jǐn)?shù)進(jìn)而測量有多少跟蹤成功或丟失,算法的精度分別定義為:
表1 實(shí)驗(yàn)中所使用的參數(shù)值
4.2單目標(biāo)跟蹤效果分析
圖4所示為一段比較模糊的足球比賽視頻序列幀。從圖4可以看出,比賽雙方運(yùn)動(dòng)員中的一方穿著相同,很難直接辨識(shí)。利用本文算法對圖4單目標(biāo)進(jìn)行跟蹤,并將實(shí)驗(yàn)結(jié)果與文獻(xiàn)[4]提出的粒子群優(yōu)化算法(PSO-PF)和文獻(xiàn)[5]提出的局部背景加權(quán)算法(CBWH)進(jìn)行比較。圖4(a)所示為本文算法結(jié)果,從圖中可以看出,選擇的運(yùn)動(dòng)員基本定位完整。即使有很多類似特征的運(yùn)動(dòng)員,因采用了目標(biāo)運(yùn)動(dòng)方向特征和時(shí)間信息,目標(biāo)也能準(zhǔn)確定位,圖4(b)和圖4(c)分別是CBWH和PSO-PF跟蹤結(jié)果,可以看出CBWH在第三幀已偏離目標(biāo),PSO-PF在第二幀已偏離目標(biāo)。比較三種算法,本文算法精確性能明顯優(yōu)于CBWH和PSO-PF兩種算法。
此外,測試了CBWH算法[5]和TLD算法[7]所使用的部分視頻,表2為各算法的跟蹤準(zhǔn)確率比較。跟蹤準(zhǔn)確率是指正確分割鎖定目標(biāo)的時(shí)間比上總時(shí)間??傮w來說,本文提出的單目標(biāo)跟蹤算法跟蹤準(zhǔn)確率高于其他兩種算法。
4.3多目標(biāo)跟蹤效果分析
圖5為一段分辨率比較低的魚類視頻序列幀。從圖中可以看出,幀背景比較黑暗,圖像中目標(biāo)姿態(tài)不斷變化。利用本文算法對圖5多目標(biāo)進(jìn)行跟蹤,并將實(shí)驗(yàn)結(jié)果與文獻(xiàn)[9]提出的標(biāo)記點(diǎn)處理算法MPP和文獻(xiàn)[10]提出的多目標(biāo)Kalman跟蹤器進(jìn)行比較。圖5是本文算法與MPP和Kalman的跟蹤分割結(jié)果圖。圖5(a)是本文算法結(jié)果,可以看出目標(biāo)基本完全定位,圖5(b)和圖5(c)分別是MPP和Kalman跟蹤結(jié)果,其中紅色框是漏檢的目標(biāo)。從圖5可以看出,本文算法漏檢率明顯低于MPP和Kalman算法。表3是精度和召回率比較,其中實(shí)驗(yàn)總體目標(biāo)數(shù)目設(shè)置為90個(gè)。從表3可以看出,本文算法精度和召回率明顯優(yōu)于MPP和Kalman算法。
圖4 單目標(biāo)跟蹤結(jié)果比較
表2 各算法的平均跟蹤準(zhǔn)確率
圖5 多目標(biāo)跟蹤結(jié)果比較
表3 各算法的精度、召回率比較
本文提出一種基于混合特征匹配的多目標(biāo)分割跟蹤算法,算法可用于低對比度的多目標(biāo)跟蹤。算法中采用的局部雙閾值能克服低對比度和噪聲對目標(biāo)跟蹤的影響,并利用直方圖反向投影進(jìn)行外形分割結(jié)果,利用四種特征進(jìn)行目標(biāo)匹配,并設(shè)計(jì)了總體代價(jià)函數(shù)以及代價(jià)函數(shù)的數(shù)據(jù)關(guān)聯(lián)計(jì)算。實(shí)驗(yàn)結(jié)果表明,本文算法取得了較高的跟蹤成功率,具有很好的實(shí)際應(yīng)用價(jià)值。
下一步的研究內(nèi)容是對于不同的場景,如何自適應(yīng)地選擇有效特征進(jìn)行目標(biāo)匹配。
[1]王健.基于目標(biāo)跟蹤的交通違停事件檢測的研究[D].合肥:中國科學(xué)技術(shù)大學(xué),2011.
[2]史志剛.視頻序列中運(yùn)動(dòng)目標(biāo)檢測與跟蹤技術(shù)研究[D].西安:西安電子科技大學(xué),2014.
[3]LI Z,LI G,TAN J,et al.Low observable moving target tracking based on modified PDA-AI[J].Journal of infrared millimeter& terahertz waves,2010,31(10):1245-1256.
[4]陳志敏,薄煜明,吳盤龍,等.基于自適應(yīng)粒子群優(yōu)化的新型粒子濾波在目標(biāo)跟蹤中的應(yīng)用[J].控制與決策,2013,28(2):859-864.
[5]NING J,ZHANG L,ZHANG D,et al.Robust mean-shift tracking with corrected background-weighted histogram[J].IET computer vision,2010,6(1):62-69.
[6]COMANCIU D,VISVANATHAN R,MEER P.Kernel-based object tracking[J].IEEE transactions on pattern analysis&machine intelligence,2003,25(5):564-575.
[7]KALAL Z,MIKOLAJCZYK K,MATAS J.Tracking-learningdetection[J].IEEE transactions on pattern analysis and machine intelligence,2012,34(7):1409-1422.
[8]姜明新,王培昌,王洪玉.基于視頻多目標(biāo)跟蹤的高度測量算法[J].電子學(xué)報(bào),2015,43(3):591-596.
[9]IBE O C.Markov processes for stochastic modeling[M].US:Chapman&Hall,1997.
[10]羅寰,于雷,廖俊,等.復(fù)雜背景下紅外弱小多目標(biāo)跟蹤系統(tǒng)[J].光學(xué)學(xué)報(bào),2009,29(6):1536-1541.
[11]李雨朋.基于Otsu算法的圖像分割研究[D].鎮(zhèn)江:江蘇大學(xué),2014.
[12]ZHAO Y,TAUBIN G.Real-time median filtering for embedded smart cameras[C]//Proceedings of 2006 IEEE International Conference on Computer Vision Systems.[S.l.]:IEEE,2006:55-57.
[13]CHANDRA E,KANAGALAKSHMI K.Noise suppression scheme using median filter in gray and binary images[J].International journal of computer applications,2011,26(1):49-57.
[14]KIM C,HWANG J N.Video object extraction for object-oriented applications[J].Journal of VLSI signal processing systems for signal,image and video technology,2001,29(1/2):7-21.
[15]VITERBI A J.A personal history of the Viterbi algorithm[J]. IEEE signal processing magazine,2006,23(4):120-142.
[16]MUSICKI D,SONG T L,LEE H H,et al.Correlated Dopplerassisted target tracking in clutter[J].IET radar sonar&navigation,2013,7(1):94-100.
[17]柳培忠,阮曉虎,田震,等.一種基于多特征融合的視頻目標(biāo)跟蹤方法[J].智能系統(tǒng)學(xué)報(bào),2014,17(3):1-6.
Target tracking algorithm combining hybrid feature matching with Viterbi data association
XU Yanhua1,LI Rong1,WANG Huajun1,XU Pingping2
(1.Taihu University of Wuxi,Wuxi 214064,China;2.School of Information Science and Engineering,Southeast University,Nanjing 211189,China)
The tracking effect of the traditional tracking algorithms is poor due to the low video resolution,blurred frame image or heavy noise.To solve the above problems,a target tracking algorithm combining hybrid feature matching with Viterbi data association is proposed.The histogram back-projection technology is used to effectively segment the target edge in local bithreshold image to overcome the problem of low contrast.The neighborhood feature,regional feature,movement direction feature and histogram feature are taken as the target characterization features to establish the cost function of hybrid feature.The Viterbi data association is used to calculate the sum of cost function to obtain the most similar target.The experimental results show that,in the condition of blurred frame image or heavy noise,the proposed algorithm has stable and effective target tracking,the accuracy rate of single target tracking is 0.89,the accuracy rate of multi-target tracking is 0.975,the recall rate is 0.920,and the algorithm is superior to other similar tracking algorithms.
segmentation tracking;hybrid feature matching;local bi-threshold;histogram back projection;Viterbi data association
TN911.73-34;TP391
A
1004-373X(2016)17-0001-05
10.16652/j.issn.1004-373x.2016.17.001
2015-11-16
國家自然科學(xué)基金資助項(xiàng)目(61375028);江蘇省高校自然科學(xué)研究項(xiàng)目(14KJD460004)
徐燕華(1979—),女,江蘇無錫人,碩士,講師。研究領(lǐng)域?yàn)槟繕?biāo)跟蹤、圖像處理等。李榮(1978—),女,江蘇淮安人,碩士,講師。研究領(lǐng)域?yàn)槟繕?biāo)跟蹤、圖像處理等。王華君(1979—),男,江蘇宜興人,碩士,講師。研究領(lǐng)域?yàn)槟繕?biāo)跟蹤、圖像處理等。徐平平(1957—),女,江蘇南京人,博士,教授,博士生導(dǎo)師。 研究領(lǐng)域?yàn)閳D像處理、目標(biāo)跟蹤等。