李志國,顧 鑫,祝樹生,王小輝,劉百奇
(中國運載火箭技術(shù)研究院研究發(fā)展中心,北京100076)
目標(biāo)跟蹤是自動駕駛、視頻監(jiān)控、模式識別、機器人視覺跟蹤及導(dǎo)彈末制導(dǎo)[1]等領(lǐng)域內(nèi)的一個重要研究課題。在實際的工程應(yīng)用中,為解決場景快速變化及突發(fā)性干擾影響而導(dǎo)致跟蹤失敗的問題,目標(biāo)的顏色、紋理、邊緣等具有不同鑒別能力的多種特征被融合利用[2]。但是,在多種特征融合過程中,對不同特征確定性的度量成為一個比較麻煩的問題。一個好的度量方法能夠使各種目標(biāo)特征的度量方便和簡潔,便于多種特征的融合和統(tǒng)一處理,甚至能夠根據(jù)不同的場景實現(xiàn)多種特征的自適應(yīng)加權(quán)調(diào)整,達(dá)到優(yōu)化跟蹤算法的目的。本文提出了一種自適應(yīng)的特征確定性度量,并在粒子濾波的框架下采用加性特征融合[3]的方法實現(xiàn)了跟蹤算法的優(yōu)化。
近年來出現(xiàn)的各種多特征融合粒子濾波算法的主要區(qū)別是特征的提取及融合的策略不同。Brichfield等人提出了顏色和梯度特征的融合跟蹤算法,實現(xiàn)了對人的頭部運動的跟蹤[4]。在該算法中,兩個特征在融合結(jié)果中的貢獻(xiàn)相等,即采用了固定的特征加權(quán)值。該算法在某些背景變化較大的場景下,跟蹤效果急劇惡化,甚至出現(xiàn)目標(biāo)跟丟的情況。
為實現(xiàn)特征融合過程中各特征加權(quán)值的自適應(yīng)調(diào)整,需要確定一種對各種目標(biāo)特征進(jìn)行統(tǒng)一描述的方法,通過該方法定義一個統(tǒng)計量,實現(xiàn)對目標(biāo)特征的統(tǒng)一度量,并以此作為算法中特征加權(quán)值的表示和自適應(yīng)調(diào)整依據(jù)。
通過研究多個特征融合算法,發(fā)現(xiàn)在目標(biāo)的特征識別能力變?nèi)?即特征似然函數(shù)尖銳程度小)或粒子空間分布分散(即位置估計的方差小)時,跟蹤效果快速變差。由此對目標(biāo)的特征識別能力和粒子空間分布情況進(jìn)行綜合分析,以確定特征的確定性度量方法。
將目標(biāo)單個特征的跟蹤過程作為一個假想的粒子濾波過程。對應(yīng)特征的粒子經(jīng)預(yù)測后進(jìn)行更新,此時,特征的觀測概率值在其對應(yīng)的粒子上分布情況發(fā)生變化。同時,更新后的粒子空間分布也將發(fā)生改變。根據(jù)分布的不同,可以分為以下幾種情況,如圖1所示。
圖1 粒子濾波過程中的四種情況Fig.1 The diagrammatic sketch of four case in process of particle filter
圖1 (a)中,粒子位置的空間分布很分散,并且經(jīng)過加權(quán)求和后,跟蹤目標(biāo)的位置估計值方差也較大。特征的觀測概率值在粒子上的分布比較均勻,似然概率分布較為平緩,識別能力較弱,可以認(rèn)為該特征的確定性最低;
圖1(b)中,粒子位置的空間分布很分散,并且經(jīng)過加權(quán)求和后,跟蹤目標(biāo)的位置估計值方差也較大。特征的觀測概率值只集中在比較少的個別粒子上,因此特征的似然概率分布比較尖銳,識別能力較好,可以認(rèn)為該特征的確定性較圖1(a)高;
圖1(c)中,粒子位置的空間分布很集中,并且經(jīng)過加權(quán)求和后,跟蹤目標(biāo)的位置估計值方差也較小。特征的觀測概率值在粒子上的分布比較均勻,似然概率分布較為平緩,識別能力不是很強,可以認(rèn)為該特征的確定性較圖1(a)高;
圖1(d)中,粒子位置的空間分布很集中,并且經(jīng)過加權(quán)求和后,跟蹤目標(biāo)的位置估計值方差也較小。特征的觀測概率值只集中在比較少的個別粒子上,因此特征的似然概率分布比較尖銳,識別能力較強,可以認(rèn)為該特征的確定性最高。
通過以上4種情況的分析,可以定義如下的特征確定性度量:
其中,p(zj|xl)為第j個目標(biāo)特征在第l個粒子下的觀測概率。H(pjt)越大,該目標(biāo)特征下在粒子上的觀測概率分布越均勻。
本文選取廣泛使用的顏色和邊緣兩個特征來表征目標(biāo),采用加性融合方法來實現(xiàn)對目標(biāo)的跟蹤,特征的權(quán)值通過確定性度量來自適應(yīng)調(diào)整。對顏色特征的表示,采用文獻(xiàn)[5]中顏色直方圖的方法。對邊緣特征的表示,采用文獻(xiàn)[6]中基于圖像灰度信息的加權(quán)梯度方向直方圖的方法。融合策略采用文獻(xiàn)[3]中的方式,其觀測概率值可表示為:其中,λj為第j個目標(biāo)特征的觀測概率加權(quán)值,并且有通過對式(1)定義的目標(biāo)特征的確定性做歸一化處理,并作為該特征的加權(quán)值引入到式(3)中,實現(xiàn)自適應(yīng)加權(quán)的特征融合。
算法具體實現(xiàn)步驟如下:
a)確定初始值:根據(jù)目標(biāo)的初始狀態(tài)值x0,計算顏色特征和邊緣特征的直方圖h10和h20;
b)狀態(tài)預(yù)測:依據(jù)xt=Axt-1+W,計算下一幀狀態(tài)的預(yù)測值xt;
c)計算兩種特征下的觀測概率值p(z1|xt,l)和p(z2|xt,l),根據(jù)式(2)計算觀測概率熵H(p1t)和
d)對目標(biāo)顏色和目標(biāo)邊緣特征下的粒子進(jìn)行重采樣,計算M個粒子的位置方差;
e)由式(3)計算兩個特征融合后的觀測概率p(z1,z2|x),由式(1)計算顏色和邊緣的確定性值,并進(jìn)行歸一化處理;
f)更新:依據(jù)融合之后的似然概率計算粒子權(quán)值wt,l=wt-1,lp(zt|xt,l);
h)重采樣檢查:判斷粒子的權(quán)值,檢查是否需要重采樣。如果需要,則重采樣M次,并設(shè)定粒子權(quán)值均為1/M,否則不做任何處理;
i)轉(zhuǎn)向b)繼續(xù)處理。
本文選取一段公共視頻集作為數(shù)據(jù)源進(jìn)行算法驗證和跟蹤效果對比,跟蹤對象為道路上行進(jìn)的汽車,如圖2所示。比較對象分別為單一顏色特征跟蹤結(jié)果(圖2(a))和固定權(quán)值特征融合跟蹤結(jié)果(圖2(b),歸一化后的權(quán)值設(shè)為0.5)。
圖像尺寸為320×240,粒子數(shù)目設(shè)定為100。本文三種算法均在Intel Core(TM)i7 CPU 2.93 GHz,4 G運行內(nèi)存的計算機上用Matlab R2010a編程實現(xiàn)。
下面對各算法的跟蹤效果進(jìn)行分析。算法驗證選取的視頻序列跟蹤的難點是目標(biāo)所處的背景存在樹枝等較強邊緣信息的干擾,目標(biāo)不斷的進(jìn)出有樹蔭的陰影區(qū),導(dǎo)致其顏色特征變化較大。
對單一顏色特征跟蹤,當(dāng)目標(biāo)進(jìn)入有樹蔭遮擋的陰影區(qū)時,其所處環(huán)境的光照發(fā)生了較大變化,在第206幀顏色跟蹤的位置和目標(biāo)實際所處的位置相差很大。當(dāng)目標(biāo)出陰影區(qū)后再次進(jìn)入有樹蔭遮擋的區(qū)域時(第346幀),顏色跟蹤完全失效了。
對固定權(quán)值為0.5的多特征融合跟蹤,由于背景中較強邊緣信息的干擾,同時特征融合的過程中并沒有根據(jù)外部環(huán)境的變化自適應(yīng)的調(diào)整邊緣特征在觀測概率中所占的權(quán)重,導(dǎo)致最終跟蹤失效(第246幀)。
圖2 試驗結(jié)果Fig.2 Result of the experiment
對本文提出的基于特征確定性的跟蹤,在外部場景變化較大和背景中存在干擾的情況下,跟蹤效果都比較理想,沒有出現(xiàn)跟蹤失效的情況,如圖2(c)所示。
表1是試驗結(jié)果的比較,在復(fù)雜光照和背景情況下,單一特征對目標(biāo)的跟蹤結(jié)果較差,固定權(quán)值的加權(quán)特征融合跟蹤對外部環(huán)境變化情況適應(yīng)性較差,本文的跟蹤算法在跟蹤過程中根據(jù)外部環(huán)境的變化,通過實時計算特征確定性,自適應(yīng)的調(diào)整特征加權(quán)值,實現(xiàn)了不同特征對跟蹤結(jié)果貢獻(xiàn)量的實時調(diào)整。試驗的結(jié)果可實現(xiàn)對目標(biāo)的全程跟蹤。
表1 試驗結(jié)果比較Tab.1 Comparasion of experimental results
本文針對傳統(tǒng)的多特征加性融合算法中各目標(biāo)特征加權(quán)值固定不變,不能適應(yīng)場景變化及外部干擾的問題,提出了一種基于特征確定性的跟蹤算法,該算法充分利用了粒子空間分布和粒子觀測概率信息,實現(xiàn)了特征加權(quán)值的自適應(yīng)調(diào)整,提高了跟蹤的穩(wěn)定性及精度。該算法可應(yīng)用于場景監(jiān)控、自主導(dǎo)航及多模目標(biāo)探測等領(lǐng)域。
[1] LI Shaojun,LI Liren,LIU Zhongling,et al.Terminal guidance target tracking based on region covariance matrix[J].Laser&Infrared,2010,40(3):330-333.(in Chinese)李少軍,李立仁,劉忠領(lǐng),等.基于區(qū)域協(xié)方差矩陣的末制導(dǎo)目標(biāo)跟蹤[J].激光與紅外,2010,40(3):330-333.
[2] GU Xin,WANG Hua,LI Zhe,et al.Particle filter target tracking based on integral covariance matrix[J].Laser&Infrared,2014,44(12):1384-1386.(in Chinese)顧鑫,王華,李喆,等.基于積分協(xié)方差矩陣的粒子濾波目 標(biāo) 跟 蹤[J].激 光 與 紅 外,2014,44(12):1384-1386.
[3] Wang X,Tang Z M.Modified particle filter-based infrared pedestrian tracking[J].Infrared Physics and Technology,2010,53(4):280-287.
[4] Birchfield S.Elliptical head tracking using intensity gradients and color histograms[C]//Proceedings of the IEEEComputer Society Conference on Computer Vision and Pattern Recognition.Santa Barbara,USA:IEEE,1998.232-237.
[5] HOU Zhiqiang,HAN Chongzhao.A survey of visual tracking[J].Acta Automatica Sinica,2006,32(4):603-617.(in Chinese)侯志強,韓崇昭.視覺跟蹤技術(shù)綜述[J].自動化學(xué)報,2006,32(4):603-617.
[6] Dalal N,Triggs B.Histograms of oriented gradients for human detection[C]//Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition.San Diego,USA:IEEE,2005.886-893.