1.2 隨機(jī)測量矩陣及其改進(jìn)
FCT算法采用一個滿足RIP條件的隨機(jī)測量矩陣將高維信號投影到低維空間中,經(jīng)過測量矩陣R轉(zhuǎn)換后的低維特征V仍然可以最大概率地保留原始高維特征X的特性。所以,只要存儲R中的非零項,計算量很小,稀疏矩陣R元素定義為
(4)
這里,ρ=o(m)=m/(algm)=m/(10a)=m/(6a),rij~N(0,1),a為常數(shù),m為106~1010。
在式(4)中,rij的產(chǎn)生是隨機(jī)的,所以,fij存在三種情況:只有1;只有-1;同時存在1和-1。當(dāng)都為1或都為-1時,特征表現(xiàn)為灰度特征,當(dāng)1和-1同時存在時,特征表現(xiàn)為紋理特征[9]。在運(yùn)動目標(biāo)的紋理變化時或者是目標(biāo)所處的周圍環(huán)境變化時,目標(biāo)的紋理特征表現(xiàn)穩(wěn)定,但當(dāng)目標(biāo)產(chǎn)生運(yùn)動時,目標(biāo)的灰度特征表現(xiàn)穩(wěn)定。
為進(jìn)一步加強(qiáng)目標(biāo)跟蹤的魯棒性,對式(4)進(jìn)行改進(jìn)
(5)
改進(jìn)后的測量矩陣,可同時提取運(yùn)動目標(biāo)的紋理和灰度特征,且兩種特征各占1/2,所以,提取的目標(biāo)特征有較高的穩(wěn)定性,跟蹤效果良好。
1.3 樸素貝葉斯分類器和方差分類器
FCT算法采用貝葉斯分類器確定目標(biāo)位置,假設(shè)V中的每個元素都是獨(dú)立分布的,即

(6)
(7)
(8)

Dγc={Z|‖I(Z)-It-1‖<γc}
(9)

(10)
Dα={Z|‖I(Z)-It‖<α}
(11)
Dζ,β={Z|ζ<‖I(Z)-It‖<β}
(12)

對于多尺度圖像跟蹤時,采用式(13)每5幀更新跟蹤位置和尺度

(13)
式中It(Z)為跟蹤位置,S為尺度,Vs(Z)為特征向量,Γ為低維特征。
(14)
(15)
提取出圖像特征后,通過分類器來選取候選樣本,計算量較大,影響算法的實時性。所以,本文引入方差分類器對候選樣本作預(yù)判定[10],先根據(jù)式(16)計算目標(biāo)區(qū)域的灰度值方差
D(x)=E(x2)-E2(x)
(16)
式中x為候選目標(biāo),E(x)為目標(biāo)區(qū)域的灰度值均值,E(x2)為目標(biāo)區(qū)域灰度值平方之后的均值,D(x)則為目標(biāo)的灰度值方差。當(dāng)候選樣本的灰度值方差小于D(x)的1/2時,則為目標(biāo)樣本的幾率很小,予以去除[11],即
(17)
式中D′(x)為候選樣本的灰度值均值,D(x)則為目標(biāo)的灰度值方差。通過對候選樣本的預(yù)處理,減少分類器的判定次數(shù),減少了運(yùn)算量,同時減少了錯誤的候選樣本,提高算法的穩(wěn)定性。
2 改進(jìn)的FCT算法步驟
1)在圖像傳感器采集視頻序列后:手動選取跟蹤目標(biāo);根據(jù)式(9)~式(12)訓(xùn)練正負(fù)樣本;利用式(5)生成訓(xùn)練樣本的特征;初始化分類器參數(shù)。
2)讀取新一幀圖像,粗略地一些采集圖像塊,選取候選目標(biāo)1,通過式(3)計算特征,選取H(V)最大的位置1。
3)再精細(xì)地采集圖像塊,挑選出滿足式(17)的候選目標(biāo)區(qū)域2,計算區(qū)域2內(nèi)目標(biāo)的特征,并選擇H(V)最大的位置為新一幀的目標(biāo)位置。
4)得到目標(biāo)的位置后,根據(jù)式(14)、式(15)更新分類器;多尺度圖像跟蹤時,根據(jù)式(13)每5幀更新跟蹤位置和尺度。
5) 跳轉(zhuǎn)至步驟(2)處進(jìn)行下一幀的處理。
3 實驗結(jié)果與分析
實驗平臺為PC,內(nèi)存為4.00 GB,操作系統(tǒng)是Windows 7,程序編寫采用Matlab2013a。為了對比三種算法,采用8個原作者論文中的視頻進(jìn)行測試,具有代表性。運(yùn)算結(jié)果如表1所示。

表1 三種算法跟蹤時間
從表1可以看出,F(xiàn)CTNew算法的運(yùn)算速度快于CT算法和FCT算法。選取具有代表性David和Tiger2進(jìn)行分析,跟蹤效果圖如下。其中,點(diǎn)線框為CT算法,虛線框為FCT算法,實線框為FCTNew算法。

圖1 David視頻序列Fig 1 David video sequence
在David視頻序列中,從圖1(a),(b)和(c)可以看出:光照發(fā)生變化時FCTNew算法跟蹤最為準(zhǔn)確。在圖1(d),(e)中,當(dāng)目標(biāo)發(fā)生旋轉(zhuǎn)并且尺度變化時, FCTNew算法的跟蹤偏移量最小。在圖1(f)和(h)中,CT算法出現(xiàn)明顯的跟蹤漂移,而FCTNew算法仍能實現(xiàn)準(zhǔn)確跟蹤??傻贸鼋Y(jié)論,與CT算法和FCT算法相比,F(xiàn)CTNew算法對光照、旋轉(zhuǎn)、尺度縮放有較強(qiáng)的魯棒性,且能有效解決跟蹤漂移的問題。
從圖2中可看出:目標(biāo)被完全遮擋時,F(xiàn)CTNew算法跟蹤效果最好,且在后續(xù)視頻幀中目標(biāo)也沒有丟失。

圖2 Tiger2視頻序列Fig 2 Tiger2 video sequence
圖3和圖4中右上角的數(shù)據(jù)為所有點(diǎn)的中心位置誤差的均值,均值越小說明平均誤差越小,算法的準(zhǔn)確性越高。從誤差曲線圖可看出:FCTNew算法最好,F(xiàn)CT算法次之,CT算法最差。

圖3 David視頻序列的跟蹤誤差曲線圖Fig 3 Tracking error curve of David video sequence

圖4 Tiger2視頻序列跟蹤誤差曲線圖Fig 4 Tracking error curve of Tiger2 video sequence
綜上,改進(jìn)的FCT算法優(yōu)于CT和FCT算法,能更好地應(yīng)用于實際。
4 結(jié) 論
新算法引入了時空上下文特征;對原來的隨機(jī)測量矩陣進(jìn)行了改進(jìn);最后引入方差分類器對候選樣本進(jìn)行預(yù)判定。通過仿真實驗可證明,改進(jìn)的FCT算法在時效性和準(zhǔn)確性上,都優(yōu)于CT算法和FCT算法。
[1] Yilmaz A,Javed O,Shah M.Object tracking:A survey [J].ACM Computing Surveys,2006,38(4):1-45.
[2] Yang G,Liu H.Survey of visual tracking algorithms [J].CAAI Transactions on Intelligent Systems,2010,5(2):95-105.
[3] Zhang Kaihua,Zhang Lei,Yang Ming-Hsuan.Real-time compressive tracking[C]∥Computer Vision-ECCV,2012:866-879.
[4] Donoho D L.Compressed sensing[J].IEEE Transactions on Information Theory,2006,52(4):1289-1306.
[5] Zhang Kaihua,Zhang Lei,Yang Ming-Hsuan.Fast compressive tracking[J].Pattern Analysis and Machine Intelligence,2014,36(10):2002-2015.
[6] Babenko B,Yang Ming-Hsuan,Belongie S.Robust object tracking with online multiple instance learning[J].Pattern Analysis and Machine Intelligence,2011,33(8):1619-1632.
[7] Dinh T B,Vo N,Medioni G.Context tracker:Exploring supporters and distracters in unconstrained environments[C]∥2011 IEEE Conference on Computer Vision and Pattern Recognition(CVPR),IEEE,2011:1177-1184.
[8] Zhang K,Zhang L,Yang M,et al.Fast tracking via spatio-temporal context learning[J].Computer Vision and Pattern Recognition,2013,1939(1311):127-141.
[9] Xie Yuan,Zhang Wensheng,Qu Yanyun.Discriminative subspace learning with sparse representation view-based model for robust visual tracking[J].Pattern Recognition,2014,47(3):1383-1394.
[10] Kalal Z,Mikolajcayk K,Matas J.Tracking-learning-detection[J].Pattern Analysis and Machine Intelligence,2012,34(7):1409-1423.
[11] Xie Chengjun,Tan Jieqing,Chen Peng.Collaborative object tra-cking model with local sparse representation[J].J Vis Commun Image R,2014,25(2):423-434.
Fasting compressive sensing algorithm with context based on image sensor*
MAO Zheng-chong, TANG Yu-yu, HAN Yi
(Key Laboratory of Advanced Process Control for Light Industry,Ministry of Education,Jiangnan University,Wuxi 214122,China)
Aiming at problems that fast compressive tracking(FCT),algorithm has poor robustness in target occlusion and illumination changes,propose a FCT algorithm with context based on image sensors.First,the new algorithm introduces temporal and spatial context features in the Haar-like feature,and assists to estimate target position by spatial information around target and time recurrence relation.By improved random measurement matrix,extract simultaneously texture features and gray features of target,stability of feature is enhanced,accuracy of target tracking is improved.Pre-judge candidate sample by variance classifier,reduce number of decision,reduce number of wrong candidate samples.The improved FCT algorithm has good invariance for illumination,rotation and scale changes,tracking drift also not easy to happen.It can be proved that the improved FCT algorithm is superior to CT and FCT algorithms.
fast compressive tracking(FCT) algorithm; compressive sensing(CS); random measurement matrix; variance classifier; naive Bayes classifier
2016—01—06
國家自然科學(xué)基金資助項目(60973095); 江蘇省自然科學(xué)基金資助項目(BK20131107)
10.13873/J.1000—9787(2016)10—0131—04
TP 391
A
1000—9787(2016)10—0131—04
茅正沖(1964-),男,江蘇啟東人,碩士,副教授,主要從事機(jī)器人視聽覺識別的研究工作。