• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于局部稀疏表示的目標(biāo)跟蹤算法

      2018-10-29 11:09:14程中建李康徐龍香
      軟件導(dǎo)刊 2018年8期
      關(guān)鍵詞:稀疏表示目標(biāo)跟蹤

      程中建 李康 徐龍香

      摘要:目標(biāo)跟蹤是計(jì)算機(jī)視覺領(lǐng)域重要的研究方向之一。基于l1最小化稀疏表示的目標(biāo)跟蹤算法跟蹤精度高,但是在跟蹤部分遮擋目標(biāo)或當(dāng)背景中存在與目標(biāo)相似的干擾物時(shí)會(huì)發(fā)生漂移。這主要是因?yàn)樗惴▋H關(guān)注目標(biāo)的整體特征,而忽略了目標(biāo)局部特征的變化情況。為了解決該問題,提出基于目標(biāo)外觀局部稀疏表示的跟蹤算法。首先,對(duì)待選樣本進(jìn)行分塊,然后利用采集得到的模板對(duì)各分塊進(jìn)行稀疏表示并計(jì)算重構(gòu)誤差,最后選取累積誤差最小的待選樣本作為跟蹤目標(biāo)。實(shí)驗(yàn)結(jié)果表明,該算法在跟蹤被部分遮擋的目標(biāo)時(shí)相比l1跟蹤算法有更高的準(zhǔn)確度。

      關(guān)鍵詞:目標(biāo)跟蹤;稀疏表示;l1算法;分塊策略;生成模型

      DOIDOI:10.11907/rjdk.181568

      中圖分類號(hào):TP312

      文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào)文章編號(hào):1672-7800(2018)008-0106-04

      英文摘要Abstract:Object tracking is one of the most important research areas in computer vision.The object tracking algorithm based on l1 sparse representation minimization has high tracking accuracy.However,when the object is partially occluded or the environment is similar to the object,the tracker may drift.This is mainly because the algorithm only focuses on the overall characteristics of the object and ignores the changes of the local characteristics of the object.In order to solve this problem,we propose a tracking algorithm based on the local sparse representation.Firstly,the candidate sample is divided into several overlaped blocks.Then,we employ each block using the collected templates to calculate reconstructive error.Finally,the candidate sample with the smallest reconstructive error is selected as the target.Experimental results show that our algorithm has higher accuracy than l1 tracker when tracking partially occluded objects.

      英文關(guān)鍵詞Key Words:object tracking; sparse representation; l1algorithm; block strategy; generative model

      0 引言

      目標(biāo)跟蹤是計(jì)算機(jī)視覺領(lǐng)域重要研究課題之一。在交通導(dǎo)航、虛擬現(xiàn)實(shí)、視頻監(jiān)控、無人機(jī)飛行等領(lǐng)域應(yīng)用廣泛。近年來,國內(nèi)外大量跟蹤算法被開發(fā)出來[1-6]。但由于受到目標(biāo)外觀變化、目標(biāo)局部遮擋和目標(biāo)信息缺失等眾多干擾因素影響,開發(fā)出魯棒性的跟蹤算法仍然面臨巨大挑戰(zhàn)。

      按照外觀模型的不同,現(xiàn)有目標(biāo)跟蹤算法可以分為兩類:生成式模型和判別式模型。判別式算法模型[7-11]將目標(biāo)跟蹤視為二值分類問題,通過使用采樣得到的正樣本和負(fù)樣本訓(xùn)練分類器分離目標(biāo)與背景,然后選擇具有最大分類響應(yīng)值的待選樣本作為跟蹤結(jié)果。文獻(xiàn)[8]提出了一種基于在線增強(qiáng)方法更新判別特征的目標(biāo)跟蹤算法。在此基礎(chǔ)上,文獻(xiàn)[9]提出一種半在線算法處理跟蹤漂移問題。多實(shí)例目標(biāo)跟蹤(MIL)[10]使用在線Boosting算法訓(xùn)練分類器處理非線性分類問題。邸男等[11]利用棱錐面方程的單峰特性并結(jié)合似然相似度函數(shù)提高目標(biāo)與背景的區(qū)分度。判別式算法在跟蹤復(fù)雜環(huán)境中的目標(biāo)時(shí)會(huì)得到魯棒性結(jié)果,但在處理外觀變化不大的目標(biāo)時(shí)往往會(huì)丟失目標(biāo)。

      生成式算法模型[12-17]通過訓(xùn)練樣本學(xué)習(xí)目標(biāo)外觀模型,然后在候選樣本中選擇重構(gòu)誤差最小的樣本作為跟蹤結(jié)果。Adam等[12]提出使用多尺度灰度直方圖表示目標(biāo)特征。Mei等[13-14]利用目標(biāo)整體特征建模外觀模型,通過求解l1最小化問題選擇具有最小重構(gòu)誤差的候選樣本作為跟蹤目標(biāo)。Liu等[15]結(jié)合稀疏表示思想和均值漂移模型,提出了一種基于局部稀疏表示的目標(biāo)跟蹤算法。周等[16]提出了幀間差分與局部Camshift的跟蹤算法解決運(yùn)動(dòng)目標(biāo)提取后存在的”空洞”現(xiàn)象。Zhang等[17]通過將跟蹤過程建模為多任務(wù)稀疏學(xué)習(xí)問題,提出了一種協(xié)同跟蹤算法。與判別式跟蹤算法不同,基于生成式模型的算法具有較高的跟蹤精確度,但是在目標(biāo)環(huán)境較為復(fù)雜時(shí)跟蹤結(jié)果不夠魯棒。

      基于l1最小化稀疏表示的目標(biāo)跟蹤算法[13]跟蹤精度高、跟蹤速度快,但是該算法在跟蹤被遮擋的目標(biāo)時(shí)容易發(fā)生漂移,主要因?yàn)樵撍惴▋H考慮了目標(biāo)的整體外觀而忽略了目標(biāo)被遮擋部分的外觀。為解決該問題,本文提出一種基于局部稀疏表示的目標(biāo)跟蹤算法。首先,將目標(biāo)樣本分割成多個(gè)有部分重疊的局部區(qū)域;然后針對(duì)每個(gè)局部區(qū)域分別進(jìn)行稀疏表示,計(jì)算重構(gòu)誤差;最后選擇累積誤差最小的候選樣本作為跟蹤結(jié)果。算法在考慮目標(biāo)整體外觀特征的同時(shí),結(jié)合目標(biāo)局部信息,解決被遮擋目標(biāo)的跟蹤問題,提高跟蹤的魯棒性。

      1 局部稀疏表示跟蹤算法實(shí)現(xiàn)

      近年來,基于生成式模型的稀疏表示方法被應(yīng)用于目標(biāo)跟蹤,取得了魯棒的跟蹤效果[13-15,18]。該算法使用模板稀疏表示目標(biāo)的整體外觀模型,并根據(jù)最小化l1選取具有最小重構(gòu)誤差的待選樣本作為跟蹤結(jié)果。但是,這類算法僅考慮了目標(biāo)整體的外觀模型,忽略跟蹤目標(biāo)的局部結(jié)構(gòu)信息,因此在利用l1最小化計(jì)算被部分遮擋的待選樣本時(shí)會(huì)產(chǎn)生較大的重構(gòu)誤差,導(dǎo)致這類算法在跟蹤被部分遮擋的目標(biāo)時(shí)容易丟失目標(biāo)。

      為了改進(jìn)稀疏表示算法(簡稱L1算法)存在的問題,提出一種局部分塊稀疏表示的跟蹤策略。如圖1所示,首先對(duì)所有樣本進(jìn)行分塊處理,然后使用稀疏表示計(jì)算每一個(gè)分塊的重構(gòu)誤差,最后選擇具有最小累積誤差的待選樣本作為跟蹤結(jié)果。分塊稀疏表示的策略綜合考慮了目標(biāo)整體外觀和局部外觀信息,相較于L1算法在處理目標(biāo)部分遮擋等問題時(shí)具有更高精準(zhǔn)度。

      1.2 模板更新

      為了適應(yīng)目標(biāo)背景受非確定因素影響發(fā)生的變化,算法應(yīng)及時(shí)更新各分塊區(qū)域?qū)?yīng)的模板集。如果模板更新過快,模板的重構(gòu)誤差將會(huì)不斷積累,進(jìn)而導(dǎo)致跟蹤結(jié)果發(fā)生偏移,與此相反,如果模板更新太慢或模板固定不變,將不能準(zhǔn)確表達(dá)目標(biāo)外觀模型,最終丟失目標(biāo)。

      2.3 實(shí)驗(yàn)結(jié)果分析

      從表1、表2(最好結(jié)果由粗體標(biāo)出)可以看出,本文提出的算法與其它經(jīng)典算法相比具有較好的跟蹤效果。結(jié)合圖2,根據(jù)所選測(cè)試跟蹤序列特點(diǎn)進(jìn)行具體分析。

      (1)Basketball。該測(cè)試跟蹤序列中由于目標(biāo)區(qū)域存在大面積背景區(qū)域,如目標(biāo)頭部兩側(cè)及腿部之間的區(qū)域,目標(biāo)整體外觀模型隨背景變化,造成跟蹤困難。跟蹤過程中,VTD、L1分別在第33、351幀丟失目標(biāo),MIL在第351幀時(shí)偏移到非目標(biāo)上,只有本文算法能夠準(zhǔn)確跟蹤目標(biāo)。測(cè)試結(jié)果表明,本文算法在光照變化和背景復(fù)雜的跟蹤環(huán)境中能夠準(zhǔn)確跟蹤。

      (2)Dudek。該測(cè)試視頻序列為室內(nèi)環(huán)境,由于目標(biāo)姿勢(shì)和運(yùn)動(dòng)變化,目標(biāo)外觀模型劇烈改變,造成跟蹤困難。跟蹤過程中,MIL在第214幀發(fā)生漂移,L1、VTD、Ours均能夠準(zhǔn)確跟蹤到目標(biāo)。

      (3)Woman。該測(cè)試視頻在目標(biāo)經(jīng)過汽車時(shí),目標(biāo)遮擋面積約為其總面積的2/3,遮擋過程持續(xù)時(shí)間近60幀。由于無法處理目標(biāo)被部分遮擋的區(qū)域,第126幀時(shí),L1漂移到車輛上,MIL與VTD丟失跟蹤目標(biāo)。本文算法由于運(yùn)用分塊策略,能夠?qū)δ繕?biāo)分塊區(qū)域分別處理,再由稀疏表示計(jì)算出的重構(gòu)誤差從局部角度分析目標(biāo)是否存在遮擋,避免L1算法中整體外觀模型產(chǎn)生的不足。本算法不更新存在嚴(yán)重遮擋的分塊對(duì)應(yīng)的模板集,最大限度上降低了由于更新產(chǎn)生的誤差累積,使算法能夠準(zhǔn)確針對(duì)目標(biāo)的各塊外觀建模。跟蹤結(jié)果驗(yàn)證了本算法能夠準(zhǔn)確跟蹤部分遮擋的目標(biāo)。

      (4)David2。在該視頻中,跟蹤目標(biāo)區(qū)域較小、目標(biāo)與背景區(qū)域局部相似造成跟蹤難點(diǎn)。L1、MIL分別在第28、198幀時(shí)發(fā)生漂移,并在第537幀完全丟失目標(biāo),僅VTD與本文算法能夠較準(zhǔn)確跟蹤到目標(biāo)。

      (5)David3。該測(cè)試視頻中,目標(biāo)被樹木大面積遮擋。L1,MIL均在第90幀丟失目標(biāo),VTD在103幀丟失目標(biāo),而由于本文算法采用了分塊策略處理目標(biāo)存在的部分遮擋問題,因此能夠準(zhǔn)確地跟蹤到目標(biāo)。

      3 結(jié)語

      本文通過分析傳統(tǒng)L1算法中目標(biāo)整體稀疏表示存在忽略跟蹤區(qū)域局部信息的缺陷,提出了一種基于局部分塊稀疏表示的目標(biāo)跟蹤算法。通過對(duì)目標(biāo)區(qū)域進(jìn)行分塊處理,可以對(duì)各分塊單獨(dú)運(yùn)用稀疏表示求解重構(gòu)誤差,并以此判斷目標(biāo)當(dāng)前是否處于被遮擋狀態(tài)。在模板更新時(shí),提出不更新重構(gòu)誤差較大的分塊,避免被遮擋的目標(biāo)模板污染模板集,提高了算法的魯棒性。利用分塊思想對(duì)L1算法忽略的局部信息加以利用,使算法能夠處理更加復(fù)雜的跟蹤環(huán)境。本文算法將分塊稀疏表示理論應(yīng)用于目標(biāo)跟蹤,探討了局部重構(gòu)誤差對(duì)跟蹤結(jié)果的影響,加深了對(duì)多模塊聯(lián)合稀疏表示方法的認(rèn)識(shí),豐富了稀疏表示在目標(biāo)跟蹤中的理論應(yīng)用。實(shí)驗(yàn)結(jié)果表明,該算法在跟蹤被部分遮擋的目標(biāo)時(shí),相比其它經(jīng)典跟蹤算法有更高的準(zhǔn)確度。在未來工作中,將在現(xiàn)有研究基礎(chǔ)上結(jié)合深度特征對(duì)目標(biāo)進(jìn)行跟蹤。

      參考文獻(xiàn):

      [1] DANELLJAN M,SHAHBAZ KHAN F,F(xiàn)ELSBERG M,et al.Adaptive color attributes for real-time visual tracking[C].IEEE Conference on Computer Vision and Pattern Recognition,2014:1090-1097.

      [2] ZHANG T,JIA K,XU C,et al.Partial occlusion handling for visual tracking via robust part matching[C].Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2014:1258-1265.

      [3] 王宇霞,趙清杰,蔡藝明,等.基于自重構(gòu)粒子濾波算法的目標(biāo)跟蹤[J].計(jì)算機(jī)學(xué)報(bào),2016,39(7):1294-1306.

      [4] 姜文濤,劉萬軍,袁姮,等.視覺量子目標(biāo)跟蹤方法[J].軟件學(xué)報(bào),2016,27(11):2961-2984.

      [5] 黃慶俊,何儒漢.基于協(xié)方差矩陣的壓縮感知跟蹤算法[J].軟件導(dǎo)刊,2017,16(4):31-35.

      [6] LIU Q,YANG J,ZHANG K,et al.Adaptive compressive tracking via online vector boosting feature selection[J].IEEE Transactions on Cybernetics,2017,47(12):4289-4301.

      [7] AVIDAN S.Ensemble tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,29 (2):261-271.

      [8] GRABNER H,BISCHOF H.On-line boosting and vision[C].IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2006,1:260-267.

      [9] GRABNER H,LEISTNER C,BISCHOF H.Semi-supervised on-line boosting for robust tracking[C].European Conference on Computer Vision,2008:234-247.

      [10] BABENKO B,YANG M H,BELONGIE S.Visual tracking with online multiple instance learning[C].IEEE Conference on Computer Vision and Pattern Recognition,2009:983-990.

      [11] 邸男,朱明,韓廣良.似然相似度函數(shù)在目標(biāo)跟蹤中的魯棒機(jī)理研究[J].軟件學(xué)報(bào),2015,26(1):52-61.

      [12] ADAM A,RIVLIN E,SHIMSHONI I.Robust fragments-based tracking using the integral histogram[C].2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2006,1:798-805.

      [13] MEI X,LING H.Robust visual tracking using 1 minimization[C].2009 IEEE 12th International Conference on Computer Vision,2009:1436-1443.

      [14] MEI X,LING H,WU Y,et al.Minimum error bounded efficient 1 tracker with occlusion detection[C].2011 IEEE Conference on Computer Vision and Pattern Recognition,2011:1257-1264.

      [15] LIU B,HUANG J,YANG L,et al.Robust tracking using local sparse appearance model and k-selection[C].2011 IEEE Conference on Computer Vision and Pattern Recognition,2011:1313-1320.

      [16] 周文靜,陳瑋.基于改進(jìn)幀間差分與局部Camshiift相結(jié)合的目標(biāo)跟蹤算法[J].軟件導(dǎo)刊,2018,17(3):68-70.

      [17] ZHANG T,GHANEM B,LIU S,et al.Robust visual tracking via multi-task sparse learning[C].2012 IEEE Conference on Computer Vision and Pattern Recognition,2012:2042-2049.

      [18] LIU B,YANG L,HUANG J,et al.Robust and fast collaborative tracking with two stage sparse optimization[C].European Conference on Computer Vision,2010:624-637.

      [19] KWON J,LEE K M.Visual tracking decomposition[C].2010 IEEE Conference on Computer Vision and Pattern Recognition,2010:1269-1276.

      [20] WU Y,LIM J,YANG M H.Online object tracking:a benchmark[C].2013 IEEE Conference on Computer Vision and Pattern Recognition,2013:2411-2418.

      (責(zé)任編輯:江 艷)

      猜你喜歡
      稀疏表示目標(biāo)跟蹤
      多視角目標(biāo)檢測(cè)與跟蹤技術(shù)的研究與實(shí)現(xiàn)
      Grouplet變換原理及技術(shù)綜述
      基于改進(jìn)連續(xù)自適應(yīng)均值漂移的視頻目標(biāo)跟蹤算法
      基于重采樣粒子濾波的目標(biāo)跟蹤算法研究
      航空兵器(2016年5期)2016-12-10 17:12:24
      基于稀疏表示的圖像去噪和超分辨率重建
      基于字典學(xué)習(xí)和結(jié)構(gòu)聚類的圖像去噪算法研究
      分塊子空間追蹤算法
      空管自動(dòng)化系統(tǒng)中航跡濾波算法的應(yīng)用與改進(jìn)
      科技視界(2016年5期)2016-02-22 12:25:31
      智能視頻技術(shù)在電力系統(tǒng)領(lǐng)域的應(yīng)用
      基于車牌識(shí)別的機(jī)混車道視頻測(cè)速算法
      西平县| 文登市| 资中县| 霍林郭勒市| 衢州市| 于都县| 霍林郭勒市| 日土县| 资中县| 永寿县| 乡宁县| 万荣县| 肇州县| 长丰县| 汤阴县| 沧源| 威宁| 新竹县| 金山区| 湖南省| 仁布县| 金华市| 扎囊县| 武功县| 南京市| 揭阳市| 开原市| 平舆县| 沧源| 咸宁市| 平江县| 漳浦县| 宿松县| 衡南县| 余江县| 肥西县| 罗平县| 定襄县| 万荣县| 陇西县| 独山县|