• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于稀疏子空間選擇的在線目標(biāo)跟蹤

      2016-08-11 06:18:59黃丹丹孫怡
      自動(dòng)化學(xué)報(bào) 2016年7期
      關(guān)鍵詞:表觀粒子模板

      黃丹丹  孫怡

      基于稀疏子空間選擇的在線目標(biāo)跟蹤

      黃丹丹1孫怡1

      本文在粒子濾波框架下提出一種基于稀疏子空間選擇的兩步在線跟蹤方法.在跟蹤的第一步,利用稀疏子空間選擇算法篩選出與目標(biāo)狀態(tài)相似性較高的候選區(qū)域,并將目標(biāo)與背景間的過(guò)渡區(qū)域定義為單獨(dú)的類別以降低目標(biāo)發(fā)生漂移的可能;第二步則通過(guò)構(gòu)建有效的觀測(cè)模型計(jì)算候選區(qū)域與目標(biāo)狀態(tài)間的相似性,其中相似性函數(shù)綜合考慮二者在整體和局部特征上的相似性,且將目標(biāo)的原始狀態(tài)和當(dāng)前狀態(tài)都作為參考,因此增強(qiáng)了觀測(cè)模型的可靠性;最后利用最大后驗(yàn)概率估計(jì)目標(biāo)狀態(tài).此外,該算法通過(guò)對(duì)目標(biāo)數(shù)據(jù)的更新來(lái)適應(yīng)目標(biāo)的表觀變化.實(shí)驗(yàn)結(jié)果表明該算法能有效處理目標(biāo)跟蹤中的遮擋、運(yùn)動(dòng)模糊、光流與尺度變化等問(wèn)題,與當(dāng)前流行的9種跟蹤方法在多個(gè)測(cè)試視頻上的對(duì)比結(jié)果驗(yàn)證了該算法的有效性.

      目標(biāo)跟蹤,表觀變化,稀疏子空間選擇,粒子濾波

      引用格式黃丹丹,孫怡.基于稀疏子空間選擇的在線目標(biāo)跟蹤.自動(dòng)化學(xué)報(bào),2016,42(7):1077-1089

      目標(biāo)跟蹤是對(duì)視頻序列中的目標(biāo)進(jìn)行狀態(tài)估計(jì)的過(guò)程,它是特征提取、目標(biāo)檢測(cè)等底層視覺(jué)技術(shù)的輸出,同時(shí)為行為判定、語(yǔ)義理解等高級(jí)視覺(jué)分析提供輸入信息,在整個(gè)視覺(jué)處理流程中起到承上啟下的作用.盡管研究者們提出了大量的跟蹤算法[1-3],但是由于形變、光照、遮擋等原因?qū)е铝四繕?biāo)表觀的復(fù)雜變化,使得目標(biāo)跟蹤仍是計(jì)算機(jī)視覺(jué)領(lǐng)域的研究難點(diǎn).

      一般來(lái)說(shuō),一個(gè)跟蹤系統(tǒng)最重要的兩個(gè)組成部分是運(yùn)動(dòng)模型和觀測(cè)模型.其中運(yùn)動(dòng)模型對(duì)目標(biāo)在當(dāng)前情況下所有的可能狀態(tài)進(jìn)行預(yù)測(cè),常見的運(yùn)動(dòng)模型包括卡爾曼濾波[4]、粒子濾波[5]等.觀測(cè)模型則用于計(jì)算每個(gè)候選狀態(tài)與目標(biāo)間的相似性,通常根據(jù)目標(biāo)表觀建模的方式確定,例如基于稀疏表達(dá)的跟蹤方法常采用重建誤差作為度量標(biāo)準(zhǔn)[6-9],而基于直方圖的建模方法則用直方圖相似進(jìn)行計(jì)算[10-11].由于觀測(cè)模型與目標(biāo)表觀建模密切相關(guān),因此對(duì)目標(biāo)表觀進(jìn)行精確而魯棒的描述是成功跟蹤的基礎(chǔ).根據(jù)表觀建模的方式不同可將現(xiàn)有的跟蹤方法分為兩類,分別是生成式方法[12-15]和判別式方法[16-19].

      生成式跟蹤方法首先對(duì)目標(biāo)表觀建模,然后在視頻序列中搜索與目標(biāo)模型最相似的區(qū)域來(lái)跟蹤目標(biāo).增量視覺(jué)跟蹤(Incremental visual tracking,IVT)[12]基于低維子空間的方法對(duì)目標(biāo)建模,并通過(guò)子空間的增量學(xué)習(xí)對(duì)模型進(jìn)行自動(dòng)更新以適應(yīng)表觀變化.視覺(jué)跟蹤分解(Visual tracking decomposition,VTD)[13]將運(yùn)動(dòng)模型和觀測(cè)模型分為若干個(gè)小模型,通過(guò)這些小模型對(duì)目標(biāo)的表觀進(jìn)行更精確的描述,因此該方法在目標(biāo)表觀發(fā)生變化時(shí)仍能比較準(zhǔn)確地捕捉到目標(biāo)的位置.此外,文獻(xiàn)[14]利用稀疏表示技術(shù)對(duì)目標(biāo)區(qū)域進(jìn)行稀疏編碼來(lái)表征目標(biāo),并通過(guò)均值漂移搜索具有最小重建誤差的區(qū)域作為跟蹤結(jié)果;而超像素跟蹤(Superpixel tracking,SPT)[15]則采用中等視覺(jué)線索— 超像素來(lái)描述目標(biāo)表觀,并定義置信圖計(jì)算候選區(qū)域與目標(biāo)模型間的相似性.生成式跟蹤方法不考慮目標(biāo)與背景之間的區(qū)分性,因此當(dāng)目標(biāo)處于復(fù)雜背景時(shí),很難保持穩(wěn)定的跟蹤.判別式方法則將目標(biāo)跟蹤建模為二類的分類問(wèn)題,通過(guò)訓(xùn)練目標(biāo)表觀分類器來(lái)跟蹤目標(biāo).典型的判別式跟蹤方法如多樣例跟蹤(Multiple instance learning,MIL)[16]將目標(biāo)附近的多個(gè)區(qū)域定義為正樣本包,以此來(lái)緩解跟蹤中的漂移問(wèn)題.跟蹤學(xué)習(xí)檢測(cè)(Tracking learning detection,TLD)[17]則更關(guān)注目標(biāo)的結(jié)構(gòu)性,它將檢測(cè)與跟蹤相結(jié)合,并在訓(xùn)練中根據(jù)樣本結(jié)構(gòu)性限制不斷修正分類器從而得到更好的跟蹤結(jié)果.文獻(xiàn)[18]將圖像的稀疏編碼作為特征來(lái)表征樣本,并訓(xùn)練一個(gè)線性支持向量機(jī)來(lái)區(qū)分目標(biāo)與背景.判別式跟蹤方法雖然考慮了目標(biāo)與背景之間的判別性,但是在跟蹤中常會(huì)由于累積誤差而導(dǎo)致模型的漂移.在以上兩種方法的基礎(chǔ)上,文獻(xiàn)[20]構(gòu)建了一個(gè)基于稀疏表示的聯(lián)合模型,利用生成式方法和判別式方法聯(lián)合跟蹤目標(biāo),跟蹤的結(jié)果則由兩種方法共同決定.

      上述方法從不同角度對(duì)目標(biāo)表觀進(jìn)行建模,針對(duì)跟蹤中的難點(diǎn)提出各自的解決方法,但是這些方法都需要對(duì)所有的候選區(qū)域構(gòu)建表觀模型,然后從其中選擇與目標(biāo)最接近的作為跟蹤結(jié)果.然而實(shí)際上,根據(jù)運(yùn)動(dòng)模型獲得的候選狀態(tài)中僅有少數(shù)與目標(biāo)狀態(tài)接近,大部分候選狀態(tài)都與實(shí)際狀態(tài)具有較大的偏離,因此對(duì)所有候選狀態(tài)進(jìn)行建模不僅造成大量的冗余計(jì)算,而且這些候選區(qū)域具有不同的表觀特性,這種表觀復(fù)雜性也加大了跟蹤中表觀建模和觀測(cè)建模的難度.針對(duì)這一問(wèn)題,本文在粒子濾波框架下提出一種兩步的在線跟蹤方法.在跟蹤的第一步,該方法首先根據(jù)指定的目標(biāo)區(qū)域構(gòu)造目標(biāo)數(shù)據(jù);然后利用該數(shù)據(jù)張成的子空間對(duì)候選區(qū)域進(jìn)行預(yù)處理,提取出少量與目標(biāo)狀態(tài)最接近的候選狀態(tài),這個(gè)預(yù)選的過(guò)程通過(guò)稀疏子空間選擇算法實(shí)現(xiàn).在跟蹤的第二步,則對(duì)這些選出的候選狀態(tài)構(gòu)建簡(jiǎn)單有效的聯(lián)合觀測(cè)模型,最后根據(jù)最大后驗(yàn)概率估計(jì)目標(biāo)狀態(tài).與現(xiàn)有的跟蹤方法不同,本文提出的方法對(duì)采樣得到的候選狀態(tài)進(jìn)行預(yù)處理,在減少候選狀態(tài)個(gè)數(shù)的同時(shí)還提高了候選狀態(tài)的“質(zhì)量”,即:保留的候選狀態(tài)比其他狀態(tài)更接近目標(biāo).這使得該算法不必為了區(qū)分多樣化的候選狀態(tài)而對(duì)目標(biāo)的表觀進(jìn)行復(fù)雜的建模,在避免了冗余計(jì)算的同時(shí)也使得模型的設(shè)計(jì)更簡(jiǎn)約有效.在多個(gè)測(cè)試視頻上的跟蹤結(jié)果驗(yàn)證了本文算法的有效性.

      1 基于相異性的稀疏子空間選擇算法[21]

      稀疏子空間選擇是指從大量的源數(shù)據(jù)中找到一個(gè)子空間,該子空間能夠保留所有目標(biāo)數(shù)據(jù)的關(guān)鍵性質(zhì),構(gòu)成子空間的元素也稱為“代表”或“樣例”.在視覺(jué)系統(tǒng)中,尤其是在視頻處理中,稀疏子空間選擇算法能夠?qū)⒋罅康膱D像有針對(duì)性地進(jìn)行聚類并獲得聚類中心[22]. 基于相異性的稀疏子空間選擇算法(Dissimilarity-based sparse subset selection,DS3)將該問(wèn)題描述如下:已知源數(shù)據(jù)和目標(biāo)數(shù)據(jù)利用某種度量標(biāo)準(zhǔn)計(jì)算X、Y中元素之間的相異性,根據(jù)二者的相異性矩陣計(jì)算X中數(shù)據(jù)對(duì)Y中元素的表達(dá)系數(shù).首先介紹源數(shù)據(jù)X和目標(biāo)數(shù)據(jù)Y之間的相異性矩陣D,該矩陣定義如下:

      式中,‖·‖p表示lp范數(shù);I(t)表示指示函數(shù),當(dāng)t=0時(shí),函數(shù)值為0,否則值為1.式(3)中,目標(biāo)函數(shù)的第1項(xiàng)用于約束表達(dá)Y所使用的元素個(gè)數(shù),即尋找的子空間中所包含的元素個(gè)數(shù),第2項(xiàng)約束的是X表達(dá)Y所需要的整體代價(jià),第3項(xiàng)約束的是Y中奇異元素的個(gè)數(shù),即Y中不能用X表達(dá)的元素的個(gè)數(shù)為平衡前兩項(xiàng)約束的參數(shù),wj>0是懲罰因子,ej∈[0,1]表示是奇異元素的概率.式(3)可以通過(guò)乘數(shù)交替方向算法(Alternating direction method of multipliers,ADMM)[23]求解.系數(shù)矢量zzi中只有少量元素非0,所以式(3)也可視為信號(hào)的稀疏表示問(wèn)題.由于子空間選擇算法的目的就是從源數(shù)據(jù)中找到能夠表達(dá)目標(biāo)數(shù)據(jù)的子集合,因此在根據(jù)式(3)求得優(yōu)化解Z?之后,可以通過(guò)數(shù)值的大小來(lái)確定子集合中的元素.如果X中的第i個(gè)元素對(duì)應(yīng)的系數(shù)矢量zi滿足則為子集合中的元素,其中μ為約束系數(shù),本文中取值為0.2.為后文表述方便起見,將子集合記為其中l(wèi)c為元素 xxlc在源數(shù)據(jù)集合X中的索引,C為子集合中元素的個(gè)數(shù).從子集合的選擇過(guò)程可知,C的值與源數(shù)據(jù)和目標(biāo)數(shù)據(jù)有關(guān),是根據(jù)式(3)的計(jì)算結(jié)果自動(dòng)確定的.那么自然地,目標(biāo)數(shù)據(jù)集合中的元素可以用子集合中的元素稀疏地表示,可以通過(guò)下式進(jìn)行聚類,

      從以上描述可知,已知源數(shù)據(jù)X和目標(biāo)數(shù)據(jù)Y,通過(guò)DS3算法不僅可以找到X的一個(gè)低維子空間去描述Y,還能夠根據(jù)這種描述關(guān)系將源數(shù)據(jù)自動(dòng)聚類,并為目標(biāo)數(shù)據(jù)中的每個(gè)元素分配類別.本文將目標(biāo)跟蹤中的候選區(qū)域作為源數(shù)據(jù)X,利用目標(biāo)模板與背景模板構(gòu)建目標(biāo)數(shù)據(jù)Y,根據(jù)上述DS3算法將候選區(qū)域聚類,并為目標(biāo)數(shù)據(jù)分配類別,選出與目標(biāo)模板同類別的候選區(qū)域進(jìn)行后續(xù)跟蹤處理,以減少冗余計(jì)算并降低觀測(cè)建模的復(fù)雜性.

      圖1 源數(shù)據(jù)(樣本)示意圖((a)采樣得到的候選區(qū)域;(b)歸一化的候選圖像)Fig.1 Sketch map of source data(samples)((a)Candidates obtained by sampling;(b)Normalized candidates)

      2 基于稀疏子空間選擇的兩步目標(biāo)跟蹤方法

      本節(jié)著重介紹提出的兩步跟蹤算法,首先給出源數(shù)據(jù)與目標(biāo)數(shù)據(jù)的構(gòu)造方法;然后介紹如何利用DS3算法對(duì)候選區(qū)域進(jìn)行預(yù)處理;之后提出本文使用的相似性函數(shù),最后給出目標(biāo)數(shù)據(jù)的在線更新方法.

      2.1源數(shù)據(jù)與目標(biāo)數(shù)據(jù)的構(gòu)造方法

      從上節(jié)可知,DS3算法從源數(shù)據(jù)張成的空間中尋找一個(gè)低維子空間來(lái)表達(dá)目標(biāo)數(shù)據(jù).本文將候選區(qū)域作為源數(shù)據(jù),具體做法為:首先利用粒子濾波算法對(duì)目標(biāo)狀態(tài)進(jìn)行采樣,然后將采樣得到的候選區(qū)域進(jìn)行歸一化,再對(duì)歸一化后的圖像進(jìn)行列向量化就得到源數(shù)據(jù)其中是第個(gè)候選區(qū)域經(jīng)過(guò)列向量化后得到的向量,d為的維數(shù),m 為候選區(qū)域的個(gè)數(shù).構(gòu)造源數(shù)據(jù)的過(guò)程如圖1所示,圖1(a)中矩形框內(nèi)的圖像為采樣得到的候選區(qū)域,圖1(b)是經(jīng)過(guò)歸一化的候選圖像.

      目標(biāo)數(shù)據(jù)是待表達(dá)的數(shù)據(jù),本文根據(jù)指定的目標(biāo)區(qū)域和背景區(qū)域進(jìn)行目標(biāo)數(shù)據(jù)的構(gòu)造.從現(xiàn)有的跟蹤方法可知,在目標(biāo)建模時(shí)加入判別信息后會(huì)得到更好的跟蹤結(jié)果[17-18].大部分方法中,判別信息指的是目標(biāo)和背景之間的差別信息,例如在基于稀疏表示的方法中,判別信息一般體現(xiàn)為利用目標(biāo)模板和背景模板構(gòu)造字典[18-19].但是在實(shí)際中,目標(biāo)區(qū)域與背景區(qū)域之間還存在過(guò)渡區(qū)域,如圖2(a)中右側(cè)上數(shù)第2個(gè)示意圖所示.由于目標(biāo)建模的方法不同,對(duì)過(guò)渡區(qū)域的處理也各不相同.在MIL跟蹤中,將這部分區(qū)域作為正樣本來(lái)包容跟蹤中產(chǎn)生的模型漂移,而在文獻(xiàn)[20]中則將其作為負(fù)模板以減少狀態(tài)估計(jì)的誤差.在本文提出的跟蹤方法中,將過(guò)渡區(qū)域作為獨(dú)立的一類,因此目標(biāo)數(shù)據(jù)由三部分構(gòu)成,分別是目標(biāo)模板P={ pppi|i=1,···,n1}、過(guò)渡模板H= { hhhi|i=1,···,n2}和背景模板G={ gggi|i=1,···,n3}.這三類模板的位置分布分別如圖2(a)中右側(cè)三個(gè)示意圖所示,具體的模板圖像由左側(cè)的矩形框表示.其中目標(biāo)模板由目標(biāo)區(qū)域向各個(gè)方向分別平移得到,背景模板從背景區(qū)域采樣得到,過(guò)渡模板則在二者之間由采樣得到,這三類模板在圖2(a)中分別用實(shí)線、虛線和點(diǎn)劃線的矩形框表示.對(duì)這些模板進(jìn)行歸一化和列向量化處理,即可得到由三類模板構(gòu)成的目標(biāo)數(shù)據(jù)其中n=n1+n2+n3為模板個(gè)數(shù)的總和,經(jīng)過(guò)歸一化的模板如圖2(b)所示.

      圖2 目標(biāo)數(shù)據(jù)(模板)示意圖((a)模板分布示意圖;(b)歸一化的模板圖像)Fig.2 Sketch map of target data(templates)((a)Sketch map of template distributions;(b)Normalized templates)

      2.2基于DS3的候選區(qū)域預(yù)處理

      按照上節(jié)的方法將源數(shù)據(jù)X和目標(biāo)數(shù)據(jù)Y構(gòu)建完成后,根據(jù)歐氏距離計(jì)算二者之間的相異性矩陣D,即通過(guò)求解式(3)可找到X的一個(gè)低維子空間用于描述Y,同時(shí)源數(shù)據(jù)X可根據(jù)表達(dá)系數(shù)矩陣Z自動(dòng)聚類,目標(biāo)數(shù)據(jù)Y可根據(jù)式(4)進(jìn)行分類,圖3給出了這一過(guò)程的示意圖.圖3(a)為樣本圖像,也即源數(shù)據(jù)X;圖3(c)則是X的聚類結(jié)果,其中每個(gè)橢圓代表一類,不同線型的橢圓代表不同的類別.圖3(b)表示的是目標(biāo)數(shù)據(jù)Y,圖像的外接矩形框給出Y中每個(gè)模板在圖3(c)中所屬的類別,例如目標(biāo)模板 pp1的外接矩形為實(shí)線,那么 pp1與圖3(c)中實(shí)線橢圓內(nèi)的候選區(qū)域?qū)儆谕活悇e,其他模板的類別以此類推.從圖3可知,經(jīng)過(guò)DS3算法后,目標(biāo)數(shù)據(jù)的每個(gè)元素都會(huì)在候選區(qū)域的聚類結(jié)果中找到對(duì)應(yīng)的類別.由于目標(biāo)數(shù)據(jù)由目標(biāo)模板、過(guò)渡模板和背景模板構(gòu)成,因此,根據(jù)圖3所示的分類結(jié)果,可以得到與目標(biāo)模板處于同一類別的候選區(qū)域,如圖4所示.其中圖4(a)為目標(biāo)數(shù)據(jù)中的目標(biāo)模板,它代表了目標(biāo)在不同時(shí)刻的表觀;圖4(b)為圖3(c)中與目標(biāo)模板處于同一類別的候選區(qū)域,也就是經(jīng)過(guò)預(yù)處理后保留下來(lái)的候選區(qū)域.

      經(jīng)過(guò)上述過(guò)程,候選狀態(tài)中與目標(biāo)狀態(tài)接近的部分被篩選出來(lái)并根據(jù)觀測(cè)模型進(jìn)行最終的狀態(tài)估計(jì),而其余的則被拋棄.通過(guò)對(duì)候選區(qū)域的預(yù)處理,不僅減少了冗余計(jì)算,而且保留下來(lái)的候選區(qū)域的表觀更趨于單一化,更有利于目標(biāo)的狀態(tài)估計(jì).本文能成功地對(duì)候選區(qū)域進(jìn)行預(yù)處理,主要有以下三個(gè)原因:一是根據(jù)稀疏表示系數(shù)篩選候選區(qū)域能夠有效地適應(yīng)目標(biāo)的表觀變化,由于大量基于稀疏表示的跟蹤方法已經(jīng)證明了稀疏模型能夠處理局部遮擋、局部形變以及光流、尺度和位姿變化對(duì)目標(biāo)表觀的影響,而本文提出的粒子預(yù)判方法又是基于源數(shù)據(jù)對(duì)目標(biāo)數(shù)據(jù)的稀疏表示系數(shù),因此繼承了基于稀疏表示的模型對(duì)目標(biāo)表觀變化的適應(yīng)能力,從而使粒子預(yù)判的結(jié)果更加準(zhǔn)確.二是采用DS3算法對(duì)候選區(qū)域進(jìn)行聚類不需要預(yù)先規(guī)定類別個(gè)數(shù),而是完全根據(jù)數(shù)據(jù)本身的特點(diǎn)自動(dòng)聚類,避免了由于硬性規(guī)定聚類個(gè)數(shù)而導(dǎo)致的聚類誤差,并使得同一類別內(nèi)的候選區(qū)域具有更強(qiáng)的相似性.三是將過(guò)渡模板加入到目標(biāo)數(shù)據(jù)中,使得偏離真實(shí)狀態(tài)較小的候選區(qū)域也能被分離出來(lái),降低了這部分候選區(qū)域被保留的可能性,這也保證了選出的候選區(qū)域更接近真實(shí)的目標(biāo)狀態(tài).

      圖3 目標(biāo)數(shù)據(jù)(模板)和源數(shù)據(jù)(樣本)聚類示意圖((a)樣本示意圖;(b)模板以及聚類結(jié)果;(c)樣本聚類結(jié)果)Fig.3 Sketch map of target data(templates)clustering and source data(samples)clustering((a)Sketch map of samples;(b)Templates and clustering results;(c)Samples clustering results)

      圖4 粒子預(yù)判示意圖((a)目標(biāo)模板示意圖;(b)與目標(biāo)模板屬于同一類別的樣本示意圖)Fig.4 Sketch map of particles pre-filter((a)Sketch map of target templates;(b)Sketch map of samples that has the same classes with target templates)

      2.3相似性函數(shù)

      在目標(biāo)跟蹤中,觀測(cè)模型用于計(jì)算候選狀態(tài)與目標(biāo)區(qū)域之間的相似性,該相似性反映了候選狀態(tài)是參考目標(biāo)的概率.為了更準(zhǔn)確地估計(jì)當(dāng)前的目標(biāo)狀態(tài),本文構(gòu)建了一個(gè)聯(lián)合相似性函數(shù),從整體和局部?jī)蓚€(gè)方面綜合衡量候選區(qū)域與目標(biāo)之間的相似性.令表示經(jīng)過(guò)預(yù)處理后保留下來(lái)的候選區(qū)域?yàn)榈趥€(gè)候選區(qū)域,T為目標(biāo)模板,那么與T之間的相似性可通過(guò)下式計(jì)算:

      2.4目標(biāo)數(shù)據(jù)在線更新

      目標(biāo)的表觀在跟蹤中會(huì)由于光流、視角以及本身形變等原因而改變.隨著時(shí)間的推移,根據(jù)首幀信息構(gòu)造的目標(biāo)模型不能完全適應(yīng)這些變化,從而導(dǎo)致跟蹤失敗.因此有效的模型更新是跟蹤算法能否長(zhǎng)期穩(wěn)定跟蹤的一個(gè)重要因素,本文對(duì)目標(biāo)數(shù)據(jù)進(jìn)行在線更新以適應(yīng)目標(biāo)的表觀變化.由于目標(biāo)數(shù)據(jù)是由目標(biāo)模板、過(guò)渡模板和背景模板三部分組成,因此需要分別進(jìn)行更新.為了使更新方法更加高效,本文每5幀進(jìn)行一次判斷,如果目標(biāo)模板能夠很好地描述目標(biāo)當(dāng)前的表觀,則不需要更新.如果目標(biāo)模板不能適應(yīng)目標(biāo)當(dāng)前的表觀,則用當(dāng)前的跟蹤結(jié)果取代目標(biāo)模板中權(quán)重最小的模板,權(quán)重的計(jì)算方法與文獻(xiàn)[6]相同.同時(shí)在目標(biāo)區(qū)域與背景區(qū)域之間進(jìn)行重新采樣以更新過(guò)渡模板,并在背景區(qū)域采樣更新背景模板.在目標(biāo)模板更新時(shí),保留首幀中由指定的目標(biāo)區(qū)域構(gòu)成的目標(biāo)模板以減輕跟蹤過(guò)程中的漂移.實(shí)驗(yàn)結(jié)果證明該更新方法與本文提出的兩步跟蹤方法相結(jié)合,能夠準(zhǔn)確地捕捉目標(biāo)在跟蹤過(guò)程中的表觀變化,獲得更穩(wěn)定的跟蹤結(jié)果.

      3 兩步跟蹤算法的實(shí)現(xiàn)

      本文提出的兩步跟蹤方法基于粒子濾波框架,粒子濾波中包含兩個(gè)重要的模型,分別是觀測(cè)模型和運(yùn)動(dòng)模型.令表示目標(biāo)在第t幀的觀測(cè)表示目標(biāo)在第t幀的狀態(tài),本文將觀測(cè)模型定義為:

      此外,運(yùn)動(dòng)模型建模為具有6個(gè)獨(dú)立參數(shù)的高斯分布,即:

      在上述框架下,本文跟蹤方法的第1步包括根據(jù)粒子濾波方法對(duì)當(dāng)前狀態(tài)進(jìn)行采樣、利用DS3算法對(duì)候選狀態(tài)進(jìn)行預(yù)處理.而第2步則包括對(duì)保留下來(lái)的候選區(qū)域構(gòu)建觀測(cè)模型,根據(jù)最大后驗(yàn)概率估計(jì)目標(biāo)狀態(tài).為了將本文算法表述的更加清楚,本節(jié)總結(jié)了該算法的各個(gè)步驟,并概括如算法1所示.

      算法1.兩步跟蹤算法流程

      初始化階段t=1:

      在指定目標(biāo)區(qū)域周圍提取目標(biāo)模板,在背景區(qū)域采樣得

      到背景模板,在目標(biāo)區(qū)域與背景區(qū)域之間采樣得到過(guò)渡

      模板,利用三類模板構(gòu)造目標(biāo)數(shù)據(jù)Y;

      跟蹤階段:

      Fort=2:FrameNum

      第1步:

      1)根據(jù)第t-1幀的目標(biāo)狀態(tài),利用式(9)進(jìn)行狀態(tài)預(yù)測(cè),并用候選區(qū)域構(gòu)造源數(shù)據(jù)X;

      2)利用DS3算法對(duì)源數(shù)據(jù)聚類,并根據(jù)式(4)對(duì)

      目標(biāo)數(shù)據(jù)中的每個(gè)模板進(jìn)行分類;

      3)選出與目標(biāo)模板屬于同一類別的候選區(qū)域,進(jìn)

      行第2)步的處理;

      第2步:

      1)根據(jù)式(5)~(7)計(jì)算保留下來(lái)的候選區(qū)

      取200 g飛灰,放入不銹鋼容器內(nèi),量取20%(w/w)去離子水,將穩(wěn)定化藥劑溶解于水中并將水溶液均勻?yàn)⒃陲w灰樣品表面,充分?jǐn)嚢韬?,自然養(yǎng)護(hù)7 d,將養(yǎng)護(hù)結(jié)束后的樣品破碎用于重金屬浸出毒性檢測(cè)。

      域與目標(biāo)模板間的相似性;

      2)根據(jù)式(8)和式(10)估計(jì)當(dāng)前目標(biāo)狀態(tài);

      更新:

      Ift是5的整數(shù)倍

      根據(jù)第2.4節(jié)方法更新目標(biāo)數(shù)據(jù)Y;

      End

      End

      此外,值得指出的是,本文在粒子濾波框架下實(shí)現(xiàn)目標(biāo)的跟蹤,主要是因?yàn)榱W訛V波是一種比較有效的搜索策略,它采用多個(gè)隨機(jī)的采樣粒子來(lái)逼近目標(biāo)真實(shí)的密度分布,可以不受狀態(tài)矢量非線性和非高斯的限制.由于粒子濾波的限制條件少,并且能夠提供目標(biāo)所有可能的狀態(tài),因此與本文提出的粒子預(yù)判方法相結(jié)合后,能夠使保留下來(lái)的粒子更加接近目標(biāo)的真實(shí)狀態(tài),從而提高跟蹤的準(zhǔn)確程度.實(shí)際上,本文提出的粒子預(yù)判方法和目標(biāo)表觀模型也可以和其他的搜索方法相結(jié)合實(shí)現(xiàn)目標(biāo)跟蹤,如Kalman濾波和窮盡搜索等.但是Kalman濾波要求目標(biāo)的運(yùn)動(dòng)模型和觀測(cè)模型均為線性,并且要求系統(tǒng)噪聲滿足高斯分布,因此當(dāng)目標(biāo)不滿足上述條件時(shí)容易導(dǎo)致跟蹤失敗.而窮盡搜索雖然能夠提供有效的采樣粒子,但是計(jì)算量太大,無(wú)法應(yīng)用于自然場(chǎng)景下的目標(biāo)跟蹤.

      圖5 粒子預(yù)判算法對(duì)多余粒子的濾除性能Fig.5 Performance of the particles pre-filter algorithm for filtering the redundant particles

      4 實(shí)驗(yàn)結(jié)果及分析

      4.1粒子預(yù)判算法的有效性分析

      本節(jié)選取四個(gè)測(cè)試視頻進(jìn)行粒子預(yù)判算法的有效性分析,分別是Faceocc、Singer1、Dollar和Owl序列.本節(jié)的實(shí)驗(yàn)包括兩部分,一是分析算法對(duì)多余粒子的濾除情況,二是分析算法對(duì)跟蹤性能的增強(qiáng)情況.圖5是測(cè)試視頻在粒子預(yù)判算法對(duì)多余粒子的濾除性能,其中橫軸為初始的粒子數(shù)目,縱軸為經(jīng)過(guò)粒子預(yù)判后保留下來(lái)的粒子數(shù)目,該數(shù)據(jù)是測(cè)試視頻在所有幀的平均值.從圖中可知,經(jīng)過(guò)粒子預(yù)判后,保留的粒子數(shù)目有了大幅度的減少,證明了粒子預(yù)判的有效性.表1是測(cè)試視頻在粒子預(yù)判前后的平均跟蹤結(jié)果,包括中心位置誤差和重合面積參數(shù),中心位置誤差PosErr定義為當(dāng)前跟蹤結(jié)果的中心位置坐標(biāo)與參考值之間的均方根,面積重合參數(shù)定義為其中Rg和Rt分別表示目標(biāo)區(qū)域面積的參考值和實(shí)際跟蹤結(jié)果.表1中的數(shù)據(jù)是在初始粒子數(shù)目為300的條件下得到跟蹤結(jié)果.無(wú)預(yù)判是沒(méi)有經(jīng)過(guò)粒子預(yù)判,直接對(duì)所有粒子都進(jìn)行觀測(cè).建模的跟蹤結(jié)果;有預(yù)判則是本文提出的兩步跟蹤算法的跟蹤結(jié)果.從表中可知,經(jīng)過(guò)粒子預(yù)判算法后,跟蹤結(jié)果的準(zhǔn)確性都得到了不同程度的提高,這是因?yàn)楸疚奶岢龅牧W宇A(yù)判算法利用稀疏表示來(lái)建模目標(biāo)和樣本之間的結(jié)構(gòu)關(guān)系,因此繼承了稀疏表示模型對(duì)目標(biāo)表觀變化的適應(yīng)能力,能夠有效地去除距離目標(biāo)真實(shí)位置較遠(yuǎn)的粒子,從而提高了算法的跟蹤性能.

      4.2定性分析

      本節(jié)給出本文算法以及其他9種對(duì)比算法在測(cè)試視頻上的跟蹤結(jié)果,并從四個(gè)角度對(duì)這些算法的性能進(jìn)行測(cè)試與比較.為了使圖片中的結(jié)果更清晰,本文只給出效果最好的5種方法的跟蹤結(jié)果并只對(duì)這5種方法的性能進(jìn)行討論與分析.

      表1 有無(wú)粒子預(yù)判處理的跟蹤結(jié)果對(duì)比Table 1 Tracking results comparing between the method with particle pre-filter and the method without particle pre-filter

      圖6 目標(biāo)存在遮擋時(shí)的跟蹤結(jié)果Fig.6 Tracking results when targets are occluded

      測(cè)試1.目標(biāo)存在遮擋時(shí)本文算法的跟蹤性能. 圖6(a)所示的Race序列中,目標(biāo)不僅經(jīng)歷嚴(yán)重的遮擋而且目標(biāo)的尺度和外觀都發(fā)生了巨大的變化,從結(jié)果圖像中可知,只有本文的算法能夠在整個(gè)序列中保持穩(wěn)定準(zhǔn)確的跟蹤.在150幀,當(dāng)目標(biāo)幾乎被完全遮擋時(shí),其他算法都不能對(duì)目標(biāo)進(jìn)行準(zhǔn)確定位.而在576幀,盡管除了IVT外的方法都捕捉到目標(biāo)的位置,但是只有本文算法能夠?qū)δ繕?biāo)的尺度進(jìn)行正確的估計(jì).隨著時(shí)間推移,到了719幀,除本文算法外的其余算法都已經(jīng)丟失了目標(biāo),跟蹤失敗. 圖6(b)所示的Faceocc序列中,人臉圖像被頻繁地遮擋,盡管圖中所示的5種方法都能成功跟蹤目標(biāo),但是本文的算法在尺度以及定位精度上要優(yōu)于其他方法,具體數(shù)值如表3所示.圖6(c)的Dollar序列中,目標(biāo)紙幣經(jīng)過(guò)折疊后,從目標(biāo)呈現(xiàn)的表觀來(lái)看相當(dāng)于該紙幣被部分遮擋.IVT、MIL和DSSM在紙幣被折起時(shí),就產(chǎn)生了漂移,并且除MIL外其他方法并沒(méi)有在后續(xù)圖像中恢復(fù)正確的跟蹤.而本文的算法在根據(jù)稀疏子空間選擇算法對(duì)候選區(qū)域進(jìn)行預(yù)處理時(shí),將目標(biāo)區(qū)域與背景區(qū)域間的過(guò)渡區(qū)域單獨(dú)定義為一類,因此減少了這部分區(qū)域被保留下來(lái)參與最終狀態(tài)估計(jì)的可能性,避免了漂移的發(fā)生.

      測(cè)試2.目標(biāo)由于快速運(yùn)動(dòng)而產(chǎn)生運(yùn)動(dòng)模糊時(shí)本文算法的跟蹤性能.Jumping序列中的目標(biāo)由于快速跳躍而產(chǎn)生模糊,而背景區(qū)域的復(fù)雜性也增加了跟蹤的難度.IVT和Frag在構(gòu)建目標(biāo)模型時(shí)不考慮目標(biāo)與背景間的區(qū)別信息,同時(shí)根據(jù)模糊目標(biāo)圖像構(gòu)建的表觀模型又不能準(zhǔn)確地描述目標(biāo),從而導(dǎo)致跟蹤失敗.DSSM算法雖然利用了判別信息,但是對(duì)過(guò)渡區(qū)域所屬類別的定義并不明確,因此當(dāng)目標(biāo)區(qū)域存在模糊時(shí),極易導(dǎo)致模型的漂移.如圖7(a)所示,DSSM的跟蹤結(jié)果總是在實(shí)際位置周圍,這說(shuō)明該方法構(gòu)建的目標(biāo)模型雖然能在一定程度上區(qū)分目標(biāo)與背景,但是模型已經(jīng)產(chǎn)生漂移以至于不能準(zhǔn)確地定位目標(biāo).此外SCM算法則由于其采用的聯(lián)合模型而使得跟蹤比較準(zhǔn)確.相對(duì)于以上幾種方法,本文算法在跟蹤的第1步利用了目標(biāo)與背景間的判別信息,而且將過(guò)渡區(qū)域明確規(guī)定為一個(gè)獨(dú)立的類別,在減少漂移的同時(shí)也保證了篩選出的候選區(qū)域更接近目標(biāo)的真實(shí)狀態(tài);此外,算法第2步建立的觀測(cè)模型不僅從整體與局部?jī)蓚€(gè)方面綜合衡量候選狀態(tài)與目標(biāo)之間的相似性,而且采用原始目標(biāo)狀態(tài)和經(jīng)過(guò)表觀變化的目標(biāo)狀態(tài)作為相似性函數(shù)的參考標(biāo)準(zhǔn),因此本文的觀測(cè)模型在存在模糊時(shí)仍能對(duì)目標(biāo)當(dāng)前的狀態(tài)進(jìn)行準(zhǔn)確地估計(jì).圖7(b)所示的Owl序列中,目標(biāo)區(qū)域的準(zhǔn)確輪廓在快速的運(yùn)動(dòng)下幾乎不能用肉眼分辨.從結(jié)果圖像可見,除本文算法外,其余幾種方法都有不同程度的漂移,這說(shuō)明本文算法能夠有效地處理跟蹤中由于快速運(yùn)動(dòng)而產(chǎn)生的模糊現(xiàn)象.

      圖7 目標(biāo)快速運(yùn)動(dòng)產(chǎn)生模糊時(shí)的跟蹤結(jié)果Fig.7 Tracking results when targets appearance is blurry because of quick movement

      圖8 光流發(fā)生變化時(shí)的跟蹤結(jié)果Fig.8 Tracking results when targets undergo illumination changes

      圖9 目標(biāo)發(fā)生形變((a),(b))以及場(chǎng)景中存在相似區(qū)域((b),(c))時(shí)的跟蹤結(jié)果Fig.9 Tracking results when targets occur deforms((a)and(b))and results when there are similar regions in scenes((b)and(c))

      測(cè)試3.光流變化時(shí)本文算法的跟蹤性能.圖8(a)所示的Singer1序列中,場(chǎng)景的光流與目標(biāo)的尺度都發(fā)生巨大的變化.L1和LSK不考慮目標(biāo)與背景間的判別信息,因此不能很好地應(yīng)對(duì)光流和尺度的變化.VTD、SCM和本文算法都能在整個(gè)序列中成功地跟蹤目標(biāo),但是本文算法采用兩步跟蹤,不僅能夠減少漂移,而且由于觀測(cè)模型的有效性而使跟蹤的結(jié)果更加準(zhǔn)確.在Car11序列中,目標(biāo)車輛在低照度情況下行駛,并且在運(yùn)動(dòng)中伴隨著光流的變化以及由于相機(jī)抖動(dòng)引起的輕微模糊.由于目標(biāo)的表觀在整個(gè)序列中只發(fā)生了剛性變化,因此大多數(shù)方法都能很好地跟蹤目標(biāo).只有TLD方法從跟蹤開始不久就產(chǎn)生漂移,并且隨著時(shí)間推移,這種漂移越來(lái)越嚴(yán)重,如圖8(b)所示.

      測(cè)試4.目標(biāo)表觀發(fā)生變化或場(chǎng)景中存在與目標(biāo)相似區(qū)域時(shí)本文算法的跟蹤性能.在圖9(a)所示的Sylv序列中,目標(biāo)在不同光照下由于位姿變化而導(dǎo)致目標(biāo)表觀的變化.雖然這幾種方法都成功地對(duì)目標(biāo)進(jìn)行了跟蹤,但是DSSM和TLD算法在355幀到542幀之間發(fā)生了輕微的漂移,而SCM在613幀也偏離了目標(biāo)的真實(shí)位置,本文算法一直保持著穩(wěn)定的跟蹤,并且取得了最好的跟蹤結(jié)果,如表2和表3所示.圖9(b)所示的Football序列中,目標(biāo)經(jīng)歷快速運(yùn)動(dòng)并且場(chǎng)景中存在與目標(biāo)相似的區(qū)域.從結(jié)果圖像可見,IVT與Frag在181幀開始產(chǎn)生偏移,在309幀,VTD與DSSM也產(chǎn)生漂移,只有本文算法在整個(gè)序列中都能正確地估計(jì)目標(biāo)的狀態(tài),從而保持著準(zhǔn)確的跟蹤結(jié)果.在Stone序列的背景中存在大量與目標(biāo)類似的區(qū)域,這些區(qū)域增大了發(fā)生錯(cuò)誤跟蹤的可能性.在387幀,當(dāng)目標(biāo)被部分遮擋時(shí),VTD將遮擋物誤認(rèn)為是目標(biāo),并在后續(xù)跟蹤中無(wú)法恢復(fù).而IVT、TLD與SCM在跟蹤中不能很好地處理目標(biāo)的尺度變化,對(duì)比而言,本文算法的跟蹤結(jié)果取得了較小的定位誤差,同時(shí)與參考目標(biāo)具有最大的重合面積.

      表2 跟蹤結(jié)果的平均中心位置誤差(像素)Table 2 Average center location errors of tracking results(pixel)

      表3 跟蹤結(jié)果的平均面積重合誤差(像素)Table 3 Average overlap scores of tracking results(pixel)

      4.3定量分析

      本節(jié)采用中心位置誤差PosErr和面積重合參數(shù)SC對(duì)所有跟蹤算法的性能進(jìn)行定量分析.表2、表3分別給出包括本文算法在內(nèi)的10種跟蹤方法在10個(gè)測(cè)試視頻上的跟蹤結(jié)果,分別為跟蹤結(jié)果的平均中心位置誤差和平均面積重合參數(shù),其中最優(yōu)以及次優(yōu)的跟蹤結(jié)果分別用粗體和斜體表示,“—”表示跟蹤出現(xiàn)中斷.從表2可知,本文提出的兩步跟蹤算法在這些測(cè)試視頻上均取得最優(yōu)或次優(yōu)的結(jié)果,而在表3所示的重合面積參數(shù)中,本文算法在跟蹤的準(zhǔn)確性上優(yōu)于其他所有的跟蹤方法.

      為了更直觀地表現(xiàn)所有對(duì)比方法的跟蹤結(jié)果,圖10給出了上述兩個(gè)對(duì)比結(jié)果的曲線圖,點(diǎn)劃線為本文算法的跟蹤結(jié)果.圖10(a)中的中心誤差越小越好,而圖10(b)中的重合參數(shù)越大越好.圖中橫軸測(cè)試視頻的序號(hào)代表的視頻序列分別為:1.Car11;2.Faceocc;3.Sylv;4.Dollar;5.Football;6.Jumping;7.Owl;8.Stone;9.Race;10.Singer1.從圖10中可知本文算法的跟蹤性能優(yōu)于其他方法.

      除了上述平均跟蹤結(jié)果,本文還給出了Benchmark[2]中用于衡量算法整體跟蹤性能的曲線:OPE(One-pass evaluation)的曲線下面積(Area under curve,AUC),如圖11所示.其中圖11(a)為精確度曲線,圖11(b)為跟蹤成功率曲線.從圖11可知,當(dāng)誤差閾值設(shè)為20個(gè)像素時(shí),本文算法的跟蹤精確度達(dá)到90.25%,而當(dāng)成功跟蹤的閾值設(shè)為重合面積之比為0.6時(shí),本文算法的成功跟蹤率達(dá)到75.38%,這充分說(shuō)明本文算法在整個(gè)跟蹤過(guò)程中均能夠保持比較準(zhǔn)確而穩(wěn)定的跟蹤.

      4.4算法的運(yùn)行時(shí)間分析

      本節(jié)對(duì)本文算法的運(yùn)行時(shí)間進(jìn)行分析.由于LSK方法要求運(yùn)行環(huán)境為64位的處理器,無(wú)法與其他跟蹤方法在同一實(shí)驗(yàn)平臺(tái)上實(shí)現(xiàn),因此本節(jié)只對(duì)包括本文算法在內(nèi)的9種跟蹤方法在相同實(shí)驗(yàn)平臺(tái)上的運(yùn)行時(shí)間進(jìn)行對(duì)比.表4給出了這些跟蹤方法的運(yùn)行時(shí)間,從表中的數(shù)據(jù)可知,本文提出的兩步跟蹤算法雖然未能達(dá)到實(shí)時(shí)的跟蹤,但是其運(yùn)行時(shí)間在表中的跟蹤方法中仍然處于中上水平.此外,本文算法采用文獻(xiàn)[21]的作者提供的代碼進(jìn)行粒子預(yù)判的計(jì)算,該代碼并沒(méi)有經(jīng)過(guò)優(yōu)化或并行處理,是本文算法中最耗時(shí)的部分.在測(cè)試過(guò)程中,大概有3/4的運(yùn)行時(shí)間耗費(fèi)在粒子預(yù)判階段,因此本文算法的計(jì)算效率仍有提升的空間.

      圖10 所有跟蹤方法在全部測(cè)試視頻上的跟蹤性能((a)平均中心誤差曲線;(b)平均重合面積參數(shù)曲線)Fig.10 Performance of all the tracking methods in test sequences((a)Average center error curve;(b)Average overlap area parametric curve)

      圖11 OPE曲線((a)跟蹤精度的統(tǒng)計(jì)曲線;(b)跟蹤成功率的統(tǒng)計(jì)曲線)Fig.11 One-pass evaluation curve((a)Precision plot of OPE;(b)Success plots of OPE)

      表4 本文跟蹤算法與對(duì)比跟蹤算法的平均運(yùn)行時(shí)間比較Table 4 Average running times comparing between the proposed method and other methods

      5 總結(jié)

      本文在粒子濾波框架下提出一種基于稀疏子空間選擇的兩步跟蹤算法.該算法對(duì)采樣粒子進(jìn)行預(yù)處理,減少候選區(qū)域個(gè)數(shù)的同時(shí)提高了剩余候選狀態(tài)與目標(biāo)真實(shí)狀態(tài)間的近似程度,從而減少冗余計(jì)算并降低了目標(biāo)建模的復(fù)雜度.定義的相似性函數(shù)綜合考慮候選區(qū)域與目標(biāo)狀態(tài)在整體與局部特征上的相似性,并且將目標(biāo)的原始狀態(tài)和經(jīng)過(guò)表觀變化后的狀態(tài)同時(shí)作為參考,因此能夠提供更為準(zhǔn)確的觀測(cè)模型,提高目標(biāo)估計(jì)的準(zhǔn)確性.此外,該算法采用的更新策略也增強(qiáng)了其對(duì)目標(biāo)表觀變化的適應(yīng)能力.與其他跟蹤方法的對(duì)比實(shí)驗(yàn)結(jié)果證明本文算法的有效性.

      References

      1 Yilmaz A,Javed O,Shah M.Object tracking:a survey. ACM Computing Surveys(CSUR),2006,38(4):1-45

      2 Wu Y,Lim J,Yang M H.Online object tracking:a benchmark.In:Proceedings of the 2013 IEEE Conference on Computer Vision and Pattern Recognition.Portland,USA:IEEE,2013.2411-2418

      3 Smeulders A W M,Chu D M,Cucchiara R,Calderara S,Dehghan A,Shah M.Visual tracking:an experimental survey.IEEE Transactions on Pattern Analysis and Machine Intelligence,2014,36(7):1442-1468

      4 Kalman R E.A new approach to linear filtering and prediction problems.Transactions of the ASME,Journal of Basic Engineering,1960,82:35-45

      5 Doucet A,F(xiàn)reitas N,Gordon N.Sequential Monte Carlo Methods in Practice.New York:Springer-Verlag,2001.

      6 Mei X,Ling H B.Robust visual tracking using L1minimization.In:Proceedings of the 2009 International Conference on Computer Vision.Kyoto,Japan:IEEE,2009.1436-1443

      7 Zhang T Z,Ghanem B,Liu S,Ahuja N.Robust visual tracking via multi-task sparse learning.In:Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition.Providence,USA:IEEE,2012.2042-2049

      8 Hong Z B,Mei X,Prokhorov D,Tao D C.Tracking via robust multi-task multi-view joint sparse representation.In: Proceedings of the 2013 International Conference on Computer Vision.Sydney,NSW:IEEE,2013.649-656

      9 Zhang S P,Yao H X,Zhou H Y,Sun X,Liu S H.Robust visual tracking based on online learning sparse representation. Neurocomputing,2013,100:31-40

      10 Adam A,Rivlin E,Shimshoni I.Robust fragments-based tracking using the integral histogram.In:Proceedings of the 2006 IEEE Conference on Computer Vision and Pattern Recognition.New York,USA:IEEE,2006.798-805

      11 He S F,Yang Q X,Lau R W H,Wang J,Yang M H.Visual tracking via locality sensitive histograms.In:Proceedings of the 2013 IEEE Conference on Computer Vision and Pattern Recognition.Portland,USA:IEEE,2013.2427-2434

      12 Ross D A,Lim J,Lin R S,Yang M-H.Incremental learning for robust visual tracking.International Journal of Computer Vision,2008,77(1):125-141

      13 Kwon J,Lee K M.Visual tracking decomposition.In:Proceedings of the 2010 IEEE Conference on Computer Vision and Pattern Recognition.San Francisco,USA:IEEE,2010. 1269-1276

      14 Liu B Y,Huang J Z,Yang L,Kulikowsk C.Robust tracking using local sparse appearance model and k-selection. In:Proceedings of the 2011 IEEE Conference on Computer Vision and Pattern Recognition.Providence,USA:IEEE,2011.1313-1320

      15 Yang F,Lu H C,Yang M H.Robust superpixel tracking.IEEE Transactions on Image Processing,2014,23(4):1639-1651

      16 Babenko B,Yang M H,Belongie S.Visual tracking with online multiple instance learning.In:Proceedings of the 2009 IEEE Conference on Computer Vision and Pattern Recognition.Miami FL,USA:IEEE,2009.983-990

      17 Kalal Z,Matas J,Mikolajczyk K.P-N learning:bootstrapping binary classifiers by structural constraints.In:Proceedings of the 2010 IEEE Conference on Computer Vision and Pattern Recognition.San Francisco,USA:IEEE,2010. 49-56

      18 Xie Y,Zhang W S,Li C H,Lin S Y,Qu Y Y,Zhang Y H.Discriminative object tracking via sparse representation and online dictionary learning.IEEE Transactions on Cybernetics,2014,44(4):539-553

      19 Zhuang B H,Lu H C,Xiao Z Y,Wang D.Visual tracking via discriminative sparse similarity map.IEEE Transactions on Image Processing,2014,23(4):1872-1881

      20 Zhong W,Lu H C,Yang M H.Robust object tracking via sparsity-based collaborative model.In:Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition.Providence,USA:IEEE,2012.1838-1845

      21 ElhamifarE,SapiroG,SastryS.Dissimilarity-based sparsesubsetselection.IEEETransactionsonPatternAnalysisandMachineIntelligence, 2014.DOI:10.1109/TPAMI.2015.2511748

      22 Elhamifar E,Vidal R.Sparse subspace clustering: algorithm,theory,and application.IEEE Transactions on Pattern Analysis and Machine Intelligence,2013,35(11):2765-2781

      23 Boyd S,Parikh N,Chu E,Peleato B,Eckstein J.Distributed optimization and statistical learning via the alternating direction method of multipliers.Foundations and Trends in Machine Learning,2010,3(1):1-122

      黃丹丹大連理工大學(xué)信息與通信工程學(xué)院博士研究生.2007年獲得長(zhǎng)春理工大學(xué)電子信息工程學(xué)院電子信息科學(xué)與技術(shù)系學(xué)士學(xué)位.主要研究方向?yàn)橐曨l序列中的目標(biāo)檢測(cè)與目標(biāo)跟蹤.

      E-mail:dluthuang@163.com

      (HUANG Dan-DanPh.D.candidate at the School of Information and Communication Engineering,Dalian University of Technology.She received her bachelor degree from Changchun University of Science and Technology in 2007.Her research interest covers object detection and object tracking.)

      孫怡大連理工大學(xué)信息與通信工程學(xué)院教授.1986年獲得大連理工大學(xué)電子系學(xué)士學(xué)位.主要研究方向?yàn)閳D像處理,模式識(shí)別與無(wú)線通信.本文通信作者.E-mail:lslwf@dlut.edu.cn

      (SUN YiProfessor at Dalian University of Technology.She received her bachelor degree from Dalian University of Technology in 1986.Her research interest covers image processing,pattern recognition,and wireless communication.Corresponding author of this paper.)

      Online Object Tracking via Sparse Subspace Selection

      HUANG Dan-Dan1SUN Yi1

      This paper proposes a two-stage online tracking method based on sparse subspace selection in the particle filter framework.At the first stage of the tracking,those candidates that highly similar to the target state are selected using the sparse subspace selection algorithm.The transition region between target and background region is defined as a separate category to alleviate the drifting.And at the second stage,a simple but effective observation model is built to calculate the similarities between the candidates and the target.The similarity measuring function not only considers the integral and local similarities comprehensively but also uses both the original target state and the state after appearance changes as references to enhance the reliability of the measurement model.Finally,the state of target is estimated according to the maximum posterior probability.Furthermore,the target appearance changes are captured by update strategy.The experimental results show that the proposed method can effectively handle the occlusion,motion blur,as well as illumination and scale changes in tracking.Comparative results on challenging benchmark image sequences show that this method performs favorable against the 9 other state-of-the-art algorithms.

      Object tracking,appearance changes,sparse subspace selection,particle filter

      10.16383/j.aas.2016.c150493

      Huang Dan-Dan,Sun Yi.Online object tracking via sparse subspace selection.Acta Automatica Sinica,2016,42(7):1077-1089

      2015-07-30錄用日期2016-01-23
      Manuscript received July 30,2015;accepted January 23,2016本文責(zé)任編委劉躍虎
      Recommended by Associate Editor LIU Yue-Hu
      1.大連理工大學(xué)信息與通信工程學(xué)院大連116024
      1.School of Information and Communication Engineering,Dalian University of Technology,Dalian 116024

      猜你喜歡
      表觀粒子模板
      鋁模板在高層建筑施工中的應(yīng)用
      鋁模板在高層建筑施工中的應(yīng)用
      綠盲蝽為害與赤霞珠葡萄防御互作中的表觀響應(yīng)
      河北果樹(2021年4期)2021-12-02 01:14:50
      鋼結(jié)構(gòu)表觀裂紋監(jiān)測(cè)技術(shù)對(duì)比與展望
      上海公路(2019年3期)2019-11-25 07:39:28
      例析對(duì)高中表觀遺傳學(xué)的認(rèn)識(shí)
      基于粒子群優(yōu)化的橋式起重機(jī)模糊PID控制
      基于粒子群優(yōu)化極點(diǎn)配置的空燃比輸出反饋控制
      鋁模板在高層建筑施工中的應(yīng)用
      城市綜改 可推廣的模板較少
      表觀遺傳修飾在糖脂代謝中的作用
      遺傳(2014年3期)2014-02-28 20:58:52
      安平县| 清水县| 镇安县| 崇礼县| 平山县| 穆棱市| 大埔县| 盐边县| 通道| 新河县| 天全县| 濮阳县| 连云港市| 崇州市| 宁晋县| 潞西市| 福清市| 巴楚县| 汾阳市| 萝北县| 修武县| 青浦区| 壶关县| 秦安县| 黄平县| 泰和县| 布拖县| 新蔡县| 安义县| 平潭县| 常宁市| 长治县| 昌吉市| 晋城| 招远市| 安乡县| 临猗县| 达州市| 石首市| 义马市| 万全县|