• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      自適應(yīng)觀測權(quán)重的目標跟蹤算法*

      2016-10-12 02:38:57行,陳
      計算機與生活 2016年7期
      關(guān)鍵詞:跟蹤器離群魯棒性

      劉 行,陳 瑩

      江南大學(xué) 輕工過程先進控制教育部重點實驗室,江蘇 無錫 214122

      自適應(yīng)觀測權(quán)重的目標跟蹤算法*

      劉行,陳瑩+

      江南大學(xué) 輕工過程先進控制教育部重點實驗室,江蘇 無錫 214122

      LIU Xing,CHEN Ying.Target tracking algorithm based on adaptive observation weight.Journal of Frontiers of Computer Science and Technology,2016,10(7):1010-1020.

      針對視覺跟蹤在復(fù)雜場景中跟蹤精度較低和魯棒性較差的問題,在貝葉斯框架下提出了一種自適應(yīng)觀測權(quán)重的目標跟蹤算法。通過視覺跟蹤中的線性表示模型構(gòu)建出一種加權(quán)觀測模型;提出一種基于迭代加權(quán)的模型優(yōu)化算法,利用在線更新的自適應(yīng)權(quán)重矩陣消除觀測離群值對跟蹤有效性的影響;最后,采用有效的似然評估函數(shù)實現(xiàn)對目標準確、魯棒的跟蹤。實驗結(jié)果表明,該算法在跟蹤精度和魯棒性方面都優(yōu)于現(xiàn)有的一些跟蹤算法。

      視覺跟蹤;線性表示;在線更新;離群值;自適應(yīng)權(quán)重矩陣

      1 引言

      目標跟蹤技術(shù)作為計算機視覺領(lǐng)域的重要課題已廣泛運用于人機交互、視頻監(jiān)控、智能交通、航空航天等諸多領(lǐng)域。目前,雖然視覺跟蹤領(lǐng)域已經(jīng)產(chǎn)生一些比較優(yōu)秀的跟蹤算法[1-4],但是在實際場景中由于存在光照變化、部分遮擋、低分辨率、目標形體變化及突然運動等諸多因素的干擾,設(shè)計出魯棒、高效的跟蹤算法仍然是一個具有挑戰(zhàn)性的難題。

      視覺跟蹤領(lǐng)域已經(jīng)提出的跟蹤算法大體分為兩類:判別式算法[5-7]和產(chǎn)生式算法[1,8-9]。判別式算法將目標跟蹤看成一個二分類問題,從背景中區(qū)分出感興趣的前景目標。產(chǎn)生式算法通過搜索與目標模型相似度最高的候選目標區(qū)域來進行跟蹤。在產(chǎn)生式跟蹤器中,基于線性表示模型的跟蹤算法引起了廣泛重視,出現(xiàn)了一些不錯的跟蹤算法[1,10-11],其中最突出的算法是Ross等人提出的IVT(incremental visual tracking)跟蹤器[1]。IVT在貝葉斯推理框架中通過PCA(principal component analysis)子空間對目標進行線性表示和在線增量學(xué)習(xí)的方式對子空間進行更新,取得了較好的跟蹤效果,但由于IVT跟蹤器將誤差項看成是高斯分布的,構(gòu)建出的模型對由部分遮擋、突然運動等干擾因素引起的離群值(離群值是指一組數(shù)據(jù)中與其他數(shù)值相比差異較大的數(shù)值)非常敏感,因此對于部分遮擋和突然運動等非常不魯棒。為解決跟蹤器對離群值的敏感性問題,Mei等人[12]利用目標模板和瑣碎模板重構(gòu)候選目標,提出了L1跟蹤器,通過稀疏表示解決L1最小化問題去估計真實目標位置,但是存在L1最小化耗時非常嚴重的問題。Bao等人[13]提出了一種加速的近端梯度下降法進一步緩解L1最小化問題,但是在復(fù)雜場景中跟蹤效果仍然不理想。Wang等人在文獻[9]中提出了一種軟閾值跟蹤算法,將誤差項看成是高斯-拉普拉斯分布,取得了一定的效果,但在具有眾多干擾項的場景中仍存在跟蹤精度較低和魯棒性較差的問題。Wang等人[14]將正常值看成是高斯分布,離群值看成是均勻分布,提出了概率離群模型的跟蹤算法,但這種對于離群值的處理仍然不夠理想,還是會在一些復(fù)雜場景中出現(xiàn)跟蹤漂移等問題。Xiao等人將L2范數(shù)用于視覺跟蹤領(lǐng)域提出了L2跟蹤器[15-16],利用Square模板[17]去構(gòu)建誤差項,取得了一定的效果,但在強烈光照、部分遮擋等因素同時干擾時容易漂移和跟蹤失敗,并且魯棒性較低。由于上述跟蹤器大多將誤差項看成是高斯分布或拉普拉斯分布,在沒有眾多干擾因素下是滿足的,然而在實際中,特別是存在遮擋,目標突然運動等干擾時,誤差項的分布是遠離高斯或拉普拉斯分布的,就會對離群值非常敏感,造成跟蹤算法失效。

      針對當(dāng)前跟蹤算法對離群值敏感,導(dǎo)致在復(fù)雜場景中跟蹤有效性和穩(wěn)定性較低的問題,提出了一種自適應(yīng)觀測權(quán)重的目標跟蹤算法(adaptive observation weighted tracking,AOWT)。算法未對觀測誤差作概率分布假設(shè),而是通過重寫誤差項,利用線性表示模型[1]構(gòu)建出一種加權(quán)觀測模型,然后建立一種基于迭代加權(quán)的模型優(yōu)化算法求解該模型,并且通過不斷在線更新的自適應(yīng)權(quán)重矩陣緩解并消除離群值對跟蹤有效性的影響,進而建立似然評估函數(shù)精確、魯棒地跟蹤目標。

      2 目標跟蹤框架

      視覺跟蹤的兩個核心部分就是運動模型和觀測模型。本文在貝葉斯推理框架[1]下進行目標跟蹤,跟蹤框架流程圖如圖1所示。

      圖1中,首先由運動模型產(chǎn)生候選樣本狀態(tài),然后通過觀測模型評估運動模型產(chǎn)生的候選狀態(tài),得到最佳的候選狀態(tài)后,通過增量PCA方法[1]更新觀測模型,進行下一幀跟蹤,最終實現(xiàn)對目標準確有效的跟蹤。其中運動模型和觀測模型的定義過程如下。

      給定目標在第t幀的觀測向量Zt={z1,z2,…,zn},n是觀測向量的維數(shù),觀測向量Zt是指在當(dāng)前幀目標圖像周圍提取的候選目標圖像塊;,是第t幀目標的位置變量,其中xit表示第i個樣本的位置狀態(tài)。然后可以通過式(1)最大后驗估計法得到最優(yōu)的目標位置。

      Fig.1 Flowchart of tracking framework圖1 跟蹤框架流程圖

      通過貝葉斯推理框架可以遞歸地求出后驗概率p(Xt|Zt),如式(2)所示:

      式中,p(Xt|Xt-1)表示連續(xù)兩幀之間的運動模型;p(Zt|Xt)是跟蹤系統(tǒng)中的觀測模型,也叫觀測似然函數(shù)。

      本文采用IVT[1]中6個仿射參數(shù)的方法來描述目標的運動模型,通過該模型產(chǎn)生候選樣本狀態(tài),表示第i個樣本在第t幀的目標狀態(tài)量。其中是目標中心在x方向和y方向的平移量;表示旋轉(zhuǎn)角;表示尺度變化量;表示高寬比;表示傾斜角。然后通過高斯分布來建模運動模型,如式(3)所示:

      其中,N表示高斯分布;ψ是對角協(xié)方差矩陣,ψ中的元素由仿射參數(shù)的方差構(gòu)成[1]。

      觀測模型在跟蹤系統(tǒng)中有著重要的作用,往往對跟蹤的有效性和魯棒性有很大影響,本文提出一種加權(quán)觀測模型來評估候選樣本,得出最準確穩(wěn)定的候選狀態(tài),利用增量PCA方法[1]更新觀測模型,最終提出一種自適應(yīng)觀測權(quán)重的目標跟蹤算法。

      3 自適應(yīng)觀測權(quán)重的目標跟蹤

      首先通過問題分析提出本文的基本思想,然后具體介紹構(gòu)建加權(quán)觀測模型的過程,進而提出基于迭代加權(quán)的模型優(yōu)化算法去求解觀測模型。

      3.1問題分析

      由線性表示模型[1]可知,在第t幀目標的觀測向量集Zt可以表示為:

      上式就是通過A和βt對Zt進行編碼。其中Zt是n維的觀測向量;βt∈Rq×1是q維的編碼系數(shù)向量;A=[a1,a2,…,aq]∈Rn×q是由若干幀跟蹤結(jié)果構(gòu)成的圖像子空間的PCA基向量矩陣;e是編碼誤差項。

      由于離群值像素通常發(fā)生在目標被遮擋或低分辨率的區(qū)域,相當(dāng)于Zt中包含了離群值像素,而A仍然是根據(jù)前若干幀跟蹤結(jié)果的圖像子空間得到的,顯然此時的編碼誤差e=Zt-Aβt會明顯增大,如果不對離群值進行處理,就會造成編碼的失效與不穩(wěn)定,進而導(dǎo)致跟蹤失敗。目前大多數(shù)跟蹤器[9,14,18-19]都將誤差分布看成高斯或拉普拉斯分布構(gòu)建出觀測模型,這樣的模型對跟蹤過程中出現(xiàn)的離群值(通常是由遮擋、低分辨、突然運動等引起的)非常敏感。為了解決編碼過程中對離群值敏感的問題,本文的基本思想是沒有直接將誤差項看成是高斯或拉普拉斯分布,而是通過重寫誤差項,建立一個與各數(shù)據(jù)點(像素點)有關(guān)的權(quán)重矩陣來構(gòu)建出一種加權(quán)觀測模型。該權(quán)重矩陣滿足對編碼誤差大的點(離群值點)給予較小的權(quán)重,誤差較小的點給予較大的權(quán)重(權(quán)重矩陣作用示意圖如圖2所示),然后提出一種基于迭代加權(quán)的模型優(yōu)化算法,通過反復(fù)迭代以改進權(quán)重系數(shù),消除離群值對編碼有效性的影響,最終得到最佳的編碼系數(shù)βt。

      Fig.2 Weight matrix effect schematic圖2 權(quán)重矩陣作用示意圖

      3.2加權(quán)觀測模型

      為了建立加權(quán)觀測模型,可由式(4)重寫誤差項為:

      其中,e的元素為ei=zi-aiβt,i=1,2,…,n。

      假設(shè)e1,e2,…,en是獨立同分布的,并且它們的概率密度函數(shù)為gθ(ei),θ是表示特征分布的參數(shù)集,可得該估計量的似然函數(shù)如式(6)所示:

      最大似然估計的目的是最大化式(6),等同于最小化式(7):

      通常情況下,可假設(shè)誤差項的概率密度函數(shù)gθ(ei)是對稱的,且當(dāng)|ei|<|ej|時gθ(ei) ρθ(ej)。為了不失一般性,令ρθ(0)=0[20]。

      其中,Gθ′(e0)是Gθ(e)的一階導(dǎo)數(shù)Gθ′(e)在e0處的函數(shù)值,Gθ′(e0)=[ρθ′(e0,1);ρθ′(e0,2);…;ρθ′(e0,n)],e0,i是e0的第i個元素;R1(e)是高階殘余項。

      在編碼過程中,為了使最小化更容易,一般要求Gθ(e)是凸函數(shù),故這里可以將 R1(e)近似為 R1(e)≈(e-e0)W(e-e0)/2[20]。因為e中的元素是獨立的,并且沒有ei與ej(i≠j)的交叉項,所以W是一個對角矩陣。由 ρθ(ei)的性質(zhì)可知,Gθ(e)在e=0時取得極小值,令Gθ′(0)=0可得W的對角元素Wi,i如式(10)所示:

      由 ρθ(ei)的性質(zhì)可知,ρθ′(e0,i)與e0,i有相同的符號,則Wi,i是大于0的標量。由文獻[20]可知,式(9)可以被重寫為式(11):

      b是和e0有關(guān)的一個常量,又因為e=Zt-Aβt,所以式(8)可以近似為式(12):

      其中,||?||2表示L2范數(shù);W是一個對角矩陣,作用于測試圖像的每一個像素。直觀上,在跟蹤過程中,為了緩解在編碼Zt時由于部分遮擋、突然運動等造成的離群值像素對編碼有效性的影響,此時應(yīng)該給離群值像素賦予很小的權(quán)重值,即Wi,i的值很小,這樣就會減少離群值對跟蹤的影響??紤]到文獻[21]中的logistic函數(shù)具有這樣的性質(zhì),故可定義權(quán)重函數(shù)wθ(ei):

      其中,ε和γ是大于0的常量,ε控制從1到0的下降率,γ控制分界點的位置,當(dāng)誤差的平方大于γ時,權(quán)重值減小到0.5。

      由3.1節(jié)的分析已經(jīng)知道存在離群值像素的地方會導(dǎo)致編碼誤差ei過大,即當(dāng)式(13)中的ei較大時,會使得exp(εγ-εei2)較小,從而導(dǎo)致式(13)的分母1+1/exp(εγ-εei2)較大,此時wθ(ei)就會取得較小值,因此該權(quán)重函數(shù)的定義保證了離群值像素處賦予小的權(quán)重值。同理,當(dāng)編碼誤差ei偏小時,通過式(13)會賦予大的權(quán)重值,這樣就保證了編碼誤差不同處的像素被賦予合適的權(quán)重值,達到了自適應(yīng)更新觀測權(quán)重的目的。在3.3節(jié)具體的優(yōu)化算法中利用相鄰迭代權(quán)重比的約束會進一步提高自適應(yīng)能力。為了使跟蹤對于離群值更加魯棒,在實際算法中將ε 和γ都定義為與編碼誤差有關(guān)的常量,定義如下:

      式中,Γa是Γ=[e12,e22,…,en2]經(jīng)過升序排列之后得到的;h=?λ2n?,λ2∈(0,1],?λ2n?表示取不超過λ2n的最大整數(shù)。定義ε的值為ε=λ3/γ,其中λ3是大于0的常量,本文取λ3=8。

      3.3基于迭代加權(quán)的模型優(yōu)化算法

      3.3.1迭代加權(quán)模型優(yōu)化算法的提出

      本節(jié)通過基于迭代加權(quán)的模型優(yōu)化算法求解觀測模型,在迭代過程中通過式(13)來自適應(yīng)更新權(quán)重矩陣W,消除離群值對跟蹤有效性和魯棒性的影響。直接采用L1-Ls[22]來計算式(12)非常耗時,因為式(12)是L1正則約束的最小化問題,由于L1正則化的目標函數(shù)在0處是不可導(dǎo)的,所以導(dǎo)致求解最小化比較復(fù)雜耗時。考慮到L2正則化的目標函數(shù)是一個二次函數(shù),在0處是可導(dǎo)的,可以直接通過二次函數(shù)的導(dǎo)數(shù)為0來計算最小化問題,這樣就會大大節(jié)省計算時間。又因為L2正則約束與L1相比唯一的區(qū)別是L2的稀疏性比L1要弱,在文獻[23]中已經(jīng)證明了稀疏性并不是影響編碼效果的本質(zhì)原因,并且利用L2范數(shù)代替L1范數(shù)進行編碼求解取得與之前一樣甚至更好的效果,因為L2范數(shù)能防止模型的過擬合問題。故式(12)可以通過L2正則約束來求解最小化問題(下文實驗結(jié)果的定量分析中用AOWT(L1)表示利用L1-Ls來計算式(12)的AOWT算法,AOWT(L2)表示通過L2最小化來計算式(12)的AOWT算法),可設(shè)L2正則化二次函數(shù)為式(15):

      因為T(βt)是一個凸函數(shù),所以令T(βt)的導(dǎo)數(shù)T′(βt)=0可以得到每次迭代最優(yōu)的為:

      基于迭代加權(quán)的模型優(yōu)化算法流程如下所示。

      算法1基于迭代加權(quán)的模型優(yōu)化算法

      輸入:Zt,Zt_mean,A,其中Zt_mean為Zt的均值向量。

      輸出:βt。

      (1)第一次迭代k=1,k表示迭代次數(shù)。

      (2)計算誤差e(k)=Zt-Zt(k),且令Zt(1)=Zt_mean,其中Zt(k)表示第k次迭代的重構(gòu)觀測向量。

      (3)計算第k次迭代的權(quán)重wθ(ei(k)):

      其中ε(k)、γ(k)表示第k次迭代的ε和γ。

      (7)重復(fù)步驟(2)~(6),直到連續(xù)5次迭代滿足

      或滿足k=kmax。其中λ5是大于0任意小的常量,本文取λ5=0.01;kmax表示最大迭代次數(shù),本文取kmax=10。

      通過上述基于迭代加權(quán)的模型優(yōu)化算法得到輸出的βt,根據(jù)文獻[12]可定義似然評估函數(shù)如式(20)所示:

      最后采用增量PCA方法[1]對本文提出的AOWT跟蹤器的觀測模型進行在線更新。

      3.3.2算法的收斂性分析

      式(17)是式(8)的局部近似解,上述模型優(yōu)化算法的每一次迭代都會使得式(8)的目標函數(shù)值減小,由于式(8)的非負稀疏約束,故隨著迭代的不斷進行,算法將會達到收斂[20]。

      在具體優(yōu)化算法中,如算法1中步驟(7)所示,當(dāng)相鄰迭代的權(quán)重差異比Rw連續(xù)5次迭代均小于一個大于0任意小的常量時,認為算法達到收斂,迭代停止。

      3.3.3算法的復(fù)雜度分析

      4 實驗結(jié)果及性能分析

      4.1實驗裝置與評價標準

      實驗仿真均在Matlab R2010b,Window8.1系統(tǒng),Pentium?Dual-Core CPU處理器,3.20 GHz主頻和4 GB內(nèi)存的計算機環(huán)境下編程實現(xiàn)。為了驗證本文算法的有效性,將本文提出的AOWT跟蹤器與IVT跟蹤器[1]、L2RLS跟蹤器[16]、KCF跟蹤器[3]、RPT跟蹤器[24]在8個富有挑戰(zhàn)性的視頻序列中做了對比實驗,AOWT與IVT、L2RLS采用的抽樣粒子數(shù)均為600。

      本文采用文獻[25]中評估跟蹤算法性能的兩個重要指標,平均中心位置誤差(average center location error,ACLE)和重疊精度(overlap precision,OP)來衡量跟蹤算法的有效性。其中ACLE表示跟蹤算法估計的目標中心位置與手動標記的ground-truth之間的平均歐式距離。OP表示跟蹤算法標記的跟蹤框與文獻[25]中手動標記的跟蹤框之間的重疊度SAOR超過一定閾值th(th∈[0,1])的幀數(shù)相對于視頻序列總幀數(shù)的百分比(實驗均采用與文獻[24]中相同的閾值th=0.5)。重疊度的定義為:

      其中,rt表示跟蹤邊界框的區(qū)域;rg表示ground-truth中標準跟蹤邊界框的區(qū)域;area表示求區(qū)域的面積。

      4.2實驗結(jié)果與分析

      4.2.1定性分析

      所有跟蹤器的跟蹤結(jié)果對比圖如圖3所示。本文提出的AOWT跟蹤器的跟蹤框采用紅色實線標記,IVT跟蹤器采用藍色點劃線標記,L2RLS跟蹤器采用綠色虛線標記,KCF跟蹤器采用黑色點線標記,RPT跟蹤器采用黃色點劃線標記但線寬比IVT的線寬粗。

      (1)尺度變化和光照變化

      在Singer1序列中,剛開始各算法都能較好跟蹤,在98幀由于有著強烈的光照變化,除了AOWT跟蹤器和L2RLS跟蹤器能準確跟蹤目標以外,其他跟蹤器都已跟蹤漂移,隨著尺度的不斷變化,最后只有AOWT能一直穩(wěn)定跟蹤目標。在DavidIndoorNew序列中,目標從黑暗的環(huán)境中慢慢走向光亮的地方,197幀時L2RLS跟蹤器出現(xiàn)了輕微的跟蹤漂移,其他算法均能較好跟蹤,在496幀時,由于同時伴有尺度和摘戴眼鏡等干擾,L2RLS出現(xiàn)很大程度的跟蹤漂移,RPT尺度變化失敗,最后只有AOWT、IVT、KCF能較準確地跟蹤目標。在Caviar1中待跟蹤目標漸漸地遠離攝像機,尺度越來越小,可以看出KCF不能適應(yīng)這樣的尺度變化,到193幀時目標被其他行人遮擋,IVT出現(xiàn)跟蹤漂移,最后只有AOWT和L2RLS能很好地處理目標的尺度變化,并保持有效的跟蹤。

      (2)嚴重遮擋和目標旋轉(zhuǎn)

      在Faceocc2序列中,在前幾十幀的時候,各跟蹤器都能基本保持良好跟蹤,164幀中目標被書本遮擋,IVT出現(xiàn)了漂移,其他跟蹤器都能準確跟蹤,但到423幀時,目標被書本遮擋,同時伴隨著頭部旋轉(zhuǎn),只有AOWT仍能很好地適應(yīng)旋轉(zhuǎn)變化,其他算法都已跟蹤漂移。在Caviar2序列中,剛開始待跟蹤目標沒有被其他行人遮擋時各算法均能較好跟蹤,192幀時目標被遮擋,KCF和RPT出現(xiàn)了漂移,其他算法可以保持跟蹤,到485幀時,L2RLS算法已經(jīng)基本失效,IVT算法也錯誤跟蹤到旁邊的其他行人上,只有AOWT跟蹤器仍能良好跟蹤目標。在Caviar3序列中,開始的時候目標沒有什么較大的干擾,各跟蹤器都能比較準確地跟蹤目標,71幀時當(dāng)目標從左邊走向右邊,先是被穿紅色衣服的行人嚴重遮擋,然后又被穿黑色衣服的行人遮擋,兩次嚴重遮擋之后,只有AOWT算法能準確穩(wěn)定地跟蹤目標,其他算法都已經(jīng)漂移甚至失敗。

      Fig.3 Tracking results comparison of different algorithms圖3 各算法跟蹤結(jié)果對比圖

      (3)運動模糊、形體變化和攝像機抖動

      在Owl序列中,剛開始的時候沒有出現(xiàn)攝像機抖動,待跟蹤目標比較清晰,各跟蹤器都能較好跟蹤;到46幀時,由于嚴重的攝像機抖動導(dǎo)致目標變得很模糊,除了AOWT,其他算法都出現(xiàn)了不同程度的跟蹤漂移現(xiàn)象;383幀時攝像機抖動得更加劇烈,目標嚴重模糊,此時其他跟蹤器都已跟蹤失敗,只有本文提出的AOWT跟蹤器仍能準確地跟蹤,一直到最后,AOWT都保持著準確穩(wěn)定的跟蹤。在Face序列中,125幀時IVT和RPT出現(xiàn)跟蹤漂移,伴隨著攝像機長時間抖動,到305幀時KCF算法也偏移了目標,最后只有AOWT跟蹤器和L2RLS跟蹤器能較好地跟蹤目標。

      由以上可以看出,本文提出的AOWT跟蹤器一直保持準確跟蹤,而其他跟蹤器大部分都會出現(xiàn)跟蹤漂移,可見本文算法的性能優(yōu)于其他算法。

      4.2.2定量分析

      (1)各算法的平均中心位置誤差(ACLE)和重疊精度(OP)

      如表1和表2所示,中心位置誤差(center location error,CLE)曲線圖如圖4所示。其中,AOWT(L1)表示直接采用L1-Ls[22]工具包來計算式(12)的AOWT算法,AOWT(L2)表示利用L2最小化,通過式(17)來求解式(12)的AOWT算法。從表格和曲線圖可以看出,AOWT算法在跟蹤過程中平均中心位置誤差小,重疊精度高,可見本文提出的AOWT算法在有效性和魯棒性方面都優(yōu)于其他算法。因為AOWT(L1)算法與AOWT(L2)算法唯一的區(qū)別僅僅在于計算式(12)的方法不同,所以它們的ACLE和OP基本差不多,主要體現(xiàn)在跟蹤速度上的不同。

      Table 1 Average center location error of different algorithms表1 跟蹤算法的平均中心位置誤差pixel

      Table 2 Overlap precistion of different algorithms表2 跟蹤算法的重疊精度

      (2)跟蹤速度分析

      各跟蹤器在不同視頻序列中的跟蹤速度如表3所示。首先從表3中可以明顯看出,直接利用L1-Ls[22]工具包求解的AOWT算法(AOWT(L1))的跟蹤速度比采用L2最小化求解的AOWT算法(AOWT(L2))的跟蹤速度慢很多。另外,從表3中可見,KCF的速度最快,其次是IVT和AOWT(L2),KCF本身就是致力于高速的研究,利用循環(huán)結(jié)構(gòu)通過離散傅里葉變換計算分類器的響應(yīng),減少了時間的消耗,但KCF的跟蹤精度和魯棒性明顯不如本文提出的AOWT(L2)跟蹤器。AOWT(L2)的跟蹤速度比IVT慢一點,但跟蹤精度卻大大提升了,而其他算法的跟蹤速度比AOWT(L2)都要慢。

      Table 3 Speed comparison of different trackers表3 各跟蹤器的速度比較 f/s

      Fig.4 Center location error of different algorithms圖4 各算法的中心位置誤差圖

      5 結(jié)束語

      本文提出了一種自適應(yīng)觀測權(quán)重的目標跟蹤算法,通過線性表示模型構(gòu)建出一種加權(quán)觀測模型;然后建立一種基于迭代加權(quán)的模型優(yōu)化算法計算該模型,通過在線更新的自適應(yīng)權(quán)重矩陣消除離群值對跟蹤有效性的影響,最后建立似然評估函數(shù)實現(xiàn)對目標精確的跟蹤。實驗結(jié)果證明了AOWT跟蹤器的有效性和魯棒性。此外,本文算法仍然存在需要完善的地方,未來的工作主要致力于進一步提高觀測模型的魯棒性以及算法的優(yōu)化問題,使得跟蹤算法的精度更高,速度更快。

      [1]Ross D A,Lim J,Lin R S,et al.Incremental learning for robust visual tracking[J].International Journal of Computer Vision,2008,77(1/3):125-141.

      [2]Kalal Z,Mikolajczyk K,Matas J.Tracking-learning-detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34(7):1409-1422.

      [3]Henriques J F,Caseiro R,Martins P,et al.High-speed tracking with kernelized correlation filters[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,37(3): 583-596.

      [4]Zhang Kaihua,Zhang Lei,Liu Qingshan,et al.Fast visual tracking via dense spatio-temporal context learning[M].[S.l.]: Springer International Publishing,2014:127-141.

      [5]Grabner H,Bischof H.On-line boosting and vision[C]//Proceedings of the 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,New York, USA,Jun 17-22,2006.Piscataway,USA:IEEE,2006,1:260-267.

      [6]Henriques J F,Rui C,Martins P,et al.Exploiting the circulant structure of tracking-by-detection with kernels[C]// LNCS 7575:Proceedings of the 12th European Conference on Computer Vision,Florence,Italy,Octr 7-13,2012.Berlin,Heidelberg:Springer,2012:702-715.

      [7]Hare S,Saffari A,Torr P H S.Struck:structured output tracking with kernels[C]//Proceedings of the 2011 IEEE International Conference on Computer Vision,Barcelona, Spain,Nov 6-13,2011.Piscataway,USA:IEEE,2011:263-270.

      [8]Mei Xue,Ling Haibin.Robust visual tracking and vehicle classification via sparse representation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011, 33(11):2259-2272.

      [9]Wang Dong,Lu Huchuan,Yang M H.Least soft-threshold squares tracking[C]//Proceedings of the 2013 IEEE Conference on Computer Vision and Pattern Recognition,Portland,USA,Jun 23-28,2013.Piscataway,USA:IEEE, 2013:2371-2378.

      [10]Zhang Tianzhu,Ghanem B,Liu Si,et al.Robust visual tracking via multi-task sparse learning[C]//Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition,Providence,USA,Jun 16-21,2012.Piscataway,USA:IEEE,2012:2042-2049.

      [11]Wang Dong,Lu Huchuan,Yang M H.Online object tracking with sparse prototypes[J].IEEE Transactions on Image Processing,2013,22(1):314-325.

      [12]Mei Xue,Ling Haibin.Robust visual tracking using ?1 minimization[C]//Proceedings of the 2009 IEEE 12th International Conference on Computer Vision,Kyoto,Japan,Sep 29-Oct 2,2009.Piscataway,USA:IEEE,2009:1436-1443.

      [13]Bao Chenglong,Wu Yi,Ling Haibin,et al.Real time robust L1 tracker using accelerated proximal gradient approach [C]//Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition,Providence,USA,Jun 16-21,2012.Piscataway,USA:IEEE,2012:1830-1837.

      [14]Wang Dong,Lu Huchuan.Visual tracking via probability continuous outlier model[C]//Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition, Columbus,USA,Jun 23-28,2014.Piscataway,USA:IEEE, 2014:3478-3485.

      [15]Xiao Ziyang,Lu Huchuan,Wang Dong.Object tracking with L2-RLS[C]//Proceedings of the 2012 21st International Conference on Pattern Recognition,Tsukuba,Japan,Nov 11-15,2012.Piscataway,USA:IEEE,2012:1351-1354.

      [16]Xiao Ziyang,Lu Huchuan,Wang Dong.L2-RLS-based object tracking[J].IEEE Transactions on Circuits and Systems for Video Technology,2014,24(8):1301-1309.

      [17]Shi Qinfeng,Eriksson A,van den Hengel A,et al.Is face recognition really a compressive sensing problem?[C]//Proceedings of the 2011 IEEE Conference on Computer Vision and Pattern Recognition,Providence,USA,Jun 20-25, 2011.Piscataway,USA:IEEE,2011:553-560.

      [18]Li Xi,Hu Weiming,Zhang Zhongfei,et al.Visual trackingvia incremental log-Euclidean Riemannian subspace learning [C]//Proceedings of the 2008 IEEE Conference on Computer Vision and Pattern Recognition,Anchorage,USA,Jun 23-28,2008.Piscataway,USA:IEEE,2008:1-8.

      [19]Hu Weiming,Li Xi,Zhang Xiaoqin,et al.Incremental tensor subspace learning and its applications to foreground segmentation and tracking[J].International Journal of Computer Vision,2011,91(3):303-327.

      [20]Yang Meng,Zhang Lei,Yang Jian,et al.Robust sparse coding for face recognition[C]//Proceedings of the 2011 IEEE Conference on Computer Vision and Pattern Recognition,Providence,USA,Jun 20-25,2011.Piscataway,USA:IEEE,2011: 625-632.

      [21]Zhang Jian,Jin Rong,Yang Yiming,et al.Modified logistic regression:an approximation to SVM and its applications in large-scale text categorization[C]//Proceedings of the 20th International Conference on Machine Learning,Washington,USA,Aug 21-24,2003:888-895.

      [22]Kim S J,Koh K,Lustig M,et al.An interior-point method for large-scale l1-regularized least squares[J].IEEE Journal of Selected Topics in Signal Processing,2007,1(4):606-617.

      [23]Zhang Lei,Yang Meng,Feng Xiangchu.Sparse representation or collaborative representation:which helps face recognition?[C]//Proceedings of the 2011 International Conference on Computer Vision,Barcelona,Spain,Nov 6-13,2011. Piscataway,USA:IEEE,2011:471-478.

      [24]Li Yang,Zhu Jianke,Hoi S C H.Reliable patch trackers:robust visual tracking by exploiting reliable patches[C]//Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition,Boston,USA,Jun 7-12,2015.Piscataway,USA:IEEE,2015:353-361.

      [25]Wu Yi,Lim J,Yang M H.Online object tracking:a benchmark[C]//Proceedings of the 2013 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Portland,USA,Jun 23-28,2013.Piscataway,USA:IEEE, 2013:2411-2418.

      LIU Xing was born in 1990.He is an M.S.candidate at Jiangnan University.His research interest is visual target tracking.

      劉行(1990—),男,安徽池州人,江南大學(xué)物聯(lián)網(wǎng)工程學(xué)院碩士研究生,主要研究領(lǐng)域為視覺目標跟蹤。

      CHEN Ying was born in 1976.She received the Ph.D.degree from Xi?an Jiaotong University in 2005.Now she is a professor and M.S.supervisor at Jiangnan University,and the member of CCF.Her research interests include computer vision and pattern recognition.

      陳瑩(1976—),女,浙江麗水人,2005年于西安交通大學(xué)獲得博士學(xué)位,現(xiàn)為江南大學(xué)物聯(lián)網(wǎng)工程學(xué)院教授、碩士生導(dǎo)師,CCF會員,主要研究領(lǐng)域為計算機視覺,模式識別。

      Target TrackingAlgorithm Based onAdaptive Observation Weight*

      LIU Xing,CHEN Ying+
      Key Laboratory of Advanced Process Control for Light Industry,Ministry of Education,Jiangnan University,Wuxi, Jiangsu 214122,China +Corresponding author:E-mail:chenying@jiangnan.edu.cn

      To solve the problems of poor robustness and low effectiveness of visual tracking in complex scenes,this paper proposes a target tracking algorithm based on adaptive observation weight in Bayesian framework.Firstly,a weighted observation model is established via linear visual tracking representation.Then an iterative optimization algorithm is put forward to adaptively update the weight matrix to eliminate negative influences of observation outliers. Finally,effective likelihood evaluation function is adopted to capture the target accurately.The experimental results show that the proposed algorithm outperforms other state-of-the-art tracking algorithms in tracking accuracy and robustness.

      visual tracking;linear representation;on-line updating;outliers;adaptive weight matrix

      2015-10,Accepted 2015-12.

      10.3778/j.issn.1673-9418.1510079

      A

      TP391

      *The National Natural Science Foundation of China under Grant Nos.61104213,61573168(國家自然科學(xué)基金);the Prospective Joint Research Foundation of Jiangsu Province under Grant No.BY2015019-15(江蘇省產(chǎn)學(xué)研前瞻性聯(lián)合研究項目).

      CNKI網(wǎng)絡(luò)優(yōu)先出版:2015-12-22,http://www.cnki.net/kcms/detail/11.5602.TP.20151222.1017.002.html

      猜你喜歡
      跟蹤器離群魯棒性
      光伏跟蹤器陣列跟蹤精度的測算方法研究
      太陽能(2022年3期)2022-03-29 05:15:50
      淺析一種風(fēng)光儲一體化跟蹤器
      太陽能(2020年3期)2020-04-08 03:27:10
      荒漠綠洲區(qū)潛在生態(tài)網(wǎng)絡(luò)增邊優(yōu)化魯棒性分析
      基于確定性指標的弦支結(jié)構(gòu)魯棒性評價
      超長待機的自行車位置跟蹤器
      雙向多軌跡判定方法在目標跟蹤中的應(yīng)用研究
      基于非支配解集的多模式裝備項目群調(diào)度魯棒性優(yōu)化
      非接觸移動供電系統(tǒng)不同補償拓撲下的魯棒性分析
      離群數(shù)據(jù)挖掘在發(fā)現(xiàn)房產(chǎn)銷售潛在客戶中的應(yīng)用
      離群的小雞
      社旗县| 施甸县| 新竹县| 越西县| 仁怀市| 平阳县| 花莲县| 禹城市| 乡城县| 池州市| 象山县| 志丹县| 盘锦市| 温州市| 大安市| 临邑县| 彭水| 江达县| 崇义县| 邵阳县| 上犹县| 阿坝| 拜城县| 桓仁| 青铜峡市| 漳平市| 岱山县| 临夏县| 满洲里市| 司法| 武夷山市| 兴化市| 蚌埠市| 黎城县| 即墨市| 荆门市| 砚山县| 长兴县| 固始县| 博罗县| 伊吾县|