王蒙,吳毅,鄧健康,劉青山
(南京信息工程大學(xué) 信息與控制學(xué)院,南京210044)
目標(biāo)跟蹤是計(jì)算機(jī)視覺領(lǐng)域的研究熱點(diǎn)之一,在視覺監(jiān)控、視頻壓縮編碼、醫(yī)學(xué)診斷、三維重構(gòu)以及人機(jī)交互等方面有著大量的應(yīng)用[1-2].目標(biāo)在運(yùn)動(dòng)過程中會(huì)受到光照變化、尺度變化、遮擋、旋轉(zhuǎn)等因素的影響,這些給目標(biāo)跟蹤帶來了挑戰(zhàn).針對(duì)這些難點(diǎn),學(xué)者們提出了大量的跟蹤算法,也取得了一定的研究進(jìn)展.目標(biāo)跟蹤方法一般可以分為2大類:基于判別式模型的跟蹤和基于生成式模型的跟蹤[3].基于判別式模型的跟蹤算法將跟蹤問題看作一個(gè)二分類問題,通過設(shè)計(jì)一個(gè)魯棒的分類器區(qū)分出目標(biāo)和背景.比較典型的算法有在線Boosting跟蹤[4-5]、在線多實(shí)例學(xué)習(xí)跟蹤[6-7]和集成跟蹤[8]等.基于生成式模型的跟蹤算法通過在鄰域中尋找與目標(biāo)相似度最大的區(qū)域作為所要跟蹤的目標(biāo),比較主流的方法有增量學(xué)習(xí)跟蹤算法[9]、均值漂移(mean shift)跟蹤算法[10]和 Eigentracker[11]等.
近年來,稀疏表示被廣泛地應(yīng)用于計(jì)算機(jī)視覺領(lǐng)域.受到Wright等提出的基于稀疏表示人臉識(shí)別方法的啟發(fā)[12-13],Mei和Ling將稀疏表示運(yùn)用到目標(biāo)跟蹤中,在粒子濾波的框架下,對(duì)每個(gè)候選目標(biāo)用一組由目標(biāo)模板和單位模板組成的基向量進(jìn)行線性表示,并利用L1范數(shù)最小化進(jìn)行求解得到候選目標(biāo)的稀疏表示,之后利用稀疏表示的重構(gòu)誤差作為候選目標(biāo)的權(quán)重,將最大權(quán)重的候選目標(biāo)選為跟蹤結(jié)果[14].然而,L1跟蹤器存在一些不足,一個(gè)缺點(diǎn)是對(duì)線性表示的稀疏性假設(shè)并不是在任何情況下都成立,當(dāng)候選樣本是背景區(qū)域或者發(fā)生部分遮擋時(shí),因?yàn)閱挝荒0蹇梢员硎救我鈮K,候選樣本用目標(biāo)模板和單位模板線性表示時(shí),單位模板的系數(shù)不再為零,從而整個(gè)系數(shù)不再稀疏,這樣求解L1范數(shù)最小化就不合理;另一個(gè)缺點(diǎn)是計(jì)算復(fù)雜度高,L1跟蹤器要對(duì)每個(gè)候選樣本求解一次L1范數(shù)最小化,每一次求解都比較耗時(shí).在粒子濾波中,候選樣本的個(gè)數(shù)通常比較多,求解大量的L1范數(shù)最小化會(huì)大大增加算法的計(jì)算時(shí)間,影響算法的實(shí)時(shí)性.
針對(duì)以上問題,為了提高算法的性能,大量學(xué)者探討運(yùn)用不同的方法把稀疏表示用于目標(biāo)跟蹤中.Mei等將一種結(jié)構(gòu)化的稀疏表示模型用于視覺跟蹤算法中[15];Bao等提出將加速近似梯度(APG)方法用于求解 L1范數(shù)最小化問題[16];Zhang等提出一種多任務(wù)稀疏學(xué)習(xí)方法來改進(jìn)跟蹤算法[17].在這期間,人臉識(shí)別領(lǐng)域的一些研究者用L2范數(shù)最小化代替L1范數(shù)最小化進(jìn)行實(shí)驗(yàn)[18],取得了和原來算法接近或者更高的識(shí)別率,同時(shí)計(jì)算復(fù)雜度遠(yuǎn)低于L1范數(shù)最小化.基于此,2012年,Xiao等提出了一種快速有效的基于L2正則化的目標(biāo)跟蹤算法,用PCA基向量和分塊模板來建立目標(biāo)的表觀模型,再通過L2范數(shù)最小化來求解,在不損失精度的情況下大大提高了算法的計(jì)算速度[19].但這種方法沒有考慮背景信息,在某些測試視頻上會(huì)出現(xiàn)漂移現(xiàn)象,也沒有采取有效的遮擋處理機(jī)制,在發(fā)生部分遮擋或全部遮擋時(shí)會(huì)導(dǎo)致跟蹤失敗.
針對(duì)該算法存在的問題,本文提出了一種基于L2范數(shù)聯(lián)合模型的目標(biāo)跟蹤算法.該聯(lián)合模型結(jié)合了基于全局模板的判別式模型和基于局部描述子的生成式模型,一方面利用全局模板來區(qū)分目標(biāo)和背景,另一方面利用局部信息來處理遮擋,充分利用這2種模型的優(yōu)點(diǎn)提高了跟蹤的魯棒性.本文的算法利用L2范數(shù)最小化求解目標(biāo)表觀的系數(shù),計(jì)算過程比L1范數(shù)最小化簡單,大大降低了計(jì)算的復(fù)雜度.模型更新上,判別式模型中每隔若干幀更新正負(fù)模板集,獲得最新準(zhǔn)確的目標(biāo)和背景信息,使得判別式模型具有適應(yīng)性和辨別性;生成式模型中通過設(shè)定一個(gè)遮擋閾值,判斷每幀的遮擋程度來決定是否更新模板的系數(shù)向量,從而更新目標(biāo)的表觀模型,使得跟蹤器能夠適應(yīng)新的目標(biāo)狀態(tài).
目標(biāo)表觀模型是跟蹤器的重要組成部分,用來描述目標(biāo)表觀的特征.基于判別式模型的表觀模型用來區(qū)分目標(biāo)和背景;基于生成式模型的表觀模型用來描述目標(biāo)本身,提取出目標(biāo)的特征.本文合理地融合了判別式模型和生成式模型來對(duì)目標(biāo)進(jìn)行描述,并利用L2范數(shù)最小化對(duì)目標(biāo)表觀系數(shù)進(jìn)行求解,取得了比較好的結(jié)果.
訓(xùn)練集 U=[U1,U2,…,Um+n]∈Rd×(m+n),包括m個(gè)正模板U+∈Rd×m和n個(gè)負(fù)模板U-∈Rd×n.在初始位置周圍手動(dòng)采集m個(gè)圖像,歸一化后按行堆成向量作為正模板;在離初始位置較遠(yuǎn)處采集n個(gè)圖像,利用同樣的方法得到負(fù)模板.其中初始位置是通過在第一幀中手動(dòng)標(biāo)注得到的.采集到的候選樣本y∈Rd可以通過訓(xùn)練集線性表示,即
其中,b=[b1,b2,…,bm+n]T∈R(m+n)×1,為線性表示的系數(shù).b是弱稀疏的,利用這一特征通過L2范數(shù)最小化進(jìn)行求解,其中λ為約束參數(shù).
L2范數(shù)約束項(xiàng)的作用有2個(gè):①它使解b具有一定的稀疏度,但是L2范數(shù)的稀疏度遠(yuǎn)低于L1范數(shù)的稀疏度.②它使得最小化的解更加穩(wěn)定.L2范數(shù)最小化很容易求解,令的導(dǎo)數(shù)為0,即2(-UT)(y-Ub)+2λb=0,可得出:
其中I∈Rd×d,是一個(gè)單位矩陣,用來確保UTU+λI的可逆性.
令 P=(UTU+λI)-1UT,很顯然,P 是獨(dú)立于y的,所以對(duì)于通過粒子濾波得到的候選樣本只需要計(jì)算一次P.如果把所有的候選樣本看作一個(gè)向量集Y,則所有候選樣本的表觀系數(shù)可以一次性求得:
假設(shè)一個(gè)候選樣本在前景模板上有比較小的重構(gòu)誤差就代表該候選樣本有可能是目標(biāo),在背景模板上有比較小的重構(gòu)誤差就代表這個(gè)候選樣本有可能是背景,在此基礎(chǔ)上根據(jù)候選樣本在前景模板和背景模板上的重構(gòu)誤差的差異來構(gòu)造候選樣本的置信值:
其中ρ是一個(gè)很小的固定的常數(shù),用來權(quán)衡判別分類器的重要性.
本文在考慮圖像塊的位置信息和遮擋因素的基礎(chǔ)上,提出了一種生成式模型.對(duì)于所有的候選樣本利用分塊的方法形成N個(gè)圖像塊,如圖1所示.本文在實(shí)驗(yàn)部分將每個(gè)圖像塊變成一個(gè)向量yi∈Rd×1,表示圖像塊的大小.利用 L2 范數(shù)最小化來求解每個(gè)圖像塊的系數(shù)向量:
其中,D∈Rp×q,為通過k均值聚類的方法得到的字典;q為聚類中心的個(gè)數(shù);p為聚類中心的維數(shù).聚類的圖像塊是在第一幀中通過與yi相同的方法得到的,其中q個(gè)聚類中心表示最具有代表性的圖像塊.把所有的系數(shù)向量γi串聯(lián)在一起得到γ:
其中,γ∈R(q×N)×1,為一個(gè)候選樣本的系數(shù)向量.通過這種串聯(lián)方式,系數(shù)向量就包含了圖像塊的空間信息.
圖1 利用分塊得到的圖像塊Fig.1 Image blocks by the sliding window
對(duì)于遮擋問題,被遮擋的圖像塊會(huì)影響系數(shù)向量的比較,因?yàn)檎趽醪糠趾湍0逯g存在很大的差異,這會(huì)使得誤差大于候選樣本本身的誤差,所以本文通過設(shè)定一個(gè)閾值來判斷圖像塊是否被遮擋.當(dāng)重構(gòu)誤差比較大時(shí),認(rèn)為該圖像塊被遮擋,把這個(gè)圖像塊的權(quán)重設(shè)為0;當(dāng)重構(gòu)誤差比較小時(shí),認(rèn)為圖像塊沒有被遮擋,把這個(gè)圖像塊的權(quán)重設(shè)為1.通過去除被遮擋的圖像塊,只對(duì)有價(jià)值的目標(biāo)塊比較系數(shù)向量,可以避免錯(cuò)誤的跟蹤結(jié)果.這可以通過下式來描述:
其中,σ為系數(shù)向量中每個(gè)元素的權(quán)重,根據(jù)σi的值將第i個(gè)系數(shù)向量的所有元素的權(quán)重全部設(shè)為0或1.通過比較候選樣本系數(shù)向量和模板系數(shù)向量的相似性,得出置信值G:
其中,ε,θ分別為候選樣本和模板歸一化到(0,1]的系數(shù)向量;G為候選樣本和模板的相似度,其中初始時(shí)模板的系數(shù)向量是在第一幀中通過和候選樣本系數(shù)向量一樣的方法求得.
在粒子濾波的框架下,本文融合判別式模型和生成式模型構(gòu)造了一個(gè)新的聯(lián)合模型,用乘法機(jī)制得到一個(gè)新的似然函數(shù)表達(dá)式:
這一似然函數(shù)既能夠區(qū)分前景和背景,也能夠處理目標(biāo)遮擋問題.將本節(jié)的表觀模型和后文的運(yùn)動(dòng)模型結(jié)合起來,得到了一個(gè)高效、魯棒的跟蹤器.
目標(biāo)跟蹤問題可以看成是運(yùn)動(dòng)目標(biāo)的狀態(tài)推斷問題.在貝葉斯理論的框架下,利用狀態(tài)的先驗(yàn)概率和觀測量,構(gòu)造狀態(tài)的后驗(yàn)概率密度:
運(yùn)動(dòng)模型是用來描述目標(biāo)在連續(xù)幀之間的運(yùn)動(dòng)狀態(tài)的改變,本文采用幀間的幾何變換的Xt=(αt,βt,θt,st,εt,φt)來近似表示 t時(shí)刻目標(biāo)的運(yùn)動(dòng)狀態(tài),其中 αt,βt,θt,st,εt,φt分別表示 α 方向的平移、β方向的平移、旋轉(zhuǎn)角、尺度變化、寬高比和斜切角.根據(jù)隨機(jī)游走模型來描述目標(biāo)的運(yùn)動(dòng)狀態(tài),即當(dāng)前時(shí)刻的目標(biāo)運(yùn)動(dòng)狀態(tài)以上一時(shí)刻的狀態(tài)為中心呈多元正態(tài)分布:
觀測模型的目的則是從運(yùn)動(dòng)模型得到的大量候選樣本中找到要跟蹤的目標(biāo).給定粒子xit,當(dāng)前時(shí)刻的觀測量yit,結(jié)合基于L2范數(shù)最小化的目標(biāo)表觀模型,可以得到觀測似然函數(shù):
在跟蹤過程中,目標(biāo)的表觀不斷發(fā)生變化,所以適時(shí)地更新判別式模型中的正負(fù)模板是非常必要的.本文每隔若干幀更新正模板和負(fù)模板,更新的圖像是當(dāng)前跟蹤結(jié)果附近的區(qū)域,正負(fù)模板的獲得方法和2.1節(jié)中的方法一樣.這樣得到的模板使得判別式模型具有很強(qiáng)的適應(yīng)性和辨別度.
對(duì)于生成式模型中的模板的系數(shù)向量,按照下式進(jìn)行更新:
其中,η為更新率;θ1為第一幀的系數(shù)向量;εi為最新一幀得到的系數(shù)向量.當(dāng)遮擋程度Oi小于設(shè)定的閾值O0時(shí),進(jìn)行更新,反之則不進(jìn)行更新.這種更新機(jī)制考慮了遮擋的同時(shí)又更新了目標(biāo)的表觀模型,跟蹤器能夠適應(yīng)新的環(huán)境和新的目標(biāo)狀態(tài).總體流程如圖2所示.
圖2 總體流程圖Fig.2 Overall flow chart
本文提出的跟蹤方法采用Matlab進(jìn)行了實(shí)現(xiàn),并且與 Frag[20],VTD[21],IVT[9],MIL[7]這 4 種經(jīng)典的算法以及L2RLS[19]跟蹤算法進(jìn)行了比較,在8個(gè)具有挑戰(zhàn)性的測試序列[1,22]中對(duì)比實(shí)驗(yàn),并作了定性和定量的分析.實(shí)驗(yàn)過程中,判別式模型中正負(fù)模板的個(gè)數(shù)分別設(shè)置為70和250;式(2)和式(6)中的 λ分別設(shè)置為 0.001和0.005;式(6)中字典D行數(shù)和列數(shù)分別設(shè)置為25和40;式(8)中的閾值σ0設(shè)置為0.03;式(16)中的更新率η和閾值O0分別設(shè)為0.9和0.8.
第1個(gè)測試序列cardark如圖3(a)所示,存在著前景背景的對(duì)比度低、較大的光照變化等干擾,同時(shí)目標(biāo)相對(duì)于整個(gè)圖像的尺寸是比較小的.Frag跟蹤器一直不穩(wěn)定,在跟蹤過程中出現(xiàn)了不同程度的漂移,這是因?yàn)镕rag跟蹤器基于局部信息,沒有維持全局信息.因此,當(dāng)目標(biāo)尺度很小且分辨率很低時(shí),很難進(jìn)行跟蹤.MIL算法在跟蹤開始沒多久就開始發(fā)生漂移直至跟蹤失敗.在260幀之前,IVT算法、VTD算法、L2RLS算法和本文算法都能夠跟蹤到目標(biāo),但之后IVT跟蹤結(jié)果的矩形框不斷變大,無法對(duì)準(zhǔn)目標(biāo),L2RLS算法和VTD算法很快就丟失了目標(biāo).本文算法在整個(gè)圖像序列中都能夠比較好地進(jìn)行跟蹤,是因?yàn)榛谂袆e式模型的跟蹤器能夠很好地區(qū)分前景和背景,再通過更新機(jī)制獲得最新的正負(fù)樣本構(gòu)成正負(fù)樣本集,這有助于在變化著的凌亂的場景中區(qū)分出前景和背景.
第2個(gè)測試序列mhyang如圖3(b)所示,存在著光照變化、運(yùn)動(dòng)模糊并伴隨著尺度變化等干擾.MIL算法由于沒有考慮尺度變化,跟蹤結(jié)果在第369幀時(shí)就開始發(fā)生漂移.在第420幀受到光照干擾時(shí),L2RLS算法的跟蹤框越來越小,逐漸丟失目標(biāo).VTD算法在整個(gè)序列中的跟蹤結(jié)果不夠穩(wěn)定,有時(shí)出現(xiàn)漂移但后來又會(huì)跟蹤上目標(biāo).IVT算法能夠比較好地跟蹤到目標(biāo),因?yàn)樽涌臻g的方法對(duì)光照和小姿態(tài)的變化具有很好的魯棒性.本文的跟蹤器能夠在對(duì)比度比較低的情況下保持良好的跟蹤性能,這要?dú)w功于本文的判決模型具有有利于區(qū)分前景和背景的特征.
第3個(gè)測試序列crossing如圖3(c)所示,存在著部分遮擋、運(yùn)動(dòng)模糊和背景復(fù)雜等干擾,給跟蹤帶來了困難.IVT算法和L2RLS算法在第47幀時(shí)跟蹤框開始縮小直至跟蹤失敗.Frag算法和VTD算法在跟蹤幾十幀以后開始丟失目標(biāo).MIL跟蹤器在測試序列中能夠跟蹤到目標(biāo),但是跟蹤的精度沒有本文的跟蹤器高.本文的算法能夠成功地對(duì)目標(biāo)進(jìn)行跟蹤,主要原因是本文的判決模型具有判別力特征,該特征能夠?qū)⒛繕?biāo)從背景中區(qū)分開,即使在目標(biāo)模糊的狀態(tài)下,也能夠準(zhǔn)確定位到目標(biāo).
第4個(gè)測試序列jogging-2如圖3(d)所示,奔跑中的目標(biāo)經(jīng)歷了非剛性的形變、嚴(yán)重遮擋和運(yùn)動(dòng)模糊等干擾.除了本文的跟蹤器和L2RLS跟蹤器,其他跟蹤器在第49幀之后由于嚴(yán)重的遮擋丟失了目標(biāo).隨著跟蹤的不斷進(jìn)行,L2RLS跟蹤器表現(xiàn)得不穩(wěn)定,出現(xiàn)了短暫的漂移現(xiàn)象.本文的算法在整個(gè)圖像序列中都能夠較好地進(jìn)行跟蹤,是因?yàn)榛谂袆e式模型的跟蹤器可以通過遮擋處理機(jī)制估計(jì)可能被遮擋的圖像塊,形成一個(gè)魯棒的只含沒有遮擋的圖像塊的系數(shù)向量,從而避免了遮擋的影響,再通過更新機(jī)制獲得最新的正負(fù)樣本集,這有助于在變化著的場景中區(qū)分出前景和背景.
第5個(gè)測試序列freeman3如圖3(e)所示,目標(biāo)的快速移動(dòng)引起了遮擋、尺度變化和旋轉(zhuǎn)等干擾.MIL算法無法處理尺度變化和旋轉(zhuǎn)問題,在跟蹤的前幾幀就丟失了目標(biāo).在第300幀時(shí),F(xiàn)rag跟蹤器不能克服跟蹤目標(biāo)頭部大角度旋轉(zhuǎn)導(dǎo)致的嚴(yán)重遮擋,跟蹤失敗,IVT算法、VTD算法和L2RLS算法也開始發(fā)生漂移,目標(biāo)框越來越小直至完全丟失目標(biāo).本文的跟蹤算法由于將背景候選賦予比較小的權(quán)重,所以當(dāng)目標(biāo)旋轉(zhuǎn)時(shí),跟蹤結(jié)果不會(huì)漂移到背景中,且本文的跟蹤器能夠自適應(yīng)地調(diào)整跟蹤框的大小,在整個(gè)序列中穩(wěn)定地跟蹤到目標(biāo).
第6個(gè)測試序列singer2如圖3(f)所示,存在著光照變化、尺度變化、遮擋、非剛性變形、運(yùn)動(dòng)模糊和背景混雜等諸多干擾.除了本文的跟蹤器和VTD跟蹤器,其他跟蹤器在第56幀之后都丟失了目標(biāo).這是因?yàn)閷?duì)于大部分基于模板的跟蹤器而言,簡單地利用跟蹤結(jié)果更新模板集通常會(huì)導(dǎo)致漂移.本文的跟蹤器能夠在整個(gè)視頻中保持良好的跟蹤性能,這要?dú)w功于本文的跟蹤器在基于維持全局特征模板的基礎(chǔ)上,運(yùn)用判決模型從凌亂的背景中區(qū)分出前景.
第7個(gè)測試序列emilio如圖3(g)所示,目標(biāo)移動(dòng)過程中存在著尺度變化,光照變化和旋轉(zhuǎn)等干擾.MIL算法不能處理尺度變化和旋轉(zhuǎn)問題,很快丟失了目標(biāo).在第142幀時(shí),IVT算法、VTD算法和L2RLS算法開始發(fā)生漂移直至完全丟失目標(biāo).本文的跟蹤器能夠自適應(yīng)地調(diào)整跟蹤框的大小,在整個(gè)序列中穩(wěn)定地跟蹤到目標(biāo).
圖3 不同算法在不同測試序列上的跟蹤結(jié)果Fig.3 Tracking results with different algorithms on different videos
第8個(gè)測試序列toni如圖3(h)所示,存在尺度變化和旋轉(zhuǎn)等干擾.MIL算法無法旋轉(zhuǎn)問題,在跟蹤的前幾幀就丟失了目標(biāo).在第224幀時(shí),F(xiàn)rag跟蹤器由于不能克服跟蹤目標(biāo)頭部大角度旋轉(zhuǎn)導(dǎo)致的嚴(yán)重遮擋跟蹤失敗,IVT算法、VTD算法和L2RLS算法也發(fā)生漂移.而本文的跟蹤算法在目標(biāo)旋轉(zhuǎn)時(shí),跟蹤結(jié)果不會(huì)漂移到背景中,在整個(gè)序列都能跟蹤到目標(biāo).
為了進(jìn)一步分析本文算法的性能,分別在前6個(gè)視頻序列上繪制了中心點(diǎn)誤差曲線和重疊率曲線.中心點(diǎn)位置誤差是指某幀跟蹤結(jié)果的中心位置與該幀目標(biāo)的標(biāo)準(zhǔn)中心位置之間的誤差;重疊率的計(jì)算方法是overlap rate=area(Rt∩Rg)/area(Rt∪Rg),其中,Rt為某幀跟蹤框覆蓋的區(qū)域;Rg為該幀目標(biāo)所在的真實(shí)區(qū)域.針對(duì)不同測試視頻的跟蹤誤差曲線結(jié)果對(duì)比和重疊率曲線結(jié)果對(duì)比如圖4和圖5所示,從中可見,本節(jié)提出的基于L2范數(shù)的聯(lián)合模型的目標(biāo)跟蹤算法比其他算法具有更加魯棒的跟蹤效果.
圖4 針對(duì)不同的測試視頻的跟蹤誤差曲線結(jié)果對(duì)比Fig.4 Tracking error curve result according to different test videos
圖5 針對(duì)不同的測試視頻的重疊率曲線結(jié)果對(duì)比Fig.5 Overlap rate curve result according to different test videos
在大量的實(shí)驗(yàn)序列中,本文算法與4種先進(jìn)的跟蹤算法以及L2正則化的跟蹤算法作比較,得出以下結(jié)論:①本文算法融合了基于全局模板的判別分類器和基于局部描述子的生成式模型,具有較強(qiáng)的魯棒性.②本文采用的遮擋處理機(jī)制能夠有效地處理遮擋.③本文的模型更新機(jī)制使模型具有適應(yīng)性和辨別性.
References)
[1] Wu Y,Lim J,Yang M H.Online object tracking:a benchmark[C]//Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Washington,DC:IEEE Computer Society,2013:2411-2418.
[2] 邵文坤,黃愛民,韋慶.目標(biāo)跟蹤方法綜述[J].影像技術(shù),2006(1):17-20.Shao W K,Huang A M,Wei Q.Target tracking method review[J].Image Technology,2006(1):17-20(in Chinese).
[3] Zhong W,Lu H,Yang M H.Robust object tracking via sparsitybased collaborative model[C]//Proc IEEE Comput Soc Conf Comput Vision Pattern Recognition.Washington,DC:IEEE Computer Society,2012:1838-1845.
[4] 沈丁成,薛彥兵,張樺,等.一種魯棒的基于在線 boosting目標(biāo)跟蹤算法研究[J].光電子·激光,2013,24(11):30.Shen D C,Xue Y B,Zhang H,et al.A robust online boosting target tracking algorithm based on the research[J].Journal of Photoelectron·Laser,2013,24(11):30(in Chinese).
[5] Grabner H,Grabner M,Bischof H.Real-time tracking via on-line boosting[C]//BMVC 2006-Proceedings of the British Machine Vision Conference 2006.Edinburgh:British Machine Vision Association,2006:47-56.
[6] 張穎穎,王紅娟,黃義定.基于在線多實(shí)例學(xué)習(xí)的跟蹤研究[J].南陽師范學(xué)院學(xué)報(bào),2012,10(12):35-37.Zhang Y Y,Wang H J,Huang Y D.Based on multiple instance learning online tracking study[J].Journal of Nanyang Normal University,2012,10(12):35-37(in Chinese).
[7] Babenko B,Belongie S,Yang M H.Visual tracking with online multiple instance learning[C]//2009 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops.Piscataway,NJ:IEEE Computer Society,2009:983-990.
[8] Avidan S.Ensemble tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,29(2):261-271.
[9] Ross D,Lim J,Lin R S,et al.Incremental learning for robust visual tracking[J].International Journal of Computer Vision,2008,77(1):125-141.
[10] 齊飛,羅予頻,胡東成.基于均值漂移的視覺目標(biāo)跟蹤方法綜述[J].計(jì)算機(jī)工程,2007,33(21):24-27.Qi F,Luo Y P,Hu D C.Visual target tracking method based on mean shift review[J].Computer Engineering,2007,33(21):24-27(in Chinese).
[11] Black M,Jepson A.Eigentracking:robust maching and tracking of articulated objects using a view based representation[J].International Journal of Computer Vision,1998,26(1):63-84.
[12] Yang A Y,Sastry S S,Ganesh A,et al.Fast-minimization algorithms and an application in robust face recognition:a review[C]//Image Processing.Hong Kong:IEEE,2010:1849-1852.
[13] Wright J,Yang A Y,Ganesh A,et al.Robust face recognition via sparse representation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2009,31(2):210-227.
[14] Mei X,Ling H.Robust visual tracking using L1 minimization[C]//Computer Vision.Anchorage,Alaska:IEEE,2009:1436-1443.
[15] Mei X,Ling H,Wu Y,et al.Minimum error bounded efficienttracker with occlusion detection[C]//Computer Vision and Pattern Recognition.Colorado Springs:IEEE,2011:1257-1264.
[16] Bao C L,Wu Y,Ling H,et al.Real time robust l1 tracker using accelerated proximal gradient approach[C]//Proc IEEE Comput Soc Conf Comput Vision Pattern Recognition.Washington,DC:IEEE Computer Society,2012:1830-1837.
[17] Zhang T Z,Ghanem B,Liu S,et al.Robust visual tracking via multi-task sparse learning[C]//Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Washington,DC:IEEE Computer Society,2012:2042-2049.
[18] Zhang D,Yang M,F(xiàn)eng X.Sparse representation or collaborative representation:which helps face recognition?[C]//Computer Vision,2011:471-478.
[19] Xiao Z Y,Lu H,Wang D.Object tracking with L2-RLS[C]//Proceedings-International Conference on Pattern Recognition.Piscataway,NJ:Institute of Electrical and Electronics Engineers Inc,2012:1351-1354.
[20] Adam A,Rivlin E,Shimshoni I.Robust fragments-based tracking using the integral histogram[C]//Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition.New York:Electronics Engineers Computer Society,2006:798-805.
[21] Kwon J,Lee K M.Visual tracking decomposition[C]//Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Computer Society,2010:1269-1276.
[22] Maggio E,Cavallaro A.Hybrid particle filter and mean shift tracker with adaptive transition model[C]//ICASSP,IEEE International Conference on Acoustics,Speech and Signal Processing-Proceedings.Philadelphia,PA:Institute of Electrical and Electronics Engineers Inc,2005:221-224.