胡昭華 鞠 蓉 歐陽雯 金 蓉
(*南京信息工程大學(xué) 電子與信息工程學(xué)院 南京 210044)(**南京信息工程大學(xué) 江蘇省大氣環(huán)境與裝備技術(shù)協(xié)同創(chuàng)新中心 南京 210044)
?
一種新的基于顏色統(tǒng)計(jì)特征的判別跟蹤方法①
胡昭華②***鞠 蓉③*歐陽雯*金 蓉*
(*南京信息工程大學(xué) 電子與信息工程學(xué)院 南京 210044)(**南京信息工程大學(xué) 江蘇省大氣環(huán)境與裝備技術(shù)協(xié)同創(chuàng)新中心 南京 210044)
針對目前目標(biāo)跟蹤的大部分判別算法注重跟蹤效率而沒有考慮尺度變化這一問題,提出了一個(gè)簡單而魯棒的基于顏色統(tǒng)計(jì)特征的判別跟蹤方法。這種新的顏色統(tǒng)計(jì)特征具有一定的光照不變性,同時(shí)保持較強(qiáng)的判別能力。建立了跟蹤過程的仿射運(yùn)動(dòng)模型,利用優(yōu)化參數(shù)來解決尺寸及角度變化等問題。此外,為了進(jìn)一步提高跟蹤速度,采用低維的顏色統(tǒng)計(jì)特征描述目標(biāo)外觀,利用顏色統(tǒng)計(jì)特征訓(xùn)練貝葉斯分類器,將置信值最大的樣本作為跟蹤結(jié)果,并在線更新分類器。與現(xiàn)有跟蹤器的大量綜合性的對比實(shí)驗(yàn)表明,該判別跟蹤方法在不同挑戰(zhàn)因素下均有明顯優(yōu)勢。
視覺跟蹤, 顏色統(tǒng)計(jì)特征, 仿射變換, 降維, 判別分類器
目標(biāo)跟蹤在計(jì)算機(jī)視覺的許多應(yīng)用中都占據(jù)非常重要的地位,如自動(dòng)監(jiān)測、視頻檢索、交通監(jiān)控和人機(jī)交互等。盡管研究者們在過去幾十年里提出了很多目標(biāo)跟蹤算法,但要構(gòu)建一個(gè)簡單且魯棒的跟蹤系統(tǒng)用來處理因突然運(yùn)動(dòng)、光照變化、形狀變形和遮擋等引起的外觀變化,依然具有很大的挑戰(zhàn)。本研究針對這種情況進(jìn)行了探索,提出了一種新的基于顏色統(tǒng)計(jì)特征的判別跟蹤算法,實(shí)驗(yàn)證明,該算法的性能明顯優(yōu)于其他算法。
選擇合適的視覺特征對于一個(gè)高性能的跟蹤器是很重要的。大部分先進(jìn)的跟蹤器依賴于灰度、形狀、強(qiáng)度和紋理信息[1-5]。方向梯度直方圖(HOG)特征[6]描述了目標(biāo)的邊緣特征。局部二值模式(LBP)特征[7]不容易受到光照的影響,可以提取圖像的局部紋理特征,但它對噪聲敏感,容易受到目標(biāo)變形的影響?;贖aar-like特征的跟蹤器[8-10]在跟蹤速度和檢測率上占有優(yōu)勢,然而對邊緣卻很敏感?,F(xiàn)在越來越多的研究者在研究顏色特征。與其他的視覺特征相比,顏色特征具有較高的魯棒性,對目標(biāo)大小、方向和視角的依賴性更小。Swain和Ballard[11]提出用顏色直方圖(color histogram)提取圖像的特征。雖然圖像直方圖受圖像的物理變換影響較小,然而,由于顏色直方圖描述的是全局顏色統(tǒng)計(jì)的結(jié)果,丟失了像素之間的位置信息,因而在識(shí)別前景對象上不能取得顯著的效果。為了消除顏色直方圖中量化的影響,Stricker和Orengo[12]提出用顏色矩(color moments)作為圖像檢索中的特征向量。然而,為避免低次矩較弱的分辨能力,顏色矩常和其它特征結(jié)合使用。顏色直方圖和顏色矩只包含每個(gè)像素的顏色信息,忽略了局部圖像相鄰像素之間的關(guān)系。Huang等人[13]提出了顏色相關(guān)圖(color correlogram),既直觀地描述了不同顏色的像素?cái)?shù)量在整幅圖像中所占的比例,還反映了不同顏色對間的空間相關(guān)性。Joost等人[14]從現(xiàn)實(shí)圖像中提出了一種新的色名(color name)特征。由于光源、陰影、高光、相機(jī)和目標(biāo)形狀的變化,一個(gè)圖像序列的顏色測量會(huì)有很大的變化,通過對彩色成像中這些因素的魯棒性研究,色名特征已成功應(yīng)用于圖像分類和行為識(shí)別中。雖然顏色信息在視覺跟蹤上得到了重大進(jìn)展,但僅限在簡單的顏色空間轉(zhuǎn)換上。相比于視覺跟蹤,復(fù)雜的顏色特征在目標(biāo)識(shí)別和檢測方面表現(xiàn)出更好的性能。將顏色信息用于視覺跟蹤是一個(gè)困難的挑戰(zhàn)。Martin等人[15]將顏色屬性(color attributes)特征引入到視覺跟蹤中,展現(xiàn)了該特征優(yōu)異的光照不變性和判別能力。受上述工作的啟發(fā),本文提出了一種新的基于顏色特征的跟蹤方法。
跟蹤算法一般可以分成兩類:生成模型[2,3]和判別模型[4,5,8-10]。生成算法通過學(xué)習(xí)一個(gè)外觀模型來搜索圖像,將重構(gòu)誤差最小的區(qū)域作為跟蹤結(jié)果。這類算法都是基于模板或子空間模型。Frag跟蹤器[1]采用局部圖像塊的直方圖,有效地解決了部分遮擋問題。然而,由于沒有有效的模板更新策略,很難處理目標(biāo)的外觀和尺寸變化。視頻跟蹤分解(visual tracking decomposition, VTD)跟蹤器[2]則是利用多個(gè)運(yùn)動(dòng)和觀測模型來描述目標(biāo)外觀和尺寸的變化,從而有效擴(kuò)展了傳統(tǒng)的粒子濾波框架。增量視覺跟蹤器(incremental visual tracker, IVT)[3]能夠適應(yīng)光照和姿態(tài)變化造成的外觀變化,這是因?yàn)樗诰€增量學(xué)習(xí)低維子空間。然而,當(dāng)目標(biāo)經(jīng)歷嚴(yán)重的遮擋時(shí),跟蹤器的性能卻不盡如人意。生成模型沒有考慮到目標(biāo)周圍環(huán)境的有用信息,這在一定程度上限制了生成跟蹤算法的魯棒性。
判別方法的目標(biāo)是將目標(biāo)從背景中區(qū)分出來,它將目標(biāo)跟蹤轉(zhuǎn)換成一個(gè)通過訓(xùn)練分類器區(qū)分目標(biāo)和其周圍背景的檢測問題。Avidan等人[16]利用Adaboost對每個(gè)像素進(jìn)行分類,訓(xùn)練一系列弱分類器級(jí)聯(lián)成一個(gè)強(qiáng)分類器來區(qū)分目標(biāo)和背景。該方法可以有效地減少遮擋造成的影響。由于自主學(xué)習(xí)導(dǎo)致的積累不準(zhǔn)確性,Babenko等人[9]提出用多示例學(xué)習(xí)(multiple instance learning,MIL)代替?zhèn)鹘y(tǒng)的監(jiān)督學(xué)習(xí)。雖然這種方法可以減少跟蹤漂移,但不能處理非剛性變形。判別跟蹤算法很簡單,而且實(shí)驗(yàn)結(jié)果具有良好的魯棒性,但大多數(shù)跟蹤器無法從根本上解決目標(biāo)的尺度變化問題。為了同時(shí)考慮目標(biāo)前景和背景信息,本文給出了一種新的判別跟蹤方法,采用多示例學(xué)習(xí)處理正樣本定位模糊問題。該方法是建立在粒子濾波框架下,可以有效解決尺寸變化問題。
本文提出的算法的基本流程如圖1所示。首先,抽取正負(fù)樣本并獲取它們的外觀模型,用一組低維顏色統(tǒng)計(jì)特征表示為F(Xα)和F(Xζ,β),然后用樣本訓(xùn)練貝葉斯分類器。在粒子濾波框架中,根據(jù)運(yùn)動(dòng)模型產(chǎn)生的候選樣本來估計(jì)置信值。通過分類器hL(x)構(gòu)建置信函數(shù)來估計(jì)后驗(yàn)概率P(y=1|x),其中y∈{0,1}是一個(gè)代表樣本標(biāo)簽的二進(jìn)制變量。在決策階段,根據(jù)最大置信值x*=argmaxx(P(y=1|x))判別最佳的候選粒子x*。
圖1 本文算法流程圖
本文采用與在線判別特征選擇(online discriminative feature selection, ODFS)[10]跟蹤器類似的方式獲得正負(fù)樣本。設(shè)It(x)∈R2表示樣本x在第t幀的位置,本文中將目標(biāo)位置始終設(shè)為It(x*)。抽取兩組圖像塊Xα={x|‖It(x)-It(x*)‖<α}和Xζ,β={x|ζ<‖It(x)-It(x*)‖<β}(α<ζ<β)分別表示正樣本和負(fù)樣本。
3.1 顏色統(tǒng)計(jì)特征
如何有效地選取特征對跟蹤器的性能是很重要的。Berlin和Kay[17]提出英語語義中主要包含11種基本顏色:黑色、藍(lán)色、棕色、灰色、綠色、橙色、粉紅色、紫色、紅色、白色和黃色。為了將色名特征運(yùn)用到計(jì)算機(jī)視覺中,Joost等人[14]將顏色命名算法應(yīng)用于Berlin和Kay在世界色彩調(diào)查(world color survey, WCS)中使用的孟塞爾顏色數(shù)組中,并提供了一個(gè)映射將RGB值與語言顏色標(biāo)簽聯(lián)系起來,將RGB值映射到一個(gè)概率性的11維的顏色空間中,每一維的概率值總和為1。
然而,本文使用的是Martin等人[15]提供的經(jīng)過標(biāo)準(zhǔn)化處理后的色名映射,主要是將11維的色名特征投影到10維子空間的標(biāo)準(zhǔn)正交基中進(jìn)行標(biāo)準(zhǔn)化,然后將灰度特征與獲取的10維色名特征相結(jié)合建立最終的顏色統(tǒng)計(jì)特征,通過這種方式獲取的特征有效降低了光照的影響。圖2直觀地展示本文中采用的顏色統(tǒng)計(jì)特征。第一行顯示的是原始圖像,中間一行顯示的是抽取顏色統(tǒng)計(jì)特征后的特征圖像。
圖2 原始圖像、顏色特征圖像和PCA降維重構(gòu)圖像
3.2 顏色統(tǒng)計(jì)特征降維
跟蹤器的效率與特征維度之間具有顯著相關(guān)性。雖然顏色統(tǒng)計(jì)特征能有效地表示目標(biāo)外觀,然而,它的高維度將極大地影響后續(xù)的跟蹤速度。為了解決這個(gè)問題,本文采用主成分分析(principal component analysis, PCA)方法來減少顏色統(tǒng)計(jì)特征在每個(gè)通道的維度,既可以去除噪聲和背景信息,同時(shí)又保留了有用信息,大大提高了跟蹤速度。
將從圖像塊中抽取的顏色統(tǒng)計(jì)特征向量表示為F(v)=(f1(v),…, fL(v)),其中L表示顏色統(tǒng)計(jì)特征通道數(shù),fl(v)=(v1,v2,…,vp)(l=1,…,L)表示第l個(gè)通道的顏色特征共有p維。PCA將特征向量(v1,v2,…,vp)整合成一個(gè)維數(shù)盡可能少的綜合向量(x1,x2,…,xq)(q
為了確定主成分的數(shù)目q,通過計(jì)算前q個(gè)主成分的方差貢獻(xiàn)率,即:
(1)
其中,λi和λj分別表示與特征向量對應(yīng)的第i個(gè)和第j個(gè)特征根。若前q個(gè)主成分的累積方差貢獻(xiàn)率超過99%,就用前q個(gè)主成分(x1,x2,…,xq)(q
為了證明PCA降維方法對于本章特征的建立是可行的,本節(jié)進(jìn)行了PCA降維重建,重建的結(jié)果展示在圖2最后一行。根據(jù)圖2所示,很明顯可以看出,PCA降維重建的結(jié)果和經(jīng)過顏色統(tǒng)計(jì)特征提取后的圖像是非常相似的,這證明了經(jīng)過PCA降維后的特征可以代替原來的特征并實(shí)現(xiàn)原來特征的功能。
3.3 分類器的構(gòu)建及更新
在多示例學(xué)習(xí)(MIL)框架下構(gòu)建的分類器能夠有效地解決正樣本的定位模糊問題,同時(shí),為了能更好地適應(yīng)視覺跟蹤中目標(biāo)外觀變化,在線更新目標(biāo)模型是很有必要的。樣本x用特征向量F(x)=(f1(x),…,fL(x))表示,其中每個(gè)特征假定都是獨(dú)立的,fl(v)(l=1,…,L)代表特征集,分類器hL(x)可用樸素貝葉斯分類器建模如下[10]:
(2)
本文用一組低維的顏色統(tǒng)計(jì)特征fl(l=1,…,L)表示樣本,設(shè)分類器hL(x)中的條件分布p(fl|y=1)和p(fl|y=0)服從高斯分布[10],其中fl是第l個(gè)低維的顏色統(tǒng)計(jì)特征向量,則
(3)
(4)
(5)
(6)
在本方法中,假設(shè)每個(gè)樣本特征向量中的每個(gè)元素是相互獨(dú)立的,則
p(fl(x)|y=1)=p(fl(x1)|y=1)…
p(fl(xq)|y=1)
(7)
p(fl(x)|y=0)=p(fl(x1)|y=0)…
p(fl(xq)|y=0)
(8)
其中fl(xi)(i=1,…,q)表示第l個(gè)顏色統(tǒng)計(jì)特征通道的第i個(gè)元素,q表示顏色統(tǒng)計(jì)特征的每個(gè)通道經(jīng)過PCA降維之后的維數(shù)。
3.4 判別跟蹤算法
算法1總結(jié)了本文跟蹤算法的主要步驟。為了判別最佳粒子,根據(jù)分類器hL(x)構(gòu)建置信函數(shù)來估計(jì)后驗(yàn)概率密度:
c(x)=P(y=1|x)=σ(hL(x))
(9)
其中樣本x用特征向量F(x)=(f1(x),…,fL(x))表示,y∈{0,1}是二值變量表示樣本標(biāo)簽,σ(·)代表sigmoid函數(shù),即σ(z)=(1/(1+e-z))。最終將具有置信函數(shù)值最大的粒子即x*=argmaxx(c(x))作為跟蹤結(jié)果。
算法1:判別跟蹤算法輸入: ?當(dāng)前幀t ?第t-1幀的跟蹤結(jié)果It-1(x?) ?n個(gè)候選粒子Sit-1,i=1,2,…,n輸出: ?第t幀的跟蹤結(jié)果It(x?)1:抽取正負(fù)樣本Xα和Xζ,β;2:獲取正負(fù)樣本的外觀模型F(Xα)和F(Xζ,β);3:構(gòu)建弱分類器?l(x)并根據(jù)公式(2)級(jí)聯(lián)為強(qiáng)分類器hL(x);4:根據(jù)p(St|St-1)=N(St;St-1,Σ)抽取n個(gè)候選粒子的狀態(tài)Sit,并獲取它們的外觀模型Fi(x),其中i=1,2,…,n;5:根據(jù)式(9)計(jì)算每個(gè)候選粒子的置信值c(x);6:將置信值最大的候選粒子x?=argmaxx(c(x))作為當(dāng)前幀的跟蹤結(jié)果It(x?);7:根據(jù)式(5)和(6)更新分類器的參數(shù)。
本節(jié)通過大量的實(shí)驗(yàn)驗(yàn)證了本文方法的有效性和效率。實(shí)驗(yàn)中選用了一個(gè)公共數(shù)據(jù)集[18]中的35個(gè)彩色視頻序列測試本文跟蹤器的性能。進(jìn)行實(shí)驗(yàn)的視頻序列具有不同的挑戰(zhàn)因素,包括光照變化(IV)、尺寸變化(SV)、變形(DEF)、運(yùn)動(dòng)模糊(MB)、快速運(yùn)動(dòng)(FM)、面內(nèi)旋轉(zhuǎn)(IPR)、面外旋轉(zhuǎn)(OPR),背景雜亂(BC),遮擋(OCC)、超出視野(OV)以及低分辨率(LR)。同時(shí),將本文設(shè)計(jì)的跟蹤器與5種先進(jìn)的追蹤器進(jìn)行比較,包括跟蹤學(xué)習(xí)檢測(TLD)[5],在線判別特征選擇(ODFS)[10],自適應(yīng)顏色屬性(CN)[15],自適應(yīng)局部外觀模型(ASLA)[19]以及稀疏協(xié)同模型(SCM)[20],每個(gè)跟蹤的實(shí)驗(yàn)參數(shù)都是從同一測評基準(zhǔn)庫中獲得的[18]。
4.1 實(shí)驗(yàn)配置
本實(shí)驗(yàn)在MATLAB平臺(tái)下,配置為i3 3.3GHz和2GB內(nèi)存的計(jì)算機(jī)上實(shí)現(xiàn)的。每個(gè)測試視頻的初始幀位置是通過手動(dòng)標(biāo)記的。本實(shí)驗(yàn)通過仿射參數(shù)將目標(biāo)區(qū)域縮放到32×32像素?cái)?shù)目的圖像塊,在每一幀中以半徑α=4抽取45個(gè)正樣本,抽取負(fù)樣本集Xζ,β的內(nèi)外半徑分別設(shè)為ζ=8,β=38。弱分類器的學(xué)習(xí)率設(shè)置為0.93,候選粒子的數(shù)目設(shè)為n=600。
4.2 定性評價(jià)
本節(jié)選擇了4個(gè)具有不同挑戰(zhàn)因素的視頻序列。圖3給出了本文提出的方法與一些先進(jìn)的算法之間的跟蹤結(jié)果。
圖3(a)展示了籃球運(yùn)動(dòng)員在比賽中攔截、運(yùn)球以及防守等一系列動(dòng)作。在整個(gè)過程中,由于目標(biāo)外觀經(jīng)歷了光照、尺度、遮擋、變形等變化,很多跟蹤器不能一直跟蹤到最后,漂移到其他球員或者背景上面,但ODFS、CN跟蹤器以及本文提出的跟蹤器能一直跟蹤目標(biāo)。
圖3(b)所示的bolt視頻序列中,運(yùn)動(dòng)員運(yùn)動(dòng)劇烈,而且經(jīng)歷了不同程度的面內(nèi)和面外旋轉(zhuǎn),CN跟蹤器和本文跟蹤器在整個(gè)序列中都能夠跟蹤目標(biāo)。這個(gè)結(jié)果表明,顏色統(tǒng)計(jì)特征可以有效地阻止跟蹤器漂移到背景區(qū)域。
在david視頻序列(圖3(c))中,一個(gè)人從黑暗的房間走到明亮的區(qū)域。盡管大多數(shù)跟蹤器能夠跟蹤到目標(biāo),但在目標(biāo)轉(zhuǎn)身以及尺寸變小時(shí),部分跟蹤器不能很好地適應(yīng)這種變化。ALSA、SCM、TLD、CN跟蹤器和本文方法可以自始至終準(zhǔn)確地跟蹤移動(dòng)的目標(biāo)。由于顏色統(tǒng)計(jì)特征能夠削弱光照的影響,因此本文跟蹤器能使分類器更好地適應(yīng)目標(biāo)的外觀改變。
圖3 6種跟蹤器的跟蹤結(jié)果
Soccer視頻序列展示的是慶祝的場面,背景雜亂,而且背景的顏色和目標(biāo)衣服顏色很相近,目標(biāo)在整個(gè)過程中經(jīng)歷了遮擋、尺寸變化以及光照變化。由于本文方法有效地利用了多個(gè)示例和顏色統(tǒng)計(jì)特征更新和訓(xùn)練分類器,因此能很好地處理劇烈的外觀變化,很好地跟蹤目標(biāo)對象。
4.3 定量評價(jià)
本節(jié)采用重疊率(overlap rate,OR)定量評估跟蹤器的性能,OR是通過計(jì)算算法跟蹤結(jié)果目標(biāo)框 與真實(shí)結(jié)果目標(biāo)框之間的重疊率。本文用35個(gè)有挑戰(zhàn)性的彩色視頻序列進(jìn)行了測試,表1展示了本文方法和其他5種方法對于其中15個(gè)視頻序列的平均重疊率結(jié)果,其中最好的兩個(gè)結(jié)果分別用粗體和下劃線表示。從表中可以明顯地看出,選擇的視頻序列相對來說具有更多的挑戰(zhàn)因素,雖然本文方法的跟蹤結(jié)果不一定最準(zhǔn)確,但相對比較穩(wěn)定。
圖4展示了本文算法和5種跟蹤器針對35個(gè)測試視頻序列的整體性能。為了測試跟蹤器是否對初始值敏感,本文采用一次性評估(one-pass evaluation, OPE)和時(shí)間魯棒性評價(jià)(temporal robustness evaluation, TRE)[18]來評估本文提出的跟蹤器的整體性能。OPE通過將跟蹤器從視頻序列的第一幀開始運(yùn)行,獲得平均精確度(precision)和成功率(success rate)。TRE則不同,采用的是將跟蹤器從視頻的不同幀開始運(yùn)行到最后。
表1 平均重疊率的比較結(jié)果
圖4 精確度圖和成功率圖
圖4(a)(c)評估的是算法的精度,其中橫坐標(biāo)表示位置誤差閾值(location error threshold),單位是像素,縱坐標(biāo)表示精度。位置誤差是通過計(jì)算算法跟蹤結(jié)果與真實(shí)結(jié)果的中心位置的歐式距離得到的,若位置誤差小于選定的閾值,則認(rèn)為跟蹤結(jié)果準(zhǔn)確。從圖4(a)(c)可以看出,選定的位置誤差閾值越大,同一個(gè)跟蹤器的精度也越大。本實(shí)驗(yàn)中選定誤差閾值為20像素時(shí)對應(yīng)的精度估測不同的跟蹤器,精確度越高說明跟蹤器性能越好。相應(yīng)的,圖4(b)(d)評估的則是算法的成功率,其中橫坐標(biāo)表示重疊閾值(overlap threshold),縱坐標(biāo)代表成功率。重疊率的計(jì)算方式和OR相同,當(dāng)重疊率大于選定的閾值時(shí),則認(rèn)為跟蹤結(jié)果準(zhǔn)確。因此,從圖4(b)(d)中可以看出,當(dāng)重疊閾值越大,同一個(gè)跟蹤器的成功率反而越小。在這兩個(gè)圖中,采用曲線下面積(AUC)來評估不同的跟蹤器,AUC越大的跟蹤器性能越好。從圖4可以明顯看出,無論是OPE還是TRE,本文提出的方法性能都比較好,這說明本文方法對初始值不敏感,但其他跟蹤器在這4個(gè)圖中的排名卻并不一致,這是因?yàn)橛械母櫰鲗Τ跏贾迪鄬Ρ容^敏感。
跟蹤器的性能會(huì)受不同挑戰(zhàn)因素的影響。圖5舉例說明和分析了本文跟蹤器在變形(DEF)、遮檔(OCC)以及尺寸變化(SV)這三種挑戰(zhàn)因素下的成功率圖和精確度圖。從圖5中可以看出,本文跟蹤器的性能是比較優(yōu)異的,除了在圖5(c)中成功率比SCM跟蹤器低了1.4%位居第二。除了圖5(c),本文跟蹤器和CN跟蹤器性能都超過其他跟蹤器,這顯示了顏色統(tǒng)計(jì)特征在目標(biāo)跟蹤中的優(yōu)越性。此外,由于采用了仿射變換,相對于CN跟蹤器來說,本文的方法能更好地適應(yīng)目標(biāo)尺度的變化。
圖5 在變形(DEF)、遮擋(OCC)以及尺寸變化(SV)等不同挑戰(zhàn)因素下的精確度圖和成功率圖
本文提出了一個(gè)新的簡單而魯棒的基于顏色統(tǒng)計(jì)特征的判別跟蹤算法。本文在跟蹤過程中建立了仿射運(yùn)動(dòng)模型和優(yōu)化參數(shù)來解決尺寸變化以及角度變化等問題。此外,采用低維特征空間表示保存有用的顏色信息來反映目標(biāo)外觀變化,并直接用顏色統(tǒng)計(jì)特征訓(xùn)練分類器,避免了特征選擇,從而設(shè)計(jì)了一個(gè)更簡單的方法。大量的實(shí)驗(yàn)結(jié)果表明,在面對不同的挑戰(zhàn)因素時(shí),本文提出的跟蹤方法都有較大的優(yōu)勢。然而,本文方法在提高準(zhǔn)確性的同時(shí)降低了幀率。今后將會(huì)針對這一問題,尋求解決的方案以使跟蹤器的精確度和效率更高。
[1] Adam A, Rivlin E, Shimshoni I. Robust fragments-based tracking using the integral histogram. In: IEEE Conference on Computer Vision & Pattern Recognition, New York, USA, 2006. 798-805
[2] Kwon J, Lee K M. Visual tracking decomposition. In: IEEE Conference on Computer Vision & Pattern Recognition, San Francisco, USA, 2010. 1269-1276
[3] Ross D A, Lim J, Lin R S, et al. Incremental learning for robust visual tracking.AdvancesinNeuralInformationProcessingSystems, 2008, 77(1-3): 125-141
[4] 郭鵬宇, 蘇昂, 張紅良等. 結(jié)合紋理和形狀特征的在線混合隨機(jī)樸素貝葉斯視覺跟蹤器. 光學(xué)學(xué)報(bào), 2015, 03: 195-205
[5] Kalal Z, Matas J, Mikolajczyk K. P-N learning: Bootstrapping binary classifiers by structural constraints. In: IEEE Conference on Computer Vision & Pattern Recognition, San Francisco, USA, 2010, 238(6): 49-56
[6] Dalal N, Triggs B. Histograms of oriented gradients for human detection. In: IEEE Conference on Computer Vision & Pattern Recognition, San Diego, USA, 2005. 886-893
[7] Ahonen T, Hadid A, Pietik?inen M. Face recognition with local binary patterns.LectureNotesinComputerScience, 2004, 3021: 469-481
[8] 朱秋平, 顏佳, 張虎等. 基于壓縮感知的多特征實(shí)時(shí)跟蹤. 光學(xué)精密工程, 2013, 21(2): 437-444
[9] Babenko B, Yang M H, Belongie S. Robust object tracking with online multiple instance learning.IEEETransactionsonPatternAnalysis&MachineIntelligence, 2011, 33(8): 1619-1632
[10] Zhang K, Zhang L, Yang M H. Real-time object tracking via online discriminative feature selection.IEEETransactionsonImageProcessing, 2013, 22(12): 4664 - 4677
[11] Swain M J, Ballard D H. Color indexing.InternationalJournalofComputerVision, 1991, 7(1): 11-32
[12] Stricker A M A, Orengo M. Similarity of color images.ProceedingsofSPIE-TheInternationalSocietyforOpticalEngineering, 1970, 2420: 381-392
[13] Huang J, Kumar S R, Mitra M, et al. Image indexing using color correlograms. In: IEEE Conference on Computer Vision & Pattern Recognition, San Juan, Puerto Rico, 1997. 762-768
[14] Joost V D W, Cordelia S, Jakob V, et al. Learning color names for real-world applications.IEEETransactionsonImageProcessingAPublicationoftheIEEESignalProcessingSociety, 2009, 18(7): 1512-1523
[15] Danelljan M, Khan F S, Felsberg M, et al. Adaptive color attributes for real-time visual tracking. In: IEEE Conference on Computer Vision & Pattern Recognition, Columbus, USA, 2014. 1090-1097
[16] Avidan S. Ensemble tracking.IEEETransactionsonPatternAnalysis&MachineIntelligence, 2007, 29(2): 261-271
[17] Berlin B, Kay P. Basic Color Terms: Their Universality and Evolution. Berkeley: UC Press, 1969
[18] Wu Y, Lim J, Yang M H. Online object tracking: A benchmark. In: IEEE Conference on Computer Vision & Pattern Recognition, Portland, USA, 2013. 2411-2418
[19] Jia X. Visual tracking via adaptive structural local sparse appearance model. In: IEEE Conference on Computer Vision & Pattern Recognition, Providence. USA, 2012. 1822-1829
[20] Zhong W. Robust object tracking via sparsity-based collaborative model. In: IEEE Conference on Computer Vision & Pattern Recognition, Providence, USA, 2012. 1838-1845
A new discriminative tracking algorithm based on color statistical characteristics
Hu Zhaohua***, Ju Rong*, Ou Yangwen*, Jin Rong*
(*School of Electronic & Information Engineering, Nanjing University of Information Science & Technology, Nanjing 210044)(**Jiangsu Collaborative Innovation Center on Atmospheric Environment and Equipment Technology, Nanjing 210044)
In view of the problem that most discriminative algorithms for target tracking focus on the tracking speed while neglect the scale variation, a simple, robust discriminative algorithm based on color statistical characteristics was presented. The new color statistical characteristics not only possess the certain illumination invariance, but also maintain the higher discriminative power. An affine kinematics model for tracking was established to keep optimizing the parameters during tracking to solve the scale variation and the view angle change. To improve the tracking speed, the low-dimensional color statistical characteristics were used to describe the target appearance, and the color statistical characteristics were used to train naive Bayes classifiers and update classifiers online. The sample with the maximum confidence was regarded as the tracking result. Numerous comprehensive experiments were conducted for evaluation of the proposed algorithm and other algorithms, and the remarkable effectiveness under different challenge factors of the proposed tracking algorithm was showed.
visual tracking, color statistical characteristics, affine transformation, dimensionality reduction, discriminative classifier
10.3772/j.issn.1002-0470.2016.03.004
①國家自然科學(xué)青年基金(61203273),江蘇省自然科學(xué)基金青年基金(BK20141004),江蘇省普通高校自然科學(xué)研究資助項(xiàng)目(11KJB510009, 14KJB510019),江蘇省“信息與通信工程”優(yōu)勢學(xué)科資助和江蘇省大學(xué)生實(shí)踐創(chuàng)新訓(xùn)練計(jì)劃(201410300021)資助項(xiàng)目。
,E-mail: jrnuist@163.com(
2015-12-01)
②女,1981年生,博士,副教授;研究方向:視頻目標(biāo)跟蹤,模式識(shí)別,粒子濾波等;E-mail: zhaohua_hu@163.com