• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于遞推估計(jì)和上下文更新的魯棒單目標(biāo)跟蹤方法

      2017-02-24 10:10:47楊建輝余梅生
      關(guān)鍵詞:跟蹤器外觀光照

      楊建輝,吳 聰,余梅生

      (1.周口師范學(xué)院 數(shù)學(xué)與統(tǒng)計(jì)學(xué)院,河南 周口 466001;2. 周口師范學(xué)院 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,河南 周口 466001;3.燕山大學(xué) 信息科學(xué)與工程學(xué)院,河北 秦皇島 066004)

      基于遞推估計(jì)和上下文更新的魯棒單目標(biāo)跟蹤方法

      楊建輝1,吳 聰2,余梅生3

      (1.周口師范學(xué)院 數(shù)學(xué)與統(tǒng)計(jì)學(xué)院,河南 周口 466001;2. 周口師范學(xué)院 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,河南 周口 466001;3.燕山大學(xué) 信息科學(xué)與工程學(xué)院,河北 秦皇島 066004)

      針對(duì)雜亂背景和光照變化等容易使目標(biāo)跟蹤產(chǎn)生漂移的問題,提出一種基于遞推估計(jì)和上下文更新的魯棒目標(biāo)跟蹤方法,該方法是顏色粒子濾波目標(biāo)跟蹤的有效擴(kuò)展。通過建立顏色粒子濾波跟蹤的通用框架,利用上下文信息分配目標(biāo)外觀變化的置信度,在重采樣階段,采用遞推估計(jì)從其外觀相似度分?jǐn)?shù)計(jì)算的權(quán)重選擇粒子,并初始化異常粒子。形變和光照變化的視頻測(cè)試表明,該方法可以克服光照變化和背景的影響,遞推估計(jì)可以處理偏離整體估計(jì)的異常粒子。相比于標(biāo)準(zhǔn)顏色粒子濾波、粒子隨機(jī)搜索法等方法,該方法在跟蹤框中心誤差和平均重疊方面均優(yōu)于其他方法,在魯棒性和準(zhǔn)確性方面具有明顯優(yōu)勢(shì)。

      遞推估計(jì);上下文信息;目標(biāo)跟蹤;粒子濾波;魯棒性

      0 引 言

      目標(biāo)跟蹤和檢測(cè)技術(shù)在機(jī)器視覺、模式識(shí)別、圖像檢測(cè)等諸多方面有著很重要的應(yīng)用。它以圖像處理技術(shù)為基礎(chǔ),將光學(xué)電子、計(jì)算機(jī)和測(cè)試等技術(shù)融為一體[1],構(gòu)成一個(gè)綜合體。目前目標(biāo)跟蹤技術(shù)已廣泛應(yīng)用于多個(gè)領(lǐng)域:軍事中的空中目標(biāo)跟蹤、導(dǎo)彈制導(dǎo)[2];氣象中的云圖分析[3];工業(yè)中的視覺私服控制[4]、智能車輛;交通中的視頻監(jiān)控系統(tǒng)[5-6]等。在這些系統(tǒng)中,如何獲得魯棒跟蹤,應(yīng)對(duì)多種突發(fā)情況是研究的關(guān)鍵。

      現(xiàn)存的大量跟蹤算法主要包括3個(gè)組成部分:目標(biāo)表示、時(shí)空預(yù)測(cè)和模型更新。目標(biāo)表示方法有多種,如:顏色直方圖[7]、直方圖方向梯度(histogram of gradient,HOG)[8]和Harr特征描述符[9]等。這些特性可以用于2種不同方案:①整體方法[10-11],即對(duì)整個(gè)目標(biāo)應(yīng)用單一外觀模型;②基于子空間的方法[12-13],將目標(biāo)的不同部分與不同外觀模型關(guān)聯(lián)。

      文獻(xiàn)[10]提出了在定位目標(biāo)的搜索機(jī)制中,使用基于時(shí)空預(yù)測(cè)的Kalman濾波器,估計(jì)過程的關(guān)鍵是匹配目標(biāo)時(shí)空模型預(yù)測(cè)的外觀模型。但這種方法容易陷入局部最優(yōu)。粒子濾波的隨機(jī)搜索方法[11]可以消除局部最小化問題,得到了廣泛應(yīng)用。一般情況下,目標(biāo)的外觀模型隨時(shí)間變化,例如由于光照條件的改變,目標(biāo)需要進(jìn)行正則化更新。但是,不恰當(dāng)?shù)母驴赡軐?dǎo)致目標(biāo)漂移,在真實(shí)場(chǎng)景中魯棒性較差。

      文獻(xiàn)[12]通過在線更新外觀模型,挖掘目標(biāo)周圍局部可視信息,在現(xiàn)有背景粒子的幫助下選擇判別特征,但更新過程計(jì)算代價(jià)較大,實(shí)時(shí)性較弱。文獻(xiàn)[13]采用自適應(yīng)邊界框和邊緣圖像塊分布解決目標(biāo)漂移問題,在丟失目標(biāo)情況下,利用關(guān)聯(lián)外觀模型,自動(dòng)檢測(cè)粒子,并重新鎖定目標(biāo)。雖然將目標(biāo)的不同部分與目標(biāo)外觀關(guān)聯(lián),但是如果存在較大面積的遮擋或目標(biāo)長時(shí)間消失后再次出現(xiàn),會(huì)出現(xiàn)嚴(yán)重的漂移現(xiàn)象。

      很多方法的有效解在真實(shí)場(chǎng)景中難以達(dá)到期望要求,跟蹤失敗的主要原因包括背景雜亂的不恰當(dāng)處理、光照變化和目標(biāo)形變等[14]。為了處理上述問題,本文構(gòu)建一種魯棒單目標(biāo)跟蹤器,使其適用于雜亂和外觀變化環(huán)境,擴(kuò)展了的原始顏色粒子濾波,其主要貢獻(xiàn):①為了處理可能偏離整體估計(jì)的異常粒子,引入一種遞推估計(jì),可重新加權(quán)和重新初始化異常粒子;②采用上下文信息更新參考模型,克服了光度變化和背景影響。

      1 雜亂環(huán)境下跟蹤的背景問題

      本文模型中,目標(biāo)由一個(gè)矩形區(qū)域建模,其對(duì)應(yīng)的目標(biāo)邊界框?yàn)?/p>

      (1)

      (1)式中:(Px,Py)表示邊界框中心位置的x-y坐標(biāo),Hx,Hy分別為區(qū)域?qū)挾群透叨?,如圖1所示。

      圖1 跟蹤器的邊界框Fig.1 Tracker’s bounding box

      (2)

      (2)式中:M表示常量運(yùn)動(dòng)矩陣,為單位矩陣;vk~N(0,R)表示方差為R,均值為0的高斯噪聲。

      (3)

      粒子的目標(biāo)估計(jì)是通過所有粒子集的平均來計(jì)算獲得,表示為

      (4)

      而參考模型的更新由(5)式獲取

      (5)

      (5)式中,λr是權(quán)衡當(dāng)前外觀與之前參考外觀估計(jì)的一些常量參數(shù)。即更新的參考外觀模型構(gòu)建為參考外觀之前估計(jì)與目標(biāo)外觀當(dāng)前觀察的凸組合。

      但是,通過(2)-(4) 式的估計(jì)可能不完全準(zhǔn)確,尤其是在雜亂環(huán)境中。例如,當(dāng)目標(biāo)遇到相似背景,一些粒子產(chǎn)生的估計(jì)可能完全錯(cuò)誤,因此,粒子分布產(chǎn)生不同聚類,導(dǎo)致邊界框遠(yuǎn)離目標(biāo),如圖2所示。類似地,(5)式更新狀態(tài)的不準(zhǔn)確會(huì)隨著時(shí)間累積,產(chǎn)生嚴(yán)重漂移,實(shí)驗(yàn)的初衷是跟蹤圖2a左邊的人,但存在另一個(gè)外觀模型相似、朝相反方向行走的人, 交叉之前,目標(biāo)看起來非常一致,各粒子相關(guān)的邊界框重合,但是,交叉之后,由粗線框表示的估計(jì)完全偏離圖2b中右邊跟蹤的人。這就是由于背景造成跟蹤丟失的一個(gè)案例。

      圖2 雜亂環(huán)境下的失敗模式Fig.2 Failure modes in environmental clutter

      2 提出的單目標(biāo)跟蹤方法

      為了解決第1節(jié)提到的雜亂環(huán)境中跟蹤失敗的問題,本文使用遞推估計(jì)方法求解跟蹤問題,提取上下文信息形成魯棒模型更新。

      2.1 遞推估計(jì)

      (6)

      因此,所有粒子上的平均距離為

      (7)

      粒子i偏離標(biāo)準(zhǔn)估計(jì),當(dāng)且僅當(dāng)

      (8)

      (8)式中,λd是與底層視頻幀可變性相關(guān)的常量參數(shù),較高的λd值將減少異常點(diǎn)數(shù),當(dāng)設(shè)置其值低于1時(shí),將大幅增加異常點(diǎn)數(shù)。因此,本文設(shè)置的經(jīng)驗(yàn)值為λd=2,可以滿足大多數(shù)情況。

      圖3 重采樣方案Fig.3 Re-sampling scheme

      重采樣策略如下。

      步驟3 根據(jù)(3)式計(jì)算第p個(gè)粒子和第q個(gè)粒子的新權(quán)重,即,使用圖3中的符號(hào),表示為

      (9)

      (10)

      步驟5 根據(jù)(4)式計(jì)算新全局估計(jì);

      步驟6 重復(fù)步驟(6)—(8)式,找出是否存在異常粒子。

      迭代重采樣步驟1—5,直到不再產(chǎn)生異常點(diǎn)。此外,實(shí)踐中,上述迭代次數(shù)隨著異常點(diǎn)數(shù)大幅減少,重采樣之后趨于穩(wěn)定。遞推估計(jì)重采樣的偽代碼如算法1所示。

      算法1 遞推估計(jì)重采樣。

      2)FOR每個(gè)粒子i

      END

      4)當(dāng)粒子j滿足式(8),DO

      END

      5)FOR每個(gè)粒子i

      END

      6)轉(zhuǎn)至1);

      7)重復(fù)1)—6),直到粒子j滿足(8)式;

      2.2 上下文信息更新解決背景問題

      更新參考模型經(jīng)常會(huì)發(fā)生難以預(yù)料的問題,這是由于很難預(yù)測(cè)將要發(fā)生的光照條件或視頻序列變化。由于背景的可能影響,(5)式中,模型與目標(biāo)外觀之間的凸組合具有誤導(dǎo)性,啟發(fā)于文獻(xiàn)[15],首先,通過固定比例擴(kuò)大估計(jì)的目標(biāo)邊框來解釋背景;然后,選擇(5)式中乘法因子λr來說明直方圖每個(gè)bin區(qū)間上背景像素相對(duì)前景像素的比例,通過比較模型估計(jì)(前景)和參考背景之間的外觀變化來實(shí)現(xiàn),如果變化與背景非常相似,則分配較低的因子,否則,分配較高的因子。前景和背景區(qū)域的一個(gè)示例如圖4所示,即擴(kuò)大區(qū)域定義為前景區(qū)域補(bǔ)充的局部背景區(qū)域。

      圖4 前景和背景區(qū)域Fig.4 Foreground and background region

      若每條邊的縮放因子σ>1,則表明擴(kuò)大了估計(jì)目標(biāo)的邊界框,如圖 4所示,擴(kuò)大區(qū)域的分辨率變?yōu)?/p>

      (11)

      (12)

      實(shí)驗(yàn)結(jié)果表明,乘法因子σ=1.2較為合適[14],接著,本文討論權(quán)重因子

      (13)

      (14)

      然后對(duì)(14)式進(jìn)行歸一化處理即可,即所有的bin除以其總和,單目標(biāo)跟蹤器的通用偽代碼如算法2所示。

      算法2 提出魯棒單目標(biāo)跟蹤器。

      3)遞推估計(jì);

      b.FOR每個(gè)粒子i

      END

      d.當(dāng)粒子j滿足(8)式,DO

      END

      e.FOR每個(gè)粒子i

      END

      f.轉(zhuǎn)至步驟a

      g.重復(fù)步驟a—f,直到粒子j滿足(8)式

      3 跟蹤性能分析與比較

      3.1 評(píng)估指標(biāo)

      為了簡化與基準(zhǔn)數(shù)據(jù)集[16]的比較,利用2個(gè)指標(biāo)評(píng)估跟蹤器的性能:重疊和均方差(root mean square estimation,RMSE),前者量化為

      (15)

      (16)

      (16)式中,N是總幀數(shù)。

      3.2 跟蹤器性能比較

      本節(jié)利用多個(gè)視頻進(jìn)行仿真實(shí)驗(yàn),驗(yàn)證本文方法的有效性和魯棒性。實(shí)驗(yàn)在配置英特爾i5雙核CPU,2.98 GHz主頻,4.0 GByte內(nèi)存,Windows 7操作系統(tǒng)的PC機(jī)上實(shí)現(xiàn),編程環(huán)境為Matlab2011b。

      為了驗(yàn)證遞推估計(jì)的效果,將本文的跟蹤器應(yīng)用到圖2所示的視頻,跟蹤實(shí)驗(yàn)結(jié)果如圖5所示,第1行為無遞推估計(jì);第2行為有遞推估計(jì),圖5中移動(dòng)的框體表示估計(jì)獲得的目標(biāo)跟蹤框,框體周圍模糊的陰影表示粒子。圖5的第2行結(jié)果清楚地表明了遞推估計(jì)克服了由異常粒子引起的退化影響。

      圖5 遞推估計(jì)的跟蹤實(shí)驗(yàn)Fig.5 Tracking experiment of recursive estimation

      為了驗(yàn)證提出跟蹤器上下文信息更新的有用性,從文獻(xiàn)[7]和文獻(xiàn)[16]選擇2個(gè)具有挑戰(zhàn)性的視頻片段,一個(gè)是體操運(yùn)動(dòng)員視頻,含有噪聲背景,且目標(biāo)會(huì)發(fā)生多個(gè)變形,另一個(gè)是David視頻,具有較大的光照變化。提出的方法與無更新的標(biāo)準(zhǔn)顏色粒子濾波方法和有更新的方法進(jìn)行比較,其中速度控制參數(shù)為0.5。

      圖6是發(fā)生多次形變的體操運(yùn)動(dòng)員視頻的實(shí)驗(yàn)結(jié)果,第1行為無更新的顏色粒子濾波方法;第2行為有更新的方法;第3行為本方方法的跟蹤結(jié)果。實(shí)驗(yàn)結(jié)果表明,無更新的顏色粒子濾波方法或其更新方法會(huì)發(fā)生一些視頻幀上的目標(biāo)丟失,本文方法可以在復(fù)雜形變的情況下準(zhǔn)確跟蹤。

      圖6 外觀變化的跟蹤實(shí)驗(yàn)Fig.6 Tracking experiment of self-deformation

      從方法設(shè)計(jì)的角度看,無更新方法對(duì)處理形狀變化和視頻幀光照突變很不利,因?yàn)闊o法獲得目標(biāo)外觀與原始參考幀之間的良好匹配,反過來,這也基本上解釋了為什么這類情況下會(huì)使觀察目標(biāo)丟失。而有更新的標(biāo)準(zhǔn)顏色粒子濾波方法沒有考慮背景雜亂的魯棒性機(jī)制,從而也導(dǎo)致目標(biāo)丟失。本文方法利用背景信息克服了這類困難。

      圖7是發(fā)生較大光照變化時(shí)各方法的跟蹤結(jié)果,跟蹤的目標(biāo)發(fā)生了一定程度形變,其中第1行是無更新的顏色粒子濾波方法的跟蹤結(jié)果,第2行為有更新的顏色粒子濾波方法的跟蹤結(jié)果,第3行是本文方法的跟蹤結(jié)果??梢钥闯觯疚姆椒黠@提升了跟蹤性能。而其他2種方法由于不完美估計(jì)更新的誤差累積導(dǎo)致了目標(biāo)丟失,這進(jìn)一步說明了本文方法對(duì)形變和光照變化的較強(qiáng)魯棒性。

      為了整體評(píng)估各方法,跟蹤器在權(quán)衡曲線方面的性能如圖8所示,曲線量化了成功跟蹤目標(biāo)時(shí)的幀數(shù),即跟蹤成功率。具有相同成功率情況下,重疊越高意味著跟蹤器的檢測(cè)能力越強(qiáng),類似地,同一重疊級(jí)別,成功率越高則跟蹤的魯棒性越強(qiáng)。在外觀變化視頻和光照變化視頻中,本文方法明顯優(yōu)于其他2種方法,準(zhǔn)確度更高。

      圖7 光照變化的跟蹤實(shí)驗(yàn)Fig.7 Tracking experiment of illumination change

      圖8 體操運(yùn)動(dòng)員和David視頻的性能曲線Fig.8 Trade-off curve of Gym and David sequences

      為了進(jìn)一步比較,本文還使用其他涉及形狀和光照變化的視頻用于測(cè)試本文方法:籃球、交叉行走、夫婦、David3、地鐵視頻、步行和運(yùn)動(dòng)員。這些視頻具有一定程度的遮擋場(chǎng)景、低分辨率、光照變化和雜亂的背景,視頻取自文獻(xiàn)[7]和文獻(xiàn)[16]。本文方法與4種先進(jìn)方法進(jìn)行了比較,這4種方法為①標(biāo)準(zhǔn)顏色粒子濾波[17];②基于類Haar特征分類[9];③粒子隨機(jī)搜索法[11];④一種基于meanshift的顏色直方圖方法[7],充分利用了背景信息,是meanshift良好的改進(jìn)算法,即糾正的背景加權(quán)直方圖方法 (corrected background weighted histogram, CBWH)[7]。這4種方法中,文獻(xiàn)[7]和文獻(xiàn)[17]提供了matlab源碼,文獻(xiàn)[9]和文獻(xiàn)[11]易于用matlab實(shí)現(xiàn)。

      本文所有的跟蹤器共享公共特征,利用外觀模型表征每個(gè)實(shí)例,不同于運(yùn)動(dòng)或紋理特征。表1和表2分別是各方法對(duì)視頻的平均重疊和中心誤差??梢钥闯?,本文方法在大多數(shù)視頻的跟蹤結(jié)果的重疊均達(dá)到最大,只在交叉行走和運(yùn)動(dòng)員視頻中的跟蹤重疊略低于其他方法,這是由于本文的遞推估計(jì)更加偏重于跟蹤框的中心位置,本文方法在中心位置誤差方面均優(yōu)于其他方法,而重疊偶爾會(huì)略低于其他方法。

      表1 各方法對(duì)每個(gè)視頻序列的平均重疊

      表2 各方法對(duì)每個(gè)視頻序列的中心誤差(RMSE)

      4 結(jié)論與展望

      本文在顏色粒子濾波算法基礎(chǔ)上,在多個(gè)方向進(jìn)行擴(kuò)展。首先,為了處理背景雜亂和光照變化造成的不確定性,通過擴(kuò)大所估計(jì)目標(biāo)區(qū)域的邊界來考慮上下文信息,并進(jìn)行比較。然后,通過引入的遞推估計(jì)考慮粒子分布,減少了異常點(diǎn)對(duì)目標(biāo)全局估計(jì)的影響。實(shí)驗(yàn)結(jié)果表明,本文方法在形變和光照變化方面具有明顯的優(yōu)勢(shì),魯棒性較強(qiáng)。

      未來將考慮將單目標(biāo)跟蹤器擴(kuò)展到多個(gè)獨(dú)立跟蹤器,形成一個(gè)多目標(biāo)跟蹤系統(tǒng),但要考慮身份切換、認(rèn)證、多目標(biāo)遮擋、沖突和多目標(biāo)問題的收斂性問題,這將是未來的研究重點(diǎn)。

      [1] 李靜, 王軍政. 圖像檢測(cè)與目標(biāo)跟蹤技術(shù)[M].北京:北京理工大學(xué)出版社, 2013:3-8. LI Jing, WANG Junzhen. Image detection and object tracking technology[M]. Beijing:Beijing Institute of Technology Press, 2013:3-8.

      [2] 張君威. 基于數(shù)據(jù)融合的多模復(fù)合制導(dǎo)攔截技術(shù)的研究[D]. 哈爾濱:哈爾濱工業(yè)大學(xué), 2009. ZHANG Junwei. Research on data fusion technology based on multimode compound guidance interception[D].Harbin:Harbin Institute of Technology, 2009.

      [3] 謝永華,胡學(xué)嶺,張恒德.基于多尺度分析的地基云圖自動(dòng)識(shí)別的研究[J].計(jì)算機(jī)仿真,2014,31(11):212-216. XIE Yonghua, HU Xueling, ZHANG Hengde. Research on Recognition of Ground-based Cloud Image Based on Multi-Scale Analysis[J].Computer Simulation, 2014, 31(11): 212-216.

      [4] 王洪斌, 呂玲, 李萍. 在線估計(jì)雅可比矩陣的視覺伺服控制算法[J]. 系統(tǒng)仿真學(xué)報(bào), 2010, 34(12): 2934-2937. WANG Hongbin,LV Ling,LI Ping.Study on Estimating Jacobian Matrix on-line Visual Servo Control Algorithm[J].Journal of System Simulation,2010,34(12):2934-2937.

      [5] 周小娟, 李春曉. 基于偏最小二乘分析和稀疏表示的目標(biāo)跟蹤算法[J]. 重慶郵電大學(xué)學(xué)報(bào):自然科學(xué)版, 2014, 26(1): 104-110. ZHOU Xiaojuan, LI Chunxiao. Object tracking via partial least squares analysis and sparse representation[J]. Journal of Chongqing University of Posts and Telecommunications:Natural Science Edition, 2014, 26(1): 104-110.

      [6] 張英,樊亞翔,孫浩,等.基于元樣本稀疏表示的目標(biāo)跟蹤算法[J].重慶理工大學(xué)學(xué)報(bào)(自然科學(xué)版),2014(1):91-95. ZHANG Ying, FAN Yaxiang, SUN Hao, et al. Object Tracking Algorithm Based on Sparse Representation for Meta-sample[J]. Journal of Chongqing University of Technology (Natural Science), 2014(1): 91-95.

      [7] NING J, ZHANG L, ZHANG D, et al. Robust mean-shift tracking with corrected background-weighted histogram[J]. IET Computer Vision, 2012, 17(1): 62-69.

      [8] LI W, LIN Y, FU B, et al. Cascade Classifier Using Combination of Histograms of Oriented Gradients for Rapid Pedestrian Detection[J]. Journal of Software, 2013, 8(1): 1532-1539.

      [9] 魏運(yùn). 道路移動(dòng)視覺環(huán)境感知中的多目標(biāo)識(shí)別與跟蹤方法研究[D]. 南京:東南大學(xué), 2013. WEI Yuan. Research on multi target recognition and tracking method in the environment of moving visual perception[D].Nanjing:Southeast University, 2013.

      [10] 李振穎. WSN中基于預(yù)測(cè)和量化的卡爾曼濾波目標(biāo)跟蹤[D]. 大連:大連理工大學(xué), 2014. LI Zhenying.Target tracking based on prediction and quantization of Kalman filter in WSN[D].Dalian:Dalian University of Technology, 2014.

      [11] LUO R, YING L I, QIAN G, et al. Particle Filter Algorithm Based on Improved Adaptive Resampling[J]. Opto-Electronic Engineering, 2014, 34(3): 1635-1641.

      [12] 劉晨光, 程丹松, 劉家鋒,等. 一種基于交互式粒子濾波器的視頻中多目標(biāo)跟蹤算法[J].電子學(xué)報(bào),2011, 39(2): 260-267. LIU Chenguang, CHENG Dansong, LIU Jiahui, et.al. Interactive Particle Filter Based Algorithm for Tracking Multiple Objects in Videos[J]. Acta Electronica Sinica, 2011, 39(2): 260-267.

      [13] XIAO J,STOLKIN R,LEONARDIS A.An enhanced adaptive coupled-layer LGTracker++[C]//IEEE. IEEE International Conference on Computer Vision Works, ICCVW. Sydney, Australia:IEEE,2013, 137-144.

      [14] YAO A, LIN X, WANG G, et al. A compact association of particle filtering and kernel based object tracking[J]. Pattern Recognition, 2012, 45(7):2584-2597.

      [15] TALHA M, STOLKIN R. Particle filter tracking of camouflaged targets by adaptive fusion of thermal and visible spectra camera data[J]. Sensors Journal, IEEE, 2014, 14(1): 159-166.

      [16] KRISTAN M, PFLUGFELDER R, LEONARDIS A, et al. The visual object tracking vot2014 challenge results[C]//Computer Vision-ECCV 2014 Workshops. Zurich, Switzerland:Springer International Publishing, 2014: 191-217.

      [17] NUMMIARO K, KOLLER M E,van GOOL L. An adaptive color-based particle filter[J].Image and vision computing, 2003, 21(1): 99-110.

      (編輯:王敏琦)

      Robust single-object tracker method based on recursive estimation and contextual information updating

      YANG Jianhui1, WU Cong2, YU Meisheng3

      (1. School of Mathematics and Statistics, Zhoukou Normal University, Zhoukou 466001, P.R.China; 2.School of Computer Science and Technology, Zhoukou Normal University, Zhoukou 466001, P.R.China; 3.School of Information Science and Engineering, Yanshan University, Qinhuangdao 066004, P.R.China)

      As the clutter background and illumination changing can easily make target tracking drift, a robust target tracking method based on recursive estimation and contextual information updating is proposed, which is an effective extension of target tracking based on color particle filter. Firstly, the general framework of tracking based on color particle filter is established. Then, the contextual information is used to allocate the confidence degree of changes of target appearance. Finally, in the period of re-sampling, recursive estimation is used to calculate the weight to choose particles from appearance similarity score, and the abnormal particles are initialized. The proposed method can overcome the influence of illumination changes and shape changes are verified by the video test on videos of shape changing and illumination changing. And the recursive estimation is proved to be able to deal with the abnormal particles that are deviated from the total estimation. Compared with standard color particle filter, particle random search method and other new methods, the proposed method is superior to other methods in terms of tracking box center error and average overlap. So the advantages of robustness and accuracy are obvious.

      recursive estimation; contextual information; tracking; particle filter; robustness

      10.3979/j.issn.1673-825X.2017.01.016

      2015-10-16

      2016-06-01 通訊作者:楊建輝 yangjhzknu@126.com

      河南省高新領(lǐng)域科技攻關(guān)項(xiàng)目(122102210562);河南省軟科學(xué)研究計(jì)劃項(xiàng)目(132400410934)

      Foundation Items:The Key Project of Science and Technology of High-tech Fields in Henan Province (122102210562); The Soft Science Research Planning Project of Henan Province (132400410934)

      TP391

      A

      1673-825X(2017)01-0106-07

      楊建輝(1980-),男,甘肅鎮(zhèn)原人,講師,碩士,研究領(lǐng)域?yàn)槟繕?biāo)跟蹤、智能優(yōu)化算法等。E-mail:yangjhzknu@126.com。 吳 聰(1982-),女,湖北崇陽人,講師,碩士,研究領(lǐng)域?yàn)橹悄芩惴?、目?biāo)跟蹤等。 余梅生(1943-),男,河北秦皇島人,教授,碩士生導(dǎo)師,研究領(lǐng)域?yàn)槟繕?biāo)跟蹤、智能算法等。

      猜你喜歡
      跟蹤器外觀光照
      外觀動(dòng)作自適應(yīng)目標(biāo)跟蹤方法
      A Shopping Story to Remember
      節(jié)能環(huán)保 光照萬家(公益宣傳)
      光伏跟蹤器陣列跟蹤精度的測(cè)算方法研究
      太陽能(2022年3期)2022-03-29 05:15:50
      不論外觀還是聲音,它都很美 Yamaha(雅馬哈)A-S3200合并功放
      節(jié)能環(huán)保光照萬家(公益宣傳)
      淺析一種風(fēng)光儲(chǔ)一體化跟蹤器
      太陽能(2020年3期)2020-04-08 03:27:10
      春光照瑤鄉(xiāng)
      超長待機(jī)的自行車位置跟蹤器
      雙向多軌跡判定方法在目標(biāo)跟蹤中的應(yīng)用研究
      宝兴县| 天祝| 巫山县| 温州市| 启东市| 宽甸| 枣阳市| 尉氏县| 岚皋县| 宁都县| 华池县| 张家口市| 米泉市| 巢湖市| 碌曲县| 潜山县| 陆川县| 油尖旺区| 寿光市| 连平县| 乌兰察布市| 唐海县| 会泽县| 虎林市| 永川市| 大同县| 榆树市| 洪雅县| 河西区| 永丰县| 射阳县| 即墨市| 商水县| 泸溪县| 尉氏县| 长海县| 类乌齐县| 湖北省| 华宁县| 赣州市| 收藏|