趙麗軍
摘要:針對目標(biāo)紋理變化、光照和位置變化較大時,跟蹤不穩(wěn)定、易丟失目標(biāo)的問題,提出通過多示例學(xué)習(xí)的訓(xùn)練數(shù)據(jù)生成局部稀疏編碼,建立對象的外觀模型。首先,目標(biāo)對象的局部圖像塊由過完備字典結(jié)合稀疏編碼表示;其次,分類器學(xué)習(xí)稀疏編碼進(jìn)而識別背景中的目標(biāo);最后,將訓(xùn)練分類器得到的結(jié)果輸入粒子濾波框架,進(jìn)而預(yù)測目標(biāo)狀態(tài)隨時間的變化。此外,為了減少字典更新和分類器累積誤差形成的視覺漂移,采用弱分類器結(jié)合強(qiáng)分類器進(jìn)行目標(biāo)跟蹤。
關(guān)鍵詞:局部稀疏表示;多示例學(xué)習(xí);分類器
中圖分類號:TP391 文獻(xiàn)標(biāo)識碼:A 文章編號:1009-3044(2015)05-0216-03
Multiple Instance Learning Tracking Method with Local Sparse Representation
ZHAO Li-jun
(China Coal Ping Shuo Outdoor equipment maintenance center, Shuozhou 036006, China)
Abstract:When objects undergo large pose change, illumination variation or partial occlusion, most existed visual tracking algorithms tend to drift away from targets and even fail in tracking them. To address this issue, in this study, the authors propose an online algorithm by combining multiple instance learning (MIL) and local sparse representation for tracking an object. The key idea in our method is to model the appearance of an object by local sparse codes that can be formed as training data for the MIL framework. First, local image patches of a target object are represented as sparse codes with an over complete dictionary. Then MIL learns the sparse codes by a classifier to discriminate the target from the background. Finally, results from the trained classifier are input into a particle filter framework to sequentially estimate the target state over time in visual tracking. In addition, to decrease the visual drift because of the accumulative errors when updating the dictionary and classifier, a two-step object tracking method combining a weak classifier with a strong classifier is proposed.
Key words:local sparse representation; MIL(multiple instance learning);classifier
對象跟蹤式計(jì)算機(jī)視覺領(lǐng)域的一個突出問題。目前正日益廣泛應(yīng)用在視頻監(jiān)控、人機(jī)交互、車輛導(dǎo)航等眾多領(lǐng)域。然而盡管經(jīng)過十幾年的研究發(fā)展,設(shè)計(jì)一個能夠有效處理遮擋、光照變化、尺度變化、運(yùn)動突變等因素的跟蹤算法仍然是一個具有挑戰(zhàn)性的問題。
Babenko etal提出的在線MIL算法可以降低目標(biāo)跟蹤中的視覺漂移,但是頻繁跟蹤新目標(biāo)需不斷更新MIL外觀模型,引入的噪聲會影響包中的實(shí)例的高效選取。為了減少視覺漂移,Matthews etal 提出分兩步建立跟蹤目標(biāo)的外觀模型。首先采用最新框架中的在線模板估計(jì)跟蹤結(jié)果,然后使用模板確定的第一幀確定目標(biāo)位置,但是在目標(biāo)部分遮掩時會有視覺漂移。Wang etal 提出兩階段算法,即同時檢測第一幀的背景和在線觀察目標(biāo)。但是,該種方法將目標(biāo)建模為單一實(shí)例,采用稀疏編碼建立線性分類器,很難精確選擇正負(fù)樣本更新線性分類器。
鑒于上述工作的分析,本文提出了基于局部稀疏表示的在線MIL目標(biāo)跟蹤算法。算法結(jié)合在線MIL和局部稀疏表示的自適應(yīng)外觀模型,提出了基于局部稀疏表示的動態(tài)和靜態(tài)MIL分類器兩階段跟蹤策略。MIL分類器的訓(xùn)練數(shù)據(jù)采用直接從原始圖像塊的特征池獲取,提供了更加靈活機(jī)制來處理上述提到的問題;此外,可以減少目標(biāo)移動過程中的視覺漂移。本文提出兩步跟蹤策略建立MIL分類器。第一步,使用在線更新字典計(jì)算每個候選稀疏編碼,然后建立多個弱分類器,再將多個弱分類器組成強(qiáng)分類器;第二步,使用第一幀視頻中的正向和負(fù)向圖像塊的稀疏編碼采用強(qiáng)分類器進(jìn)行分類,用來確定目標(biāo)的準(zhǔn)確位置。
1 基于局部稀疏表示的MIL目標(biāo)跟蹤
1.1 基于局部稀疏表示的外觀模型表示
稀疏表示在信號處理和視覺跟蹤領(lǐng)域有廣泛的應(yīng)用。假定[y∈Rn]表示現(xiàn)有字典[D∈Rn×K]的基本元素的線性組合。字典元素由[{dj}Kj=1]組成。信號[y]的表示滿足:[y=Dx+z] (1)。如果[n