• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于局部稀疏表示的多示例學(xué)習(xí)跟蹤方法研究

      2015-10-24 05:25:57趙麗軍
      電腦知識與技術(shù) 2015年5期
      關(guān)鍵詞:分類器

      趙麗軍

      摘要:針對目標(biāo)紋理變化、光照和位置變化較大時,跟蹤不穩(wěn)定、易丟失目標(biāo)的問題,提出通過多示例學(xué)習(xí)的訓(xùn)練數(shù)據(jù)生成局部稀疏編碼,建立對象的外觀模型。首先,目標(biāo)對象的局部圖像塊由過完備字典結(jié)合稀疏編碼表示;其次,分類器學(xué)習(xí)稀疏編碼進(jìn)而識別背景中的目標(biāo);最后,將訓(xùn)練分類器得到的結(jié)果輸入粒子濾波框架,進(jìn)而預(yù)測目標(biāo)狀態(tài)隨時間的變化。此外,為了減少字典更新和分類器累積誤差形成的視覺漂移,采用弱分類器結(jié)合強(qiáng)分類器進(jìn)行目標(biāo)跟蹤。

      關(guān)鍵詞:局部稀疏表示;多示例學(xué)習(xí);分類器

      中圖分類號:TP391 文獻(xiàn)標(biāo)識碼:A 文章編號:1009-3044(2015)05-0216-03

      Multiple Instance Learning Tracking Method with Local Sparse Representation

      ZHAO Li-jun

      (China Coal Ping Shuo Outdoor equipment maintenance center, Shuozhou 036006, China)

      Abstract:When objects undergo large pose change, illumination variation or partial occlusion, most existed visual tracking algorithms tend to drift away from targets and even fail in tracking them. To address this issue, in this study, the authors propose an online algorithm by combining multiple instance learning (MIL) and local sparse representation for tracking an object. The key idea in our method is to model the appearance of an object by local sparse codes that can be formed as training data for the MIL framework. First, local image patches of a target object are represented as sparse codes with an over complete dictionary. Then MIL learns the sparse codes by a classifier to discriminate the target from the background. Finally, results from the trained classifier are input into a particle filter framework to sequentially estimate the target state over time in visual tracking. In addition, to decrease the visual drift because of the accumulative errors when updating the dictionary and classifier, a two-step object tracking method combining a weak classifier with a strong classifier is proposed.

      Key words:local sparse representation; MIL(multiple instance learning);classifier

      對象跟蹤式計(jì)算機(jī)視覺領(lǐng)域的一個突出問題。目前正日益廣泛應(yīng)用在視頻監(jiān)控、人機(jī)交互、車輛導(dǎo)航等眾多領(lǐng)域。然而盡管經(jīng)過十幾年的研究發(fā)展,設(shè)計(jì)一個能夠有效處理遮擋、光照變化、尺度變化、運(yùn)動突變等因素的跟蹤算法仍然是一個具有挑戰(zhàn)性的問題。

      Babenko etal提出的在線MIL算法可以降低目標(biāo)跟蹤中的視覺漂移,但是頻繁跟蹤新目標(biāo)需不斷更新MIL外觀模型,引入的噪聲會影響包中的實(shí)例的高效選取。為了減少視覺漂移,Matthews etal 提出分兩步建立跟蹤目標(biāo)的外觀模型。首先采用最新框架中的在線模板估計(jì)跟蹤結(jié)果,然后使用模板確定的第一幀確定目標(biāo)位置,但是在目標(biāo)部分遮掩時會有視覺漂移。Wang etal 提出兩階段算法,即同時檢測第一幀的背景和在線觀察目標(biāo)。但是,該種方法將目標(biāo)建模為單一實(shí)例,采用稀疏編碼建立線性分類器,很難精確選擇正負(fù)樣本更新線性分類器。

      鑒于上述工作的分析,本文提出了基于局部稀疏表示的在線MIL目標(biāo)跟蹤算法。算法結(jié)合在線MIL和局部稀疏表示的自適應(yīng)外觀模型,提出了基于局部稀疏表示的動態(tài)和靜態(tài)MIL分類器兩階段跟蹤策略。MIL分類器的訓(xùn)練數(shù)據(jù)采用直接從原始圖像塊的特征池獲取,提供了更加靈活機(jī)制來處理上述提到的問題;此外,可以減少目標(biāo)移動過程中的視覺漂移。本文提出兩步跟蹤策略建立MIL分類器。第一步,使用在線更新字典計(jì)算每個候選稀疏編碼,然后建立多個弱分類器,再將多個弱分類器組成強(qiáng)分類器;第二步,使用第一幀視頻中的正向和負(fù)向圖像塊的稀疏編碼采用強(qiáng)分類器進(jìn)行分類,用來確定目標(biāo)的準(zhǔn)確位置。

      1 基于局部稀疏表示的MIL目標(biāo)跟蹤

      1.1 基于局部稀疏表示的外觀模型表示

      稀疏表示在信號處理和視覺跟蹤領(lǐng)域有廣泛的應(yīng)用。假定[y∈Rn]表示現(xiàn)有字典[D∈Rn×K]的基本元素的線性組合。字典元素由[{dj}Kj=1]組成。信號[y]的表示滿足:[y=Dx+z] (1)。如果[n

      猜你喜歡
      分類器
      BP-GA光照分類器在車道線識別中的應(yīng)用
      電子測試(2018年1期)2018-04-18 11:52:35
      基于差異性測度的遙感自適應(yīng)分類器選擇
      基于實(shí)例的強(qiáng)分類器快速集成方法
      加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
      結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
      人臉檢測的繼承式集成學(xué)習(xí)方法*
      一種基于信息復(fù)用的Boosting瀑布型分類器高效訓(xùn)練方法
      基于Adaboost的人臉檢測算法研究
      電子世界(2014年12期)2014-10-21 11:09:39
      基于層次化分類器的遙感圖像飛機(jī)目標(biāo)檢測
      基于LLE降維和BP_Adaboost分類器的GIS局部放電模式識別
      应用必备| 罗江县| 北海市| 虎林市| 长春市| 仙游县| 株洲县| 大兴区| 伊通| 宁国市| 武邑县| 门头沟区| 太白县| 高淳县| 涿鹿县| 斗六市| 垣曲县| 霞浦县| 青冈县| 咸丰县| 安庆市| 丹巴县| 栾城县| 潍坊市| 偃师市| 平塘县| 台安县| 公主岭市| 长宁区| 比如县| 瑞安市| 信丰县| 梓潼县| 苗栗县| 都匀市| 阿图什市| 三门峡市| 哈尔滨市| 大石桥市| 龙江县| 虎林市|