• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      一種基于預(yù)測的跟蹤方法研究

      2018-01-06 12:34梁志達
      電腦知識與技術(shù) 2017年35期
      關(guān)鍵詞:目標(biāo)跟蹤主成分分析預(yù)測

      梁志達

      摘要:該文提出了一種新型預(yù)測方法,將運動目標(biāo)的運動模型考慮其中,可以有效縮小目標(biāo)有效搜索區(qū)域,從而達到提高搜索效率的目的。在目標(biāo)匹配方法上采用主成分分析法和灰度值差值兩種方法的有機結(jié)合,有效降低誤差率。從實驗效果上看,該文提出算法能夠準確跟蹤目標(biāo)。

      關(guān)鍵詞:目標(biāo)跟蹤;預(yù)測;主成分分析;灰度值

      中圖分類號:TP391 文獻標(biāo)識碼:A 文章編號:1009-3044(2017)35-0224-03

      Target Tracking Based on Prediction Method

      LIANG Zhi-da

      (Information Department of Dalian Sanatorium, Dalian 116013, China)

      Abstract: In this paper, a new prediction method is proposed. The motion model of moving object is taken into account, which can effectively reduce the effective search area of target, so as to improve the search efficiency. In the method of target matching, the combination of principal component analysis and gray value two method can effectively reduce the error rate. From the experimental results, this paper proposes that the algorithm can track the target accurately.

      Key words: Object tracking; prediction; principal component analysis; gray value

      1 背景

      本文在經(jīng)典跟蹤方法的基礎(chǔ)上,利用精確預(yù)測的方法,首先構(gòu)建目標(biāo)的運動模型,使下一幀的搜索中心點更靠近目標(biāo)真實位置,從而提高搜索效率。在計算候選同目標(biāo)模板的相似性上,在利用PCA矢量構(gòu)建字典的稀疏表示方法[6]基礎(chǔ)上,融入圖像灰度值誤差判斷方法,通過分析兩者誤差的均值和方差,設(shè)定自適應(yīng)閾值門限,綜合判斷確定目標(biāo)位置。第四節(jié)中多個測試視頻的跟蹤結(jié)果驗證了本文方法的有效性。

      2 基于PCA稀疏表示跟蹤的改進方法

      2.1 在目標(biāo)跟蹤搜索上的改進方法

      本文在目標(biāo)跟蹤搜索上采用了先預(yù)測再搜索的方法,預(yù)測模型的建立借鑒了卡爾曼濾波的思想,卡爾曼濾波[11]是一種高效的遞歸濾波器,由魯?shù)婪?E.卡爾曼于1960年提出,卡爾曼濾波由狀態(tài)方程和觀測方程來描述,如式(1)、(2):

      (1)

      (2)

      式(1)是狀態(tài)預(yù)測方程,可以預(yù)測系統(tǒng)下一時刻的狀態(tài),(2)是狀態(tài)觀測方程,可以在多項變量中提取我們感興趣的變量。

      針對目標(biāo)跟蹤問題,如何利用卡爾曼濾波思想建立模型,是問題關(guān)鍵,由于一般視頻為25bps,兩幀之間的時間只有40ms,所以,我們首先假設(shè)目標(biāo)是作勻速運動,在視頻圖像內(nèi)需要確定橫縱坐標(biāo)及橫縱方向速度,我們就可以預(yù)測目標(biāo)下一時刻出現(xiàn)的大概位置,在這里將目標(biāo)跟蹤過程看成一個系統(tǒng)預(yù)測和更新的過程,在建立模型時,時刻的系統(tǒng)狀態(tài)由一個四維向量構(gòu)成,因為假設(shè)目標(biāo)的瞬時速度為勻速運動,所以對應(yīng)時刻橫坐標(biāo)方向速度為

      , (3)

      縱坐標(biāo)方向速度為

      , (4)

      系統(tǒng)預(yù)測時刻目標(biāo)中心點橫坐標(biāo)為:

      (5)

      系統(tǒng)預(yù)測時刻目標(biāo)中心點縱坐標(biāo)為:

      (6)

      跟蹤系統(tǒng)的狀態(tài)方程為

      (7)

      根據(jù)(7)和(8)式,我們可以推算狀態(tài)轉(zhuǎn)移矩陣

      (8)

      將狀態(tài)方程式(7)展開即為(5)和(6)式

      時刻系統(tǒng)的觀測值為一個二維向量,這里的觀測值是在所有候選中通過相似性計算得到最佳匹配值,觀測值的二維向量取狀態(tài)向量中的前兩項,所以對應(yīng)的觀測方程為

      (9)

      所以系統(tǒng)的觀測矩陣為

      (10)

      噪聲和的協(xié)方差矩陣和分別取單位矩陣。由于在跟蹤問題中,我們將匹配值看做最終的跟蹤結(jié)果,所以就不需要卡爾曼濾波中的迭代公式對結(jié)果進行校正,直接將匹配值對下一幀進行預(yù)測。利用卡爾曼濾波思想的目標(biāo)跟蹤問題建模流程圖如圖1所示:

      在以預(yù)測中心點為中心,搜索半徑設(shè)定為自適應(yīng)的,首先計算前20幀預(yù)測點同匹配點的歐式距離的平均值,然后由計算機按高斯分布產(chǎn)生600個均值為0,方差為1的隨機數(shù),將600個數(shù)乘以2倍的作為橫縱坐標(biāo)搜索的范圍,這樣每一幀的搜索半徑就會根據(jù)不同視頻目標(biāo)運動快慢自適應(yīng)調(diào)整。乘以的系數(shù),經(jīng)過多次實驗,取2實驗結(jié)果最為理想。在跟蹤過程中,將新的一幀預(yù)測值同匹配值得距離乘以0.2加上原平均值乘以0.8作為新的搜索半徑,即如式(11)

      (11)

      代表原搜索半徑平均值,代表新的一幀預(yù)測值同匹配值得距離,代表最終確定該幀的搜索半徑。

      通過這種預(yù)測模型的預(yù)測結(jié)果在第3節(jié)中給出。

      2.2 在目標(biāo)匹配上的改進方法

      本節(jié)在PCA稀疏表示方法的基礎(chǔ)上,加入了圖像灰度值誤差判斷方法,綜合比較分析兩者的誤差,加權(quán)定位目標(biāo)坐標(biāo)位置。

      圖像灰度值誤差判斷方法首先是通過前20幀選取目標(biāo)模板集,取其歸一化像素值的均值,然后將跟蹤圖像同這個均值做差值并取2范數(shù)平方,如式(12)endprint

      (12)

      其中為第個跟蹤目標(biāo)均值,為目標(biāo)模板均值,為加權(quán)值,取值同文獻[6]中的方法,為懲罰系數(shù)。通過式(12)來判斷,選取值最小的候選為該幀的目標(biāo)位置。

      兩種匹配方法得出的結(jié)果可能不同,需要進行邏輯判斷,分別將PCA稀疏方法同圖像灰度值誤差方法設(shè)定一個門限閾值,這個閾值的取值是動態(tài)的,采用統(tǒng)計的方法,計算兩種方法的均值和標(biāo)準差,在綜合判斷上區(qū)分為4種情況:

      表示圖像灰度值誤差方法得到最優(yōu)候選的匹配誤差,主成分分析法得到的誤差值,表示前者的門限閾值,表示后者的門限閾值。區(qū)分為4種情況

      (1) 當(dāng)且,則采用PCA稀疏表示方法得到的匹配結(jié)果;

      (2) 當(dāng)且,則采用圖像灰度值誤差方法得到的匹配結(jié)果;

      (3) 當(dāng)且,則采用二者匹配誤差的加權(quán)平均來確定目標(biāo)位置,即權(quán)值設(shè)定為

      , (13)

      根據(jù)權(quán)值來確定當(dāng)前幀目標(biāo)中心點坐標(biāo)為:

      , (14)

      其中和為圖像灰度值誤差方法判斷的匹配目標(biāo)中心點橫坐標(biāo)和縱坐標(biāo)值,和為PCA稀疏表示方法判斷的匹配目標(biāo)中心點橫坐標(biāo)和縱坐標(biāo)值。

      (4) 當(dāng)且,則提高門限閾值為均值加上3倍標(biāo)準差,判斷目標(biāo)匹配結(jié)果方法策略同(1)(2)(3)方法;

      通過這種選取策略,我們可以將誤差小的方法增加其權(quán)值,誤差大的方法減小權(quán)值,從而防止單一方法目標(biāo)丟失情況,從而提高了目標(biāo)跟蹤的準確性。

      3 實驗結(jié)果及分析

      本節(jié)對本文跟蹤方法進行有效性評估,并同當(dāng)前流行的典型算法進行了對比。采用MATLAB 2010b運行進行仿真實驗。選取了遮擋、復(fù)雜背景、運動模糊、姿態(tài)變化等具有挑戰(zhàn)性的4組視頻,并同目標(biāo)跟蹤領(lǐng)域經(jīng)典方法及最近流行方法進行結(jié)果對比,誤差曲線見圖2。

      從測試結(jié)果上可以看到,本文目標(biāo)跟蹤算法,在不同的測試序列中,誤差值要小于其他方法,目標(biāo)跟蹤效果優(yōu)于其他方法。

      4 結(jié)束語

      本文提出一種新型預(yù)測跟蹤方法,通過構(gòu)建預(yù)測模型使當(dāng)前幀搜索目標(biāo)的中心點更加靠近目標(biāo)真實位置,從而使搜索到目標(biāo)的可能性大大提高,通過計算相鄰幀目標(biāo)運動距離自適應(yīng)調(diào)整搜索半徑,防止因搜索范圍沒覆蓋目標(biāo)而丟失目標(biāo)。主成分分析和灰度值判斷兩種方法的智能結(jié)合,構(gòu)建了兩套計算匹配方法,通過統(tǒng)計誤差的均值和標(biāo)準差設(shè)定一個可變動的閾值門限,及時選取兩套方法中的最優(yōu)解,防止目標(biāo)丟失。與其他幾種方法的測試對比表明該方法有較好跟蹤效果。

      參考文獻:

      [1] Yilmaz A, Javed O, Shah M. Object tracking:a survey[J]. ACM Computing Surveys, 2006, 38(4):1-45.

      [2] MEI X, LING H. Robust visual tracking using L1 minimization[C]. In Proceedings of the IEEE International Conference on Computer Vision. Kyoto, Japan, 2009: 1436-1443.

      [3] Bao C, Wu Y, Ling H, et al. Real time robust l1 tracker using accelerated proximal gradient approach[C]. In Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Providence, USA, 2012: 1830-1837.

      [4] Zhang S, Yao H,et al.Robust visual tracking Based on online learning sparse representation[J]. Neurocomputing, 2013, 100: 31-40.

      [5] ROSS D A, LIM J, LIN R S, et al. Incremental learning for robust visual tracking[J]. International Journal of Computer Vision, 2008, 77(1-3):125-141.

      [6] Wang D,lu H,Yang M H. Online objiect tracking with sparse prototypes[J]. IEEE Ttansactions on Image Processing, 2013, 22(1):314-325.

      [7] Xie Y, Zhang W, Li C,et al. Discriminative objiect tracking via sparse representation and online dictionary learning[J]. IEEE Transactions on Cybernetics, 2014, 44(4):539-553.

      [8] Zhong W, Lu H,Yang M H.Robust object tracking via sparsity-based collaborative model[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Providence, USA, 2012: 1838-1845.

      [9] Dong W,Chang F, Zhao Z.Visual tracking with multi-feature joint sparse representation[J]. Journal of Electronic on Imaging, 2015, 24(4):013006.

      [10] Dong W,H Lu, Z X. Inverse Sparse Tracker With a Locally Weighted Distance Metric[J]. IEEE Transactions on Image Processing, 2015, 24(9).endprint

      猜你喜歡
      目標(biāo)跟蹤主成分分析預(yù)測
      無可預(yù)測
      選修2-2期中考試預(yù)測卷(A卷)
      選修2-2期中考試預(yù)測卷(B卷)
      多視角目標(biāo)檢測與跟蹤技術(shù)的研究與實現(xiàn)
      主成分分析法在大學(xué)英語寫作評價中的應(yīng)用
      江蘇省客源市場影響因素研究
      SPSS在環(huán)境地球化學(xué)中的應(yīng)用
      基于車牌識別的機混車道視頻測速算法
      嘉荫县| 上栗县| 沂源县| 白山市| 都江堰市| 巴彦县| 民勤县| 托克托县| 喀喇| 怀宁县| 镇巴县| 博爱县| 囊谦县| 蒙城县| 嘉黎县| 自治县| 东港市| 远安县| 吉隆县| 土默特左旗| 剑阁县| 宕昌县| 潞城市| 浦城县| 遵义县| 凤台县| 北辰区| 台湾省| 方山县| 凌源市| 昭通市| 鄂尔多斯市| 木兰县| 麻阳| 长乐市| 泽普县| 密云县| 宣化县| 肇东市| 渑池县| 论坛|