• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于核學(xué)習(xí)的運(yùn)動(dòng)目標(biāo)跟蹤算法綜述

      2021-11-12 11:11:15婁佳欣李元?jiǎng)P王媛徐琰珂
      航空兵器 2021年5期
      關(guān)鍵詞:目標(biāo)跟蹤目標(biāo)檢測(cè)模式識(shí)別

      婁佳欣 李元?jiǎng)P 王媛 徐琰珂

      摘 要:核方法通過(guò)將原始空間數(shù)據(jù)映射到高維希爾伯特空間, 將非線性映射隱含在線性學(xué)習(xí)器中, 使用核函數(shù)代替高維空間中復(fù)雜的內(nèi)積運(yùn)算, 能夠有效避免高維空間計(jì)算帶來(lái)的“維數(shù)災(zāi)難”。 核方法具備可學(xué)習(xí)性、? 高效計(jì)算、? 可線性化、? 泛化性能好等優(yōu)勢(shì), 為解決非線性目標(biāo)跟蹤問(wèn)題提供了一種新的有效途徑。 傳統(tǒng)的目標(biāo)跟蹤方法往往利用跟蹤模型預(yù)測(cè)目標(biāo)當(dāng)前運(yùn)動(dòng)狀態(tài), 并確保跟蹤的準(zhǔn)確性與實(shí)時(shí)性, 核方法則提供了線性化處理的一般途徑, 且可以不依賴(lài)具體模型, 具備高效計(jì)算能力, 將核學(xué)習(xí)方法引入目標(biāo)跟蹤領(lǐng)域有望提升目標(biāo)跟蹤的環(huán)境適應(yīng)性。 本文基于核方法基本思想, 著重梳理了核學(xué)習(xí)目標(biāo)跟蹤當(dāng)前的研究進(jìn)展, 包括基于核學(xué)習(xí)的目標(biāo)檢測(cè)算法、? 生成式和判別式目標(biāo)跟蹤算法, 以及構(gòu)造不同核函數(shù)的多核學(xué)習(xí)方法, 并對(duì)核學(xué)習(xí)目標(biāo)跟蹤在核函數(shù)優(yōu)化、? 長(zhǎng)時(shí)間跟蹤、? 特征提取、? 目標(biāo)遮擋等方面的進(jìn)一步研究與探索進(jìn)行展望。

      關(guān)鍵詞: 核學(xué)習(xí)方法; 非線性映射; 目標(biāo)檢測(cè); 目標(biāo)跟蹤; 多核學(xué)習(xí); 模式識(shí)別

      中圖分類(lèi)號(hào): ?TJ760; TP18? 文獻(xiàn)標(biāo)識(shí)碼:??? A? 文章編號(hào): 1673-5048(2021)05-0064-12

      0 引? 言

      核方法即基于核的學(xué)習(xí)(Kernel-Based Learning), 是在統(tǒng)計(jì)理論基礎(chǔ)上發(fā)展起來(lái)的一種新的學(xué)習(xí)方法, 是模式識(shí)別領(lǐng)域的一個(gè)新興分支, 最初應(yīng)用于支持向量機(jī)。 核方法通過(guò)非線性映射將原始空間數(shù)據(jù)映射到高維特征空間, 可以在樣本空間內(nèi)進(jìn)行線性分析, 是處理非線性模式識(shí)別問(wèn)題的有效方法。 同時(shí), 核方法還可以提供高效計(jì)算的途徑, 利用核函數(shù)將非線性映射隱含在線性學(xué)習(xí)器中進(jìn)行同步計(jì)算, 使用核函數(shù)代替高維空間中復(fù)雜的內(nèi)積運(yùn)算, 為解決高維空間計(jì)算復(fù)雜度及“維數(shù)災(zāi)難”問(wèn)題提供了一種新思路。 核方法結(jié)構(gòu)簡(jiǎn)單, 泛化性能好, 不存在過(guò)學(xué)習(xí)問(wèn)題, 算法理論上得到的是全局最優(yōu)點(diǎn), 可避免局部極值問(wèn)題。 核方法還可以將經(jīng)典的線性算法, 如卡爾曼濾波、? 主成分分析等, 無(wú)損推廣為非線性形式, 應(yīng)用于運(yùn)動(dòng)目標(biāo)跟蹤、? 圖像識(shí)別等非線性問(wèn)題, 為非線性問(wèn)題的線性處理提供一種理想手段。 目前, 核方法已經(jīng)在支持向量機(jī)、? 核主成分分析、? 時(shí)間序列預(yù)測(cè)、? Fisher鑒別分析等方面有應(yīng)用先例。

      在新興技術(shù)驅(qū)動(dòng)下, 目標(biāo)跟蹤技術(shù)加速發(fā)展, 涉及模式識(shí)別、? 動(dòng)態(tài)系統(tǒng)、? 人工智能等眾多學(xué)科, 在智能決策[1]、? 無(wú)人駕駛[2-4]、? 生物醫(yī)學(xué)[5]、? 人機(jī)交互、? 軍事偵察等領(lǐng)域, 已經(jīng)取得重要應(yīng)用并有巨大的發(fā)展前景。 運(yùn)動(dòng)目標(biāo)跟蹤問(wèn)題, 本質(zhì)上是一類(lèi)典型的非線性模式識(shí)別問(wèn)題, 通過(guò)運(yùn)動(dòng)目標(biāo)的先驗(yàn)知識(shí)建立跟蹤模型, 預(yù)測(cè)目標(biāo)當(dāng)前時(shí)刻或當(dāng)前幀的運(yùn)動(dòng)狀態(tài)和運(yùn)動(dòng)規(guī)律。 然而, 跟蹤模型的質(zhì)量直接影響跟蹤效果, 跟蹤模型較差, 如目標(biāo)運(yùn)動(dòng)狀態(tài)不匹配或搜索區(qū)域設(shè)置不合理, 將會(huì)導(dǎo)致明顯的跟蹤誤差甚至目標(biāo)丟失。 基于核方法的運(yùn)動(dòng)目標(biāo)跟蹤算法利用非線性映射關(guān)系的構(gòu)建和學(xué)習(xí), 可以不依賴(lài)于具體模型, 在目標(biāo)運(yùn)動(dòng)狀態(tài)非線性變化情況下依然能夠保證跟蹤質(zhì)量, 讓目標(biāo)跟蹤具有更好的環(huán)境適應(yīng)能力。

      由于核方法具備高效計(jì)算、? 泛化性能好、? 數(shù)據(jù)驅(qū)動(dòng)等優(yōu)點(diǎn), 學(xué)者們嘗試將核方法進(jìn)一步引入目標(biāo)跟蹤領(lǐng)域, 以建立非線性、? 高精度、? 強(qiáng)魯棒的適應(yīng)性目標(biāo)跟蹤模型。 目前, 基于核方法的目標(biāo)跟蹤算法也不斷涌現(xiàn), 跟蹤模型更精準(zhǔn)、? 數(shù)據(jù)驅(qū)動(dòng)更合理、? 運(yùn)算速度更快捷, 目標(biāo)跟蹤能力得到有效提升。

      本文梳理了基于核方法的運(yùn)動(dòng)目標(biāo)跟蹤算法的研究現(xiàn)狀, 論述了基于核方法的目標(biāo)檢測(cè)算法以及生成式和判別式目標(biāo)跟蹤算法的研究進(jìn)展, 并針對(duì)核函數(shù)的設(shè)計(jì)與研究, 討論了具有多核函數(shù)的典型多核學(xué)習(xí)方法以及構(gòu)造方法與應(yīng)用范圍, 最后探討了核學(xué)習(xí)目標(biāo)跟蹤的研究與應(yīng)用前景, 展望了其在長(zhǎng)時(shí)間跟蹤、? 目標(biāo)尺度變化、? 核函數(shù)優(yōu)化、? 特征提取準(zhǔn)確性等方面的發(fā)展趨勢(shì)。

      1 核映射思想

      核方法是通過(guò)固定非線性映射算子將原始空間數(shù)據(jù)映射到再生希爾伯特空間(Reproducing Kernel Hilbert Space,? RKHS), 在高維特征空間進(jìn)行數(shù)據(jù)分析和處理的方法。 再生希爾伯特空間是一種由核函數(shù)構(gòu)成的帶有內(nèi)積的完備向量空間, 由于映射過(guò)程難以顯性表達(dá), 在該空間中, 往往采取計(jì)算核函數(shù)代替映射內(nèi)積的方式進(jìn)行算法推導(dǎo), 以避免對(duì)特征映射的直接求解。

      航空兵器 2021年第28卷第5期

      婁佳欣, 等: 基于核學(xué)習(xí)的運(yùn)動(dòng)目標(biāo)跟蹤算法綜述

      定義非線性映射算子為核函數(shù) κ , 對(duì)所有的 x , ?x′ , 核函數(shù)滿足

      κ(x, x′)=〈φ(x), φ(x′)〉 (1)

      式中: φ(·) 是由原始空間變換到特征空間的特征向量。

      當(dāng)核函數(shù)滿足連續(xù)、? 正定、? 對(duì)稱(chēng)時(shí), 稱(chēng)為Mercer核[6]。 如果核函數(shù)滿足以下兩個(gè)條件:

      (1) 對(duì)任意的 x∈X, ?κ(x, z) 中向量的函數(shù)歸屬于向量空間F;

      (2) ?κ(x, z) 滿足可再生性,

      則為可再生核函數(shù), 而一個(gè)確定的可再生核函數(shù)即定義了一個(gè)可再生希爾伯特空間。 其中, 核函數(shù)滿足的可再生性是指核 κ(x, ·) 組成的函數(shù):

      g(·)=∑li=1aiκ(ci, ·) (2)

      對(duì)于所有的 i , ?ci∈X, 滿足

      〈g, κ(x, ·)〉=∑liaiκ(ci, x)=h(x) (3)

      通過(guò)Mercer核定義, 得到再生核的表示形式為

      κ(x, x′)=∑∞i=1ζiφi(x)φi(x′) (4)

      式中: ζi 和φi分別為非負(fù)的特征值和特征向量, 映射φ可表示為

      φ: X→F

      φ(x)=[ζ1φ(x1), ζ2φ(x2), …] ?(5)

      對(duì)于原始輸入空間的數(shù)據(jù) u , 通過(guò)φ(·)映射到特征空間中, 得到φ(u) , 如圖1所示, 圖中給出了數(shù)據(jù)從原始空間到希爾伯特空間的映射關(guān)系。

      在希爾伯特空間中, φ(·)為由原始空間到特征空間的映射, φ(x) 為映射后的特征向量, 對(duì)所有的 x, x′∈X,? 核函數(shù)都滿足

      φ(x) T φ(x′)=κ(x, x′) (6)

      即在映射函數(shù)φ(·)難以顯性表達(dá)的情況下, 通過(guò)計(jì)算核函數(shù)代替再生希爾伯特空間中復(fù)雜的映射內(nèi)積計(jì)算, 從而簡(jiǎn)化計(jì)算過(guò)程, 提供高效計(jì)算能力。

      2 核學(xué)習(xí)運(yùn)動(dòng)目標(biāo)跟蹤

      目標(biāo)跟蹤技術(shù)是智能系統(tǒng)領(lǐng)域的一個(gè)富有挑戰(zhàn)性的分支, 旨在實(shí)現(xiàn)對(duì)目標(biāo)運(yùn)動(dòng)模態(tài)的識(shí)別和決策, 具有廣闊的應(yīng)用前景和重要的研究?jī)r(jià)值, 已經(jīng)應(yīng)用在智能監(jiān)控、? 無(wú)人駕駛、? 生物醫(yī)學(xué)、? 人機(jī)交互、? 軍事瞄準(zhǔn)等領(lǐng)域。 核方法由于其可線性化、? 數(shù)據(jù)驅(qū)動(dòng)等優(yōu)點(diǎn), 被廣泛應(yīng)用在目標(biāo)跟蹤算法中, 并取得了豐碩的成果。

      目標(biāo)跟蹤主要包括外觀模型、? 運(yùn)動(dòng)模型、? 搜索策略三部分, 涉及圖像處理、? 數(shù)據(jù)處理、? 機(jī)器學(xué)習(xí)等方面。 考慮到目標(biāo)檢測(cè)是目標(biāo)跟蹤的前提, 基于核方法的運(yùn)動(dòng)目標(biāo)跟蹤流程可描述為: 基于目標(biāo)狀態(tài)信息檢測(cè), 根據(jù)目標(biāo)跟蹤模型預(yù)測(cè)目標(biāo)運(yùn)動(dòng)趨勢(shì), 進(jìn)行更高層次的目標(biāo)行為分析和決策。 根據(jù)建立的目標(biāo)外觀模型的不同, 可以將目標(biāo)跟蹤分為生成式跟蹤方法和判別式跟蹤方法。

      2.1 目標(biāo)檢測(cè)

      目標(biāo)檢測(cè)是目標(biāo)跟蹤的前提, 直接影響跟蹤效能。 基于核方法的目標(biāo)檢測(cè)算法主要有核主成分分析(Kernel Principal Component Analysis,? KPCA)、? 核Fisher判別分析(Kernel Fisher Linear Discriminant,? KFLD)、? 核獨(dú)立成分分析(Kernel Independent Component Analysis,? KICA)算法。

      2.1.1 KPCA算法

      核方法使用核函數(shù)代替高維空間的內(nèi)積運(yùn)算以解決高維計(jì)算復(fù)雜問(wèn)題, 在支持向量機(jī)上得到了成功應(yīng)用。 受到核方法的啟發(fā), 早在1998年, Scholkopf等[7]將核方法與主成分分析結(jié)合起來(lái), 提出了核主成分分析(KPCA), 該算法使得核方法脫離支持向量機(jī)與其他算法結(jié)合起來(lái), 并有效用于形態(tài)特征提取與目標(biāo)檢測(cè)領(lǐng)域, 對(duì)于核技巧的廣泛應(yīng)用具有重要意義。

      主成分分析法(PCA)是最小均方意義上的最優(yōu)變換, 需求取樣本協(xié)方差的特征值和特征向量, 通過(guò)特征值和特征向量的提取突出原始數(shù)據(jù)的隱含信息, 以去除隨機(jī)向量之間的相關(guān)性, 從而得到數(shù)據(jù)的主要成分。

      KPCA算法則首先對(duì)目標(biāo)訓(xùn)練圖像集進(jìn)行訓(xùn)練, 計(jì)算各樣本的KPCA特征, 然后截取待檢測(cè)圖像中的子圖像, 計(jì)算子圖像的KPCA特征, 再通過(guò)計(jì)算檢測(cè)函數(shù)來(lái)檢測(cè)目標(biāo)是否存在。 KPCA算法是PCA的非線性推廣, 通過(guò)核函數(shù)將原始空間數(shù)據(jù)映射到希爾伯特空間, 在希爾伯特空間中利用重構(gòu)誤差最小準(zhǔn)則, 使用PCA算法重構(gòu)原圖像。 與PCA算法相比, KPCA提取了目標(biāo)高階統(tǒng)計(jì)特征, 可以讓目標(biāo)描述更加充分完整。

      2.1.2 KFLD算法

      Fisher線性判別(Fisher Linear Discrimination,? FLD)或線性判別式分析(Linear Discriminant Analysis,? LDA)由Mika在1999年提出。 FLD是基于樣本類(lèi)別進(jìn)行整體特征提取的有效方法, 其在PCA算法降維的基礎(chǔ)上考慮到訓(xùn)練樣本的類(lèi)間信息, 基本原理是找到一個(gè)最合適的投影軸, 使各類(lèi)樣本在該軸上投影之間的距離盡可能遠(yuǎn), 而每一類(lèi)內(nèi)的樣本投影盡可能緊湊, 使分類(lèi)效果達(dá)到最佳, 即在最大化類(lèi)間距離的同時(shí)最小化類(lèi)內(nèi)距離。 FLD算法在進(jìn)行圖像整體特征提取方面有著廣泛的應(yīng)用。

      Mika等[8]隨后將FLD算法擴(kuò)展到非線性領(lǐng)域, 提出了KFLD算法, KFLD檢測(cè)算法繼承了KPCA算法的思想, 也可以提取目標(biāo)的高階統(tǒng)計(jì)特征, 不同的是, KFLD是在特征空間執(zhí)行Fisher線性判別, 得到特征空間中基于描述的最優(yōu)分類(lèi), 從而得到更精準(zhǔn)的目標(biāo)特征提取。

      2.1.3 KICA算法

      KPCA和KFLD目標(biāo)檢測(cè)算法為核方法的發(fā)展奠定了基礎(chǔ), 2002年, Bach等[9]提出了核獨(dú)立成分分析(KICA), 進(jìn)一步豐富了核檢測(cè)算法。

      獨(dú)立成分分析(ICA)是從多元/多維統(tǒng)計(jì)數(shù)據(jù)中尋找潛在因子或成分的一種算法。 該算法基于對(duì)比函數(shù)定義, 可尋找滿足統(tǒng)計(jì)獨(dú)立和非高斯的成分, 其中的對(duì)比函數(shù)是根據(jù)對(duì)單個(gè)固定非線性函數(shù)的期望, 以一種特殊的方式選擇一個(gè)固定的非線性函數(shù), 使函數(shù)期望對(duì)互信息產(chǎn)生一個(gè)穩(wěn)健的逼近。

      KICA則提供了一種新的路徑來(lái)解決獨(dú)立分量分析問(wèn)題, 基于非線性的整個(gè)函數(shù)空間處理核希爾伯特空間中的函數(shù), 并利用核技巧在空間上高效搜索。 函數(shù)空間的使用使其能夠適應(yīng)各類(lèi)數(shù)據(jù)樣本, 從而使算法對(duì)變化的樣本分布更具魯棒性。

      2.2 生成式跟蹤

      生成式跟蹤方法是指在線學(xué)習(xí)建立跟蹤目標(biāo)的特征模型, 以此目標(biāo)特征模型為模板, 通過(guò)特征模型對(duì)圖像進(jìn)行搜索和匹配, 找到與原始圖像重建誤差最小的區(qū)域, 并以此區(qū)域作為跟蹤目標(biāo)的定位, 同時(shí), 利用統(tǒng)計(jì)分布模型判斷后續(xù)圖像中是否有相應(yīng)的特征描述模型和目標(biāo)概率模型, 最終實(shí)現(xiàn)對(duì)目標(biāo)實(shí)時(shí)有效的跟蹤。

      生成式模型跟蹤方法的主要代表之一是均值漂移跟蹤算法(Mean Shift,? MS)。 均值漂移是一個(gè)在迭代中尋找最優(yōu)解的過(guò)程, 以任意樣本為中心劃定區(qū)域, 在該區(qū)域內(nèi)尋找概率密度最大的點(diǎn), 然后以該點(diǎn)為中心重復(fù)上述過(guò)程, 直到符合收斂條件。

      2.2.1 均值漂移算法原理

      MS算法在跟蹤初始時(shí)刻需要自主確定搜索窗口來(lái)選擇目標(biāo), 是一種半自動(dòng)跟蹤算法。 該算法計(jì)算初始幀搜索窗口的直方圖分布, 并以同樣的方法計(jì)算第 N 幀窗口的直方圖分布, 讓搜索窗口沿直方圖密度增加最大的方向移動(dòng), 最終得到目標(biāo)的位置。? 流程如下:

      (1) 初始幀的目標(biāo)模型

      將特征空間按像素顏色值分為多個(gè)特征值, 初始幀的搜索窗口中第 u 個(gè)特征值的概率為

      q~u=C∑ni=1κx0-xih2δ[b(xi)-u] (7)

      式中: ?x0 , ?xi 分別為第 n 幀搜索窗口的中心像素坐標(biāo)和第 i 個(gè)像素的坐標(biāo); ?h 為核函數(shù)的帶寬; ?κ(·) 為核函數(shù)。

      (2) 第 N 幀模型

      計(jì)算第 N 幀搜索窗口中第 u 個(gè)特征值的概率為

      p~u(y)=Ch∑nki=1κy0-xih2δ[b(xi)-u] (8)

      式中: ?y0 為搜索窗口中心像素的坐標(biāo)。

      (3) 相似性函數(shù)

      相似性函數(shù)是表征初始幀與第 N 幀目標(biāo)模型的相似程度, 相似性函數(shù)定義為

      ρ~(y)≡ρ(ρ~(y), q~)=∑mu=1ρ~u(y)q~u (9)

      (4) MS向量

      對(duì)相似性函數(shù)求最大值, 可以得到MS向量:

      mh, G(y)=y1-y0=∑nki=1xiwigy~0-xih2∑nki=1wigy~0-xih2-y0 (10)

      式中: ?y0 和 y1 分別為搜索窗口和新窗口的中心坐標(biāo)。

      2.2.2 研究進(jìn)展

      MS算法最早在1975年由Fukunaga等[10]提出, 起初并沒(méi)有受到人們的廣泛關(guān)注, 直到1995年, Cheng[11]在原MS的基礎(chǔ)上加入核函數(shù)和權(quán)值系數(shù), 極大地?cái)U(kuò)展了MS理論。 隨后Comaniciu等[12-15]首先將MS算法引入視頻圖像處理中, 實(shí)現(xiàn)了MS算法的圖像平滑、? 分割、? 跟蹤。 文獻(xiàn)[16]證明, 對(duì)于既定核函數(shù), MS算法可以收斂到數(shù)據(jù)中心, 為MS算法在目標(biāo)跟蹤領(lǐng)域應(yīng)用打下基礎(chǔ)。 文獻(xiàn)[17]中提出了MS目標(biāo)跟蹤算法, 引入核函數(shù)的MS算法跟蹤速度快、? 魯棒性強(qiáng), 使得MS算法成為目標(biāo)跟蹤領(lǐng)域的主流算法之一, 得到學(xué)者廣泛的關(guān)注和大量的研究改進(jìn)。

      MS跟蹤算法中核函數(shù)帶寬固定, 導(dǎo)致目標(biāo)尺寸發(fā)生變化時(shí)跟蹤誤差較大。 為此, 在尺度空間理論[18]的基礎(chǔ)上, Collins提出了一種可變尺度的MS跟蹤算法[19]。 文獻(xiàn)[20-21]提出了參數(shù)的自適應(yīng)選擇方案, 在目標(biāo)尺度變化時(shí)依然可以取得較好的跟蹤精度, 從而對(duì)MS跟蹤算法作了進(jìn)一步擴(kuò)展。

      MS算法中的顏色特征圖無(wú)法準(zhǔn)確描述目標(biāo)顏色在圖像中的分布, 容易導(dǎo)致特征空間空缺。 針對(duì)此類(lèi)問(wèn)題, 文獻(xiàn)[22]在目標(biāo)跟蹤模型中引入空間顏色直方圖, 將目標(biāo)顏色與當(dāng)前幀中的圖像顏色結(jié)合在一起, 提高了目標(biāo)的識(shí)別精度。? 文獻(xiàn)[23]提出了基于聚類(lèi)顏色模板的MS算法, 文獻(xiàn)[24]則在跟蹤中加入目標(biāo)的外接矩陣尺寸, 對(duì)當(dāng)前幀進(jìn)行分塊處理, 提出了基于自適應(yīng)分塊顏色直方圖的MS目標(biāo)跟蹤算法。 文獻(xiàn)[25]在顏色特征直方圖中融入空間信息, 在 X ,? ?Y 方向上分解目標(biāo), 得到6個(gè)顏色的特征直方圖。 文獻(xiàn)[26]多角度全方位提取目標(biāo)特征得到目標(biāo)顏色直方圖, 提高了目標(biāo)識(shí)別精度。 為了提高目標(biāo)跟蹤的魯棒性, 文獻(xiàn)[27]在描述目標(biāo)特征時(shí)采用cross-bin顏色直方圖, 提高了MS算法的魯棒穩(wěn)定性。

      為了減少背景對(duì)目標(biāo)跟蹤的影響, 文獻(xiàn)[28-31]基于背景加權(quán)直方圖的MS算法提出核修正方案, 可以有效抑制和分離背景, 改善跟蹤效果, 實(shí)現(xiàn)復(fù)雜背景下精度更高的目標(biāo)跟蹤。

      為了提高M(jìn)S算法的抗遮擋能力, 學(xué)者們還嘗試將多種濾波算法融入MS算法中[32], 并取得了較好的跟蹤效果。 文獻(xiàn)[33-38]提出在MS算法中使用卡爾曼濾波(Kalman Filter,? KF)算法預(yù)測(cè)目標(biāo)位置, 在目標(biāo)被短暫遮擋時(shí)提高跟蹤精度。 文獻(xiàn)[39-40]則使用KF對(duì)核函數(shù)直方圖進(jìn)行濾波, 及時(shí)更新目標(biāo)跟蹤模板, 提高了目標(biāo)的抗遮擋能力和跟蹤精度。 文獻(xiàn)[41-43]在均值漂移迭代的過(guò)程中, 利用粒子濾波框架重新分配隨機(jī)粒子, 更新樣本均值, 彌補(bǔ)了目標(biāo)特征描述不足的缺陷, 然而對(duì)于小目標(biāo)與背景邊緣處的區(qū)分能力仍有欠缺。

      為了改善目標(biāo)跟蹤過(guò)程中由于旋轉(zhuǎn)、? 尺度變化導(dǎo)致跟蹤精度下降的情況, 文獻(xiàn)[44]有效解決目標(biāo)發(fā)生旋轉(zhuǎn)時(shí)的跟蹤不穩(wěn)定問(wèn)題, 之后文獻(xiàn)[45]又提出了基于核函數(shù)的仿射目標(biāo)跟蹤算法, 但是兩種算法的跟蹤速度較慢, 無(wú)法滿足實(shí)時(shí)跟蹤的要求。 文獻(xiàn)[46]改進(jìn)了對(duì)稱(chēng)核函數(shù), 在MS目標(biāo)跟蹤算法中引入非對(duì)稱(chēng)核函數(shù), 對(duì)于復(fù)雜形狀的目標(biāo)區(qū)域取得了較好的跟蹤效果, 但是對(duì)于有較大彈性的非剛體目標(biāo), 目標(biāo)跟蹤效果不理想。 文獻(xiàn)[47]提出了一種新的相似度函數(shù), 利用特征空間模型[48-49]可以跟蹤一般幾何變化的目標(biāo)。 文獻(xiàn)[50]在MS算法中引入變換核函數(shù), 并且融入了目標(biāo)邊緣信息, 可以實(shí)時(shí)調(diào)整目標(biāo)模型跟蹤仿射變化的運(yùn)動(dòng)目標(biāo)。

      為了對(duì)多目標(biāo)物體和人體關(guān)節(jié)進(jìn)行跟蹤, 文獻(xiàn)[51]在MS算法中引入置信融合傳播算法, 可以實(shí)現(xiàn)對(duì)單目標(biāo)、? 多目標(biāo)、? 人體關(guān)節(jié)的跟蹤。 文獻(xiàn)[52]使用多個(gè)跟蹤器互相協(xié)作, 通過(guò)子空間約束這些跟蹤器, 從而能夠跟蹤非剛體目標(biāo)和人體的各個(gè)關(guān)節(jié)。

      為了提高目標(biāo)跟蹤的準(zhǔn)確性和魯棒性, Topkaya等[53]在似然映射融合框架內(nèi), 結(jié)合獨(dú)立分類(lèi)器的輸出進(jìn)行MS跟蹤, 并引入了一種新的似然融合算法, 把不同二值分類(lèi)器得到的似然映射作為跟蹤置信值。 Wang等[54]提出了一種改進(jìn)的基于目標(biāo)位置預(yù)測(cè)的MS跟蹤算法, 該算法利用幀間的聚類(lèi)運(yùn)動(dòng)估計(jì)和尺度估計(jì)來(lái)預(yù)測(cè)MS算法在每次迭代中的初始搜索位置。 Yu等[55]提出了一種基于優(yōu)化目標(biāo)外觀模型和在線更新策略的強(qiáng)魯棒性MS算法。 Zeng等[56]提出了一種新的局部特征描述模式, 稱(chēng)為四叉二值模式(QBP), 與局部二值模式(LBP)相比, QBP對(duì)復(fù)雜場(chǎng)景下的特征提取具有更強(qiáng)的魯棒性, 計(jì)算復(fù)雜度更低。 Phadke等[57]通過(guò)加入對(duì)變化不敏感的特征來(lái)增強(qiáng)魯棒性, 提出平均局部二值模式(Mean Local Binary Pattern, MLBP)、? 光照不變特征、? 改進(jìn)的模糊C均值(Modified Fuzzy C Means, MFCM)、? 加權(quán)顏色直方圖等來(lái)處理光照和尺度變化, 以進(jìn)一步提高目標(biāo)跟蹤的準(zhǔn)確性。 Liu等[58]提出了兩個(gè)重要的機(jī)制來(lái)進(jìn)一步提高跟蹤器的魯棒性, 一是使跟蹤器能夠意識(shí)到潛在的干擾, 并對(duì)外觀模型做出相應(yīng)的調(diào)整; 二是使跟蹤器能夠檢測(cè)并從完全遮擋引起的跟蹤失敗中恢復(fù)。

      經(jīng)過(guò)20多年的發(fā)展, MS算法在目標(biāo)跟蹤領(lǐng)域取得了豐碩的成果, 在實(shí)時(shí)性和魯棒性等方面也有較好的表現(xiàn)。 MS算法具有計(jì)算量小、? 易于實(shí)現(xiàn)、? 調(diào)節(jié)參數(shù)少、? 實(shí)時(shí)性高等特點(diǎn), 在聚類(lèi)、? 圖像平滑、? 圖像分割、? 視頻監(jiān)控等領(lǐng)域都有成功的應(yīng)用。 近年來(lái), 關(guān)于MS算法的研究已經(jīng)相對(duì)成熟, 但是MS算法也存在很多待解決的問(wèn)題, 如只適用于短時(shí)間的目標(biāo)跟蹤, 在長(zhǎng)時(shí)間目標(biāo)跟蹤的情況下, 魯棒性和跟蹤精度逐漸降低; 目標(biāo)模型只采用了顏色特征描述, 容易受背景的干擾; 目標(biāo)尺度發(fā)生較大變化或被遮擋時(shí), 跟蹤精度下降。

      MS算法作為核密度估計(jì)算法的典型代表, 是生成式跟蹤的主要算法。 生成式跟蹤算法固然可以取得較好的跟蹤效果, 但是忽略了背景及周?chē)h(huán)境的信息, 跟蹤過(guò)程很容易受到背景干擾。 因此, 如何將目標(biāo)與背景有效分離顯得尤為重要。

      判別式跟蹤算法充分利用背景和環(huán)境信息分別對(duì)目標(biāo)特征和背景特征建模, 可以有效將目標(biāo)與背景分開(kāi)處理, 于是判別式跟蹤算法的研究在目標(biāo)跟蹤領(lǐng)域逐漸得到重視和應(yīng)用。

      2.3 判別式跟蹤

      判別式跟蹤方法引入機(jī)器學(xué)習(xí)的相關(guān)理論, 對(duì)目標(biāo)特征和背景特征分別建模, 以置信圖中的峰值作為目標(biāo)位置, 通過(guò)訓(xùn)練相應(yīng)的濾波器將目標(biāo)和背景區(qū)分開(kāi)。 相比于生成式跟蹤算法, 判別式跟蹤可以更好地得到目標(biāo)在當(dāng)前圖像中的具體位置, 且識(shí)別精度高、? 跟蹤速率快, 因此被廣泛研究。 基于核方法的判別式目標(biāo)跟蹤可分為核函數(shù)循環(huán)檢測(cè)跟蹤算法和核相關(guān)算法兩部分, 其中, 核相關(guān)算法跟蹤速度快、? 精準(zhǔn)度較高, 得到更多重視。

      2.3.1 核函數(shù)循環(huán)檢測(cè)跟蹤算法

      相關(guān)濾波在頻域有較快的運(yùn)算速率, 對(duì)目標(biāo)的跟蹤速度可以達(dá)到每秒數(shù)百幀, 是實(shí)現(xiàn)目標(biāo)實(shí)時(shí)跟蹤的有效途徑。 2010年, Bolme等[59]將相關(guān)濾波引入到MOSSE (Minimum Output Sum of Square Error) 算法中, 開(kāi)創(chuàng)了目標(biāo)跟蹤從時(shí)域擴(kuò)展到頻域的先河。 MOSSE算法利用了相關(guān)濾波在頻域計(jì)算速度快的特點(diǎn), 跟蹤速度可以達(dá)到669幀/秒, 同時(shí)還具備優(yōu)良的目標(biāo)定位性能, 后續(xù)許多研究均是以此為基礎(chǔ)展開(kāi)的。

      2012年, 在MOSSE算法的基礎(chǔ)上, Henriques等[60]提出了基于核函數(shù)循環(huán)檢測(cè)跟蹤(Circulant Structure of tracking-by-detection with Kernels, CSK)算法。 CSK算法的特點(diǎn)是利用循環(huán)矩陣的相關(guān)理論, 對(duì)訓(xùn)練樣本和候選樣本進(jìn)行循環(huán)移位, 以增加兩個(gè)樣本的數(shù)量, 同時(shí)使用訓(xùn)練樣本訓(xùn)練分類(lèi)器, 利用訓(xùn)練好的分類(lèi)器在候選樣本構(gòu)造的候選區(qū)域內(nèi)進(jìn)行檢測(cè), 相關(guān)計(jì)算中響應(yīng)的最大值則為目標(biāo)的位置。 為進(jìn)一步提高計(jì)算速度, CSK算法中引入了核函數(shù), 將數(shù)據(jù)從原始空間中引入高維希爾伯特空間, 算法使用快速傅里葉變換, 使得整個(gè)運(yùn)算過(guò)程在傅里葉域內(nèi)進(jìn)行。

      為了找到響應(yīng)位置, CSK算法須從頻域變換到時(shí)域, 這會(huì)導(dǎo)致邊際效應(yīng), 類(lèi)似于非周期信號(hào)在系統(tǒng)中的泄露現(xiàn)象。 同時(shí), CSK算法應(yīng)用范圍較窄, 只適用于灰度特征空間, 對(duì)目標(biāo)外觀模型的建立有所欠缺, 容易受復(fù)雜任務(wù)背景和環(huán)境噪聲干擾。 為了更精確地建立目標(biāo)外觀模型, Danelljan等[61]在CSK算法的基礎(chǔ)上使用顏色空間(Color Name,? CN)以加強(qiáng)對(duì)表觀模型的描述, 將三維顏色空間映射入高維CN空間中, 算法可以更加有效地建立目標(biāo)外觀模型, 對(duì)目標(biāo)部分遮擋、? 光線變化、? 復(fù)雜背景等情況也有較好的跟蹤效果。 但由于高維空間計(jì)算的復(fù)雜性, 引入三維顏色空間后, CSK算法的計(jì)算速率降低。

      核函數(shù)循環(huán)檢測(cè)跟蹤算法在目標(biāo)尺度發(fā)生變化或被遮擋時(shí), 跟蹤精度明顯下降, 為此, 后續(xù)又提出了其他基于相關(guān)濾波的目標(biāo)跟蹤算法, 取得了比CSK算法更好的跟蹤效果和跟蹤魯棒性。

      2.3.2 核相關(guān)算法

      為進(jìn)一步提高跟蹤精度和跟蹤效果, Henriques等[62]提出核相關(guān)濾波跟蹤算法(Kernelized Correlation Filters,? KCF)。 該算法加入窗函數(shù), 保證圖像的周期性, 減弱了邊際效應(yīng); 同時(shí)引入核技巧, 將原始樣本空間映射到高維空間中, 利用離散傅里葉變換對(duì)角化的性質(zhì)減少存儲(chǔ)和計(jì)算量, 提高了模型計(jì)算效率; 此外, 引入方向梯度直方圖特征取代CSK中的灰度特征, 提取目標(biāo)紋理和方向特征, 可以實(shí)現(xiàn)對(duì)目標(biāo)快速有效的跟蹤。

      KCF算法構(gòu)建了一整套核化濾波理論體系, 先通過(guò)循環(huán)移位構(gòu)造大量的訓(xùn)練樣本, 再利用核技巧、? 傅里葉變換等操作避免矩陣逆運(yùn)算, 極大減少了計(jì)算量, 實(shí)現(xiàn)對(duì)目標(biāo)的快速準(zhǔn)確跟蹤, 因此在目標(biāo)跟蹤領(lǐng)域逐漸發(fā)展壯大, 涌現(xiàn)出了更多的后續(xù)研究。

      KCF算法典型過(guò)程主要包括嶺回歸[63]、? 循環(huán)矩陣對(duì)角化、? 核相關(guān)濾波、? 目標(biāo)快速檢測(cè)4個(gè)過(guò)程:

      (1) 嶺回歸

      對(duì)于線性回歸初始模型, 優(yōu)化目標(biāo)函數(shù)為

      f(x)=W T Xs(11)

      在樣本Xs中找到權(quán)值 Wi 使對(duì)目標(biāo) Yi 的預(yù)測(cè)最小化:

      min ω∑i(f(xi)-yi)2+λw2 (12)

      式中: ?λ 為擬合控制參數(shù)。 對(duì)式(12)求導(dǎo)置零, 最優(yōu)解為

      w=(XsHXs+ λI)-1XsH y (13)

      式中: Xs為樣本矩陣; ?y 為標(biāo)簽。

      (2) 循環(huán)矩陣

      記Xn×1={x1, x2, …, xn} T為正樣本, 訓(xùn)練樣本即負(fù)樣本通過(guò)正樣本循環(huán)移位得到。 使用負(fù)樣本訓(xùn)練分類(lèi)器, 一維循環(huán)移位算子 P 為

      P=000…1100…0010…000…10 (14)

      向量x通過(guò)不斷與循環(huán)移位算子 P 相乘, 得到 n 個(gè)向量組合的一維圖像的循環(huán)矩陣C(x)。 對(duì)于二維圖像, 通過(guò)在感興趣區(qū)域內(nèi)循環(huán)移位, 可以得到二維圖像訓(xùn)練樣本, 最終得到二維矩陣的循環(huán)矩陣。

      (3) 核相關(guān)濾波器

      為了改善分類(lèi)器性能, 將原始空間數(shù)據(jù)映射到高維空間, 權(quán)重 ω 為輸入樣本的線性組合

      ω=∑iαiφ(xi) (15)

      引入核化技巧φT(x)φ(x′)=κ(x, x′) , 式中最優(yōu)解可以轉(zhuǎn)換為

      α=(K+λI)-1y (16)

      式中: K為循環(huán)矩陣。

      利用循環(huán)矩陣的性質(zhì)整理式(16)為

      α^=y^k^xx+λ (17)

      式中: ?kxx 為循環(huán)矩陣K的第一行; ?y^ 為 y 的離散傅里葉變換。 一般情況下, 可通過(guò)對(duì) α^ 的計(jì)算來(lái)求解分類(lèi)器。

      (4) 目標(biāo)快速檢測(cè)

      設(shè)上一幀目標(biāo)狀態(tài)為 x , 當(dāng)前幀輸入樣本為 z , 引入核矩陣K得到測(cè)試樣本的響應(yīng), 即

      f^(z)=k^xz⊙α^ (18)

      對(duì)式(18)進(jìn)行傅里葉逆變換得到樣本的響應(yīng)值, 以響應(yīng)值中最大值的位置作為目標(biāo)的位置, 然后更新分類(lèi)器參數(shù)和目標(biāo)模型:

      xi=(1-θ)xi-1+θziαi=(1-θ)αi-1+θσi ?(19)

      式中: ?xi 和 αi 分別為第 i 幀預(yù)測(cè)的目標(biāo)位置模型和分類(lèi)器參數(shù); ?zi 和 σi 為檢測(cè)到的目標(biāo)位置模型和分類(lèi)器參數(shù); ?θ 為學(xué)習(xí)率。

      2.3.3 研究進(jìn)展

      傳統(tǒng)目標(biāo)跟蹤算法, 如均值漂移算法、? 卡爾曼濾波算法[64]、? 基于貝葉斯濾波的粒子算法[65]、? 根據(jù)目標(biāo)特征的TLD(Tracking Learning Detection)跟蹤算法[66]、? 基于壓縮感知(Compressive Tracking, CT)的跟蹤算法[67], 在跟蹤精確度和運(yùn)算速度方面性能欠佳。 核相關(guān)算法則結(jié)合了CSK算法運(yùn)算速度快的優(yōu)勢(shì), 對(duì)分類(lèi)器訓(xùn)練和樣本檢測(cè)等方面都做了改進(jìn), 在目標(biāo)跟蹤精度和識(shí)別成功率等方面都有了很大提升, 再利用方向梯度直方圖特征使算法在跟蹤速度方面也具備很好的性能, 超過(guò)了同期其他主流算法。

      然而, KCF算法局限于對(duì)目標(biāo)位置的跟蹤, 并沒(méi)有考慮目標(biāo)尺寸變化或目標(biāo)被遮擋等情況, 使得在實(shí)際跟蹤中得到的目標(biāo)分布區(qū)域與實(shí)際位置有所偏差。 同時(shí), KCF算法在更新目標(biāo)模型時(shí)會(huì)產(chǎn)生大量的正負(fù)樣本, 在進(jìn)行長(zhǎng)時(shí)間跟蹤或目標(biāo)尺寸發(fā)生變化時(shí)容易丟失跟蹤。 針對(duì)這些問(wèn)題, 大量文獻(xiàn)對(duì)KCF算法展開(kāi)進(jìn)一步研究。

      為了解決目標(biāo)跟蹤過(guò)程中尺度變化、? 目標(biāo)被遮擋、? 目標(biāo)丟失等問(wèn)題, Danelljan等[68]在KCF中引入尺度金字塔, 在位置估計(jì)基礎(chǔ)上, 增加一個(gè)濾波器進(jìn)行目標(biāo)尺度估計(jì), 通過(guò)位置濾波器估計(jì)目標(biāo)在當(dāng)前幀中的位置, 再使用尺度濾波器檢測(cè)目標(biāo)尺度變化, 以應(yīng)對(duì)跟蹤過(guò)程中目標(biāo)尺度發(fā)生變化的情況。 該算法比原KCF算法在跟蹤精度上有所改善, 但模型計(jì)算復(fù)雜度明顯增加, 使得目標(biāo)跟蹤的實(shí)時(shí)性無(wú)法得到保證。 在此基礎(chǔ)上, Li等[69]提出基于自適應(yīng)尺度的核化相關(guān)濾波算法(SAMF), 不再進(jìn)行儲(chǔ)存性訓(xùn)練, 只使用一個(gè)濾波器, 但在進(jìn)行每次尺度測(cè)量時(shí), 需要多進(jìn)行一次特征值提取和傅里葉變換。 該算法雖然簡(jiǎn)化了計(jì)算, 但在圖像較大時(shí), 仍無(wú)法滿足實(shí)時(shí)跟蹤的要求。 王守義[70]提出了基于卷積特征的KCF算法, 該算法在高層和低層分別提取目標(biāo)特征, 再利用卷積神經(jīng)網(wǎng)絡(luò)計(jì)算高層和底層的響應(yīng)圖, 將兩層響應(yīng)圖進(jìn)行融合, 實(shí)現(xiàn)目標(biāo)在當(dāng)前幀的位置估計(jì)。 該算法改善了目標(biāo)尺度變化時(shí)跟蹤效果變差的問(wèn)題, 但是當(dāng)目標(biāo)被遮擋, 仍不能達(dá)到較好的跟蹤效果, 魯棒性較低[71-73]。 文獻(xiàn)[74]提出多尺度相關(guān)濾波目標(biāo)跟蹤算法, 使用可塑性強(qiáng)和穩(wěn)定性強(qiáng)的兩種嶺回歸模型, 可塑性強(qiáng)的模型跟蹤目標(biāo)位置并以位置為中心構(gòu)建圖像金字塔, 穩(wěn)定性強(qiáng)的模型預(yù)測(cè)目標(biāo)尺度變化, 算法可以實(shí)現(xiàn)多尺度檢測(cè)與跟蹤。 文獻(xiàn)[75]提出了深度縮放核相關(guān)濾波器(Depth Scaling Kernelized Correlation Filters, DSKCF), 將KCF中的RGB目標(biāo)跟蹤算法通過(guò)融合深度特征擴(kuò)展為RGB-D跟蹤算法, 改善了目標(biāo)尺度變化及目標(biāo)被遮擋等問(wèn)題。 為了應(yīng)對(duì)在跟蹤過(guò)程中丟失目標(biāo)等問(wèn)題。 劉延飛等[76]利用響應(yīng)圖中峰值數(shù)據(jù)的均值和標(biāo)準(zhǔn)差修正每幀中的峰值, 改善了KCF算法中長(zhǎng)時(shí)間目標(biāo)跟蹤的問(wèn)題。

      為應(yīng)對(duì)KCF算法中循環(huán)移位產(chǎn)生的邊際效應(yīng)問(wèn)題, Danelljan等[77]引入空間整定因子約束濾波權(quán)重, 以犧牲算法的運(yùn)算速度有效緩解了邊際效應(yīng)。 阮宏剛[78]提出基于稀疏特征的快速尺度的核自適應(yīng)濾波算法, 在原KCF算法的基礎(chǔ)上引入帶寬可調(diào)的高斯窗, 結(jié)合相關(guān)濾波和稀疏特征估計(jì)目標(biāo)位置, 并預(yù)測(cè)尺度變化, 可以更好地將目標(biāo)與背景分離。

      現(xiàn)有KCF算法在更新模型時(shí)使用固定學(xué)習(xí)率, 容易發(fā)生跟蹤漂移現(xiàn)象。 為此, Asha等[79]提出了學(xué)習(xí)率的動(dòng)態(tài)調(diào)整, 通過(guò)前后幀中目標(biāo)的位置變化來(lái)更新變化率。 陳智等[80]在響應(yīng)圖中設(shè)置峰值、? 閾值, 峰值大于閾值時(shí)更新跟蹤模型。 Wang等[81]分析利用響應(yīng)圖來(lái)判斷目標(biāo)是否發(fā)生漂移, 但是當(dāng)目標(biāo)尺寸變化時(shí), 會(huì)導(dǎo)致模型更新不準(zhǔn)確的狀況。

      對(duì)于復(fù)雜場(chǎng)景, 單一核難以滿足跟蹤性能需求, KCF算法的多核融合是一種自然延展的方案。 文獻(xiàn)[82]提出了用于視覺(jué)跟蹤的邊緣多核相關(guān)算法(LMKCF), LMKCF主要利用低秩張量學(xué)習(xí)來(lái)減輕多核相關(guān)濾波器在學(xué)習(xí)和更新中的冗余和噪聲, 建立了前瞻性的學(xué)習(xí)和更新策略。 文獻(xiàn)[83]提出了一種約束多核相關(guān)跟蹤算法(CMKCF), 建立了具有三種不同屬性的多通道特征的多核模型, 在半核矩陣上使用一個(gè)空間裁剪算子來(lái)解決邊界效應(yīng)。 文獻(xiàn)[84]在KCF算法中引入TSK-FLS (Takagi Sugeno Kang-Fuzzy Logic System), 提出了模糊核相關(guān)濾波器(Fuzzy Kernel Correlation Filter,? FKCF)算法。 FKCF算法中采用TSK模糊系統(tǒng)前件映射代替核映射, 通過(guò)后件參數(shù)改進(jìn)算法, 在目標(biāo)劇烈運(yùn)動(dòng)時(shí), FKCF算法跟蹤精度有所提升。 文獻(xiàn)[85]將多項(xiàng)式核與高斯核模糊化處理, 得到魯棒性更強(qiáng)的核函數(shù), 從多核融合的角度提出了多模糊核相關(guān)濾波器(Multiple Fuzzy Kernelized Correction Filter,? MFKCF), 算法有更高的跟蹤精度與適應(yīng)性。 為了降低跟蹤過(guò)程中的累計(jì)誤差, 文獻(xiàn)[86]提出了基于時(shí)空顯著性的雙核自適應(yīng)濾波算法(KCFSS), 通過(guò)時(shí)空顯著性方法搜索姿態(tài)穩(wěn)定的局部區(qū)域, 該區(qū)域?qū)塾?jì)誤差有較低的敏感度, 有助于減少累計(jì)誤差, 然后在原目標(biāo)與顯著區(qū)域之間建立雙核跟蹤模型, 可對(duì)目標(biāo)跟蹤位置進(jìn)行微調(diào)。 受核協(xié)同方法在人臉識(shí)別等領(lǐng)域成功應(yīng)用的啟發(fā), 文獻(xiàn)[87]提出基于核協(xié)同的目標(biāo)跟蹤算法(Kernel Collaborative Presentation with L2 Regularization,? KCRL2), 將字典矩陣映射到高維空間, 同時(shí)引入L2正則最小均方, 加快計(jì)算速度, 以獲取更高的跟蹤精度。

      針對(duì)紅外目標(biāo)跟蹤中圖形信息量少, 目標(biāo)特征不足等問(wèn)題, 學(xué)者們也對(duì)KCF算法進(jìn)行了深入研究, 確保KCF算法在紅外目標(biāo)跟蹤領(lǐng)域的跟蹤效果。 Battistone等[88]采用局部分析和結(jié)構(gòu)化向量機(jī)的方法, 在紅外目標(biāo)VOT比賽中取得了很好的名次。 為解決KCF中尺寸固定的問(wèn)題, Montero等[89]提出了SKCF算法, 在KCF算法中引入可調(diào)高斯窗函數(shù)和尺度估計(jì)模型, 在紅外目標(biāo)跟蹤中的跟蹤精度較高。 鄭武興等[90]則在KCF算法中融入灰度和顯著性特征, 所提算法可以有效用于空中紅外目標(biāo)的跟蹤。

      3 多核學(xué)習(xí)

      核函數(shù)設(shè)計(jì)是核學(xué)習(xí)目標(biāo)跟蹤算法中的重要環(huán)節(jié), 是影響跟蹤性能的關(guān)鍵因素。 在不同應(yīng)用場(chǎng)景下, 單個(gè)核函數(shù)會(huì)表現(xiàn)出很大差異, 對(duì)于復(fù)雜場(chǎng)景, 單個(gè)核函數(shù)難以滿足目標(biāo)形狀復(fù)雜、? 數(shù)據(jù)不規(guī)則、? 環(huán)境復(fù)雜、? 樣本不平坦分布或規(guī)模巨大等實(shí)際應(yīng)用需求。 研究表明, 多個(gè)核函數(shù)的融合可以提高復(fù)雜場(chǎng)景下的跟蹤效果。 近年來(lái), 大量學(xué)者開(kāi)始研究多核學(xué)習(xí)方法[91-98]。 該方法中的多核模型是一種靈活性、? 魯棒性更強(qiáng)的核學(xué)習(xí)模型, 相關(guān)實(shí)驗(yàn)[99]也證明了多核模型能夠獲得比單核模型更好的跟蹤性能。 現(xiàn)有多核學(xué)習(xí)方法主要有合成核、? 多尺度核、? 無(wú)限核3種典型方法。

      3.1 合成核方法

      合成核方法是多核學(xué)習(xí)的基本方法, 合成核的構(gòu)造主要有5種方法: 多核線性組合合成方法、? 多核擴(kuò)展合成方法、? 非平穩(wěn)多核學(xué)習(xí)、? 局部多核學(xué)習(xí)、? 非稀疏多核學(xué)習(xí)[100-101]。 在樣本數(shù)據(jù)量較復(fù)雜的情況下, 合成核方法得到的核函數(shù)跟蹤精度較高。

      合成核方法是較為通用的多核學(xué)習(xí)方法, 在圖像的目標(biāo)識(shí)別領(lǐng)域有廣泛的應(yīng)用。 文獻(xiàn)[102]在金字塔框架下描述目標(biāo)形狀時(shí)采用多核表示。 文獻(xiàn)[103]采用合成核方法獲得了基于決策的目標(biāo)類(lèi)別的稀疏依賴(lài)圖, 實(shí)現(xiàn)了多類(lèi)目標(biāo)檢測(cè), 提高了目標(biāo)識(shí)別精度。 同時(shí), 合成核方法還可以利用多核組合的稀疏性和分類(lèi)器, 將學(xué)習(xí)問(wèn)題轉(zhuǎn)換成不同的優(yōu)化問(wèn)題[104-105], 通過(guò)多特征空間的整合進(jìn)行快速求解[106]。 另外, 合成核方法也在目標(biāo)特征值的提取和處理[107-108]、? 分類(lèi)[109-112]、? 圖像分割處理[113]、? 系統(tǒng)辨識(shí)[114]等方面也得到了成功應(yīng)用。

      3.2 多尺度核方法

      合成核方法是利用簡(jiǎn)單核函數(shù)的線性組合得到新的核函數(shù), 而簡(jiǎn)單的線性組合方式在處理樣本不均衡分布情況時(shí)不能取得較好的跟蹤精度, 從而限制了決策函數(shù)的表示能力。 多尺度核方法引入尺度空間, 將多個(gè)尺度的核函數(shù)融合成一個(gè)靈活的新的核函數(shù)。 多尺度核方法不是簡(jiǎn)單的核函數(shù)線性組合, 其需要為每個(gè)核函數(shù)訓(xùn)練各自的帶寬, 帶寬較小的核函數(shù)用于跟蹤變化劇烈的樣本, 帶寬較大的核函數(shù)用于跟蹤變化比較平緩的樣本。 多尺度核方法與合成核方法相比, 可以提高跟蹤精度, 但是運(yùn)算量較大, 在目標(biāo)跟蹤實(shí)時(shí)性方面表現(xiàn)不佳, 因此普適性比較低, 后續(xù)研究并不豐富。

      對(duì)多尺度核方法進(jìn)行適當(dāng)擴(kuò)展利于提高跟蹤性能, 文獻(xiàn)[115]將多尺度核進(jìn)行了分類(lèi), 提出典型的多尺度核方法。 文獻(xiàn)[116-117]將多尺度核方法用于時(shí)間序列預(yù)測(cè)和非平坦函數(shù)的估計(jì), 提出了多尺度支持向量機(jī)回歸。 文獻(xiàn)[118]結(jié)合多尺度核方法在希爾伯特空間中對(duì)再生核進(jìn)行函數(shù)重構(gòu)。 文獻(xiàn)[119-121]將多尺度核方法應(yīng)用到高斯建模中, 推進(jìn)了多尺度核方法的發(fā)展。

      3.3 無(wú)限核方法

      合成核方法和多尺度核方法是將有限個(gè)核函數(shù)線性組合或融合在一起, 然而對(duì)于大規(guī)模數(shù)據(jù)處理, 有限核組合成的多核處理方法不一定達(dá)到預(yù)期跟蹤效果, 決策函數(shù)也不一定能表現(xiàn)到最優(yōu)。 因此, 由有限個(gè)核函數(shù)向無(wú)限核擴(kuò)展是多核學(xué)習(xí)的一個(gè)發(fā)展趨勢(shì)。 目前, 核函數(shù)主要局限在高斯核函數(shù)(Gaussian Kernel)、? 多項(xiàng)式核函數(shù)(Polynomial Kernel)、? 線性核函數(shù)(Linear Kernel)、? 指數(shù)核函數(shù)(Exponential Kernel)、? 拉普拉斯核函數(shù)(Laplacian Kernel)這幾種, 設(shè)計(jì)空間比較小, 并且有限核在較復(fù)雜的情況下往往也可以取得滿意的跟蹤效果, 因此無(wú)限核方法在目標(biāo)跟蹤方面的應(yīng)用較少。

      多核學(xué)習(xí)建立了更靈活、? 適應(yīng)范圍更廣、? 魯棒性更強(qiáng)的核學(xué)習(xí)模型, 在動(dòng)態(tài)系統(tǒng)時(shí)間序列預(yù)測(cè)、? 信號(hào)和圖像的濾波、? 壓縮和超解析、? 故障預(yù)報(bào)、? 文本分類(lèi)、? 圖像處理、? 目標(biāo)檢測(cè)、? 視頻跟蹤、? 生物信息學(xué)(雙螺旋、? 基因序列數(shù)據(jù)分類(lèi)、? 蛋白質(zhì)功能預(yù)測(cè))等領(lǐng)域已有應(yīng)用。

      4 發(fā)展趨勢(shì)展望

      基于核方法的目標(biāo)跟蹤算法目前已有一定成果, 與其他跟蹤方法相比在非線性處理、? 數(shù)據(jù)驅(qū)動(dòng)、? 不依賴(lài)模型等方面具有一定優(yōu)勢(shì)。 然而在實(shí)際應(yīng)用場(chǎng)景中, 現(xiàn)有算法還難以很好地滿足實(shí)時(shí)性、? 準(zhǔn)確性、? 魯棒性、? 適應(yīng)性等多種需求。 因此, 基于核方法的目標(biāo)跟蹤算法存在較大的研究和探索空間, 主要體現(xiàn)在以下幾個(gè)方面:

      (1) 降低跟蹤模型的依賴(lài)性

      傳統(tǒng)的貝葉斯目標(biāo)跟蹤算法, 如卡爾曼濾波、? 粒子濾波等算法, 對(duì)系統(tǒng)模型和模型參數(shù)的先驗(yàn)信息有較高要求, 但在非線性處理或算法運(yùn)行速度等方面表現(xiàn)不足。 將核方法引入經(jīng)典目標(biāo)跟蹤算法中, 可以擴(kuò)展算法在非線性處理方面的應(yīng)用, 同時(shí)核函數(shù)代替樣本空間的內(nèi)積運(yùn)算, 避免復(fù)雜的高維運(yùn)算。 目標(biāo)動(dòng)力學(xué)模型可以通過(guò)訓(xùn)練測(cè)量數(shù)據(jù)構(gòu)造的條件嵌入算子來(lái)描述[122], 以降低跟蹤算法對(duì)具體動(dòng)態(tài)系統(tǒng)模型的依賴(lài)。

      (2) 提高特征提取的準(zhǔn)確性

      視覺(jué)跟蹤是目標(biāo)跟蹤領(lǐng)域的熱點(diǎn), 特征提取的優(yōu)劣是影響視覺(jué)目標(biāo)跟蹤效能的關(guān)鍵因素。 提高特征提取的準(zhǔn)確性可通過(guò)多特征融合和深度卷積特征實(shí)現(xiàn)。 在提取目標(biāo)特征時(shí), 與人工特征相比, 卷積特征有一定的優(yōu)勢(shì)[123-125], 但選取何種網(wǎng)絡(luò)訓(xùn)練特征仍需要進(jìn)一步的研究和探索。 單一特征描述目標(biāo)具有局限性, 多特征融合可以更加精確地描述目標(biāo)外觀特征[126-127], 將目標(biāo)與背景更好地區(qū)分開(kāi), 然而多特征融合及特征之間參數(shù)的調(diào)節(jié)會(huì)增加計(jì)算復(fù)雜度, 如何在提升跟蹤性能的同時(shí)確保跟蹤速度, 是需要權(quán)衡的問(wèn)題。

      (3) 提高基核設(shè)計(jì)的均衡性

      對(duì)于復(fù)雜場(chǎng)景, 單個(gè)核函數(shù)難以滿足復(fù)雜場(chǎng)景下的跟蹤任務(wù), 多核學(xué)習(xí)方法可以應(yīng)對(duì)復(fù)雜任務(wù)場(chǎng)景下單一核跟蹤不精確的問(wèn)題, 通過(guò)多個(gè)基核的組合優(yōu)化核函數(shù), 調(diào)節(jié)與優(yōu)化多個(gè)基核的權(quán)系數(shù)和其他參數(shù), 以應(yīng)對(duì)復(fù)雜應(yīng)用場(chǎng)景。 但多核學(xué)習(xí)方法在適應(yīng)更復(fù)雜應(yīng)用場(chǎng)景的同時(shí)也會(huì)增加算法計(jì)算量, 因此研究高效的學(xué)習(xí)算法是必要的。 另外, 多核學(xué)習(xí)框架的均衡設(shè)計(jì)也有進(jìn)一步深入探索的空間。

      (4) 提高環(huán)境變化的適應(yīng)性

      現(xiàn)有的目標(biāo)跟蹤算法在一般情況下可以實(shí)現(xiàn)穩(wěn)定的跟蹤, 然而在目標(biāo)尺度發(fā)生變化或被遮擋時(shí), 算法跟蹤精度下降或目標(biāo)丟失。 因此, 如何在目標(biāo)形狀發(fā)生變化、? 翻轉(zhuǎn)或遮擋時(shí)依舊保持高精度跟蹤, 是運(yùn)動(dòng)目標(biāo)跟蹤領(lǐng)域研究的熱點(diǎn)與難點(diǎn)。 軌跡預(yù)測(cè)法和目標(biāo)分塊法可以有效提高環(huán)境變化時(shí)算法的適應(yīng)性。 目標(biāo)被局部遮擋或全部遮擋時(shí), 軌跡預(yù)測(cè)法根據(jù)目標(biāo)過(guò)去時(shí)刻運(yùn)動(dòng)狀態(tài)估計(jì)被遮擋時(shí)刻運(yùn)動(dòng)狀態(tài), 有助于實(shí)現(xiàn)目標(biāo)被短暫遮擋或全部遮擋時(shí)刻的穩(wěn)健跟蹤[128]。 目標(biāo)分塊法[129-130]對(duì)目標(biāo)進(jìn)行分塊, 由各個(gè)子塊的跟蹤結(jié)果得到總的目標(biāo)位置, 可以準(zhǔn)確處理目標(biāo)被部分遮擋的情況。

      (5) 提高穩(wěn)定跟蹤的持久性

      現(xiàn)有運(yùn)動(dòng)目標(biāo)跟蹤算法多是針對(duì)短時(shí)跟蹤任務(wù), 長(zhǎng)時(shí)間目標(biāo)跟蹤情況下, 魯棒性和跟蹤精度有下降趨勢(shì), 因此, 確保長(zhǎng)期魯棒的目標(biāo)跟蹤算法值得進(jìn)一步深入研究。 雖然已經(jīng)有部分學(xué)者著手研究長(zhǎng)時(shí)間的目標(biāo)跟蹤, 但是缺乏長(zhǎng)時(shí)間跟蹤算法框架, 算法本質(zhì)是在短時(shí)間跟蹤算法框架下引入校正模塊或者加入重檢測(cè)模塊。 從根源上解決目標(biāo)跟蹤的持久性與穩(wěn)定性問(wèn)題, 需要在長(zhǎng)期跟蹤算法框架上進(jìn)行探索與研究。

      (6) 注重方法結(jié)構(gòu)的繼承性

      經(jīng)典目標(biāo)跟蹤算法積累深厚、? 計(jì)算簡(jiǎn)捷、? 適應(yīng)范圍廣, 將核學(xué)習(xí)方法嵌入到經(jīng)典目標(biāo)跟蹤方法框架, 有助于建立一般性算法架構(gòu), 提升算法靈活性與適用性, 便于算法評(píng)價(jià)。 如核學(xué)習(xí)方法中嵌入貝葉斯濾波等目標(biāo)跟蹤算法, 可以提升目標(biāo)短暫遮擋下的穩(wěn)定跟蹤能力, 與置信傳播算法結(jié)合則有助于實(shí)現(xiàn)多個(gè)目標(biāo)的有效跟蹤[51]。 因此, 注重實(shí)現(xiàn)核學(xué)習(xí)方法對(duì)經(jīng)典目標(biāo)跟蹤方法的繼承與融合, 對(duì)建立更具普適性的目標(biāo)跟蹤算法具有顯著意義, 需要進(jìn)一步探索與研究。

      (7) 注重探測(cè)方法的兼容性

      現(xiàn)有多數(shù)核學(xué)習(xí)方法是基于圖像和視頻處理的目標(biāo)跟蹤算法, 在雷達(dá)目標(biāo)跟蹤領(lǐng)域涉及較少。 實(shí)際上, 核學(xué)習(xí)方法有效提高了樣本空間內(nèi)積化效率, 不僅適用于圖像視頻處理, 在基于雷達(dá)的有噪時(shí)間序列預(yù)測(cè)與估計(jì)、? 動(dòng)力學(xué)模型建立等方面也有優(yōu)良的性能[131-132], 因此, 核學(xué)習(xí)方法有潛力擴(kuò)展其應(yīng)用范圍, 在雷達(dá)等非成像探測(cè)方式上實(shí)現(xiàn)兼具實(shí)時(shí)性和精準(zhǔn)度的高性能目標(biāo)跟蹤。

      5 結(jié) 束 語(yǔ)

      核學(xué)習(xí)方法作為線性到非線性之間的橋梁, 為許多模式分析應(yīng)用領(lǐng)域提供了可行的統(tǒng)一框架。 將核方法應(yīng)用于運(yùn)動(dòng)目標(biāo)跟蹤, 通過(guò)核函數(shù)和核技巧簡(jiǎn)化空間復(fù)雜的內(nèi)積運(yùn)算, 可在非線性處理、? 數(shù)據(jù)驅(qū)動(dòng)、? 泛化性能等方面獲得較好表現(xiàn)。 基于核函數(shù)的目標(biāo)跟蹤算法具有重要的研究意義和廣闊的應(yīng)用前景, 在智能決策、? 無(wú)人系統(tǒng)、? 模式識(shí)別等領(lǐng)域具有潛在的應(yīng)用價(jià)值。

      參考文獻(xiàn):

      [1] Smeulders A W M,? Chu D M,? Cucchiara R,? et al. Visual Tracking:? An Experimental Survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,? 2014,? 36(7):? 1442-1468.

      [2] 王丹. 基于運(yùn)動(dòng)檢測(cè)的智能視頻監(jiān)控系統(tǒng)設(shè)計(jì)[D]. 太原:? 中北大學(xué),? 2017.

      Wang Dan. Intelligent Video Surveillance System Design Based on Motion Detection[D]. Taiyuan:? North University of China,? 2017. (in Chinese)

      [3] Gündüz G,? Acarman A T. A Lightweight Online Multiple Object Vehicle Tracking Method[C]∥ IEEE Intelligent Vehicles Symposium (IV),? 2018:? 427-432.

      [4] 陸淵章,? 戴紅霞,? 胡瑩,? 等. 基于機(jī)器視覺(jué)的無(wú)人機(jī)協(xié)同目標(biāo)跟蹤算法研究[J]. 電子器件,? 2020,? 43(5):? 1096-1099.

      Lu Yuanzhang,? Dai Hongxia,? Hu Ying,? et al. Research on Cooperative Target Tracking Algorithm for UAV Based on Machine Vision[J]. Chinese Journal of Electron Devices,? 2020,? 43(5):? 1096-1099.(in Chinese)

      [5] 高婷婷. 基于多目標(biāo)跟蹤的醫(yī)學(xué)影像分析[D]. 西安:? 西安電子科技大學(xué),? 2012.

      Gao Tingting. Medical Image Analysis Based on Multi-Target Tracking[D]. Xian:? Xidian University,? 2012. (in Chinese)

      [6] Aronszajn N. Theory of Reproducing Kernels[J]. Transactions of the American Mathematical Society,? 1950,? 68(3):? 337.

      [7] Schlkopf B,? Smola A,? Müller K R. Nonlinear Component Analysis as a Kernel Eigenvalue Problem[J]. Neural Computation,? 1998,? 10(5):? 1299-1319.

      [8] Mika S,? Ratsch G,? Weston J,? et al. Fisher Discriminant Analysis with Kernels[C]∥Neural Networks for Signal Processing IX:? Proceedings of the 1999 IEEE Signal Processing Society Workshop,? 1999:? 41-48.

      [9] Bach F R,? Jordan M I. Kernel Independent Component Analysis[C]∥2003 IEEE International Conference on Acoustics,? Speech,? and Signal Processing,? 2003.

      [10] Fukunaga K,? Hostetler L. The Estimation of the Gradient of a Density Function,? with Applications in Pattern Recognition[J]. IEEE Transactions on Information Theory,? 1975,? 21(1):? 32-40.

      [11] Cheng Y Z. Mean Shift,? Mode Seeking,? and Clustering[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,? 1995,? 17(8):? 790-799.

      [12] Comaniciu D,? Ramesh V,? Meer P. Real-Time Tracking of Non-Rigid Objects Using Mean Shift[C]∥Proceedings IEEE Conference on Computer Vision and Pattern Recognition,? 2000:? 142-149.

      [13] Comaniciu D,? Meer P. Mean Shift Analysis and Applications[C]∥Proceedings of the Seventh IEEE International Conference on Computer Vision,? 1999:? 1197-1203.

      [14] Comaniciu D,? Meer P. Mean Shift:? A Robust Approach Toward Feature Space Analysis[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,? 2002,? 24(5):? 603-619.

      [15] Comaniciu D,? Meer P. Robust Analysis of Feature Spaces:? Color Image Segmentation[C]∥Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition,? 1997:? 750-755.

      [16] Comaniciu D,? Ramesh V,? Meer P. The Variable Bandwidth Mean Shift and Data-Driven Scale Selection[C]∥Proceedings of the Eighth IEEE International Conference on Computer Vision,? 2001:? 438-445.

      [17] Comaniciu D,? Ramesh V,? Meer P. Kernel-Based Object Tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,? 2003,? 25(5):? 564-577.

      [18] Lindeberg T. Feature Detection with Automatic Scale Selection[J]. International Journal of Computer Vision,? 1998,? 30(2):? 79-116.

      [19] Collins R T. Mean-Shift Blob Tracking through Scale Space[C]∥ IEEE Computer Society Conference on Computer Vision and Pattern Recognition,? 2003.

      [20] 李鄉(xiāng)儒,? 吳福朝,? 胡占義. 均值漂移算法的收斂性[J]. 軟件學(xué)報(bào),? 2005,? 16(3):? 365-374.

      Li Xiangru,? Wu Fuchao,? Hu Zhanyi. Convergence of a Mean Shift Algorithm[J]. Journal of Software,? 2005,? 16(3):? 365-374.(in Chinese)

      [21] Li X R,? Hu Z Y,? Wu F C. A Note on the Convergence of the Mean Shift[J]. Pattern Recognition,? 2007,? 40(6):? 1756-1762.

      [22] Birchfield S T,? Rangarajan S. Spatiograms Versus Histograms for Region-Based Tracking[C]∥ IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR),? 2005:? 1158-1163.

      [23] 李培華. 一種改進(jìn)的Mean Shift跟蹤算法[J]. 自動(dòng)化學(xué)報(bào),? 2007,? 33(4):? 347-354.

      Li Peihua. An Improved Mean Shift Algorithm for Object Tracking[J]. Acta Automatica Sinica,? 2007,? 33(4):? 347-354.(in Chinese)

      [24] 杜凱,? 巨永鋒,? 靳引利,? 等. 自適應(yīng)分塊顏色直方圖的Mean Shift跟蹤算法[J]. 武漢理工大學(xué)學(xué)報(bào),? 2012,? 34(6):? 140-144.

      Du Kai,? Ju Yongfeng,? Jin Yinli,? et al. Mean Shift Tracking Algorithm with Adaptive Block Color Histogram[J]. Journal of Wuhan University of Technology,? 2012,? 34(6):? 140-144.(in Chinese)

      [25] Gouiffès M,? Laguzet F,? Lacassagne L. Projection-Histograms for Mean-Shift Tracking[C]∥IEEE International Conference on Image Processing,? 2010.

      [26] Leichter I,? Lindenbaum M,? Rivlin E. Mean Shift Tracking with Multiple Reference Color Histograms[J]. Computer Vision and Image Understanding,? 2010,? 114(3):? 400-408.

      [27] Leichter I. Mean Shift Trackers with Cross-Bin Metrics[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,? 2012,? 34(4):? 695-706.

      [28] Ning J,? Zhang L,? Zhang D,? et al. Robust Mean-Shift Tracking with Corrected Background-Weighted Histogram[J]. IET Computer Vision,? 2012,? 6(1):? 62.

      [29] Jeyakar J,? Babu R V,? Ramakrishnan K R. Robust Object Tracking with Background-Weighted Local Kernels[J]. Computer Vision and Image Understanding,? 2008,? 112(3):? 296-309.

      [30] Li L,? Feng Z P. An Efficient Object Tracking Method Based on Adaptive Nonparametric Approach[J]. Opto-Electronic Review,? 2005,? 13(4):? 325-330.

      [31] Allen J G,? Xu R Y D,? Jin J S. Mean Shift Object Tracking for a SIMD Computer[C]∥Third International Conference on Information Technology and Applications (ICITA),? 2005.

      [32] Welch G. Bishop G. An Introduction to the Kalman Filter[R]. North Carolina: UNC-Chapel Hill,? 2006.

      [33] 周尚波,? 胡鵬,? 柳玉炯. 基于改進(jìn)Mean-Shift與自適應(yīng)Kalman濾波的視頻目標(biāo)跟蹤[J]. 計(jì)算機(jī)應(yīng)用,? 2010,? 30(6):? 1573-1576.

      Zhou Shangbo,? Hu Peng,? Liu Yujiong. Target Tracking Based on Improved Mean-Shift and Adaptive Kalman Filter[J]. Journal of Computer Applications,? 2010,? 30(6):? 1573-1576.(in Chinese)

      [34] Babu R V,? Pérez P,? Bouthemy P. Robust Tracking with Motion Estimation and Local Kernel-Based Color Modeling[J]. Image and Vision Computing,? 2007,? 25(8):? 1205-1216.

      [35] Ali A,? Terada K. A General Framework for Multi-Human Tracking Using Kalman Filter and Fast Mean Shift Algorithms[J]. Journal of Universal Computer Science,? 2010,? 16(6):? 921-937.

      [36] Li X H,? Zhang T Y,? Shen X? D, et al. Object Tracking Using an Adaptive Kalman Filter Combined with Mean Shift[J]. Optical Engineering,? 2010,? 49(2):? 020503.

      [37] Chu C T,? Hwang J N,? Wang S Z,? et al. Human Tracking by Adaptive Kalman Filtering and Multiple Kernels Tracking with Projected Gradients[C]∥Fifth ACM/IEEE International Conference on Distributed Smart Cameras,? 2011:? 1-6.

      [38] Chu C T,? Hwang J N,? Pai H I,? et al. Tracking Human under Occlusion Based on Adaptive Multiple Kernels with Projected Gra-dients[J]. IEEE Transactions on Multimedia,? 2013,? 15(7):? 1602-1615.

      [39] 彭寧嵩,? 楊杰,? 周大可,? 等. Mean-Shift跟蹤算法中目標(biāo)模型的自適應(yīng)更新[J]. 數(shù)據(jù)采集與處理,? 2005,? 20(2):? 125-129.

      Peng Ningsong,? Yang Jie,? Zhou Dake,? et al. Mean-Shift Tracking with Adaptive Model Update Mechanism[J]. Journal of Data Acquisition & Processing,? 2005,? 20(2):? 125-129.(in Chinese)

      [40] Peng N S,? Yang J,? Liu Z. Mean Shift Blob Tracking with Kernel Histogram Filtering and Hypothesis Testing[J]. Pattern Recognition Letters,? 2005,? 26(5):? 605-614.

      [41] Wang L L,? Xin Y H. A Small IR Target Detection and Tracking Algorithm Based on Morphological and Genetic-Particle Filter[J]. Acta Photonica Sinica,? 2013,? 42(7):? 849-856.

      [42] 魏坤,? 趙永強(qiáng),? 潘泉,? 等. 基于均值漂移和粒子濾波的紅外目標(biāo)跟蹤[J]. 光電子·激光,? 2008,? 19(2):? 213-217.

      Wei Kun,? Zhao Yongqiang,? Pan Quan,? et al. IR Target Tracking Based on Mean Shift and Particle Filter[J]. Journal of Optoelectronics Laser,? 2008,? 19(2):? 213-217.(in Chinese)

      [43] 張一帆,? 田雁, 楊帆, 等. 基于改進(jìn)的Mean-Shift算法的紅外小目標(biāo)跟蹤[J].紅處與激光工程,? 2014, 43(7): 2164-2169.

      Zhang Yifan,? Tian Yan,? Yang Fan,? et al. Infrared Dim Target Tracking Based on Improved Mean-Shift[J]. Infrared and Laser Engineering,? 2014, 43(7): 2164-2169. (in Chinese)

      [44] Zhang H H,? Huang Z Y,? Huang W M,? et al. Kernel-Based Method for Tracking Objects with Rotation and Translation[C]∥Proceedings of the 17th International Conference on Pattern Recognition,? 2004:? 728-731.

      [45] Zhang H H,? Huang W M,? Huang Z Y,? et al. Affine Object Tracking with Kernel-Based Spatial-Color Representation[C]∥IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR),? 2005.

      [46] Yilmaz A. Object Tracking by Asymmetric Kernel Mean Shift with Automatic Scale and Orientation Selection[C]∥IEEE Conference on Computer Vision and Pattern Recognition,? 2007.

      [47] Yang C J,? Duraiswami R,? Davis L. Efficient Mean-Shift Tracking via a New Similarity Measure[C]∥IEEE Computer Society Conference on Computer Vision and Pattern Recognition(CVPR),? 2005.

      [48] Elgammal A,? Duraiswami R,? Davis L S. Probabilistic Tracking in Joint Feature-Spatial Spaces[C]∥IEEE Computer Society Conference on Computer Vision and Pattern Recognition,? 2003.

      [49] Elgammal A,? Duraiswami R,? Davis L S. Efficient Non-Parametric Adaptive Color Modeling Using Fast Gauss Transform[C]∥IEEE Computer Society Conference on Computer Vision and Pattern Re-cognition,? 2001.

      [50] Leichter I,? Lindenbaum M,? Rivlin E. Visual Tracking by Affine Kernel Fitting Using Color and Object Boundary[C]∥? IEEE 11th International Conference on Computer Vision,? 2007.

      [51] Park M,? Liu Y X,? Collins R T. Efficient Mean Shift Belief Propagation for Vision Tracking[C]∥ IEEE Conference on Computer Vision and Pattern Recognition,? 2008.

      [52] Fan Z M,? Yang M,? Wu Y. Multiple Collaborative Kernel Tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,? 2007,? 29 (7):? 1268-1273.

      [53] Topkaya I S,? Erdogan H. Using Spatial Overlap Ratio of Independent Classifiers for Likelihood Map Fusion in Mean-Shift Tracking[J]. Signal,? Image and Video Processing,? 2019,? 13(1):? 61-67.

      [54] Wang H,? Wang X Y,? Yu L J,? et al. Design of Mean Shift Tracking Algorithm Based on Target Position Prediction[C]∥ IEEE International Conference on Mechatronics and Automation (ICMA),? 2019:? 1114-1119.

      [55] Yu W S,? Hou Z Q,? Hu D,? et al. Robust Mean Shift Tracking Based on Refined Appearance Model and Online Update[J]. Multimedia Tools and Applications,? 2017,? 76(8):? 10973-10990.

      [56] Zeng H Q,? Chen J,? Cui X L,? et al. Quad Binary Pattern and Its Application in Mean-Shift Tracking[J]. Neurocomputing,? 2016,? 217:? 3-10.

      [57] Phadke G,? Velmurugan R. Mean LBP and Modified Fuzzy C-Means Weighted Hybrid Feature for Illumination Invariant Mean-Shift Tracking[J]. Signal,? Image and Video Processing,? 2017,? 11(4):? 665-672.

      [58] Liu Y,? Jing X Y,? Nie J H,? et al. Context-Aware Three-Dimensional Mean-Shift with Occlusion Handling for Robust Object Tracking in RGB-D Videos[J]. IEEE Transactions on Multimedia,? 2019,? 21(3):? 664-677.

      [59] Bolme D S,? Beveridge J R,? Draper B A,? et al. Visual Object Tracking Using Adaptive Correlation Filters[C]∥ IEEE Computer Society Conference on Computer Vision and Pattern Recognition,? 2010:? 2544-2550.

      [60] Henriques J F,? Caseiro R,? Martins P,? et al. Exploiting the Circulant Structure of Tracking-by-Detection with Kernels[C]∥12th? European Conference on Computer Vision, 2012: 702-715.

      [61] Danelljan M,? Khan F S,? Felsberg M,? et al. Adaptive Color Attri-butes for Real-Time Visual Tracking[C]∥ IEEE Conference on Computer Vision and Pattern Recognition,? 2014:? 1090-1097.

      [62] Henriques J F,? Caseiro R,? Martins P,? et al. High-Speed Tracking with Kernelized Correlation Filters[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,? 2015,? 37(3):? 583-596.

      [63] 何秀麗. 多元線性模型與嶺回歸分析[D]. 武漢:? 華中科技大學(xué),? 2005.

      He Xiuli. Research on Multivariate Linear Model and Ridge Regression[D]. Wuhan:? Huazhong University of Science and Technology,? 2005. (in Chinese)

      [64] 王耀林,? 蓋夢(mèng)歐,? 周敏. IMM算法在空中復(fù)雜機(jī)動(dòng)目標(biāo)跟蹤中的應(yīng)用[J]. 現(xiàn)代信息科技,? 2020,? 4(13):? 9-11.

      Wang Yaolin,? Gai Mengou,? Zhou Min. Application of IMM Algorithm in Tracking Complex Maneuvering Targets in the Air[J]. Modern Information Technology,? 2020,? 4(13):? 9-11.(in Chinese)

      [65] Arulampalam M S,? Maskell S,? Gordon N,? et al. A Tutorial on Particle Filters for Online Nonlinear/Non-Gaussian Bayesian Tracking[J]. IEEE Transactions on Signal Processing,? 2002,? 50(2):? 174-188.

      [66] Kalal Z,? Mikolajczyk K,? Matas J. Tracking-Learning-Detection Kernel[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,? 2011,? 34(7): 409-422.

      [67] Zhang K H,? Zhang L,? Yang M H. Real-Time Compressive Tracking[C]∥12th European Conference on Computer Vision,? 2012:? 864-877.

      [68] Danelljan M,? Hager G,? Khan F S,? et al. Accurate Scale Estimation for Robust Visual Tracking[C]∥British Machine Vision Conference,? 2014.

      [69] Li Y,? Zhu J K. A Scale Adaptive Kernel Correlation Filter Tracker with Feature Integration[C]∥ European Conference on Computer Vision,?? 2015: 254-265.

      [70] 王守義. 基于核相關(guān)濾波的目標(biāo)跟蹤算法研究與實(shí)現(xiàn)[D]. 太原:? 中北大學(xué),? 2018.

      Wang Shouyi. Research and Implementation of Target Tracking Algorithm Based on Kernel Correlation Filtering[D]. Taiyuan:? North University of China,? 2018. (in Chinese)

      [71] 張雷,? 王延杰,? 孫宏海,? 等. 采用核相關(guān)濾波器的自適應(yīng)尺度目標(biāo)跟蹤[J]. 光學(xué)精密工程,? 2016,? 24(2):? 448-459.

      Zhang Lei,? Wang Yanjie,? Sun Honghai,? et al. Adaptive Scale Object Tracking with Kernelized Correlation Filters[J]. Optics and Precision Engineering,? 2016,? 24(2):? 448-459.(in Chinese)

      [72] 秦曉飛,? 代順?shù)h,? 李峰. 基于改進(jìn)的核相關(guān)濾波器的目標(biāo)跟蹤算法[J]. 測(cè)控技術(shù),? 2017,? 36(10):? 3-6.

      Qin Xiaofei,? Dai Shunfeng,? Li Feng. Target Tracking Algorithm Based on Improved Kernel Correlation Filter[J]. Measurement & Control Technology,? 2017,? 36(10):? 3-6.(in Chinese)

      [73] 錢(qián)堂慧,? 羅志清,? 李果家,? 等. 核相關(guān)濾波跟蹤算法的尺度自適應(yīng)改進(jìn)[J]. 計(jì)算機(jī)應(yīng)用,? 2017,? 37(3):? 811-816.

      Qian Tanghui,? Luo Zhiqing,? Li Guojia,? et al. Scale Adaptive Improvement of Kernel Correlation Filter Tracking Algorithm[J]. Journal of Computer Applications,? 2017, ?37(3):? 811-816.(in Chinese)

      [74] 夏翔,? 張曉林,? 李嘉茂. 結(jié)合尺度預(yù)測(cè)的核相關(guān)濾波器目標(biāo)跟蹤方法[J]. 電子設(shè)計(jì)工程,? 2017,? 25(2):? 130-135.

      Xia Xiang,? Zhang Xiaolin,? Li Jiamao. Kernelized Correlation Filter Based Visual Tracking with Scale Estimation[J]. Electronic Design Engineering,? 2017,? 25(2):? 130-135.(in Chinese)

      [75] Hannuna S,? Camplani M,? Hall J,? et al. DS-KCF:? A Real-Time Tracker for RGB-D Data[J]. Journal of Real-Time Image Processing,? 2019,? 16(5):? 1439-1458.

      [76] 劉延飛,? 何燕輝,? 姜柯,? 等. 采用異常值檢測(cè)及重定位改進(jìn)的KCF跟蹤算法[J]. 計(jì)算機(jī)工程與應(yīng)用,? 2018,? 54(20):? 166-171.

      Liu Yanfei,? He Yanhui,? Jiang Ke,? et al. Improved KCF Tracking Algorithm Using Outlier Detection and Relocation[J]. Computer Engineering and Applications,? 2018,? 54(20):? 166-171.(in Chinese)

      [77] Danelljan M,? Hger G,? Khan F S,? et al. Learning Spatially Regularized Correlation Filters for Visual Tracking[C]∥ IEEE International Conference on Computer Vision (ICCV),? 2015.

      [78] 阮宏剛. 基于核相關(guān)濾波的目標(biāo)跟蹤方法研究[D]. 南京:? 南京郵電大學(xué),? 2018.

      Ruan Honggang. Research on Object Tracking Based on Kernel Correlation Filter[D]. Nanjing:? Nanjing University of Posts and Telecommunications,? 2018. (in Chinese)

      [79] Asha C S,? Narasimhadhan A V. Adaptive Learning Rate for Visual Tracking Using Correlation Filters[J]. Procedia Computer Science,? 2016,? 89:? 614-622.

      [80] 陳智,? 柳培忠,? 駱炎民,? 等. 自適應(yīng)特征融合的多尺度相關(guān)濾波目標(biāo)跟蹤算法[J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),? 2018,? 30(11):? 2063-2073.

      Chen Zhi,? Liu Peizhong,? Luo Yanmin,? et al. Multi-Scale Correlation Filter Tracking Algorithm Based on Adaptive Feature Fusion[J]. Journal of Computer-Aided Design & Computer Graphics,? 2018,? 30(11):? 2063-2073.(in Chinese)

      [81] Wang M M,? Liu Y,? Huang Z Y. Large Margin Object Tracking with Circulant Feature Maps[C]∥ IEEE Conference on Computer Vision and Pattern Recognition (CVPR),? 2017.

      [82] Tang M,? Feng J Y. Multi-Kernel Correlation Filter for Visual Tracking[C]∥IEEE International Conference on Computer Vision (ICCV),? 2015.

      [83] Huang B,? Xu T F,? Jiang S W,? et al. Robust Visual Tracking via Constrained Multi-Kernel Correlation Filters[J]. IEEE Transactions on Multimedia,? 2020,? 22(11):? 2820-2832.

      [84] 陳晨, 高艷麗, 鄧趙紅, 等. TSK模糊邏輯系統(tǒng)相關(guān)濾波器跟蹤算法[J]. 計(jì)算機(jī)科學(xué)與探索,? 2020, 14(2):? 294-306.

      Chen C,? Gao Y L,? Deng Z H,? et al. Correlation Filter Tracking Algorithm Using TSK Fuzzy Logic System[J]. Journal of Frontiers of Computer Science and Technology,? 2020, 14(2):? 294-306. (in Chinese)

      [85] Zhou Y,? Wang T,? Hu R H,? et al. Multiple Kernelized Correlation Filters (MKCF) for Extended Object Tracking Using X-Band Marine Radar Data[J]. IEEE Transactions on Signal Processing,? 2019,? 67(14):? 3676-3688.

      [86] 鄧春華,? 劉小楠,? 朱子奇,? 等. 一種基于時(shí)空顯著性的雙核KCF目標(biāo)跟蹤方法:? CN110322479A[P]. 2019-10-11.

      Deng Chunhua,? Liu Xiaonan,? Zhu Ziqi,? et al. Dual-Core KCF Target Tracking Method Based on Space-Time Significance:? CN110322479A[P]. 2019-10-11.(in Chinese)

      [87] 王海軍, ?葛紅娟,? 張圣燕. 基于核協(xié)同表示的快速目標(biāo)跟蹤算法[J]. 浙江大學(xué)學(xué)報(bào): 工學(xué)版,? 2017,? 51(2):? 399-407.

      Wang Haijun,? Ge Hongjuan,? Zhang Shengyan. Fast Object Tracking Algorithm via Kernel Collaborative Presentation[J]. Journal of Zhejiang University: Engineering Science,? 2017,? 51(2):? 399-407.(in Chinese)

      [88] Battistone F,? Petrosino A,? Santopietro V. Best Structured Tracker[C]∥Workshop on Visual Object Tracking Challenge,? 2014.

      [89] Montero A S,? Lang J,? Laganière R. Scalable Kernel Correlation Filter with Sparse Feature Integration[C]∥ IEEE International Conference on Computer Vision Workshop (ICCVW),? 2015.

      [90] 鄭武興,? 王春平,? 付強(qiáng),? 等. 融合灰度與顯著性特征的空中紅外目標(biāo)跟蹤[J]. 激光與紅外,? 2018,? 48(3):? 338-342.

      Zheng Wuxing,? Wang Chunping,? Fu Qiang,? et al. Aerial Infrared Target Tracking Based on Gray and Saliency Features Fusion[J]. Laser & Infrared,? 2018,? 48(3):? 338-342.(in Chinese)

      [91] Lewis D P,? Jebara T,? Noble W S. Nonstationary Kernel Combination[C]∥The 23rd International Conference on Machine Learning,? 2006:? 553-560.

      [92] Ong C S,? Smola A J,? Williamson R C. Learning the Kernel with Hyperkernels[J]. Journal of Machine Learning Research,? 2005,? 6:? 1043-1047.

      [93] Lanckriet G,? Cristianini N,? Bartlett P,? et al. Learning the Kernel Matrix with Semi-Definite Programming[J]. Journal of Machine Learning Research,? 2002, 5: 323-330.

      [94] Bach F R,? Lanckriet G R G,? Jordan M I. Multiple Kernel Learning,? Conic Duality,? and the SMO Algorithm[C]∥? The 21st International Conference on Machine Learning,? 2004:? 41-48.

      [95] Sonnenburg S,? Ratsch G,? Schafer C. A General and Efficient Multiple Kernel Learning Algorithm[C]∥ The Advances in Neural Information Processing Systems,? 2005:? 1273-1280.

      [96] Zien A,? Ong C S. Multiclass Multiple Kernel Learning[C]∥24th International Conference on Machine Learning,? 2007:? 1191-1198.

      [97] Gehler P V,? Nowozin S. Infinite Kernel Learning[C]∥ Max Planck Institute for Biological Cybernetics,??? 2008.

      [98] Gnen M,? Alpaydin E. Localized Multiple Kernel Learning[C]∥25th International Conference on Machine Learning,? 2008:? 352-359.

      [99] Gnen M,? Alpaydin E. Multiple Kernel Learning Algorithms[J]. Journal of Machine Learning Research,? 2011,? 12:? 2211-2268.

      [100] Lanckriet G R G,? Cristianini N,? Bartlett P,? et al. Learning the Kernel Matrix with Semidefinite Programming[J]. Journal of Machine Learning Research,? 2004,? 5:? 27-72.

      [101] Lee W J,? Verzakov S,? Duin R P W. Kernel Combination Versus Classifier Combination[C] ∥7th International Workshop on Multiple Classifier Systems,? 2007:? 22-31.

      [102] Pavlidis P,? Weston J,? Cai J,? et al. Gene Functional Classification from Heterogeneous Data[C]∥5th Annual International Conference on Computation Biology,? 2001:? 249-255.

      [103] Lampert C H,? Blaschko M B. A Multiple Kernel Learning Approach to Joint Multi-Class Object Detection[C]∥DAGM: Joint Pattern Recognition Symposium,?? 2008:? 31-40.

      [104] He J F,? Chang S F,? Xie L X. Fast Kernel Learning for Spatial Pyramid Matching[C]∥ IEEE Conference on Computer Vision and Pattern Recognition,? 2008.

      [105] Kumar A,? Sminchisescu C. Support Kernel Machines for Object Recognition[C]∥ IEEE 11th International Conference on Computer Vision,? 2007.

      [106] Damoulas T,? Girolami M A. Pattern Recognition with a Bayesian Kernel Combination Machine[J]. Pattern Recognition Letters,? 2009,? 30(1):? 46-54.

      [107] Mak B,? Kwok J T,? Ho S. A Study of Various Composite Kernels for Kernel Eigenvoice Speaker Adaptation[C]∥IEEE International Conference on Acoustics,? Speech,? and Signal Processing,? 2004.

      [108] Fu S Y,? Guo S Y,? Hou Z G,? et al. Multiple Kernel Learning from Sets of Partially Matching Image Features[C]∥19th International Conference on Pattern Recognition,? 2008.

      [109] Zheng S,? Liu J,? Tian J W. An Efficient Star Acquisition Method Based on SVM with Mixtures of Kernels[J]. Pattern Recognition Letters,? 2005,? 26(2):? 147-165.

      [110] Fung G,? Dundar M,? Bi J B,? et al. A Fast Iterative Algorithm for Fisher Discriminant Using Heterogeneous Kernels[C]∥21st International Conference on Machine Learning,? 2004.

      [111] Damoulas T,? Girolami M A. Combining Feature Spaces for Classification[J]. Pattern Recognition,? 2009,? 42(11):? 2671-2683.

      [112] Damoulas T,? Girolami M A. Pattern Recognition with a Bayesian Kernel Combination Machine[J]. Pattern Recognition Letters,? 2009,? 30(1):? 46-54.

      [113] Camps-Valls G,? Gomez-Chova L,? Munoz-Mari J,? et al. Compo-site Kernels for Hyperspectral Image Classification[J]. IEEE Geo-science and Remote Sensing Letters,? 2006,? 3(1):? 93-97.

      [114] Camps-Valls G,? Martinez-Ramon M,? Rojo-Alvarez J L,? et al. Nonlinear System Identification with Composite Relevance Vector Machines[J]. IEEE Signal Processing Letters,? 2007,? 14(4):? 279-282.

      [115] Kingsbury N,? Tay D B H,? Palaniswami M. Multi-Scale Kernel Methods for Classification[C]∥IEEE Workshop on Machine Learning for Signal Processing,? 2005.

      [116] Zheng D N,? Wang J X,? Zhao Y N. Non-Flat Function Estimation with a Multi-Scale Support Vector Regression[J]. Neurocomputing,? 2006,? 70(1/2/3):? 420-429.

      [117] Yang Z,? Guo J,? Xu W R,? et al. Multi-Scale Support Vector Machine for Regression Estimation[C]∥ 3rd International Symposium on Neural Networks,?? 2006: 1030-1037.

      [118] Opfer R. Multiscale Kernels[J]. Advances in Computational Mathematics,? 2006,? 25(4):? 357-380.

      [119] Zhou Y T,? Zhang T Y,? Li X H. Multi-Scale Gaussian Processes Model[J]. Journal of Electronics (China),? 2006,? 23(4):? 618-622.

      [120] Walder C,? Kim K I,? Schlkopf B. Sparse Multiscale Gaussian Process Regression[C]∥25th International Conference on Machine Learning,? 2008.

      [121] Christoudias M,? Urtasun R,? Darrell T. Bayesian Localized Multiple Kernel Learning[R]. Berkeley:? University of California,? 2009.

      [122] Zhu P P,? Chen B D,? Principe J C. Learning Nonlinear Generative Models of Time Series with a Kalman Filter in RKHS[J]. IEEE Transactions on Signal Processing,? 2014,? 62(1):? 141-155.

      [123] Danelljan M,? Robinson A,? Khan F S,? et al. Beyond Correlation Filters:? Learning Continuous Convolution Operators for Visual? Tracking[C]∥14th European Conference on Computer Vision, 2016: 472-488.

      [124] Danelljan M,? Bhat G,? Khan F S,? et al. ECO:? Efficient Convolution Operators for Tracking[C]∥IEEE Conference on Computer Vision and Pattern Recognition (CVPR),? 2017.

      [125] Bhat G,? Johnander J,? Danelljan M,? et al. Unveiling the Power of Deep Tracking[C]∥15th European Conference on Computer Vision,? 2018:? 493-509.

      [126] An X W,? Liang Q Q,? Sun N L. Multi-Kernel Support Correlation Filters with Temporal Filtering Constraint for Object Tracking[J]. Multimedia Tools and Applications, ?2021,? 80(9):? 14041-14073.

      [127] Su Z Y,? Li J,? Chang J, et al. Real-Time Visual Tracking Using Complementary Kernel Support Correlation Filters[J]. Frontiers of Computer Sciece,? 2020, 14(2):? 417-429.

      [128] Sun J P,? Ding E J,? Sun B,? et al. Adaptive Kernel Correlation Filter Tracking Algorithm in Complex Scenes[J]. IEEE Access,? 2020,? 8:? 208179-208194.

      [129] Luo M Q,? Zhou B,? Wang T. Multi-Part and Scale Adaptive Visual Tracker Based on Kernel Correlation Filter[J]. PLoS One,? 2020,? 15(4):? e0231087.

      [130] Du F,? Wang W L,? Zhang Z. Target Tracking Algorithm for Pedestrians Movement Based on Kernel-Correlation Filtering[J]. Enterprise Information Systems,? 2020:? 1-15.

      [131] Dang L J,? Chen B D,? Wang S Y,? et al. Kernel Kalman Filtering with Conditional Embedding and Maximum Correntropy Criterion[J]. IEEE Transactions on Circuits and Systems I:? Regular Papers,? 2019,? 66(11):? 4265-4277.

      [132] Rosinha J B,? de Almeida S J M,? Bermudez J C M. A New Kernel Kalman Filter Algorithm for Estimating Time-Varying Nonlinear Systems[C]∥ IEEE International Symposium on Circuits and Systems (ISCAS),? 2017:? 1-4.

      A Review on Kernel Learning Method of Moving Target Tracking

      Lou Jiaxin1, Li Yuankai1*, Wang Yuan1, Xu Yanke2

      (1. University of Electronic Science and Technology of China, Chengdu 611731, China;

      2. China Airborne Missile Academy, Luoyang 471009, China)

      Abstract:? The kernel method maps the original spatial data to a high-dimensional Hilbert space by nonlinear mapping and hides the mapping in the linear learner. The kernel function is used to replace the complex inner product operation in high-dimensional space,? which can effectively avoid the ‘curse of dimensionality caused by high-dimensional space calculation. The kernel method has the advantages of learnability,? efficient calculation,? linearization and good generalization performance,? which provides a new effective way to solve the problem of nonlinear target tracking. The traditional target tracking methods often use the tracking model to predict the current motion state of the target and ensure the accuracy and real-time tracking. The kernel method provides a general way of linearization and can be independent of the specific model with efficient computing. Introducing the kernel learning method into target tracking is expected to improve environmental adaptability. In this paper,?? based on the idea of kernel method,? the current research progress of kernel learning target tracking is presented,? including target detection method based on kernel learning,? generative and discriminative target tracking method,? and multi-kernel learning method with different kernel functions. Further research on kernel learning target tracking for kernel function optimization,? long-term tracking,? feature extraction and target occlusion are prospected.

      Key words:? ?kernel learning method; nonlinear mapping; target detection; target tracking; multiple kernel learning; pattern recognition

      猜你喜歡
      目標(biāo)跟蹤目標(biāo)檢測(cè)模式識(shí)別
      淺談模式識(shí)別在圖像識(shí)別中的應(yīng)用
      多視角目標(biāo)檢測(cè)與跟蹤技術(shù)的研究與實(shí)現(xiàn)
      第四屆亞洲模式識(shí)別會(huì)議
      視頻中目標(biāo)檢測(cè)算法研究
      軟件(2016年4期)2017-01-20 09:38:03
      行為識(shí)別中的人體運(yùn)動(dòng)目標(biāo)檢測(cè)方法
      基于改進(jìn)連續(xù)自適應(yīng)均值漂移的視頻目標(biāo)跟蹤算法
      移動(dòng)機(jī)器人圖像目標(biāo)識(shí)別
      基于P3電位的目標(biāo)檢測(cè)研究
      科技視界(2016年4期)2016-02-22 13:09:19
      空管自動(dòng)化系統(tǒng)中航跡濾波算法的應(yīng)用與改進(jìn)
      科技視界(2016年5期)2016-02-22 12:25:31
      基于車(chē)牌識(shí)別的機(jī)混車(chē)道視頻測(cè)速算法
      麦盖提县| 商都县| 昌黎县| 和硕县| 平南县| 呼伦贝尔市| 廊坊市| 平定县| 彩票| 泽州县| 保靖县| 邯郸县| 怀安县| 庆元县| 甘孜| 孟州市| 蓬安县| 凭祥市| 姚安县| 新干县| 大石桥市| 房山区| 武平县| 天气| 抚宁县| 三亚市| 阳山县| 偏关县| SHOW| 温州市| 齐齐哈尔市| 沈阳市| 柳州市| 山东省| 嵩明县| 光泽县| 炉霍县| 甘肃省| 雅安市| 梁平县| 元阳县|