• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      卷積神經(jīng)網(wǎng)絡(luò)與時(shí)空上下文結(jié)合的目標(biāo)跟蹤算法

      2017-03-22 10:18:12閔召陽(yáng)趙文杰
      紅外技術(shù) 2017年8期
      關(guān)鍵詞:置信時(shí)空濾波

      閔召陽(yáng),趙文杰

      ?

      卷積神經(jīng)網(wǎng)絡(luò)與時(shí)空上下文結(jié)合的目標(biāo)跟蹤算法

      閔召陽(yáng),趙文杰

      (空軍航空大學(xué) 航空航天情報(bào)系,吉林 長(zhǎng)春 130022)

      本文所提算法是一種卷積神經(jīng)網(wǎng)絡(luò)與時(shí)空上下文結(jié)合的目標(biāo)跟蹤算法。將卷積神經(jīng)網(wǎng)絡(luò)算法融入時(shí)空上下文算法框架下,使得跟蹤系統(tǒng)整體的魯棒性有顯著提高。引入Kalman濾波來(lái)處理目標(biāo)被嚴(yán)重遮擋時(shí),跟蹤框容易漂移的問(wèn)題。此外,整個(gè)跟蹤系統(tǒng)采取由粗到精的雙重目標(biāo)位置定位方式,由時(shí)空上下文算法實(shí)現(xiàn)目標(biāo)初定位,由卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行目標(biāo)位置的精確定位。經(jīng)實(shí)驗(yàn)驗(yàn)證,算法不僅穩(wěn)定性和魯棒性較好,而且實(shí)時(shí)性的條件也基本滿足。

      目標(biāo)跟蹤;時(shí)空上下文;卷積神經(jīng)網(wǎng)絡(luò)

      0 引言

      目標(biāo)跟蹤是計(jì)算機(jī)視覺(jué)領(lǐng)域比較熱門(mén)的研究熱點(diǎn)之一,目前在這方面有很多優(yōu)秀的算法,但是這些算法通常只能在處理某一類(lèi)問(wèn)題時(shí)表現(xiàn)出色,很難找到一種算法在應(yīng)付目標(biāo)的尺度變化,形狀變化,運(yùn)動(dòng)速度和方向變化,環(huán)境光照以及目標(biāo)遮擋等一系列問(wèn)題時(shí)都保持魯棒的跟蹤。因此未來(lái)一段時(shí)間里,跟蹤問(wèn)題在計(jì)算機(jī)視覺(jué)領(lǐng)域中的研究難度依舊較高。

      生成式和判別式是目前針對(duì)目標(biāo)跟蹤算法的兩種主流的分類(lèi)方法。生成式跟蹤算法[1]需要對(duì)局部或全局圖像進(jìn)行搜索,找出重構(gòu)誤差最小的區(qū)域作為預(yù)測(cè)位置。其工作重點(diǎn)在于如何利用學(xué)習(xí)到的特征對(duì)目標(biāo)進(jìn)行描述,并構(gòu)建外觀模型。而判別式跟蹤算法在對(duì)背景信息的利用上比較充分,但是跟蹤的準(zhǔn)確度容易受樣本的影響。兩類(lèi)算法各有優(yōu)劣,生成式跟蹤算法忽略了背景信息對(duì)目標(biāo)的影響,目標(biāo)與背景相似時(shí)容易造成誤跟蹤,判別式跟蹤算法[2-5],將目標(biāo)與背景的信息都進(jìn)行了利用,其目的是尋找能夠?qū)⒛繕?biāo)和背景分離開(kāi)的最優(yōu)化決策邊界,從而將其轉(zhuǎn)化為二分類(lèi)問(wèn)題。

      時(shí)空上下文目標(biāo)跟蹤算法(Spatio Temporal Context, STC)對(duì)目標(biāo)位置的確定使用了時(shí)間和空間的局部相關(guān)性提供輔助信息,又稱上下文關(guān)系。該算法由Zhang[6]等人提出。這種算法通過(guò)計(jì)算目標(biāo)及其周?chē)鷧^(qū)域的低階特征進(jìn)行統(tǒng)計(jì)建模,并利用置信圖進(jìn)行最大似然估計(jì),預(yù)測(cè)出目標(biāo)位置。算法本身計(jì)算量較小,且在應(yīng)對(duì)短時(shí)部分遮擋時(shí)具有較高的穩(wěn)定性。但是該算法仍然存在以下幾個(gè)問(wèn)題:①STC僅僅利用了圖像的低階特征,當(dāng)目標(biāo)與背景比較相似的時(shí)候,容易導(dǎo)致跟蹤失??;②不具備檢測(cè)能力,一旦跟蹤框漂移出去,目標(biāo)無(wú)法找回;③該算法在應(yīng)對(duì)部分遮擋以及短時(shí)遮擋時(shí)表現(xiàn)較好,一旦遮擋時(shí)間拉長(zhǎng),跟蹤效果就會(huì)大打折扣。

      針對(duì)上述問(wèn)題,本文將卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)融入時(shí)空上下文跟蹤框架下,形成一種新的目標(biāo)跟蹤算法。將時(shí)空上下文算法作為跟蹤器,將卷積神經(jīng)網(wǎng)絡(luò)作為檢測(cè)器,提高了目標(biāo)經(jīng)過(guò)相似背景時(shí)的跟蹤魯棒性。對(duì)于前景信息對(duì)目標(biāo)造成嚴(yán)重或長(zhǎng)時(shí)遮擋的情況,啟用Kalman濾波機(jī)制對(duì)目標(biāo)的速度,加速度以及位置信息進(jìn)行預(yù)估,并在預(yù)測(cè)區(qū)域利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行檢測(cè),從而使得目標(biāo)在這兩種情況下的跟蹤穩(wěn)定性得到提升。此外,基于目標(biāo)當(dāng)前的置信圖對(duì)時(shí)空上下文模型進(jìn)行更新同時(shí)對(duì)卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行微調(diào),而更新速率由目標(biāo)當(dāng)前位置前兩幀位置置信圖的梯度決定,避免了目標(biāo)被遮擋時(shí)模型進(jìn)行錯(cuò)誤的更新。

      1 時(shí)空上下文及卷積神經(jīng)網(wǎng)絡(luò)算法

      時(shí)空上下文算法是基于Bayes算法框架,對(duì)目標(biāo)和其周?chē)鷧^(qū)域建立時(shí)空對(duì)應(yīng)關(guān)系,利用圖像的低階特征進(jìn)行統(tǒng)計(jì)建模,通過(guò)對(duì)置信圖的計(jì)算,找到似然概率最大的區(qū)域,即為下一幀跟蹤結(jié)果位置。

      假定當(dāng)前幀中,目標(biāo)的位置已知,設(shè)為*,則當(dāng)前幀的圖像特征可以表示為:

      式中:()表示點(diǎn)位置的圖像灰度;(*)表示目標(biāo)在當(dāng)前幀中的局部區(qū)域,然后文獻(xiàn)[7]給出了目標(biāo)的置信度表示:

      式中:()為目標(biāo)的置信圖;表示尺度參數(shù);表示形狀參數(shù)。

      式中:()表示圖像的灰度特征;表示權(quán)重函數(shù);-*表示點(diǎn)與目標(biāo)位置*的距離關(guān)系。從幀速與目標(biāo)移動(dòng)速度對(duì)比來(lái)看,通常情況下與上一幀目標(biāo)位置距離越近的點(diǎn)對(duì)目標(biāo)越重要,因此要賦予更大的權(quán)重。對(duì)權(quán)重函數(shù)的定義為:

      式中:是尺度參數(shù);而是歸一化參數(shù)。

      目標(biāo)置信圖()的定義式為:

      式中:表示形狀參數(shù);表示尺度參數(shù);表示歸一化系數(shù),實(shí)驗(yàn)表明,=1時(shí)跟蹤效果較好。結(jié)合上述各公式可以將(2)式改寫(xiě)為:

      式中:()表示處的像素值,?代表卷積運(yùn)算,由于時(shí)域的卷積可以轉(zhuǎn)化為頻域的乘法運(yùn)算,提高計(jì)算速度,因此通常利用快速傅里葉將上式轉(zhuǎn)換到頻域:

      進(jìn)而可以學(xué)習(xí)出空間上下文模型:

      基于幀目標(biāo)位置找出+1幀的局部預(yù)估區(qū)域:

      其中對(duì)c+1()的定義為:

      通過(guò)計(jì)算出+1幀中最大似然概率在置信圖中的位置,完成當(dāng)前幀的跟蹤。

      深度學(xué)習(xí)在圖像識(shí)別領(lǐng)域已經(jīng)取得了顯著的效果,而CNN又是深度學(xué)習(xí)的一個(gè)重要分支,它在計(jì)算機(jī)視覺(jué)的各個(gè)研究方向上都是一個(gè)研究熱點(diǎn)[8]。CNN由卷積層和全連接層組成,可以通過(guò)權(quán)值共享,降采樣和多卷積核的方式降低參數(shù)數(shù)目并提高識(shí)別效果,在學(xué)習(xí)目標(biāo)高維特征方面具有突出優(yōu)勢(shì)。而本文的CNN結(jié)構(gòu)輸入設(shè)計(jì)為區(qū)域圖像,使得目標(biāo)的檢出效率和跟蹤的魯棒性都有所提高。

      CNN是一個(gè)多層次模型。每一層都可以通過(guò)多種特征處理方式生成多個(gè)特征面,而特征面又包含多個(gè)神經(jīng)元。CNN提取特征的部分分為降采樣層(S層)和特征提取層(C層)兩種,降采樣層跟在特征提取層之后,通常在訓(xùn)練網(wǎng)絡(luò)時(shí)特征提取層的數(shù)量采用兩層及以上的結(jié)構(gòu),這樣會(huì)使訓(xùn)練出來(lái)的網(wǎng)絡(luò)對(duì)變形有較高的容忍能力。考慮到算法本身要兼顧跟蹤的實(shí)時(shí)性和檢測(cè)的準(zhǔn)確性,本文特征提取層數(shù)量設(shè)置為兩層然后通過(guò)全連接層和輸出層輸出結(jié)果如圖1所示。

      2 本文算法

      本文將CNN算法融入STC框架,同時(shí)引入了Kalman濾波進(jìn)行強(qiáng)遮擋情況下的位置預(yù)測(cè)。對(duì)于檢測(cè)模塊,將STC算法預(yù)測(cè)的目標(biāo)及其時(shí)空上下文區(qū)域作為卷積神經(jīng)網(wǎng)絡(luò)識(shí)別的初始區(qū)域,避免了卷積神經(jīng)網(wǎng)絡(luò)耗時(shí)的全圖搜索同時(shí)彌補(bǔ)STC算法不能跟蹤重現(xiàn)目標(biāo)的缺陷,當(dāng)目標(biāo)被嚴(yán)重遮擋時(shí),啟用Kalman濾波算法預(yù)測(cè)目標(biāo)相關(guān)信息,并利用卷積神經(jīng)網(wǎng)絡(luò)算法搜索該區(qū)域,將搜索結(jié)果作為最終位置輸出。本文算法框架如圖2所示。

      2.1 網(wǎng)絡(luò)建模與訓(xùn)練

      卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)勢(shì)體現(xiàn)在其海量的樣本數(shù)據(jù)上,而訓(xùn)練過(guò)程相對(duì)耗時(shí),因此在跟蹤前需要進(jìn)行離線訓(xùn)練,本文選用了城市SUV和多車(chē)交叉行駛兩個(gè)視頻進(jìn)行仿真實(shí)驗(yàn),針對(duì)兩個(gè)實(shí)驗(yàn)視頻分別進(jìn)行了兩次模型訓(xùn)練,輸入圖片分為正負(fù)樣本,正樣本為小汽車(chē)目標(biāo),負(fù)樣本為背景圖片,針對(duì)第一種實(shí)驗(yàn)視頻的兩類(lèi)圖片大小經(jīng)處理后都為18pixel×27pixel,針對(duì)第二個(gè)視頻的兩類(lèi)圖片大小經(jīng)處理后都為10pixel×10pixel。圖片采集來(lái)源于UIUC Image Database,正負(fù)樣本總數(shù)量為20183張。以線下訓(xùn)練的方式得到了小汽車(chē)的廣義化特征。

      在第一層卷積操作中,權(quán)重矩陣設(shè)為1,其中有6種卷積核,也即6個(gè)特征映射矩陣:

      1=[11,21,3141,51,61],"1?3×11×11(11)

      每個(gè)卷積核對(duì)應(yīng)的參數(shù)在第一層卷積操作中的表示為1,核的通道數(shù)為3,尺寸為5×5。下采樣間隔設(shè)為1。本文激活函數(shù)采用常用的sigmoid函數(shù),公式如下所示:

      第二層卷積操作公式不再贅述,核通道數(shù)仍為3,尺寸變?yōu)?×3。CNN特征提取部分之后為全連接層,最后是輸出層,用以輸出數(shù)據(jù)的最終特征,公式如下:

      4=43(13)

      本文選用歐氏距離作為目標(biāo)函數(shù)求取正負(fù)樣本間的相關(guān)程度,公式如下:

      學(xué)習(xí)到的權(quán)重可以映射到目標(biāo)的參考區(qū)域。

      2.2 目標(biāo)運(yùn)動(dòng)跟蹤

      目標(biāo)的運(yùn)動(dòng)跟蹤采用STC跟蹤器與CNN相結(jié)合的方式進(jìn)行,在視頻跟蹤的大部分時(shí)間里STC算法表現(xiàn)比較穩(wěn)定,尤其是應(yīng)對(duì)前景信息短時(shí)或部分遮擋目標(biāo)時(shí)有較好的適應(yīng)性。但是當(dāng)目標(biāo)在幀間運(yùn)動(dòng)距離過(guò)大、遮擋嚴(yán)重或者遮擋時(shí)間過(guò)長(zhǎng)時(shí),容易導(dǎo)致跟蹤失敗,因此本文引入Kalman濾波進(jìn)行位置預(yù)測(cè)[9],目標(biāo)的中心坐標(biāo)位置(,)是目標(biāo)跟蹤中狀態(tài)方程的重要參量,狀態(tài)方程為:

      式中:n表示系統(tǒng)噪聲;a-1表示-1時(shí)刻的加速度;v-1表示-1時(shí)刻的速度;x表示時(shí)刻的狀態(tài)。

      跟蹤正常時(shí),將上式得出的值視為真值與前幾次的位置信息保留,用以計(jì)算上一幀的速度v-1和加速度a-1,狀態(tài)和觀測(cè)方程可寫(xiě)為如下所示:

      式中:表示狀態(tài)轉(zhuǎn)移矩陣;l表示觀測(cè)噪聲;表示待估參數(shù)。

      Kalman濾波機(jī)制是在目標(biāo)被嚴(yán)重遮擋或者出現(xiàn)其它問(wèn)題時(shí)啟用。利用上一幀位置和速度信息預(yù)估出當(dāng)前幀的位置,在該位置下利用CNN搜索,本文搜索范圍默認(rèn)為局部上下文區(qū)域的大小。

      2.3 算法實(shí)現(xiàn)

      本文算法實(shí)現(xiàn)具體流程如下:

      1)創(chuàng)建正負(fù)樣本訓(xùn)練數(shù)據(jù)集;

      2)創(chuàng)建CNN模型;

      3)訓(xùn)練CNN;

      4)輸入視頻幀;

      5)初始化目標(biāo)跟蹤框;

      6)STC算法跟蹤,給出跟蹤結(jié)果(包括目標(biāo)位置、空間上下文區(qū)域和置信圖);

      7)CNN算法在給出的空間上下文區(qū)域內(nèi)進(jìn)行搜索識(shí)別,給出目標(biāo)結(jié)果置信圖;

      8)使用Kalman濾波預(yù)測(cè)出目標(biāo)的速度、加速度和位置信息并將值保留(若STC和CNN沒(méi)有檢測(cè)到目標(biāo)則不對(duì)模型進(jìn)行更新);

      9)判斷:當(dāng)兩種算法都對(duì)目標(biāo)做出了標(biāo)定時(shí),轉(zhuǎn)入步驟10);若STC或CNN其中一種算法預(yù)估出目標(biāo)所在位置,轉(zhuǎn)入步驟11);若兩種算法都沒(méi)有捕獲目標(biāo),則用上一步Kalman算法得到的速度和加速度預(yù)估出位置,對(duì)置信度進(jìn)行計(jì)算并與閾值對(duì)比,小于閾值時(shí)認(rèn)定當(dāng)前幀中無(wú)目標(biāo),保留速度、加速度和當(dāng)前位置信息,并在下一幀開(kāi)始時(shí),直接啟用Kalman濾波進(jìn)行位置預(yù)測(cè),然后將當(dāng)前結(jié)果視為最終位置,轉(zhuǎn)入步驟12);

      10)用STC和CNN兩種算法所取得的置信度作為衡量標(biāo)準(zhǔn),篩選出值高的位置作為備選結(jié)果;

      11)求得目標(biāo)最終位置,同時(shí)刷新步驟8中的位置信息;

      12)模型更新,輸入下一幀。

      3 實(shí)驗(yàn)結(jié)果分析

      為測(cè)試本文所提算法的性能,將本文算法與目前主流的幾個(gè)算法進(jìn)行實(shí)驗(yàn)對(duì)比分析,如圖3、圖4所示,深灰色框?yàn)镸S[10],灰色框?yàn)門(mén)LD[5],淺灰色框?yàn)镃T[11],黑色框?yàn)楸疚乃惴āS布h(huán)境:CPU Intel Core i5 2.60GHz,GPU NVIDIA GeForce GTX950M,安裝內(nèi)存4.00GB,系統(tǒng)類(lèi)型64位操作系統(tǒng)。軟件平臺(tái):MATLAB R2010b。本文使用兩個(gè)標(biāo)準(zhǔn)實(shí)驗(yàn)測(cè)試視頻分別對(duì)本文算法和主流算法進(jìn)行比對(duì)。

      第一組實(shí)驗(yàn)選用的是320×240城市SUV視頻。如圖3和圖4所示,第34幀的時(shí)候進(jìn)入遮擋,第46幀時(shí),幾種算法都還保持著一定的穩(wěn)定性,這是由于兩種算法在應(yīng)對(duì)短時(shí)局部遮擋時(shí)表現(xiàn)都比較好,然而46幀~71幀都是遮擋的過(guò)程,STC算法在應(yīng)對(duì)長(zhǎng)時(shí)嚴(yán)重遮擋時(shí)跟蹤性能明顯下降,在77幀經(jīng)過(guò)遮擋區(qū)域后時(shí),主流算法的跟蹤框都出現(xiàn)比較嚴(yán)重的偏移。120幀時(shí),出現(xiàn)與車(chē)相近的背景信息,主流算法看跟蹤框出現(xiàn)明顯偏移,而由于本文算法此時(shí)發(fā)揮了CNN的優(yōu)勢(shì),跟蹤比較穩(wěn)定,161幀時(shí),主流算法跟蹤框基本無(wú)法找回。

      第二組實(shí)驗(yàn)選用的是352×288行人視頻。如圖4所示,視頻在10幀時(shí)行人開(kāi)始出現(xiàn)交叉,47幀左右出現(xiàn)遮擋,此時(shí)TLD和MS跟蹤框漂移出去,146幀時(shí)目標(biāo)附近出現(xiàn)相似的背景,STC算法跟蹤框在這種情況下,出現(xiàn)了誤跟,導(dǎo)致目標(biāo)跟蹤失敗,而本文算法由于利用了CNN算法的優(yōu)勢(shì),因此對(duì)目標(biāo)的識(shí)別穩(wěn)定性較好,在遇到相似背景時(shí)能夠保持較高的分辨能力。

      圖3 實(shí)驗(yàn)視頻一:算法實(shí)驗(yàn)序列截取結(jié)果

      圖4 實(shí)驗(yàn)視頻二:算法實(shí)驗(yàn)序列截取結(jié)果

      表1給出了包括本文算法在內(nèi)的4種跟蹤算法的跟蹤成功率對(duì)比,表2給出了4種算法的平均幀率對(duì)比。從表中可以看出,雖然平均幀率這一指標(biāo)上略低,但是本文算法在跟蹤成功率上高于主流算法,這是因?yàn)楸疚乃惴ㄒ肓薈NN和Kalman濾波,增強(qiáng)了跟蹤的魯棒性,但同時(shí)也提高了算法的復(fù)雜度和計(jì)算量,因此平均幀率與主流算法相比有所降低,不過(guò)基本滿足實(shí)時(shí)性要求。

      表1 成功率對(duì)比評(píng)價(jià)表

      表2 平均幀率對(duì)比評(píng)價(jià)表

      4 總結(jié)

      本文所提一種CNN與STC相融合的目標(biāo)跟蹤算法。將CNN算法嵌入在STC算法的框架中,實(shí)現(xiàn)了目標(biāo)的穩(wěn)定跟蹤,并且穩(wěn)定性得到顯著加強(qiáng),并且本文算法引入了Kalman濾波預(yù)測(cè)應(yīng)對(duì)長(zhǎng)時(shí)嚴(yán)重遮擋,彌補(bǔ)了STC算法的遇到嚴(yán)重遮擋后跟蹤框漂移不能檢測(cè)找回的不足。經(jīng)實(shí)驗(yàn)驗(yàn)證,本文算法很好地融合了STC和CNN的優(yōu)勢(shì),魯棒性強(qiáng),并且在遭遇嚴(yán)重遮擋后目標(biāo)重新找回時(shí)情況表現(xiàn)良好。而算法的實(shí)時(shí)性上較STC算法相比有所下降,但是20.9f/s的平均跟蹤速率基本可以滿足實(shí)時(shí)性的要求。

      [1] 呂枘蓬, 蔡肖芋, 董亮, 等. 基于TLD框架的上下文目標(biāo)跟蹤算法[J]. 電視技術(shù), 2015, 39 (9): 6-9.

      LV N P, CAI X Y, DONG L, et al. The context of the target tracking algorithm based on TLD framework[J]., 2015, 39(9): 6-9.

      [2] WU Y, LIN J, YANG M H. Online object tracking: A benchmark[C]//, 2013: 2411-2418.

      [3] Grabner H, Leistner C, Bischof H. Semi-supervised on-line boosting for robust tracking[C]//, 2008, 5302: 234-247.

      [4] Babenko B, Yang M H, Belongie S. Robust object tracking with online multiple instance learning[J]., 2011, 33(8): 1619-1632.

      [5] Kalal Z, Mikolajczyk K, Matas J. Tracking-learning-detection[J]., 2012, 34(7): 1409-1422.

      [6] ZHANG K H, ZHANG L, LIU Q S, et al. Fast visual tracking via dense spatio-temporal context learning[C]//, 2014, 8693: 127-141.

      [7] 劉威, 趙文杰, 李成. 時(shí)空上下文學(xué)習(xí)長(zhǎng)時(shí)目標(biāo)跟蹤[J]. 光學(xué)學(xué)報(bào), 2016(1): 179-186.

      LIU W, ZHAO W J, LI C. Long-term target tracking based on spatial and temporal context learning[J]., 2016(1): 179-186.

      [8] Krizhevsky A, Sutskever I, Hinton G E. Image net classification with deep convolutional neural networks[J]., 2012, 25(2): 2012.

      [9] 王江濤, 楊靜宇. 遮擋情況下基于Kalman均值偏移的目標(biāo)跟蹤[J]. 系統(tǒng)仿真學(xué)報(bào), 2007, 19(18):4216-4220.

      WANG J T, YANG J Y. Target tracking based on Kalman mean shift in occlusion[J]., 2007, 19(18): 4216-4220.

      [10] Collins R T. Mean-shift blob tracking through scale space[C]//on, 2003, 2: 234-240..

      [11] ZHANG K, ZHANG L, YANG M H. Real-time compressive tracking[C]//, 2012: 864-877.

      [12] Everingham M, Gool L V, Williams C K I, et al. The Pascal, visual object classes (VOC) challenge[J]., 2010, 88(2): 303-338.

      A Target Tracking Algorithm Combining Convolution Neural Network with Spatio Temporal Context

      MIN Zhaoyang,ZHAO Wenjie

      (,,130022,)

      In this paper, an algorithm of the target tracking combining convolution neural network with the temporal and spatial context is proposed. In the framework of the context-based algorithm, the convolutional neural network algorithm is integrated to improve the stability and robustness of the tracking system. The Kalman filter is introduced to deal with the problem that the target is obscured. In addition, the whole tracking system adopts a coarse-to-fine target location method, and the target localization is achieved by the temporal and spatial context algorithm, and the target location is accurately located by the convolution neural network. Experimental results show that the proposed algorithm is stable and robust for real-time performance.

      target tracking,spatio temporal context,convolution neural network

      TP391

      A

      1001-8891(2017)08-0740-06

      2016-12-29;

      2017-02-21.

      閔召陽(yáng)(1992-),碩士研究生。研究方向:模式識(shí)別與智能系統(tǒng)。E-mail:361109520@qq.com。

      趙文杰(1968-),博士。研究方向:光學(xué)成像自動(dòng)目標(biāo)識(shí)別。

      猜你喜歡
      置信時(shí)空濾波
      跨越時(shí)空的相遇
      急診住院醫(yī)師置信職業(yè)行為指標(biāo)構(gòu)建及應(yīng)用初探
      基于置信職業(yè)行為的兒科住院醫(yī)師形成性評(píng)價(jià)體系的構(gòu)建探索
      基于模糊深度置信網(wǎng)絡(luò)的陶瓷梭式窯PID優(yōu)化控制
      鏡中的時(shí)空穿梭
      玩一次時(shí)空大“穿越”
      時(shí)空之門(mén)
      基于CUDA和深度置信網(wǎng)絡(luò)的手寫(xiě)字符識(shí)別
      基于CUDA和深度置信網(wǎng)絡(luò)的手寫(xiě)字符識(shí)別
      RTS平滑濾波在事后姿態(tài)確定中的應(yīng)用
      德惠市| 丹江口市| 仁怀市| 礼泉县| 巴南区| 南昌县| 饶平县| 年辖:市辖区| 梅州市| 虹口区| 桃园市| 团风县| 额济纳旗| 漯河市| 斗六市| 浮梁县| 五原县| 来凤县| 金昌市| 绍兴县| 开江县| 二连浩特市| 元谋县| 泗洪县| 文昌市| 页游| 秦皇岛市| 德化县| 陆川县| 巴马| 旅游| 平原县| 石门县| 谢通门县| 泽州县| 牙克石市| 襄城县| 六盘水市| 盐源县| 吉木乃县| 西华县|