• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于深度學(xué)習(xí)的目標(biāo)跟蹤算法研究現(xiàn)狀及發(fā)展趨勢(shì)

      2021-11-03 12:51:01張瑩杰
      現(xiàn)代信息科技 2021年8期
      關(guān)鍵詞:目標(biāo)跟蹤深度學(xué)習(xí)

      DOI:10.19850/j.cnki.2096-4706.2021.08.024

      摘? 要:近十年來(lái),深度學(xué)習(xí)由于其優(yōu)越的性能,已經(jīng)逐漸應(yīng)用于各個(gè)領(lǐng)域。在目標(biāo)跟蹤領(lǐng)域,基于深度學(xué)習(xí)的方法也取得了巨大的成功。文章主要介紹基于深度學(xué)習(xí)的目標(biāo)跟蹤算法研究現(xiàn)狀及發(fā)展趨勢(shì)。首先,介紹了視覺(jué)目標(biāo)跟蹤傳統(tǒng)算法。然后,對(duì)基于深度學(xué)習(xí)的目標(biāo)跟蹤算法進(jìn)行分類(lèi),并進(jìn)行問(wèn)題分析。最后,對(duì)基于深度學(xué)習(xí)的目標(biāo)跟蹤算法的發(fā)展趨勢(shì)進(jìn)行預(yù)測(cè)。

      關(guān)鍵詞:目標(biāo)跟蹤;深度學(xué)習(xí);孿生網(wǎng)絡(luò);相關(guān)濾波

      中圖分類(lèi)號(hào):TP391.41 ? ? ?文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2096-4706(2021)08-0082-04

      Research Status and Development Trend of Target Tracking Algorithm Based on Deep Learning

      ZHANG Yingjie

      (Zhanjiang University of Science and Technology,Zhanjiang? 524094,China)

      Abstract:In recent ten years,deep learning has been gradually applied in various fields because of its superior performance. In the field of target tracking,the method based on deep learning has also achieved great success. This paper mainly introduces the research status and development trend of target tracking algorithm based on deep learning. Firstly,the traditional algorithms for visual target tracking are introduced. Then,the target tracking algorithms based on deep learning are classified and the problems are analyzed. Finally,the development trend of target tracking algorithm based on deep learning is predicted.

      Keywords:target tracking;deep learning;siamese network;correlation filtering

      0? 引? 言

      視覺(jué)目標(biāo)跟蹤在目標(biāo)檢測(cè)算法檢測(cè)到目標(biāo)以后,對(duì)目標(biāo)進(jìn)行持續(xù)跟蹤。視覺(jué)目標(biāo)跟蹤在現(xiàn)實(shí)世界中有諸多應(yīng)用,涉及智能交通系統(tǒng)[1],先進(jìn)輔助駕駛[2],導(dǎo)彈制導(dǎo)[3],醫(yī)療診斷[4],視頻監(jiān)控[5]等領(lǐng)域。

      主流的目標(biāo)跟蹤系統(tǒng)結(jié)構(gòu)如圖1所示,從整體上分為特征提取、外觀(guān)模型、目標(biāo)搜索、模型更新4個(gè)部分。特征提取主要利用圖像處理技術(shù)提取圖像的一些特征信息。目標(biāo)搜索主要根據(jù)目標(biāo)的信息,提供一系列候選目標(biāo)。外觀(guān)模型根據(jù)特征提取和目標(biāo)搜索提供的候選來(lái)預(yù)測(cè)目標(biāo)的狀態(tài)。模型更新可以讓外觀(guān)模型適應(yīng)目標(biāo)和背景變化。

      自上世紀(jì)開(kāi)始,很多經(jīng)典的視覺(jué)目標(biāo)跟蹤算法被提出。這些算法大多采用一些人工設(shè)計(jì)的特征,比如光流法[6]、粒子濾波法[7]、均值漂移濾波方法[8,9]等。如光流法是一種比較經(jīng)典的目標(biāo)跟蹤算法,它利用兩幀之間的差別來(lái)對(duì)目標(biāo)進(jìn)行跟蹤,能夠很好地利用時(shí)間序列的信息,現(xiàn)在很多優(yōu)秀的目標(biāo)跟蹤算法,都是借鑒光流法的思想。粒子濾波法通過(guò)在上一幀預(yù)測(cè)目標(biāo)位置周?chē)隽W?,并?jì)算每個(gè)粒子對(duì)目標(biāo)的重要性,綜合判斷真實(shí)目標(biāo)所在的位置。然而,傳統(tǒng)的目標(biāo)跟蹤算法基本上需要專(zhuān)業(yè)人員手工去設(shè)置特征,這不僅需要專(zhuān)業(yè)知識(shí),也限制了算法的適用性。另外,由于目標(biāo)經(jīng)常受到光照變化、尺度變化、嚴(yán)重變形、背景雜波和嚴(yán)重遮擋等因素的影響,視覺(jué)目標(biāo)跟蹤仍然是一項(xiàng)具有挑戰(zhàn)性的任務(wù)。

      近年來(lái),深度學(xué)習(xí)由于其優(yōu)越的性能,已經(jīng)逐漸應(yīng)用于各個(gè)領(lǐng)域[10,11]。一些研究人員將深度學(xué)習(xí)引入目標(biāo)跟蹤[12,13]。本文主要介紹基于深度學(xué)習(xí)的目標(biāo)跟蹤算法研究現(xiàn)狀及發(fā)展趨勢(shì)。首先,我們介紹了視覺(jué)目標(biāo)跟蹤傳統(tǒng)算法。然后,對(duì)基于深度學(xué)習(xí)的目標(biāo)跟蹤算法進(jìn)行分類(lèi),并進(jìn)行問(wèn)題分析。最后,我們對(duì)基于深度學(xué)習(xí)的目標(biāo)跟蹤算法未來(lái)的發(fā)展趨勢(shì)進(jìn)行預(yù)測(cè)。

      1? 基于深度學(xué)習(xí)的目標(biāo)跟蹤算法分類(lèi)

      基于深度學(xué)習(xí)的目標(biāo)跟蹤算法大致可以分為兩類(lèi)。第一類(lèi)的主要思想是將深度學(xué)習(xí)作為特征提取器,與傳統(tǒng)目標(biāo)跟蹤算法相結(jié)合[11-13]。該方法可以大大提高跟蹤精度,但實(shí)時(shí)性較差。第二類(lèi)是直接構(gòu)建一個(gè)用于目標(biāo)跟蹤的深度學(xué)習(xí)框架[14,15]。

      1.1? 深度學(xué)習(xí)與傳統(tǒng)目標(biāo)跟蹤算法結(jié)合框架

      基于相關(guān)濾波器的目標(biāo)跟蹤方法在跟蹤精度和時(shí)間效率方面表現(xiàn)良好。Bolme等人第一次提出用相關(guān)的思想解決目標(biāo)跟蹤的問(wèn)題[16],利用人工設(shè)置的特征對(duì)目標(biāo)進(jìn)行描述,并在搜索區(qū)域上尋找與目標(biāo)特征最相似目標(biāo),以最大響應(yīng)值作為最終的預(yù)測(cè)目標(biāo)位置。并且,在進(jìn)行相關(guān)計(jì)算時(shí),利用快速傅里葉變換,解決了相關(guān)計(jì)算比較慢的問(wèn)題,具有很強(qiáng)的實(shí)際應(yīng)用價(jià)值。Henriques等人引入了循環(huán)矩陣來(lái)增加正樣本的數(shù)量[17]。Danelljan等人在CSK的基礎(chǔ)上添加顏色信息進(jìn)行訓(xùn)練[18]。Danelljan等人(DSST)將尺度自適應(yīng)引入到相關(guān)濾波目標(biāo)跟蹤中[19]。Henriques等人中,將單通道特征擴(kuò)展為多通道方向梯度直方圖特征,并利用圖像的梯度信息來(lái)提高算法的跟蹤性能[20]。Zhu等人引入了一種新的特征MC-HOG,并結(jié)合相關(guān)濾波框架,在一定程度上提高了跟蹤器的性能[21]。

      Ma等人將深度特征與相關(guān)濾波結(jié)合,在KCF的基礎(chǔ)上,用深度特征替代HOG特征,使用預(yù)訓(xùn)練VGG-19網(wǎng)絡(luò)的conv3-4、conv4-4、conv5-4,分別得到3張響應(yīng)圖,融合響應(yīng)圖得到最后的預(yù)測(cè)目標(biāo)位置,這種融合方法不僅能夠提高跟蹤精度,并且能更好地適應(yīng)不同的目標(biāo)大小[11]。Danelljan等人利用深度神經(jīng)網(wǎng)絡(luò)的各層特征聯(lián)合來(lái)表示所要跟蹤的目標(biāo),并在各個(gè)層次自適應(yīng)學(xué)習(xí)相關(guān)濾波,取得了良好的性能[12]。Danelljan等人提出一種新的融合方法,它能夠很好地融合不同分辨率的特征圖像[13]。

      1.2? 基于深度學(xué)習(xí)的目標(biāo)跟蹤框架

      目前,基于深度學(xué)習(xí)的目標(biāo)跟蹤算法基本上是基于孿生網(wǎng)絡(luò)框架的?;趯\生網(wǎng)絡(luò)的目標(biāo)跟蹤算法能夠在精度和速度之間達(dá)到極好的平衡[14,15]。Bertinetto等人首次將孿生網(wǎng)絡(luò)應(yīng)用于目標(biāo)跟蹤領(lǐng)域,首先,分別提取模板和搜索區(qū)域的特征,然后,將模板和搜索區(qū)域在特征空間進(jìn)行卷積操作,選擇最大響應(yīng)的位置作為預(yù)測(cè)的目標(biāo)位置[14]。在Bertinetto等人工作的基礎(chǔ)上,研究學(xué)者提出了許多改進(jìn)的跟蹤方法。Guo等人提出了動(dòng)態(tài)孿生網(wǎng)絡(luò),通過(guò)一個(gè)快速的變換學(xué)習(xí)模型,可以有效地在線(xiàn)學(xué)習(xí)目標(biāo)外觀(guān)變化和背景抑制[22]。He等人將語(yǔ)義特征引入到SiamFC框架中,互補(bǔ)的語(yǔ)義特征和外觀(guān)特征提高了目標(biāo)跟蹤的準(zhǔn)確性[23]。

      為了提高跟蹤精度,受目標(biāo)檢測(cè)候選區(qū)域生成思想的影響,SiamRPN算法被提出[24],通過(guò)對(duì)候選區(qū)域進(jìn)行細(xì)化,可以得到更精確的邊界框。然而,SiamRPN將語(yǔ)義背景視為干擾源,當(dāng)有語(yǔ)義的物體是背景時(shí),其性能無(wú)法得到保證。DaSiamRPN在訓(xùn)練階段加入困難負(fù)樣本,提高了跟蹤器的分辨力,得到了更為穩(wěn)健的跟蹤結(jié)果[25]。SiamRPN++將ResNet網(wǎng)絡(luò)引入基于孿生網(wǎng)絡(luò)的視覺(jué)跟蹤器,取得了更好的性能[26]。

      2? 基于深度學(xué)習(xí)的目標(biāo)跟蹤算法所存在的問(wèn)題

      目前,雖然基于深度學(xué)習(xí)的目標(biāo)跟蹤算法具有良好的跟蹤性能。然而,由于深度學(xué)習(xí)技術(shù)特性及目標(biāo)跟蹤的實(shí)際應(yīng)用特點(diǎn),基于深度學(xué)習(xí)的目標(biāo)跟蹤算法還存在以下這些問(wèn)題。

      數(shù)據(jù)標(biāo)注。當(dāng)前基于深度學(xué)習(xí)的目標(biāo)跟蹤算法基本上都是監(jiān)督式學(xué)習(xí),需要大量的已標(biāo)注數(shù)據(jù),這需要花費(fèi)大量的人力去標(biāo)注數(shù)據(jù),隨著數(shù)據(jù)量的增加,完全標(biāo)注數(shù)據(jù)的獲取變得越來(lái)越困難。常用的目標(biāo)跟蹤數(shù)據(jù)集如表1所示,這些數(shù)據(jù)集總幀數(shù)最少的有5萬(wàn)多張圖片,最多的有1 000多萬(wàn)張圖片,這些都需要耗費(fèi)大量的人力去標(biāo)注。

      目標(biāo)模型在線(xiàn)更新。在目標(biāo)跟蹤過(guò)程中,被跟蹤目標(biāo)將不可避免的發(fā)生形狀變化、光照條件變化、尺度變化等情況。如果目標(biāo)模型不在線(xiàn)更新,將很難適應(yīng)跟蹤目標(biāo)的這些變化,從而導(dǎo)致跟蹤失敗,如基于孿生網(wǎng)絡(luò)的目標(biāo)跟蹤算法,由于缺乏模型更新,容易向與目標(biāo)相似區(qū)域漂移,并且當(dāng)目標(biāo)外觀(guān)發(fā)生較大變化時(shí),會(huì)造成目標(biāo)候選框和目標(biāo)模型間出現(xiàn)較大差異,從而導(dǎo)致跟蹤失敗。因此,如果目標(biāo)跟蹤算法的模型不在線(xiàn)更新,很難適應(yīng)復(fù)雜的場(chǎng)景。而而如果目標(biāo)模型在線(xiàn)更新,由于觀(guān)測(cè)的不確定性,可能導(dǎo)致模型被污染。如基于相關(guān)濾波的目標(biāo)跟蹤算法,這類(lèi)直接在線(xiàn)更新目標(biāo)模型的目標(biāo)跟蹤算法,在目標(biāo)跟蹤中是非常冒險(xiǎn)的,尤其是對(duì)于長(zhǎng)時(shí)目標(biāo)跟蹤。表2為主流目標(biāo)跟蹤算法在目標(biāo)跟蹤數(shù)據(jù)集UAV123的跟蹤結(jié)果。其中,PrDiMP50[34]、DiMP50[35]、ATOM[36]均在線(xiàn)更新目標(biāo)模型,SiamRPN++[26]、SiamRPN[24]、SiamBAN[37]、SiamCAR[38]均不在線(xiàn)更新目標(biāo)模型,從表2可以看出,在線(xiàn)更新目標(biāo)模型算法的AUC遠(yuǎn)高于不在線(xiàn)更新目標(biāo)模型算法。

      目標(biāo)丟失判別?;谏疃葘W(xué)習(xí)的目標(biāo)跟蹤方法通常是利用跟蹤器的輸出來(lái)進(jìn)行自我判別。如置信度分?jǐn)?shù)、峰值旁瓣比、最大響應(yīng)值、異常跟蹤狀態(tài)與目標(biāo)相關(guān)性檢驗(yàn)等。然而,由于目標(biāo)跟蹤的復(fù)雜性,輸出并不總是能可靠地反映目標(biāo)跟蹤狀態(tài),尤其是當(dāng)跟蹤器經(jīng)歷了長(zhǎng)時(shí)的不確定和噪聲觀(guān)測(cè)時(shí)。因此,這些方法都不能?chē)?yán)格判斷目標(biāo)是否丟失,同時(shí)容易導(dǎo)致較高的誤檢率。

      受限的搜索窗口。當(dāng)前,主流的目標(biāo)跟蹤算法都是在上一幀的預(yù)測(cè)位置上,截取圖像的部分區(qū)域作為搜索區(qū)域,并在此搜索區(qū)域內(nèi)尋找目標(biāo)。當(dāng)相似目標(biāo)干擾、嚴(yán)重遮擋等因素導(dǎo)致目標(biāo)跟蹤暫時(shí)失敗時(shí),受限的搜索窗口很難再次找回目標(biāo),從而導(dǎo)致無(wú)法恢復(fù)的跟蹤失敗。圖2為SiamBAN算法在OTB100數(shù)據(jù)集Human3上的跟蹤結(jié)果,從結(jié)果可以看到,在第10幀時(shí),算法能夠很好地跟蹤目標(biāo);在第50幀,出現(xiàn)相似目標(biāo)干擾時(shí),算法漂移到相似目標(biāo)上,目標(biāo)跟蹤暫時(shí)失敗;在第80幀,相似目標(biāo)消失,但是,真正的目標(biāo)已經(jīng)不在搜索區(qū)域內(nèi),因此,導(dǎo)致無(wú)法恢復(fù)的跟蹤失敗。

      3? 結(jié)? 論

      基于深度學(xué)習(xí)的目標(biāo)跟蹤算法近年來(lái)表現(xiàn)出良好的性能,但是由于深度學(xué)習(xí)需要大量的已標(biāo)注數(shù)據(jù),這大大限制了深度學(xué)習(xí)在目標(biāo)跟蹤領(lǐng)域的實(shí)際應(yīng)用。另外,基于深度學(xué)習(xí)的目標(biāo)跟蹤算法并沒(méi)有完全解決目標(biāo)跟蹤領(lǐng)域存在的一些問(wèn)題,如嚴(yán)重遮擋和相似目標(biāo)干擾等問(wèn)題。隨著深度學(xué)習(xí)和目標(biāo)跟蹤技術(shù)的進(jìn)一步發(fā)展,基于深度學(xué)習(xí)的目標(biāo)跟蹤算法的性能將進(jìn)一步提升。本文對(duì)基于深度學(xué)習(xí)的目標(biāo)跟蹤算法的未來(lái)發(fā)展方向及展望,總結(jié)為:

      (1)無(wú)監(jiān)督或者弱監(jiān)督深度學(xué)習(xí)。當(dāng)前基于深度學(xué)習(xí)的目標(biāo)跟蹤算法基本上都是監(jiān)督式學(xué)習(xí),需要大量的已標(biāo)注數(shù)據(jù),這需要花費(fèi)大量的人力去標(biāo)注數(shù)據(jù),隨著數(shù)據(jù)量的增加,完全標(biāo)注數(shù)據(jù)的獲取變得越來(lái)越困難。這就需要將無(wú)監(jiān)督或者弱監(jiān)督深度學(xué)習(xí)技術(shù)應(yīng)用于目標(biāo)跟蹤領(lǐng)域,以解決數(shù)據(jù)標(biāo)注這一問(wèn)題。

      (2)模型在線(xiàn)更新。當(dāng)前,基于孿生網(wǎng)絡(luò)的目標(biāo)跟蹤算法由于缺乏模型更新,容易向與目標(biāo)相似區(qū)域漂移,并且當(dāng)目標(biāo)外觀(guān)發(fā)生較大變化時(shí),會(huì)造成目標(biāo)候選框和目標(biāo)模板間出現(xiàn)較大差異,從而導(dǎo)致跟蹤失敗。而目標(biāo)跟蹤的場(chǎng)景復(fù)雜、且目標(biāo)發(fā)生較大外觀(guān)變化可能性較大,基于孿生網(wǎng)絡(luò)的目標(biāo)跟蹤算法很難適應(yīng)復(fù)雜場(chǎng)景。而基于深度特征的相關(guān)濾波跟蹤算法在每一幀都進(jìn)行更新,在相似目標(biāo)干擾、完全遮擋等場(chǎng)景導(dǎo)致目標(biāo)跟蹤暫時(shí)失敗時(shí),模型可能被污染,從而導(dǎo)致無(wú)法恢復(fù)的跟蹤失敗。因此,模型在線(xiàn)更新會(huì)變得越來(lái)越重要。

      (3)目標(biāo)丟失判斷。目標(biāo)跟蹤場(chǎng)景復(fù)雜,在目標(biāo)跟蹤過(guò)程中,不可避免地會(huì)發(fā)生目標(biāo)丟失的情況。這就需要對(duì)目標(biāo)丟失進(jìn)行判斷,以調(diào)用重檢測(cè)器重新找回目標(biāo)。不準(zhǔn)確的目標(biāo)丟失判斷可能導(dǎo)致重檢測(cè)器錯(cuò)誤被啟動(dòng),因此,準(zhǔn)確判斷目標(biāo)丟失就變得非常關(guān)鍵。

      (4)搜索窗口。當(dāng)前,主流的目標(biāo)跟蹤算法都是在上一幀的預(yù)測(cè)位置上,截取圖像的部分區(qū)域作為搜索區(qū)域,并在此搜索區(qū)域內(nèi)尋找目標(biāo)。當(dāng)相似目標(biāo)干擾、嚴(yán)重遮擋等因素導(dǎo)致目標(biāo)跟蹤暫時(shí)失敗時(shí),受限的搜索窗口很難再次找回目標(biāo),從而導(dǎo)致無(wú)法恢復(fù)的跟蹤失敗。因此,如何選擇搜索窗口是目標(biāo)跟蹤領(lǐng)域一個(gè)重要問(wèn)題。

      參考文獻(xiàn):

      [1] 吳大偉.智慧交通中形變自適應(yīng)的目標(biāo)跟蹤算法研究 [J].山西建筑,2020,46(6):196-198.

      [2] 周俊靜,段建民,楊光祖.基于改進(jìn)的確定性目標(biāo)關(guān)聯(lián)的車(chē)輛跟蹤方法 [J].模式識(shí)別與人工智能,2014,27(1):89-95.

      [3] 呂梅柏,趙小鋒,劉廣哲.空中大機(jī)動(dòng)目標(biāo)跟蹤算法研究 [J].現(xiàn)代防御技術(shù),2018,46(2):45-50+172.

      [4] 呂福友.家用智能視頻中運(yùn)動(dòng)目標(biāo)的檢測(cè)與跟蹤 [J].通訊世界,2019,26(1):180-181.

      [5] 陳汐,韓譯鋒,閆云鳳,等.目標(biāo)物智能跟蹤與分割融合算法及其在變電站視頻監(jiān)控中的應(yīng)用 [J].中國(guó)電機(jī)工程學(xué)報(bào),2020,40(23):7578-7587.

      [6] SUN D Q,ROTH S,BLACK M J. Secrets of optical flow estimation and their principles [C]//2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition.San Francisco:IEEE,2010:2432-2439.

      [7] NUMMIARO K,KOLLER-MEIER E,GOOL L V. An adaptive color-based particle filter [J].Image and Vision Computing,2003,21(1):99-110.

      [8] COMANICIU D,MEER P. Mean shift:A robust approach toward feature space analysis [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2002,24(5):603-619.

      [9] MA C,HUANG J B,YANG X K,et al. Hierarchical convolutional features for visual tracking [C]//2015 IEEE International Conference on Computer Vision(ICCV).Santiago:IEEE,2015:3074-3082.

      [10] HE R,WU X,SUN Z N,et al. Wasserstein CNN:Learning Invariant Features for NIR-VIS Face Recognition [J].IEEE transactions on pattern analysis and machine intelligence,2019,41(7):1761-1773.

      [11] FU K,ZHAO Q J,GU I Y H. Refinet:A deep segmentation assisted refinement network for salient object detection [J].IEEE Transactions on Multimedia,2019,21(2):457-469.

      [12] DANELLJAN M,H?GER G,KHAN F S,et al. Convolutional features for correlation filter based visual tracking [C]//2015 IEEE International Conference on Computer Vision Workshop(ICCVW).Santiago:IEEE,2015:621-629.

      [13] DANELLJAN M,ROBINSON A,KHAN F S,et al. Beyond correlation filters:Learning continuous convolution operators for visual tracking [C]//European Conference on Computer Vision(ECCV).Amsterdam:Springer,2016:472-488.

      [14] BERTINETTO L,VALMADRE J,HENRIQUES J F,et al. Fully-Convolutional Siamese networks for object tracking [C]//European Conference on Computer Vision.Amsterdam:Springer,2016:850-865.

      [15] TAO R,GAVVES E,SMEULDERS,A W M. Siamese instance search for tracking [C]//2016 IEEE Conference on Computer Vision and Pattern Recognition(CVPR).Las Vegas:IEEE,2016:1420-1429.

      [16] BOLME D S,BEVERIDGE J R,DRAPER B A,et al. Visual object tracking using adaptive correlation filters [C]//2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition.San Francisco:IEEE,2010:2544-2550.

      [17] HENRIQUES J F,CASEIRO R,MARTINS P,et al. Exploiting the circulant structure of tracking-by-detection with kernels [C]//European Conference on Computer Vision.Florence:Springer,2012:702-715.

      [18] DANELLJAN M,KHAN F S,F(xiàn)ELSBERG M,et al. Adaptive color attributes for real-time visual tracking [C]//2014 IEEE Conference on Computer Vision and Pattern Recognition.Columbus:IEEE,2014:1090-1097.

      [19] DANELLJAN M,H?GER G,KHAN F S,et al. Accurate scale estimation for robust visual tracking [C]//British Machine Vision Conference 2014.Nottingham:BMVA Press,2014:1-11.

      [20] HENRIQUES J F,CASEIROR,MARTINS P,et al. High-speed tracking with kernelized correlation filters [J].IEEE transactions on pattern analysis and machine intelligence,2015,37(3):583-596.

      [21] ZHU G B,WANG J Q,WU Y,et al. MC HOG correlation tracking with saliency proposal [C]//Thirtieth AAAI Conference on Artificial Intelligence.Phoenix:AAAI Press,2016:3690–3696.

      [22] GUO Q,F(xiàn)ENG W,ZHOU C,et al. Learning dynamic Siamese network for visual object tracking [C]//2017 IEEE International Conference on Computer Vision(ICCV).Venice:IEEE,2017:1781-1789.

      [23] HE A F,LUO C,TIAN X M,et al. A twofold Siamese network for real-time object tracking [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City:IEEE,2018:4834-4843.

      [24] LI B,YAN J J,WU W,et al. High performance visual tracking with Siamese region proposal network [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City:IEEE,2018:8971-8980.

      [25] ZHU Z,WANG Q,LI B,et al. Distractor-aware Siamese networks for visual object tracking [C]//European Conference on Computer Vision.Munich:Springer,2018:103-119.

      [26] LI B,WU W,WANG Q,et al. SiamRPN plus plus:Evolution of Siamese visual tracking with very deep networks [C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).Long Beach:IEEE,2019:4277-4286.

      [27] WU Y,LIM J,YANG M H. Object tracking benchmark [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,37(9):1834-1848.

      [28] GALOOGAHI H K,F(xiàn)AGG A,HUANG C,et al. Need for speed:A benchmark for higherframe rate object tracking [C]//2017 IEEE International Conference on Computer Vision(ICCV).Venice:IEEE,2017:1134-1143.

      [29] LIANG P P,BLASCH E,LING H B. Encoding color information for visual tracking:Algorithms and benchmark [J].IEEE Transactions on Image Processing,2015,24(12):5630-5644.

      [30] MUELLER M,SMITH N,GHANEM B. A benchmark and simulator for UAV Tracking [C]//European Conference on Computer Vision.Amsterdam:Springer,2016:445-461.

      [31] FAN H,LIN L T,YANG F,et al. LaSOT:A high-quality benchmark for large-scale single object tracking[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).Long Beach:IEEE,2019:5369-5378.

      [32] M?ELLER M,BIBI A,GIANCOLA S,et al. TrackingNet:A large-scale dataset and benchmark for object tracking in the wild [C]//European Conference on Computer Vision.Munich:Springer,2018:310-327.

      [33] HUANG L H,ZHAO X,HUANG K Q. GOT-10k:A large high-diversity benchmark for generic object tracking in the wild [J/OL].arXiv:1810.11981 [cs.CV].(2018-10-29).https://arxiv.org/abs/1810.11981v3.

      [34] DANELLJAN M,GOOL L V,TIMOFTE R. Probabilistic regression for visual tracking [C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).Seattle:IEEE,2020:7181-7190.

      [35] BHAT G,DANELLJAN M,GOOL L V,et al. Learning discriminative model prediction for tracking [C]//2019 IEEE/CVF International Conference on Computer Vision(ICCV).Seoul:IEEE,2019:6181-6190.

      [36] DANELLJAN M,BHAT G,KHAN F S,et al. ATOM:Accurate tracking by overlap maximization [C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).Long Beach:IEEE,2019:4655-4664.

      [37] CHEN Z D,ZHONG B N,LI G R,et al. Siamese box adaptive network for visual tracking [C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).Seattle:IEEE,2020:6667-6676.

      [38] GUO D Y,WANG J,CUI Y,et al. SiamCAR:Siamese fully convolutional classification and regression for visual tracking [C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).Seattle:IEEE,2020:6268-6276.

      作者簡(jiǎn)介:張瑩杰(1992—),女,漢族,河南商丘人,助教,碩士研究生,研究方向:智能算法。

      收稿日期:2021-03-14

      猜你喜歡
      目標(biāo)跟蹤深度學(xué)習(xí)
      多視角目標(biāo)檢測(cè)與跟蹤技術(shù)的研究與實(shí)現(xiàn)
      有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
      基于改進(jìn)連續(xù)自適應(yīng)均值漂移的視頻目標(biāo)跟蹤算法
      電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
      基于重采樣粒子濾波的目標(biāo)跟蹤算法研究
      航空兵器(2016年5期)2016-12-10 17:12:24
      MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
      大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
      深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
      基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
      軟件工程(2016年8期)2016-10-25 15:47:34
      空管自動(dòng)化系統(tǒng)中航跡濾波算法的應(yīng)用與改進(jìn)
      科技視界(2016年5期)2016-02-22 12:25:31
      鹤峰县| 阳曲县| 灵宝市| 航空| 保定市| 海林市| 兰西县| 许昌县| 苍梧县| 吉木萨尔县| 曲阳县| 淮安市| 南陵县| 抚远县| 盘锦市| 阿拉善右旗| 黑山县| 怀安县| 和田县| 兴仁县| 永康市| 文水县| 旅游| 许昌市| 高清| 凤台县| 佛学| 濉溪县| 璧山县| 石城县| 清水县| 嘉兴市| 乡城县| 五家渠市| 沅江市| 平塘县| 辽宁省| 信阳市| 西乌珠穆沁旗| 界首市| 周口市|