• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于DenseNet的無人機(jī)在線多目標(biāo)跟蹤算法

      2021-03-24 11:16:32錢瀧
      電腦知識與技術(shù) 2021年2期

      錢瀧

      摘要:多目標(biāo)跟蹤任務(wù)的目的,是對圖像序列中不同的目標(biāo)設(shè)置不同的編號(ID),最終得到不同目標(biāo)的運(yùn)動軌跡。本文針對跟蹤過程中目標(biāo)ID極易變化的現(xiàn)象,提出了一種新的在線多目標(biāo)跟蹤算法。算法主要包含三個(gè)步驟:輸入預(yù)處理、特征提取和數(shù)據(jù)關(guān)聯(lián)。其中預(yù)處理步驟使用NMS算法對輸入的檢測結(jié)果進(jìn)行篩選;特征提取步驟使用密集連接的特征提取網(wǎng)絡(luò)對目標(biāo)進(jìn)行外觀特征的提取,輸出特征向量矩陣;數(shù)據(jù)關(guān)聯(lián)步驟則使用級聯(lián)匹配的方式,依據(jù)目標(biāo)的位置信息和外觀特征信息為其分配各自的ID。此外,該文還整理了一個(gè)具有挑戰(zhàn)性的無人機(jī)場景下的多目標(biāo)跟蹤測試集。實(shí)驗(yàn)結(jié)果表明,該方法有效地減少了錯(cuò)誤的目標(biāo)ID變化,提高了多目標(biāo)跟蹤算法面對復(fù)雜場景時(shí)的精度,并保持較快的運(yùn)行速度。

      關(guān)鍵詞:多目標(biāo)跟蹤;ID變化;密集連接;級聯(lián)匹配

      中圖分類號:TP391? ? ? 文獻(xiàn)標(biāo)識碼:A

      文章編號:1009-3044(2021)02-0007-05

      Abstract: The main purpose of the multi-target tracking task is to set different identity numbers (ID) for different objects in an image sequence, and finally get the motion trajectories of different targets. Aiming at the phenomenon that the target ID is easy to change in the tracking process, this paper proposes a new online multi-target tracking algorithm. The algorithm consists of three steps: input preprocessing, feature extraction and data association. In the preprocessing step, the NMS algorithm is used to filter the input detection results; in the feature extraction step, a dense connection feature extraction network is used to extract the appearance features of the target, and the feature vector matrix is output; in the data association step, the corresponding ID is assigned according to the location information and appearance feature information of the target. On the other hand, we propose challenging multiple people tracking test set for UAV scenarios. The experimental results show that this method can effectively reduce the error of target ID changes, improve the accuracy of multi-target tracking algorithms in complex scenes, and maintain a fast running speed.

      Key words: multi-object tracking; ID switches; dense connection; cascade matching

      1 背景

      多目標(biāo)跟蹤是視覺跟蹤領(lǐng)域的研究熱點(diǎn)之一,數(shù)十年來得到了中外學(xué)者的廣泛研究并取得了顯著的成果。借助目標(biāo)檢測算法的發(fā)展[1-2]和行人再識別技術(shù)的革新[3-4],基于檢測的多目標(biāo)跟蹤算法已經(jīng)成為當(dāng)下目標(biāo)跟蹤的主流方法。在車輛導(dǎo)航、智能監(jiān)控、人機(jī)交互、人群計(jì)數(shù)等領(lǐng)域都展現(xiàn)了重要的應(yīng)用價(jià)值。然而,受制于真實(shí)場景的復(fù)雜性,例如遮擋、光照變化、尺度變化以及相機(jī)運(yùn)動等因素的存在,如何保持跟蹤算法的準(zhǔn)確性和魯棒性仍然被認(rèn)為是一項(xiàng)具有挑戰(zhàn)性的任務(wù)。

      多目標(biāo)跟蹤可以視為一個(gè)跨幀的數(shù)據(jù)關(guān)聯(lián)任務(wù),將位于不同視頻幀的檢測目標(biāo)按照相似程度進(jìn)行配對。依據(jù)關(guān)聯(lián)方式的不同,常用的檢測跟蹤算法可分為在線(逐幀)和離線(逐批)兩種。在線模式的跟蹤算法與視頻序列的播放同步運(yùn)行,并實(shí)時(shí)輸出跟蹤結(jié)果。這種跟蹤算法首先通過提取每幀的檢測結(jié)果,生成包含跟蹤目標(biāo)信息的特征向量,然后依據(jù)提取到的特征對目標(biāo)進(jìn)行跨幀的數(shù)據(jù)關(guān)聯(lián)?;谂幚淼母櫰骺梢允褂脕碜晕磥韼男畔韼椭鷾p少檢測噪聲,同時(shí)對整個(gè)視頻序列使用全局優(yōu)化。雖然批處理算法較為容易獲得魯棒的跟蹤結(jié)果,但其運(yùn)行工作量巨大,不能滿足實(shí)時(shí)跟蹤的需要。我們的工作重點(diǎn)是在線模式的跟蹤,因?yàn)樗哂芯薮蟮墓I(yè)實(shí)用價(jià)值和發(fā)展?jié)摿Α?/p>

      近年來,研究者們大多致力于獲得更為準(zhǔn)確的檢測結(jié)果,以改進(jìn)檢測的方式來改進(jìn)跟蹤算法。但在實(shí)際應(yīng)用中,大量跟蹤失敗的原因并非是出現(xiàn)了漏檢或誤檢,而是無法從檢測結(jié)果中提取到有價(jià)值的特征信息。因此,我們通過提升特征提取網(wǎng)絡(luò)的性能,以獲得描述更豐富、區(qū)分度更高的目標(biāo)特征,以此來改善數(shù)據(jù)關(guān)聯(lián)的效果。另一方面,度量是衡量目標(biāo)特征相似程度的規(guī)則,現(xiàn)有的度量方法難以應(yīng)對越來越復(fù)雜的跟蹤場景所帶來的挑戰(zhàn),例如常用的IOU距離度量在目標(biāo)較小、間距較近的無人機(jī)場景下所能輸出的區(qū)分度很低,容易產(chǎn)生歧義進(jìn)而導(dǎo)致關(guān)聯(lián)錯(cuò)誤。我們通過對實(shí)驗(yàn)反饋的研究分析,對關(guān)聯(lián)過程中常用的余弦相似度和IOU距離度量進(jìn)行了改進(jìn)。為了檢驗(yàn)所做改進(jìn)的效果,我們按照MOT Challenge提供的benchmark為本實(shí)驗(yàn)標(biāo)注和整理了一個(gè)具有挑戰(zhàn)性的無人機(jī)觀測場景數(shù)據(jù)集。

      2 相關(guān)技術(shù)研究

      在方法論的改進(jìn)[5-8]和新的基準(zhǔn)數(shù)據(jù)集的提出[9]的共同推動下,多目標(biāo)跟蹤在過去十年中在速度和精度上都有了很大的提高[10-11]。在這一部分,我們簡要介紹幾種側(cè)重不同方向的跟蹤算法和當(dāng)下多目標(biāo)跟蹤的發(fā)展方向。

      Bergmann等人[12]強(qiáng)調(diào)目標(biāo)檢測在跟蹤中的價(jià)值。他們使用目標(biāo)檢測器的檢測框來預(yù)測下一幀中目標(biāo)的位置。這種將檢測器轉(zhuǎn)換為跟蹤器的方法簡單且高效,在不針對跟蹤數(shù)據(jù)進(jìn)行訓(xùn)練的情況下取得了良好的跟蹤效果。實(shí)驗(yàn)結(jié)果表明,目標(biāo)檢測在處理難以通過濾波算法和行人的再識別技術(shù)來解決的相似性問題上具有很大的潛力。這也為我們的算法研究提供了信心。

      Li W等人[13]根據(jù)噪聲的來源不同而應(yīng)用不同的優(yōu)化策略。使用光流網(wǎng)絡(luò)解決相機(jī)運(yùn)動問題,并利用輔助跟蹤器來處理丟失的檢測問題。此外,作者還同時(shí)使用外觀和運(yùn)動信息來提高匹配質(zhì)量。最終作者在VisDrone2019公共數(shù)據(jù)集中取得了優(yōu)異的成績。實(shí)驗(yàn)表明,根據(jù)其應(yīng)用場景的特點(diǎn)將復(fù)雜問題分解為多個(gè)子問題的策略[14]可以有效地提高網(wǎng)絡(luò)的性能。比如顏色特征具有較好的抵抗目標(biāo)形變的能力,但它難以描述目標(biāo)的空間結(jié)構(gòu),且對光照過于敏感。運(yùn)動特征可以在目標(biāo)被遮擋后幫助恢復(fù)目標(biāo)的跟蹤信息,但是隨著時(shí)間延長,運(yùn)動模型會由于誤差積累而逐漸發(fā)散,難以保持長時(shí)間的穩(wěn)定性。孤立地使用某一種運(yùn)動或表觀信息都不能理想地解決多目標(biāo)跟蹤問題,必須結(jié)合使用場景和目標(biāo)特點(diǎn)綜合考慮跟蹤算法的設(shè)計(jì)方案。

      Sort[15]和Deepsort[16]是實(shí)時(shí)輕量化多目標(biāo)跟蹤算法的杰出代表。Sort主要關(guān)注目標(biāo)的運(yùn)動信息,將卡爾曼濾波算法應(yīng)用于目標(biāo)位置的預(yù)測,并采用匈牙利算法對幀間目標(biāo)進(jìn)行關(guān)聯(lián)。這種簡單而巧妙的設(shè)計(jì)使它能夠以200 fps的速度運(yùn)行,但它在跟蹤的精度方面表現(xiàn)不佳。Deepsort在Sort的基礎(chǔ)上進(jìn)行了改進(jìn),通過在匹配過程中引入深度關(guān)聯(lián)度量,大大地減少了身份切換次數(shù),提高了跟蹤精度,并保持著較快的速度。Deepsort為后來的多目標(biāo)跟蹤提供了一個(gè)簡潔可行的數(shù)據(jù)關(guān)聯(lián)方案,同時(shí)具有很高的可拓展性。本著Deepsort的思想,我們改進(jìn)了其級聯(lián)匹配模塊的度量方法和ID的分配方式,并將其應(yīng)用到我們的跟蹤算法中。

      3 設(shè)計(jì)方案

      3.1 整體架構(gòu)

      如圖1所示,算法與視頻序列的播放同步進(jìn)行,實(shí)時(shí)輸入檢測與跟蹤的結(jié)果,直到視頻播放結(jié)束。由于相似的檢測內(nèi)容會導(dǎo)致數(shù)據(jù)關(guān)聯(lián)中向量之間區(qū)分度的降低,最終導(dǎo)致誤跟蹤和ID變化的產(chǎn)生。因此,我們首先使用NMS算法對輸入進(jìn)行過濾,減少冗余檢測框?qū)Ω櫟母蓴_。特征提取的目的是從輸入的檢測信息中收集和整合我們想要的特征信息并將它們構(gòu)建為特征矩陣,以便作為后續(xù)匹配的依據(jù)。生成的特征矩陣在下一幀視頻序列播放時(shí)被傳入數(shù)據(jù)關(guān)聯(lián)。在數(shù)據(jù)關(guān)聯(lián)階段,我們依據(jù)目標(biāo)的運(yùn)動信息、外觀信息將已知的目標(biāo)與當(dāng)前幀內(nèi)的目標(biāo)進(jìn)行配對。如果當(dāng)前幀出現(xiàn)了無法與已知目標(biāo)配對的目標(biāo),則將其視作誕生了一個(gè)新目標(biāo)。

      3.2 特征提取網(wǎng)絡(luò)

      由于我們無法直接利用目標(biāo)檢測結(jié)果的邊界框構(gòu)建跨幀的關(guān)聯(lián),必須依賴框內(nèi)的特征信息作為檢測與關(guān)聯(lián)之間的橋梁,因此特征提取網(wǎng)絡(luò)決定著數(shù)據(jù)關(guān)聯(lián)的結(jié)果。如果不能正確的從檢測信息中提取到目標(biāo)的特征,即便我們正確檢測到了目標(biāo)并且使用了合理的數(shù)據(jù)關(guān)聯(lián)算法,也無法跟蹤到目標(biāo)。

      多目標(biāo)跟蹤的目標(biāo)多為群體相似度較高的動態(tài)目標(biāo),如車輛和人群,普通架構(gòu)的特征提取網(wǎng)絡(luò)很難做到性能和速度的兼顧。針對以上問題,我們基于DenseNet[17]所提出的架構(gòu)思想,設(shè)計(jì)了一種基于密集連接的特征提取網(wǎng)絡(luò)。與廣泛使用的ResNet[18]相比,在網(wǎng)絡(luò)層之間建立了緊密的連接,并通過在通道上連接特征來實(shí)現(xiàn)特征重用,有很好的抗過擬合能力。經(jīng)過大量的實(shí)驗(yàn)對比,我們發(fā)現(xiàn)在規(guī)模較小的ReID數(shù)據(jù)集上訓(xùn)練時(shí),基于Dense連接的網(wǎng)絡(luò)更容易收斂,在運(yùn)行時(shí)也能夠提取更充分的特征。

      3.3 數(shù)據(jù)關(guān)聯(lián)

      數(shù)據(jù)關(guān)聯(lián)算法是多目標(biāo)跟蹤網(wǎng)絡(luò)的主要組成部分,它負(fù)責(zé)對檢測到的目標(biāo)和軌跡進(jìn)行匹配,并為匹配成功的目標(biāo)分配ID。我們沿用Deepsort所提出的級聯(lián)匹配策略來判斷目標(biāo)的身份,首先使用卡爾曼濾波依據(jù)目標(biāo)在上一幀的位置信息預(yù)測目標(biāo)在當(dāng)前幀可能出現(xiàn)的位置即目標(biāo)的軌跡,然后通過比較目標(biāo)與預(yù)測軌跡所處坐標(biāo)位置之間的馬氏距離和外觀特征之間的相似程度來判定它們是否匹配,然后對未匹配的目標(biāo)和軌跡進(jìn)行基于IOU的匹配。

      在級聯(lián)匹配的第一個(gè)階段,Deepsort通過計(jì)算目標(biāo)的外觀特征向量之間的余弦相似度來衡量它們的相似性,這種方法簡單高效,但會帶來一定的風(fēng)險(xiǎn)。余弦相似度衡量的是向量間的夾角大小,夾角越小相似性越高。其更多地關(guān)注向量在方向上的一致性,并不考慮向量本身的量綱和模的大小,且無法處理向量維度缺失的問題。我們假設(shè)向量組A = {a1, a2, a3,...,an},B = {b1, b2, b3,...,bn}可得余弦相似度的計(jì)算公式為:

      如圖2所示:依據(jù)余弦相似度的定義,只要保證夾角α大于夾角β就可以恒滿足向量b與向量c 更為相似,即便它和向量a的模相等而向量c的模明顯更大。

      我們使用皮爾森系數(shù)來代替余弦相似度。皮爾森系數(shù)對參與比較的向量分別進(jìn)行中心化處理,消除了量綱對比較結(jié)果的影響,不僅反映了向量在方向上的差異,同時(shí)也反映了向量各維在值上的差異,相比余弦相似度更為契合實(shí)際情況的需求。我們經(jīng)過實(shí)驗(yàn)測試,將皮爾森系數(shù)閾值置為0.7。其計(jì)算公式如下:

      在一輪級聯(lián)數(shù)據(jù)關(guān)聯(lián)結(jié)束時(shí),對匹配失敗的軌跡和生存時(shí)間為1幀的未匹配軌跡進(jìn)行GIoU匹配,以此作為匹配過程的補(bǔ)救。如果在跟蹤的最開始階段,此時(shí)視野中原無軌跡存在,則只用GIoU匹配對所有目標(biāo)和新軌跡進(jìn)行匹配,閾值為0.8。

      如圖3所示,假設(shè)A為檢測框,B為預(yù)測框,[i=1nSi]。為包含A、B的最小閉包與[A∪B]面積的差值。圖中的兩種典型的重疊方式下的IoU數(shù)值同為0.33。但GIoU數(shù)值并不相同,左側(cè)GIoU數(shù)值為0.23,右側(cè)數(shù)值為0.33,兩者有較大的區(qū)分。由此可見,與原始IoU相比,GIoU能夠更準(zhǔn)確地反映了檢測框與預(yù)測框的符合程度。

      我們關(guān)注那些沒有成功匹配的軌跡。如果它們在接下來的30個(gè)連續(xù)幀中依然與任意目標(biāo)都不匹配,我們可以認(rèn)為該軌跡和關(guān)聯(lián)的目標(biāo)已離開視野,不再考慮該軌跡的匹配。

      4 實(shí)驗(yàn)

      在這一部分中,我們將詳細(xì)介紹完整的實(shí)驗(yàn)過程并展開對實(shí)驗(yàn)結(jié)果的分析。

      4.1 實(shí)驗(yàn)準(zhǔn)備

      4.1.2 模型訓(xùn)練

      為了滿足實(shí)時(shí)跟蹤網(wǎng)絡(luò)對速度的要求,我們設(shè)計(jì)了一個(gè)較短的密集連接的特征提取網(wǎng)絡(luò),并選擇在1塊1080ti顯卡上進(jìn)行訓(xùn)練。如表1所示,4個(gè)網(wǎng)絡(luò)塊組成,每個(gè)網(wǎng)絡(luò)塊有6、16、24和16層,激活函數(shù)為elu,學(xué)習(xí)率為1e-3,并輸出128維向量。在MARS數(shù)據(jù)集[19]上的訓(xùn)練曲線如圖4所示,縱軸代表損失函數(shù)的數(shù)值值,橫軸代表訓(xùn)練次數(shù)。折線部分是放大后損失函數(shù)的波動情況。較平滑的為損失函數(shù)的擬合曲線??梢钥闯?,經(jīng)過30萬次訓(xùn)練后,損失趨于穩(wěn)定,40萬次訓(xùn)練后,損失趨于收斂。該網(wǎng)絡(luò)速度完全滿足實(shí)時(shí)性要求,并有很高的精度。

      4.1.3 數(shù)據(jù)集

      為了評估跟蹤算法的性能,我們整理了一個(gè)具有挑戰(zhàn)性的多目標(biāo)跟蹤測試集UAV_MOT。此測試集包含7組在無人機(jī)視野下的場景中捕獲的視頻序列,并全部按照MOT Challenge的格式進(jìn)行標(biāo)注。其中2組選自VisDrone2020挑戰(zhàn)賽比賽數(shù)據(jù)集,1組選自于MOT16數(shù)據(jù)集,剩余4組由我們使用無人機(jī)實(shí)地進(jìn)行拍攝。該數(shù)據(jù)集場景復(fù)雜,目標(biāo)較小且遮擋頻繁,很適合用于跟蹤算法性能的測試。

      4.2 對比測試

      在UAV_MOT測試集上我們進(jìn)行了多組對比測試,用以驗(yàn)證我們的特征提取網(wǎng)絡(luò)的有效性與變更度量標(biāo)準(zhǔn)所帶來的改進(jìn)。為避免檢測結(jié)果的優(yōu)劣對實(shí)驗(yàn)造成影響,我們使用YOLOV3作為公共的檢測器,以保證所有實(shí)驗(yàn)組合使用相同的輸入。算法的輸出按照MOT Challenge提供的基準(zhǔn)進(jìn)行評估,其結(jié)果如表2所示。同時(shí),我們還展示了可視化的實(shí)驗(yàn)效果,如圖5所示,奇數(shù)行為Deepsort輸出,偶數(shù)行為我們的算法輸出。

      4.3 實(shí)驗(yàn)結(jié)果與分析

      4.3.1 評估標(biāo)準(zhǔn)

      我們嚴(yán)格按照MOT Challenge的評估標(biāo)準(zhǔn)對實(shí)驗(yàn)結(jié)果進(jìn)行分析,部分關(guān)鍵指標(biāo)如下:

      MOTA:跟蹤準(zhǔn)確度,綜合IDs、誤報(bào)率(FP)和漏報(bào)(FN)的整體跟蹤精度,是評價(jià)跟蹤算法最重要的性能指標(biāo)。

      MOTP:跟蹤精度,指標(biāo)注的信息與實(shí)際預(yù)測的包圍框的匹配程度。

      IDF1:綜合考慮目標(biāo)ID的準(zhǔn)確率和召回率的指標(biāo)。

      IDs:身份變化數(shù)量,指目標(biāo)的ID編號總共發(fā)生了多少次變化。

      4.3.2 結(jié)果分析

      首先對實(shí)驗(yàn)進(jìn)行定量的分析。如表2第2行所示,更換dense特征提取網(wǎng)絡(luò)后算法的主要指標(biāo)均有所上升,說明在特征提取上的改進(jìn)是有效的。如表2第3行所示,更換了特征提取網(wǎng)絡(luò)和關(guān)聯(lián)度量之后,算法性能進(jìn)一步提升,在MOTA上提高了5.2個(gè)百分點(diǎn),在ID變化上減少了112(約為13%)。

      我們的算法在可視化效果也有明顯的提升。如圖5第1、第2行所示,6號目標(biāo)在被幾乎完全遮擋后我們的算法仍可恢復(fù)其ID,但是在Deepsort的輸出中其ID變更為9。如圖5第3、第4行所示,在經(jīng)過人群后,我們的1、2、3號目標(biāo)ID都保持穩(wěn)定,但Deepsort中多數(shù)ID都已發(fā)生變化。以上結(jié)果證明了我們的算法在目標(biāo)小、干擾多的復(fù)雜場景下可以保持較為穩(wěn)定的跟蹤性能以及更高的跟蹤精度。此外,我們的跟蹤算法具有較低的復(fù)雜度和較快的速度。

      5 論文總結(jié)

      本文提出了一種基于密集連接網(wǎng)絡(luò)的輕量級多目標(biāo)跟蹤算法,能夠有效地抑制多目標(biāo)跟蹤任務(wù)中身份數(shù)目的異常增長,減輕相似目標(biāo)之間的相互干擾。我們通過使用密集連接的方式訓(xùn)練和設(shè)計(jì)特征提取網(wǎng)絡(luò),相比傳統(tǒng)的ResNet而言更為高效,在輸出維度相同的情況下可以輸出區(qū)分度更高的目標(biāo)特征。同時(shí),還采用了改進(jìn)的級聯(lián)匹配模塊對跟蹤目標(biāo)和軌跡進(jìn)行匹配。在UAV_MOT數(shù)據(jù)集上的實(shí)驗(yàn)表明,該方法有效地減少了身份切換次數(shù),具有更高的跟蹤準(zhǔn)確度和穩(wěn)定性。

      參考文獻(xiàn):

      [1] Lin T Y, Dollár P, Girshick R,et al. Feature pyramid networks for object detection[C].Computer Vision and Pattern Recognition(CVPR), 2017:936-944.

      [2] Li T C,de la Prieta Pintado F,Corchado J M,et al.Multi-source homogeneous data clustering for multi-target detection from cluttered background with misdetection[J].Applied Soft Computing,2017,60:436-446.

      [3] Wu D,Zheng S J,Yuan C A,et al.A deep model with combined losses for person re-identification[J].Cognitive Systems Research,2019,54:74-82.

      [4] Choe C,Choe G,Wang T J,et al.Deep feature learning with mixed distance maximization for person Re-identification[J].Multimedia Tools and Applications,2019,78(19):27719-27741.

      [5] Alahi A, Goel K, Ramanathan V,et al.Social lstm: Human trajectory prediction in crowded spaces[C].IEEE Conference on Computer Vision and Pattern Recognition(CVPR), 2016:961-971.

      [6] Luo W, Xing J, Zhang X,et al.Multiple object tracking: A literature review[C].Eprint Arxiv, 2017.

      [7] Xiang Y, Alah A, Savarese S.Learning to track: Online multi-object tracking by decision making[C].Proceedings of the IEEE international conference on computer vision, 2015:4705-4713.

      [8] Fagot-bouquet L, Audigier R, Dhome Y,et al.Collaboration and spatialization for an efficient multi-person tracking via sparse representations[C].IEEE International Conference on Advanced Video(AVSS), 2015:1-6.

      [9] Milan A,Leal-Taixe L,Reid I,et al.MOT16:a benchmark for multi-object tracking[EB/OL].[2020-08-18].https://arxiv.org/abs/1603.00831.

      [10] Riahi D,Bilodeau G A.Online multi-object tracking by detection based on generative appearance models[J].Computer Vision and Image Understanding,2016,152:88-102.

      [11] Sadeghian A, Alahi A, Savarese S.Tracking the untrackable: Learning to track multiple cues with long-term dependencies[C].IEEE International Conference on Computer Vision (ICCV), 2017:300-311.

      [12] Bergmann P, Meinhardt T, Leal-Taixe L.Tracking without bells and whistles[C].IEEE/CVF International Conference on Computer Vision (ICCV), 2019:941-951.

      [13] Li Weiqiang,Mu Jiatong,Liu Guizhong.Multiple Object Tracking with Motion and Appearance Cues[C].IEEE/CVF International Conference on Computer Vision Workshop (ICCVW), 2019:161-169.

      [14] Jiang N,Bai S C,Xu Y,et al.Online inter-camera trajectory association exploiting person Re-identification and camera topology[C]//2018 ACM Multimedia Conference on Multimedia Conference - MM '18.October 15-26,2018.Seoul,Republic of Korea.New York:ACM Press,2018:1457-1465.

      [15] Bewley A, Ge Z, Ott L, Ramos F,et al.Simple online and realtime tracking[C].IEEE International Conference on Image Processing (ICIP), 2016:3464-3468.

      [16] Wojke N, Bewley A, Paulus D.Simple online and realtime tracking with a deep association metric[C].IEEE International Conference on Image Processing(ICIP), 2017:3645-3649.

      [17] Huang G, Liu Z, Van Der Maaten L,et al. Densely Connected Convolutional Networks[C].Computer Vision and Pattern Recognition(CVPR), 2017:2261-2269.

      [18] HE Kaiming,ZHANG Xiangyu,REN Shaoqing,et al.Deep residual learning for image recognition[C].Computer Vision and Pattern Recognition(CVPR), 2016:770-778.

      [19] Zheng L,Bie Z,Sun Y F,et al.MARS:a video benchmark for large-scale person Re-identification[C].Computer Vision - ECCV 2016,2016.

      【通聯(lián)編輯:謝媛媛】

      双流县| 盐源县| 苍溪县| 成武县| 友谊县| 富裕县| 虹口区| 凭祥市| 长葛市| 济阳县| 修水县| 鄂托克前旗| 田林县| 正阳县| 阿尔山市| 安图县| 西平县| 田东县| 堆龙德庆县| 竹溪县| 灵丘县| 河东区| 阜康市| 益阳市| 讷河市| 浦县| 莆田市| 东光县| 高陵县| 南投县| 武陟县| 威宁| 龙山县| 天水市| 桃园市| 南充市| 兴和县| 聂荣县| 乌拉特后旗| 固阳县| 万宁市|