• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于區(qū)域生成網(wǎng)絡(luò)的行人重識(shí)別算法優(yōu)化

      2021-03-01 08:45:18徐振國(guó)丁亞男
      關(guān)鍵詞:三元組分支行人

      徐振國(guó),張 旭,丁亞男,湯 健

      (上海工程技術(shù)大學(xué) 航空運(yùn)輸學(xué)院,上海 201620)

      0 引 言

      行人重識(shí)別是指用給定待識(shí)別的行人圖像,從采集自不同時(shí)間點(diǎn)、不同攝像頭的圖像或者視頻中檢索特定行人的任務(wù)。行人重識(shí)別可以彌補(bǔ)目前固定攝像頭的視覺(jué)局限,并可與目標(biāo)檢測(cè)、目標(biāo)跟蹤技術(shù)相結(jié)合,應(yīng)用于視頻監(jiān)控、智能安防等領(lǐng)域[1]。在實(shí)際情況中,因攝像頭安裝位置、拍攝視角、環(huán)境光照變化及遮擋干擾等因素的影響,造成行人的姿態(tài)變化及外觀差異,給行人識(shí)別帶來(lái)巨大挑戰(zhàn)。

      行人的特征表示的魯棒性對(duì)行人重識(shí)別算法的準(zhǔn)確度有很大的影響,越好的特征表示能夠獲取到更加全面的特征信息,對(duì)應(yīng)算法的效果就越好。早期的行人重識(shí)別一般都是提取手工設(shè)計(jì)的特征,包括顏色、方向梯度直方圖、LOMO、SIFT 等,之后利用KISSME 或XQDA 度量相似性[2-3]。但在復(fù)雜場(chǎng)景下,傳統(tǒng)的手工特征描述能力有限,相似性度量也會(huì)很難求解,隨著深度特征在各任務(wù)中表現(xiàn)出相較于傳統(tǒng)特征更強(qiáng)的表征能力,目前行人重識(shí)別都是基于深度卷積神經(jīng),自動(dòng)提取深度特征。起初基于深度學(xué)習(xí)的行人重識(shí)別方法主要是用深度網(wǎng)絡(luò)學(xué)習(xí)圖像的全局特征,用分類損失或者度量損失進(jìn)行訓(xùn)練,文獻(xiàn)[4]提出了一個(gè)基于難樣本采樣的三元組損失算法,通過(guò)在一個(gè)訓(xùn)練批量中挑選出特征距離較大的正樣本和特征距離較小的負(fù)樣本進(jìn)行訓(xùn)練,能夠明顯加快模型的收斂,提高網(wǎng)絡(luò)的泛化能力;當(dāng)只用圖像的全局特征作為特征,表示識(shí)別的方法遇到瓶頸,文獻(xiàn)[5]提出一種基于水平切塊的局部特征的模型,將每一個(gè)局部特征作為一個(gè)獨(dú)立的特征連接損失函數(shù)單獨(dú)訓(xùn)練,將局部特征拼接起來(lái),得到最終的特征。引入基于局部的精確池化(Refined part pooling,RPP)方法,用注意力機(jī)制對(duì)水平切塊進(jìn)行修正,進(jìn)一步提升了算法的性能。但使RPP 需預(yù)先訓(xùn)練好網(wǎng)絡(luò)模型,再凍結(jié)模型參數(shù)重新訓(xùn)練,因此整個(gè)模型不能端到端的訓(xùn)練,且僅使用單一尺度的局部特征會(huì)丟失一部分有用的視覺(jué)信息。文獻(xiàn)[6]引入人體骨架關(guān)鍵點(diǎn)模型,提取人體關(guān)鍵點(diǎn),利用關(guān)鍵點(diǎn)通過(guò)區(qū)域候選網(wǎng)絡(luò)提取7 個(gè)身體子區(qū)域,然后根據(jù)子區(qū)域的不同語(yǔ)義層次與關(guān)系在不同的階段將特征向量進(jìn)行融合,得到一個(gè)聯(lián)合全局特征和多階段局部特征的行人重識(shí)別特征;文獻(xiàn)[7]提出了一種全局到局部對(duì)齊的描述子學(xué)習(xí)方法(Global-Local-Alignment Descriptor,GLAD),通過(guò)估計(jì)人體的4 個(gè)關(guān)鍵點(diǎn)把圖像分成頭部、上半身和下半身,然后將原圖和3 個(gè)局部圖像一起連接到一個(gè)4 分支共享權(quán)重的卷積網(wǎng)絡(luò)中,分別學(xué)習(xí)3 個(gè)局部特征和全局特征,利用全局平均池化(Global average pooling,GAP)來(lái)提取各自的特征,最后特征融合了全局以及3 個(gè)局部圖像的信息。上述方法利用行人姿態(tài)點(diǎn)提取特征,雖然可以對(duì)齊不同圖像中的人體結(jié)構(gòu)信息,但是需要一個(gè)額外的姿態(tài)估計(jì)模型,算法效率低,且分塊區(qū)域共享權(quán)重可能會(huì)導(dǎo)致信息丟失,影響行人識(shí)別的準(zhǔn)確度[8]。

      為減少圖像背景對(duì)行人信息表征的影響,本文將RPN 引入到行人重識(shí)別算法中,通過(guò)RPN 獲取不同尺度信息的候選區(qū)域,更關(guān)注圖像中的行人區(qū)域,將候選區(qū)域投影到特征圖上,經(jīng)過(guò)后處理篩除得到最終的候選區(qū)域;再結(jié)合ROI 池化層處理不同尺度大小的特征圖,實(shí)現(xiàn)多尺度信息的協(xié)調(diào)統(tǒng)一;搭建了一個(gè)聯(lián)合全局特征、水平切塊的局部特征以及基于RPN 和ROI 特征的多分支網(wǎng)絡(luò)結(jié)構(gòu),利用局部分支關(guān)注細(xì)粒度的行人特征彌補(bǔ)全局分支中的信息缺失,進(jìn)而得到一個(gè)聯(lián)合全局和局部多尺度信息的多分支網(wǎng)絡(luò)。另外,訓(xùn)練階段在難樣本采樣的三元組損失上引入正樣本的最小距離為類內(nèi)距離,提高正樣本之間的聚類性能,防止結(jié)果過(guò)擬合。

      1 基本原理

      1.1 網(wǎng)絡(luò)結(jié)構(gòu)

      本文的模型結(jié)構(gòu)如圖1 所示,采用聯(lián)合全局特征、水平切塊的局部特征以及經(jīng)過(guò)區(qū)域生成網(wǎng)絡(luò)提取ROI 的多尺度特征。全局特征關(guān)注行人整體特征,水平切塊的局部特征關(guān)注細(xì)粒度的行人特征,區(qū)域生成網(wǎng)絡(luò)提取ROI 的多尺度特征抑制背景噪聲。

      圖1 網(wǎng)絡(luò)模型結(jié)構(gòu)Fig.1 Structure of the network model

      模型的主干網(wǎng)絡(luò)采用Resnet50 網(wǎng)絡(luò),在原來(lái)網(wǎng)絡(luò)的基礎(chǔ)上移除最后的平均池化層和全連接層,定義特征維度并添加分類器。將骨干網(wǎng)絡(luò)最后一個(gè)殘差塊的最后一層卷積層的步長(zhǎng)設(shè)置為1,將提取的特征圖尺寸增大一倍,提取更加細(xì)粒度的特征。

      將經(jīng)過(guò)主干網(wǎng)絡(luò)提取的特征圖分別經(jīng)過(guò)3 個(gè)分支:

      (1)全局分支:經(jīng)過(guò)全局平均池化得到2048 維的特征,再經(jīng)過(guò)一個(gè)BNNeck 結(jié)構(gòu);

      (2)局部分支:利用水平池化得到8 個(gè)局部特征,經(jīng)由BN 層對(duì)特征向量和權(quán)重向量作歸一化處理,之后采用1×1 卷積對(duì)特征向量降維,最后利用動(dòng)態(tài)對(duì)齊算法(DMLI)對(duì)齊局部信息;

      (3)區(qū)域生成網(wǎng)絡(luò)分支:在特征圖上生成候選區(qū)域并提取ROI 的多尺度特征。

      使用帶標(biāo)簽平滑的分類損失和難樣本采樣的改進(jìn)三元組損失進(jìn)行聯(lián)合訓(xùn)練優(yōu)化,測(cè)試階段聯(lián)合3個(gè)分支進(jìn)行相似性匹配。

      1.2 融合區(qū)域生成網(wǎng)絡(luò)ROI 池化的多尺度特征

      圖像切塊是一種簡(jiǎn)潔有效的提取局部特征方法。考慮到在行人重識(shí)別數(shù)據(jù)集中,一部分圖像背景噪聲區(qū)域過(guò)大,一部分圖像只包含部分前景,造成識(shí)別的困難,本文引入?yún)^(qū)域生成網(wǎng)絡(luò)選擇候選區(qū)域,再通過(guò)ROI 池化層提取ROI 的多尺度特征,降低背景噪聲的影響。

      當(dāng)pH為4.0的時(shí)候,濃度為2 μg/ml氯霉素標(biāo)準(zhǔn)品的出峰時(shí)間是10.27 min。峰圖有稍微的拖峰現(xiàn)象。

      區(qū)域生成網(wǎng)絡(luò)(Region Proposal Network,RPN)由Faster R-CNN 一文提出,RPN 網(wǎng)絡(luò)在特征圖上生成目標(biāo)候選區(qū)域,并對(duì)目標(biāo)候選區(qū)域的位置進(jìn)行回歸[9]。具體操作為:首先,在卷積網(wǎng)絡(luò)提取的特征圖上,用一個(gè)3×3 的滑動(dòng)窗口檢測(cè),找到與滑動(dòng)窗口中心點(diǎn)對(duì)應(yīng)原始圖像上的區(qū)域,將框的中心作為錨點(diǎn),并生成預(yù)先定義的K個(gè)候選窗口,滑動(dòng)窗口每滑動(dòng)一個(gè)位置,生成一個(gè)256 維的特征向量,遍歷得到一個(gè)新的特征圖;其次,對(duì)整個(gè)特征圖分別進(jìn)行兩次1×1 卷積,得到每個(gè)特征向量的類別分?jǐn)?shù)和候選框的回歸參數(shù);最后,通過(guò)篩除越界的候選框、非極大值抑制及偏移,得到最終的候選框。

      使用RPN 網(wǎng)絡(luò)生成候選區(qū)域后,將RPN 網(wǎng)絡(luò)生成的候選框投影到特征圖上,獲得相應(yīng)的特征矩陣,由于經(jīng)過(guò)RPN 網(wǎng)絡(luò)生成的候選區(qū)域具有不同的尺度和形狀,不能直接通過(guò)全連接層預(yù)測(cè)分類,因此本文又將每個(gè)特征矩陣通過(guò)一個(gè)ROI 池化層獲得統(tǒng)一大小的特征圖。具體操作為:首先,將經(jīng)過(guò)RPN 網(wǎng)絡(luò)生成的候選區(qū)域映射到特征圖上;其次,對(duì)映射后的區(qū)域進(jìn)行劃分,使之與輸出的維度相同;最后,對(duì)劃分后的每個(gè)部分進(jìn)行最大池化,得到固定大小的特征圖。

      本文在區(qū)域生成網(wǎng)絡(luò)的基礎(chǔ)上做出修改,如圖2 所示。

      圖2 區(qū)域生成網(wǎng)絡(luò)分支結(jié)構(gòu)Fig.2 Structure of the region proposal network

      (1)本文主干采用Resnet50 網(wǎng)絡(luò),輸出2 048 維的特征圖,為了減少計(jì)算量,在區(qū)域生成網(wǎng)絡(luò)之前先進(jìn)行一次1×1 卷積,得到512 維的特征,經(jīng)過(guò)區(qū)域生成網(wǎng)絡(luò)之后輸出16×8×512 維的特征;

      (2)對(duì)于上述得到的特征,可以看作是16×8 的512 通道的圖像,在圖像上的每個(gè)位置定義候選窗口,考慮到特征提取網(wǎng)絡(luò)的圖像是256×128 像素的行人圖像,因此定義3 種比例的矩形錨框,分別是H∶W={2∶1,3∶2,1∶1};

      (3)利用分類層輸出每個(gè)位置候選框?qū)儆谛腥说母怕剩Y除得分排序低的結(jié)果,再經(jīng)過(guò)非極大值抑制得到最終的預(yù)測(cè);

      (4)利用ROI 池化層統(tǒng)一特征向量大小時(shí),首先將每個(gè)候選區(qū)域劃分為8×1 塊,對(duì)各部分進(jìn)行平均池化;接著將得到的8×1 維的特征張量水平切分成8 個(gè)特征向量;將ROI 池化后的特征先聯(lián)合全局分支和局部分支連接三元組損失訓(xùn)練優(yōu)化;對(duì)8×1維的特征張量再進(jìn)行全局平均池化,通過(guò)全連接層計(jì)算分類損失。

      1.3 損失函數(shù)

      分類損失可以看作是在特征空間學(xué)習(xí)幾個(gè)超平面,把不同類別的特征劃分到不同的子空間里。將特征歸一化到超球面,再優(yōu)化分類損失,取得更好的效果?;诜诸悡p失的方法比較魯棒,訓(xùn)練也比較穩(wěn)定,但當(dāng)訓(xùn)練的ID 數(shù)過(guò)多時(shí),分類損失會(huì)容易過(guò)擬合。而三元組損失(Triplet loss)可以縮短正樣本對(duì)之間的距離,增加負(fù)樣本對(duì)之間的距離,最終在特征空間中讓同一行人的圖像形成聚類。

      由于三元組損失適合在自由的歐式空間里約束,如果把特征約束到超球面上,特征分布的自由區(qū)域會(huì)大大減小,導(dǎo)致三元組損失把正負(fù)樣本對(duì)推開(kāi)的難度增加,因此若將特征歸一化到超球面上,再用三元組損失優(yōu)化網(wǎng)絡(luò),網(wǎng)絡(luò)的性能通常會(huì)變差。文獻(xiàn)[10]提出一種BNNeck 結(jié)構(gòu),將網(wǎng)絡(luò)全局池化得到的特征ft直接連接一個(gè)三元組損失,再將ft經(jīng)過(guò)一個(gè)BN 層的歸一化得到fi,使一個(gè)批量里面fi的各個(gè)維度近似地分布在超球面附近,最后再經(jīng)過(guò)一個(gè)分類的全連接層連接一個(gè)ID 損失,這樣可以使得三元組損失能夠在自由的歐式空間里約束特征,而分類損失可以在一個(gè)超球面附近約束特征。

      本文使用BNNeck 結(jié)構(gòu)的分類損失和三元組損失聯(lián)合優(yōu)化的訓(xùn)練方法。分類損失函數(shù)采用交叉熵?fù)p失(CrossEntropy Loss),利用行人ID 作為訓(xùn)練標(biāo)簽來(lái)訓(xùn)練模型。由于傳統(tǒng)的三元組隨機(jī)從訓(xùn)練數(shù)據(jù)中采樣的樣本大部分都是簡(jiǎn)單易區(qū)分的樣本對(duì),而且三元組損失沒(méi)有考慮到正樣本對(duì)之間的絕對(duì)距離,不利于網(wǎng)絡(luò)學(xué)習(xí)到更好的表示。本文使用難樣本采樣三元組損失(TriHard Loss),用更難的樣本去訓(xùn)練網(wǎng)絡(luò),并在此基礎(chǔ)上引入樣本的類內(nèi)距離,提高網(wǎng)絡(luò)的泛化能力。本文的TriHard 損失表示式如下:

      其中,(z)+表示max{z,0 };α是設(shè)定的閾值參數(shù);da,p為行人正樣本對(duì)特征向量的歐式距離;da,n為行人負(fù)樣本對(duì)特征向量的歐式距離;A為與a相同行人ID 的圖像集;B為不同行人ID 的圖像集。

      對(duì)于每一個(gè)訓(xùn)練batch,隨機(jī)挑選p個(gè)同一行人ID 的行人,每個(gè)行人隨機(jī)選擇k張不同的圖片,即一個(gè)batch含有p × k張圖片。對(duì)于batch中的每一張圖片a,可以挑選一個(gè)最難的正樣本和一個(gè)最難的負(fù)樣本與a組成一個(gè)三元組。TriHard Loss 會(huì)計(jì)算a和batch中的每一張圖片在特征空間的歐式距離,選出與a距離最遠(yuǎn)的正樣本p和距離最近的負(fù)樣本n來(lái)計(jì)算三元組損失,再增加一項(xiàng)優(yōu)化類內(nèi)損失。

      2 實(shí)驗(yàn)結(jié)果與分析

      2.1 數(shù)據(jù)集及評(píng)估指標(biāo)

      為了驗(yàn)證本文算法的有效性,在Market1501、DukeMTMC-reID 數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),評(píng)估算法的性能。使用Rank-1 和mAP這兩個(gè)指標(biāo)評(píng)估模型的性能。Rank-1 表示在ReID 算法返回的行人識(shí)別排序列表中第1 位命中檢索的行人;mAP指標(biāo)反應(yīng)檢索的人在數(shù)據(jù)庫(kù)中所有正確的圖片排在列表前面的程度,能更加全面的衡量ReID 算法的性能。

      2.2 實(shí)驗(yàn)環(huán)境和參數(shù)設(shè)置

      實(shí)驗(yàn)平臺(tái)使用搭載NVIDIA GTX1060 GPU,16G內(nèi)存的計(jì)算機(jī)。實(shí)驗(yàn)采用PyTorch 深度學(xué)習(xí)框架,使用在ImageNet 數(shù)據(jù)集上預(yù)訓(xùn)練的ResNet50 的殘差卷積網(wǎng)絡(luò)為骨架,調(diào)整行人圖像的尺寸為256×128 像素,將ResNet50 的最后一個(gè)殘差塊的最后一層卷積層的步長(zhǎng)設(shè)置為1,移除最后的平均池化層和全連接層,在原來(lái)模型的基礎(chǔ)上重新定義分類器,行人圖像經(jīng)過(guò)骨架網(wǎng)絡(luò)輸出的特征圖的尺寸為16×8×2 048。在定義網(wǎng)絡(luò)前向傳播時(shí),使用ROI 池化,最后對(duì)特征進(jìn)行歸一化處理。設(shè)置訓(xùn)練過(guò)程中初始學(xué)習(xí)率為0.000 2,每訓(xùn)練100 個(gè)epoch 學(xué)習(xí)率衰減10%,權(quán)重衰減系數(shù)為0.000 5,采用Adam 優(yōu)化器進(jìn)行參數(shù)更新。

      2.3 對(duì)比實(shí)驗(yàn)及結(jié)果分析

      為了驗(yàn)證本文所提算法的有效性,將所提算法與基準(zhǔn)模型在Market1501 和DukeMTMC-ReID 兩個(gè)數(shù)據(jù)集上進(jìn)行對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果見(jiàn)表1 和圖3所示。采用Alignedreid模型作為本文的基準(zhǔn)模型并對(duì)基準(zhǔn)模型重新復(fù)現(xiàn),結(jié)果顯示在Market1501 數(shù)據(jù)集上,Rank1 精度為89.6%,平均精確度mAP為76.2%,在Duke MTMC-reID 數(shù)據(jù)集上,Rank1 精度為79.3%,平均精確度mAP為64.9%。采用BNNeck結(jié)構(gòu),使用原始的TriHard 損失訓(xùn)練模型,結(jié)果顯示模型的性能有了大幅度的提升。

      為了驗(yàn)證所提引入樣本類內(nèi)距離的TriHard 損失的有效性,將原始的TriHard 損失改為引入正樣本類內(nèi)距離的TriHard 損失,保證實(shí)驗(yàn)中除了TriHard 損失不同,其他的設(shè)置完全一致。如圖3 所示,圖3(a)表示所提算法在Market1501 數(shù)據(jù)集的CMC,圖3(b)表示所提算法在Duke MTMC-reID 數(shù)據(jù)集的CMC。綠色虛線表示采用原始的TriHard 損失訓(xùn)練的結(jié)果,藍(lán)色實(shí)線表示采用引入樣本類內(nèi)距離的TriHard 損失的結(jié)果。實(shí)驗(yàn)結(jié)果表明,引入樣本類內(nèi)距離后的TriHard 損失模型在Market1501 和Duke MTMC-reID 數(shù)據(jù)集上的性能更好。

      為了驗(yàn)證區(qū)域生成網(wǎng)絡(luò)分支在本文模型中的有效性,在上述模型的基礎(chǔ)上引入?yún)^(qū)域生成網(wǎng)絡(luò)分支進(jìn)行訓(xùn)練,保持其他的設(shè)置完全一致。從表1 可以看出,加入?yún)^(qū)域生成網(wǎng)絡(luò)分支一起訓(xùn)練后,在數(shù)據(jù)集Market1501 上的Rank1 精度提高到了94.7%,mAP精度提高到了85.8%;在數(shù)據(jù)集Duke MTMC-reID上的Rank1 精度提高到了86.8%,mAP精度提高到了74.3%。圖3 給出了所提算法CMC 曲線對(duì)比,其中紅色實(shí)線表示加入?yún)^(qū)域生成網(wǎng)絡(luò)分支后的CMC曲線。對(duì)比實(shí)驗(yàn)表明,引入?yún)^(qū)域生成網(wǎng)絡(luò)分支,行人重識(shí)別的檢測(cè)效果有顯著的提升,驗(yàn)證了區(qū)域生成網(wǎng)絡(luò)模塊的有效性。加入?yún)^(qū)域生成網(wǎng)絡(luò)分支后識(shí)別率提高的原因是區(qū)域生成網(wǎng)絡(luò)分支可以有效降低圖像中噪聲區(qū)域的干擾,從而提取到判別性更強(qiáng)的行人特征。

      圖3 改進(jìn)算法在Market1501 數(shù)據(jù)集和Duke MTMCreID 數(shù)據(jù)集CMC 曲線對(duì)比Fig.3 Comparison of CMC curve of the improved algorithm between Market1501 dataset and Duke MTMC-reID dataset

      表1 實(shí)驗(yàn)結(jié)果分析對(duì)比Tab.1 Analysis and comparison of experimental results

      綜上所述,當(dāng)模型同時(shí)采用BNNeck 結(jié)構(gòu)、引入樣本類內(nèi)距離的TriHard 損失以及加入?yún)^(qū)域生成網(wǎng)絡(luò)分支進(jìn)行訓(xùn)練時(shí),所提算法能夠明顯提升模型性能,驗(yàn)證了所提算法的有效性。

      使用Re-ranking算法后,本文算法在Market1501 數(shù)據(jù)集上的Rank1 精度為95.3%,mAP精度為93.5%,在Duke MTMC-reID 數(shù)據(jù)集上的Rank1 精度為88.6%,mAP精度為86.1%。部分行人識(shí)別Rank10 的結(jié)果如圖4 所示。實(shí)驗(yàn)查詢圖像分別選擇行人遮擋、圖像模糊、背景復(fù)雜的情況,其中右側(cè)虛線框內(nèi)紅框標(biāo)記的圖像表示匹配錯(cuò)誤,綠色圖像表示匹配正確。從結(jié)果可以看出本文算法取得了較好的結(jié)果。

      圖4 在Market1501 數(shù)據(jù)集的部分圖像查詢識(shí)別效果Fig.4 Some image query recognition effect in the Market1501 dataset

      2.4 實(shí)驗(yàn)結(jié)果與主流算法比較

      為了驗(yàn)證所提算法的有效性,將本文算法與SCPNet、PCB、Pyramid、GLAD、MGN、Multi-Scale、MLFN、HPM、HACNN 等主流算法進(jìn)行對(duì)比,結(jié)果見(jiàn)表2,可以看出本文算法在Market1501 和Duke MTMC-reID 這兩個(gè)數(shù)據(jù)集上的Rank1 精度和mAP精度優(yōu)于絕大部分對(duì)比的算法。

      表2 本文算法在Market1501 和Duke MTMC-reID 上與其他主流算法的對(duì)比Tab.2 Comparison of our algorithm with other mainstream algorithms on Market1501 and Duke MTMC-reID

      3 結(jié)束語(yǔ)

      本文提出了一種基于區(qū)域生成網(wǎng)絡(luò)的行人重識(shí)別改進(jìn)算法。算法采用聯(lián)合全局分支、水平切塊的局部分支以及區(qū)域生成網(wǎng)絡(luò)ROI 池化分支的三分支網(wǎng)絡(luò)結(jié)構(gòu)。其中全局分支關(guān)注行人整體特征,水平切塊的局部分支關(guān)注細(xì)粒度的行人特征,通過(guò)引入?yún)^(qū)域生成網(wǎng)絡(luò)選取候選區(qū)域,使用ROI 池化層提取不同尺度的特征,抑制數(shù)據(jù)集中部分圖像背景噪聲過(guò)大的影響,使學(xué)習(xí)到的特征具有更強(qiáng)的判別性。本文使用交叉熵?fù)p失函數(shù)和三元組損失聯(lián)合優(yōu)化的訓(xùn)練方法,在難樣本采樣三元組損失的基礎(chǔ)上引入正樣本的類內(nèi)距離,提高網(wǎng)絡(luò)的泛化能力。通過(guò)在Market1501 和Duke MTMC-reID 數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)驗(yàn)證,該方法取得了較好的識(shí)別效果,進(jìn)一步提高了行人重識(shí)別的精度,表明所提方法的有效性。

      猜你喜歡
      三元組分支行人
      基于語(yǔ)義增強(qiáng)雙編碼器的方面情感三元組提取
      軟件工程(2024年12期)2024-12-28 00:00:00
      基于帶噪聲數(shù)據(jù)集的強(qiáng)魯棒性隱含三元組質(zhì)檢算法*
      毒舌出沒(méi),行人避讓
      意林(2021年5期)2021-04-18 12:21:17
      關(guān)于余撓三元組的periodic-模
      巧分支與枝
      路不為尋找者而設(shè)
      一類擬齊次多項(xiàng)式中心的極限環(huán)分支
      我是行人
      三元組輻射場(chǎng)的建模與仿真
      生成分支q-矩陣的零流出性
      鄢陵县| 韶山市| 敖汉旗| 承德县| 鄂托克旗| 盘山县| 敖汉旗| 舒城县| 丰宁| 清徐县| 武威市| 上高县| 涿州市| 莒南县| 吴堡县| 孙吴县| 黄梅县| 岑溪市| 随州市| 乡宁县| 乃东县| 东城区| 江口县| 女性| 平顶山市| 沁源县| 广宁县| 延庆县| 佛山市| 上杭县| 许昌市| 秦安县| 东安县| 台北市| 英吉沙县| 灵丘县| 化德县| 云和县| 休宁县| 安平县| 锡林浩特市|