• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于特征細(xì)化的多標(biāo)簽學(xué)習(xí)無(wú)監(jiān)督行人重識(shí)別

      2023-03-15 14:27:18陳元妹王鳳隨錢(qián)亞萍王路遙

      陳元妹 王鳳隨 錢(qián)亞萍 王路遙

      摘 要: 針對(duì)無(wú)監(jiān)督行人重識(shí)別中行人特征表達(dá)不充分以及訓(xùn)練過(guò)程產(chǎn)生噪聲標(biāo)簽等問(wèn)題,提出了一種基于特征細(xì)化的多標(biāo)簽學(xué)習(xí)無(wú)監(jiān)督行人重識(shí)別方法。首先,為提高網(wǎng)絡(luò)對(duì)關(guān)鍵區(qū)域信息的利用能力,設(shè)計(jì)多尺度通道注意力模塊(Multi-scale channel attention module, MCAM),嵌入ResNet50網(wǎng)絡(luò)的不同層來(lái)構(gòu)建特征細(xì)化網(wǎng)絡(luò),并利用該網(wǎng)絡(luò)對(duì)輸入圖像通道維度上的關(guān)鍵信息進(jìn)行強(qiáng)化和關(guān)注,以獲得更豐富的特征信息;其次,為降低訓(xùn)練過(guò)程中產(chǎn)生的噪聲標(biāo)簽對(duì)網(wǎng)絡(luò)的負(fù)面影響,設(shè)計(jì)多標(biāo)簽學(xué)習(xí)模塊(Multi-label learning module, MLM),通過(guò)該模塊進(jìn)行正標(biāo)簽預(yù)測(cè)以生成可靠的偽標(biāo)簽;最后,利用多標(biāo)簽分類(lèi)損失和對(duì)比損失進(jìn)行無(wú)監(jiān)督學(xué)習(xí)。在數(shù)據(jù)集Market-1501和DukeMTMC-reID上進(jìn)行實(shí)驗(yàn),結(jié)果表明該方法在這兩個(gè)數(shù)據(jù)集上的平均精度均值分別達(dá)到82.8%和70.9%,首位命中率分別達(dá)到92.9%和83.9%。該方法使用注意力機(jī)制強(qiáng)化圖像的特征信息,并通過(guò)正標(biāo)簽預(yù)測(cè)減少噪聲標(biāo)簽,有效提升了無(wú)監(jiān)督行人重識(shí)別的準(zhǔn)確率,為無(wú)監(jiān)督行人重識(shí)別領(lǐng)域提供了更魯棒的方法。

      關(guān)鍵詞: 行人重識(shí)別;無(wú)監(jiān)督;特征細(xì)化;多尺度通道注意力;多標(biāo)簽學(xué)習(xí)

      中圖分類(lèi)號(hào): TP391.4

      文獻(xiàn)標(biāo)志碼: A

      文章編號(hào): 1673-3851 (2023) 11-0755-09

      引文格式:陳元妹,王鳳隨,錢(qián)亞萍,等.基于特征細(xì)化的多標(biāo)簽學(xué)習(xí)無(wú)監(jiān)督行人重識(shí)別[J]. 浙江理工大學(xué)學(xué)報(bào)(自然科學(xué)),2023,49(6):755-763.

      Reference Format: CHEN Yuanmei, WANG Fengsui, QIAN Yaping, et al. Multi-label learning unsupervised person re-identification based on feature refinement[J]. Journal of Zhejiang Sci-Tech University,2023,49(6):755-763.

      Multi-label learning unsupervised person re-identification based on feature refinement

      CHEN Yuanmei, WANG Fengsui, QIAN Yaping, WANG Luyao

      (a.School of Electrical Engineering; b.Key Laboratory of Advanced Perception and Intelligent Control of High-end Equipment, Ministry of Education, Anhui Polytechnic University, Wuhu 241000, China)

      Abstract:? Aiming at the issue of inadequate expression of person features and noise labels generated in the training process in unsupervised person re-identification, we proposed a multi-label learning unsupervised person re-identification method based on feature refinement. Firstly, to improve the network′s ability to use key area information, a multi-scale channel attention module (MCAM) was designed. We embedded it into different layers of ResNet50 to construct a feature refinement network. This network was used to srengthen and focus the information on the channel dimension of the input image to obtain richer feature descriptions. Secondly, to reduce the detrimental effects of noise labels produced during network training, we designed a multi-label learning module (MLM). Positive label prediction was performed through this module to generate reliable pseudo-labels. Finally, unsupervised learning was carried out by using multi-label classification loss combined with contrast loss. We conducted experiments on Market-1501 and DukeMTMC-reID datasets. The results show that the Rank-1 hit rate is 92.9% and 83.9%, while the mean average precision reaches 82.8% and 70.9%, respectively. This method uses the attention mechanism to enhance the feature information of the image and reduces the noise label by positive label prediction. It effectively improves the accuracy of unsupervised person re-identification and provides a more robust method for unsupervised person re-identification fields.

      Key words: person re-identification; unsupervised; features refinement; multi-scale channel attention; multi-label learning

      0 引 言

      行人重識(shí)別任務(wù)旨在不同的攝像機(jī)中識(shí)別出同一行人,這項(xiàng)任務(wù)在預(yù)防犯罪和維護(hù)公共安全方面具有重要意義[1-3]。目前在行人重識(shí)別方法中,有監(jiān)督行人重識(shí)別的精準(zhǔn)度相對(duì)較高,但該方法需要完整的真實(shí)標(biāo)簽,成本高昂且標(biāo)注耗時(shí);無(wú)監(jiān)督行人重識(shí)別可以彌補(bǔ)有監(jiān)督行人重識(shí)別需要真實(shí)標(biāo)簽的不足,能夠從未標(biāo)記的數(shù)據(jù)集中學(xué)習(xí)行人身份的類(lèi)間差異特征和類(lèi)內(nèi)相似特征,降低了標(biāo)注成本,更適合實(shí)際應(yīng)用。

      基于深度學(xué)習(xí)的行人重識(shí)別方法通常利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural network,CNN)來(lái)提取深層次的特征[4-5]。但由于圖像模糊、行人姿態(tài)、行人遮擋、光線等因素的影響,CNN無(wú)法從行人圖像中精確提取關(guān)鍵區(qū)域信息,導(dǎo)致行人重識(shí)別精度較低。因此,研究基于深度學(xué)習(xí)的行人重識(shí)別方法,首要任務(wù)是提升復(fù)雜場(chǎng)景下行人圖像的特征提取能力,以減少網(wǎng)絡(luò)訓(xùn)練過(guò)程中的噪聲標(biāo)簽,提高訓(xùn)練速度和精度。

      目前已有大量基于深度學(xué)習(xí)的行人重識(shí)別研究。劉紫燕等[6]提出了一種基于注意力機(jī)制的行人重識(shí)別方法,利用注意力機(jī)制緩解了環(huán)境因素的影響,有效提取了整個(gè)行人的特征。Cho等[7]提出了一種基于部件的偽標(biāo)簽細(xì)化(Part-based pseudo label refinement,PPLR)框架,將交叉一致性分?jǐn)?shù)作為特征相似性,并通過(guò)部分特征的預(yù)測(cè)信息來(lái)細(xì)化全局特征,以此減少全局特征聚類(lèi)中的噪聲標(biāo)簽。Ge等[8]提出了一種自步對(duì)比學(xué)習(xí)(Self-paced contrastive learning,SPCL)框架,結(jié)合源域和目標(biāo)域信息進(jìn)行聯(lián)合特征學(xué)習(xí);與其他對(duì)比學(xué)習(xí)框架不同的是,SPCL可以為源域類(lèi)級(jí)、目標(biāo)域簇級(jí)和非簇實(shí)例級(jí)提供監(jiān)督信號(hào),并動(dòng)態(tài)更新混合內(nèi)存,充分挖掘了所有訓(xùn)練數(shù)據(jù)的信息,提高了目標(biāo)重識(shí)別準(zhǔn)確率。為充分獲取行人信息,Lin等[9]提出了一種自下而上的聚類(lèi)方法(Bottom up clustering,BUC),在聚類(lèi)過(guò)程中使用多樣性正則項(xiàng)來(lái)平衡每個(gè)聚類(lèi)中的樣本數(shù)量,實(shí)現(xiàn)了多樣性和相似性的有效平衡。孫義博等[10]提出了一種基于通道注意力機(jī)制的行人重識(shí)別方法,有效提取了更魯棒的行人特征,使設(shè)計(jì)的網(wǎng)絡(luò)模型達(dá)到了更高的識(shí)別精度。Yu等[11]提出了一種基于深度聚類(lèi)的無(wú)監(jiān)督非對(duì)稱(chēng)距離度量學(xué)習(xí)方法,該方法有效降低了由于光線、遮擋等問(wèn)題引起的圖像偏差,從而有利于無(wú)監(jiān)督行人重識(shí)別網(wǎng)絡(luò)挖掘潛在的行人特征信息。Zhang等[12]為充分挖掘行人圖像中的判別性信息,并保持跨域標(biāo)簽的一致性,提出了一種基于軟多標(biāo)簽和復(fù)合注意力模塊的無(wú)監(jiān)督行人重識(shí)別方法。Xuan等[13]提出了一種相機(jī)內(nèi)和相機(jī)間的相似度計(jì)算(Intra-inter camera similarity, IICS)方法,相機(jī)內(nèi)的相似度直接利用CNN提取每個(gè)相機(jī)內(nèi)的特征,相機(jī)間的相似度利用每個(gè)樣本在不同相機(jī)上的分類(lèi)分?jǐn)?shù)計(jì)算;這種相似度計(jì)算方法有效緩解了相機(jī)間的樣本分布差異問(wèn)題,使網(wǎng)絡(luò)生成更可靠的偽標(biāo)簽。以上研究雖然取得了一定的成果,可以在復(fù)雜背景下提取行人的特征信息,但忽略了行人圖像中的細(xì)微特征。此外,如果無(wú)監(jiān)督行人重識(shí)別網(wǎng)絡(luò)模型沒(méi)有充分提取樣本中的特征信息,易產(chǎn)生噪聲偽標(biāo)簽,使得行人重識(shí)別準(zhǔn)確率降低。

      為充分提取行人圖像中的關(guān)鍵信息,減少訓(xùn)練過(guò)程中產(chǎn)生的噪聲標(biāo)簽,本文提出了一種基于特征細(xì)化的多標(biāo)簽學(xué)習(xí)無(wú)監(jiān)督行人重識(shí)別方法。首先設(shè)計(jì)了多尺度通道注意力模塊(Multi-scale channel attention module,MCAM),使得行人重識(shí)別模型對(duì)全局和局部通道上特征進(jìn)行加權(quán)和強(qiáng)化;其次,設(shè)計(jì)了多標(biāo)簽學(xué)習(xí)模塊(Multi-label learning module,MLM),利用MLM模塊進(jìn)行正標(biāo)簽預(yù)測(cè),以減少噪聲標(biāo)簽的影響;最后,利用多損失聯(lián)合監(jiān)督網(wǎng)絡(luò)學(xué)習(xí),提高行人重識(shí)別模型的訓(xùn)練效率。本文提出的方法強(qiáng)化了行人圖像中全局和局部通道中的重要信息,在有效提取行人關(guān)鍵特征的基礎(chǔ)上通過(guò)MLM模塊提高了偽標(biāo)簽的質(zhì)量;無(wú)監(jiān)督行人重識(shí)別網(wǎng)絡(luò)模型在訓(xùn)練過(guò)程中無(wú)需額外的信息標(biāo)注,在節(jié)約成本的同時(shí)提高了無(wú)監(jiān)督行人重識(shí)別的準(zhǔn)確率。

      1 本文方法

      1.1 整體網(wǎng)絡(luò)結(jié)構(gòu)

      本文提出的基于特征細(xì)化的多標(biāo)簽學(xué)習(xí)無(wú)監(jiān)督行人重識(shí)別方法,采用ResNet50作為基礎(chǔ)網(wǎng)絡(luò),并在基礎(chǔ)網(wǎng)絡(luò)的Layer3、Layer4之間和Layer4、Layer5之間添加MCAM模塊作為主干網(wǎng)絡(luò),整體網(wǎng)絡(luò)結(jié)構(gòu)示意圖如圖1所示。

      整體網(wǎng)絡(luò)結(jié)構(gòu)主要分為兩個(gè)模塊:代理輔助學(xué)習(xí)模塊和多標(biāo)簽學(xué)習(xí)模塊。

      在代理輔助學(xué)習(xí)模塊,首先對(duì)網(wǎng)絡(luò)提取的特征進(jìn)行全局聚類(lèi);其次,將每個(gè)聚類(lèi)作為多個(gè)相機(jī)感知代理,并生成一組新的偽標(biāo)簽;最后,將代理特征存儲(chǔ)在代理級(jí)記憶庫(kù)中,并利用代理特征更新代理級(jí)記憶庫(kù),同時(shí)計(jì)算對(duì)比損失。

      在多標(biāo)簽學(xué)習(xí)模塊中,將主干網(wǎng)絡(luò)提取的2048維特征存儲(chǔ)在記憶庫(kù)中,并計(jì)算輸入特征與其他特征之間的相似性分?jǐn)?shù)。同時(shí)根據(jù)相似性分?jǐn)?shù)進(jìn)行正標(biāo)簽預(yù)測(cè),提高偽標(biāo)簽質(zhì)量。最后計(jì)算多標(biāo)簽分類(lèi)損失,多標(biāo)簽分類(lèi)損失在迭代訓(xùn)練過(guò)程中不斷更新網(wǎng)絡(luò)。

      1.2 多尺度通道注意力模塊

      MCAM模塊的核心思想是通過(guò)添加全局平均池化層來(lái)實(shí)現(xiàn)多個(gè)尺度上的通道注意。MCAM模塊由全局和局部通道上下文構(gòu)成,其中全局通道又分為兩個(gè)分支。一個(gè)分支不改變通道維度,另一個(gè)分支先降維后升維,從而學(xué)習(xí)到不同維度的特征圖。多尺度通道注意力模塊結(jié)構(gòu)示意圖如圖2所示。

      將MCAM模塊的輸入特征圖記為F∈RH×W×C,輸出特征圖記為F*∈RH×W×C。

      在全局通道上下文結(jié)構(gòu)中,首先,將特征圖F輸入全局平均池化層(Global average pooling, GAP),得到1×1×C的特征描述。其次,將1×1×C的特征信息分別輸入兩個(gè)分支。其中一個(gè)分支僅經(jīng)過(guò)一維卷積層,另一個(gè)分支依次經(jīng)過(guò)二維卷積層、BN層、ReLU激活函數(shù)層、二維卷積層、BN層。最后,輸出全局通道上下文信息g,g可用式(1)計(jì)算:

      其中:PmA表示mAP值;C表示類(lèi)別數(shù);PA,i表示第i個(gè)類(lèi)別的平均精度;P(k)代表top-k檢索結(jié)果的精準(zhǔn)率;Δr(k)=R(k)-R(k-1);R(k)為top-k結(jié)果的召回率,R(0)=0。每次實(shí)驗(yàn)采用隨機(jī)測(cè)試集重復(fù)10次,計(jì)算平均性能。

      2.2 實(shí)驗(yàn)設(shè)置

      本文實(shí)驗(yàn)選用的GPU為NVIDIAGeForce RTX 2080Ti(11 GiB),操作系統(tǒng)為Ubuntu 16.04,處理器為英特爾Core i9-10900@3.7 GiHz,深度學(xué)習(xí)框架為Fytorch 1.2.0。本文采用ImageNet預(yù)訓(xùn)練的ResNet50作基礎(chǔ)網(wǎng)絡(luò)。在每個(gè)epoch的開(kāi)始,本文計(jì)算k倒數(shù)最鄰近的Jaccard距離,并使用Density-based spatial clustering of applications with noise (DBSCAN)進(jìn)行全局聚類(lèi)。模型的訓(xùn)練批次由從8個(gè)代理中隨機(jī)抽取的32張圖像組成,每個(gè)代理有4張圖像。采用隨機(jī)翻轉(zhuǎn)、裁剪和擦除等數(shù)據(jù)增強(qiáng)方法。epoch大小設(shè)置為50,在前10個(gè)epoch采用預(yù)熱方案,初始學(xué)習(xí)率為0.00035,每20個(gè)epoch后除以10。正標(biāo)簽預(yù)測(cè)中相似性閾值設(shè)置為0.6,超參數(shù)μ=α=0.5,τ=0.07,λ=0.5,ω=5??倱p失函數(shù)采用對(duì)比損失和多標(biāo)簽分類(lèi)損失,前5個(gè)epoch僅使用相機(jī)內(nèi)對(duì)比損失和多標(biāo)簽分類(lèi)損失,在剩余的epoch中,相機(jī)間對(duì)比損失與其共同作用,訓(xùn)練過(guò)程中總損失曲線如圖3所示。

      2.3 消融實(shí)驗(yàn)

      2.3.1 MCAM模塊嵌入層實(shí)驗(yàn)

      為分析MCAM模塊嵌入不同層的實(shí)驗(yàn)效果,本文在Market-1501數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果見(jiàn)表1。其中Layer2、Layer3、Layer4、Layer5分別表示在ResNet50的第2層、3層、4層、5層之后嵌入MCAM模塊。Layer3+Layer4表示在第3層和第4層之后同時(shí)嵌入MCAM模塊。

      由表1可以看出,與分別在Layer2和Layer5之后嵌入MCAM模塊相比,在Layer3和Layer4之后分別嵌入MCAM模塊的實(shí)驗(yàn)結(jié)果較好,并且在Layer3和Layer4之后分別嵌入MCAM模塊的實(shí)驗(yàn)結(jié)果基本相同。因此本文在Layer3和Layer4之后同時(shí)嵌入MCAM模塊進(jìn)行一次實(shí)驗(yàn),結(jié)果發(fā)現(xiàn),該方式比分別在Layer3和Layer4之后嵌入MCAM模塊的效果更佳。由該實(shí)驗(yàn)結(jié)果可知,將MCAM模塊同時(shí)嵌入基礎(chǔ)網(wǎng)絡(luò)的Layer3和Layer4之后,無(wú)監(jiān)督行人重識(shí)別網(wǎng)絡(luò)挖掘行人關(guān)鍵特征的能力更優(yōu)。因此本文在第3層和第4層之后都嵌入MCAM模塊,將此網(wǎng)絡(luò)作為本文的主干特征提取網(wǎng)絡(luò)。

      2.3.2 MCAM模塊和MLM模塊有效性驗(yàn)證實(shí)驗(yàn)

      為進(jìn)一步驗(yàn)證MCAM模塊和MLM模塊的有效性,在Market-1501數(shù)據(jù)集進(jìn)行消融實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果見(jiàn)表2,其中:Baseline+MCAM表示在基線網(wǎng)絡(luò)基礎(chǔ)上僅添加MCAM模塊,Baseline+MLM表示僅添加MLM模塊,Baseline+MCAM+MLM為本文最終的模型。

      實(shí)驗(yàn)過(guò)程如下:首先,對(duì)基線網(wǎng)絡(luò)進(jìn)行測(cè)試,基線網(wǎng)絡(luò)的PmA為78.0%,R1為90.5%;其次,在基線網(wǎng)絡(luò)ResNet50中嵌入MCAM模塊,由表2可以看出,PmA和R1分別提高了2.0%和1.4%;再次,在基線網(wǎng)絡(luò)中添加MLM模塊,其PmA和R1分別為81.0%和91.8%,相比基線網(wǎng)絡(luò)分別提高了3.0%和1.3%;最后,將MCAM模塊和MLM模塊同時(shí)添加至基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)中,其PmA達(dá)到了82.8%,與原先網(wǎng)絡(luò)相比大幅提升了4.8%,R1達(dá)到了92.9%,在原先網(wǎng)絡(luò)基礎(chǔ)上提升了2.4%。

      通過(guò)實(shí)驗(yàn)結(jié)果可以看出,同時(shí)添加MCAM模塊和MLM模塊的評(píng)價(jià)指標(biāo)最好,表明聯(lián)合使用MCAM模塊和MLM能夠有效提升無(wú)監(jiān)督行人重識(shí)別的精確度,本文所提出的改進(jìn)的方法有效。

      2.3.3 參數(shù)β取值實(shí)驗(yàn)

      為探究本文總損失函數(shù)中參數(shù)β的取值對(duì)模型識(shí)別精度的影響,本文選取了β=0.4, 0.5, …, 0.8等5個(gè)不同的數(shù)值,在Market-1501和DuleMTMC-reID數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果見(jiàn)表3。

      表3的實(shí)驗(yàn)結(jié)果顯示,當(dāng)選取不同β值時(shí),Market-1501和DuleMTMC-reID數(shù)據(jù)集的PmA和R1均呈先升后降的趨勢(shì)。當(dāng)β取0.6時(shí),兩個(gè)數(shù)據(jù)集均呈現(xiàn)最佳效果,因此本文中β取0.6。

      2.4 可視化結(jié)果分析

      為比較本文方法與基線方法的行人重識(shí)別效果,本文在Market-1501數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),其中行人a、行人b、行人c的識(shí)別結(jié)果如圖4所示。圖4中第1列為待識(shí)別行人;后10列為行人重識(shí)別準(zhǔn)確率最高的前10張行人圖像,即R1至R10對(duì)應(yīng)的行人重識(shí)別結(jié)果。每張識(shí)別圖像上方均標(biāo)有數(shù)字,其中:未標(biāo)方框的圖像表示行人識(shí)別正確;標(biāo)有方框的圖像表示誤識(shí)別為其他行人,即行人識(shí)別錯(cuò)誤。

      由圖4可知,對(duì)于行人a,應(yīng)用基線方法的行人重識(shí)別結(jié)果中有5張圖像識(shí)別錯(cuò)誤,而應(yīng)用本文方法的行人重識(shí)別結(jié)果僅出現(xiàn)1張圖像識(shí)別錯(cuò)誤;對(duì)于行人b和c,應(yīng)用基線方法分別出現(xiàn)2張和3張圖像識(shí)別錯(cuò)誤,而本文方法未出現(xiàn)識(shí)別錯(cuò)誤。上述實(shí)驗(yàn)結(jié)果表明,本文方法可以充分提取行人圖像的細(xì)節(jié)特征,減少噪聲標(biāo)簽,有效提升了無(wú)監(jiān)督行人重識(shí)別的準(zhǔn)確率;同時(shí)該結(jié)果表明,多尺度通道注意力模塊和多標(biāo)簽學(xué)習(xí)模塊聯(lián)合使用的行人重識(shí)別方法具有較強(qiáng)的魯棒性。

      為驗(yàn)證MCAM模塊的有效性,本文利用梯度加權(quán)類(lèi)激活熱力圖技術(shù)(Gradient-weighted class activation mapping,Grad-CAM)[17]對(duì)MCAM模塊輸出的區(qū)域注意力特征在Market-1501數(shù)據(jù)集上進(jìn)行可視化分析,熱力圖如圖5所示。

      圖5結(jié)果表明,MCAM模塊強(qiáng)化了行人圖像中多樣化的細(xì)節(jié)特征,如背包、手持物體、衣服圖案等,提高了無(wú)監(jiān)督行人重識(shí)別網(wǎng)絡(luò)的特征提取能力。

      2.5 與其他無(wú)監(jiān)督行人重識(shí)別方法對(duì)比實(shí)驗(yàn)

      本文方法與其他典型無(wú)監(jiān)督行人重識(shí)別方法在Market-1501和DukeMTMC-reID兩個(gè)大數(shù)據(jù)集上進(jìn)行了對(duì)比,對(duì)比方法包括ACAN-GRL[18]、CVSE[19]、MSC-GDC[20]、CAP[21]、CAPL[22]等,對(duì)比結(jié)果見(jiàn)表4,表身中的空白表示文獻(xiàn)中沒(méi)有報(bào)告相關(guān)數(shù)據(jù)。

      由表4可以看出,在同一評(píng)估指標(biāo)下,本文方法相較于其他方法取得了更好的識(shí)別結(jié)果。將本文方法與Attention+RAdam方法相比,在Market-1501和DukeMTMC-reID數(shù)據(jù)集下,PmA與R1均大幅提升。Attention+RAdam方法與本文方法均使用注意力機(jī)制來(lái)輔助網(wǎng)絡(luò)關(guān)注行人圖像中的關(guān)鍵信息。Attention+RAdam方法僅對(duì)全局信息進(jìn)行關(guān)注,而本文的MCAM模塊對(duì)全局和局部通道上的關(guān)鍵信息同時(shí)施加關(guān)注,獲得了更加豐富的行人特征信息。本文方法與IICS方法相比,PmA分別提高了9.9%和6.5%,R1分別增加了3.4%和3.9%。與CAP方法相比,PmA均提高了3.6%,R1分別增加了1.5%和2.8%。CAP方法與本文方法均采用相機(jī)感知代理學(xué)習(xí)策略,不同的是,本文將相機(jī)感知代理學(xué)習(xí)與多標(biāo)簽學(xué)習(xí)模塊置于同一架構(gòu)進(jìn)行聯(lián)合學(xué)習(xí),通過(guò)進(jìn)行正標(biāo)簽預(yù)測(cè)減少噪聲標(biāo)簽,提高偽標(biāo)簽質(zhì)量。CVSE、MSC-GDC方法在兩個(gè)數(shù)據(jù)集上的識(shí)別準(zhǔn)確率都遠(yuǎn)低于本文方法,進(jìn)一步驗(yàn)證了本文所提方法的有效性和先進(jìn)性。

      3 結(jié) 語(yǔ)

      本文提出了一種基于特征細(xì)化的多標(biāo)簽學(xué)習(xí)無(wú)監(jiān)督行人重識(shí)別方法。在特征提取過(guò)程中使用多尺度通道注意力模塊融合了全局和局部通道信息,更加關(guān)注行人重識(shí)別網(wǎng)絡(luò)所需要的信息;在多標(biāo)簽學(xué)習(xí)中通過(guò)標(biāo)簽預(yù)測(cè)生成了可靠偽標(biāo)簽,有效提高了行人重識(shí)別的準(zhǔn)確率。實(shí)驗(yàn)結(jié)果顯示,Market-1501和DukeMTMC-reID數(shù)據(jù)集的平均精度均值分別達(dá)到了82.8%和70.9%,首位命中率分別達(dá)到92.9%和83.9%,表明本文方法能夠在充分提取行人特征的同時(shí)減少噪聲標(biāo)簽,提升了無(wú)監(jiān)督行人重識(shí)別模型的性能。

      為進(jìn)一步提升行人重識(shí)別網(wǎng)絡(luò)提取特征的能力,后續(xù)研究可考慮同時(shí)使用空間注意力和通道注意力,使行人重識(shí)別網(wǎng)絡(luò)模型分別從位置和通道上關(guān)注行人圖像中的關(guān)鍵信息,更加準(zhǔn)確地定位到目標(biāo)區(qū)域,從而獲得更豐富的特征信息。

      參考文獻(xiàn):

      [1]黃新宇, 許嬌龍, 郭綱, 等. 基于增強(qiáng)聚合通道特征的實(shí)時(shí)行人重識(shí)別[J]. 激光與光電子學(xué)進(jìn)展, 2017, 54(9): 119-127.

      [2]羅浩, 姜偉, 范星, 等. 基于深度學(xué)習(xí)的行人重識(shí)別研究進(jìn)展[J]. 自動(dòng)化學(xué)報(bào), 2019, 45(11): 2032-2049.

      [3]Wang Y Y, Li X A, Jiang M X, et al. Cross-view pedestrian clustering via graph convolution network for unsupervised person re-identification[J]. Journal of Intelligent & Fuzzy Systems, 2020, 39(3): 4453-4462.

      [4]Kim G, Shu D W, Kwon J. Robust person re-identification via graph convolution networks[J]. Multimedia Tools and Applications, 2021, 80(19): 29129-29138.

      [5]潘海鵬, 郝慧, 蘇雯. 基于注意力機(jī)制與多尺度特征融合的人臉表情識(shí)別[J]. 浙江理工大學(xué)學(xué)報(bào)(自然科學(xué)版), 2022, 47(3): 382-388.

      [6]劉紫燕, 萬(wàn)培佩. 基于注意力機(jī)制的行人重識(shí)別特征提取方法[J]. 計(jì)算機(jī)應(yīng)用, 2020, 40(3): 672-676.

      [7]Cho Y, Kim W J, Hong S, et al. Part-based pseudo label refinement for unsupervised person re-identification[C]∥2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). New Orleans, LA, USA. IEEE, 2022: 7308-7318.

      [8]Ge Y X, Zhu F, Chen D P, et al. Self-paced contrastive learning with hybrid memory for domain adaptive object re-ID[C]∥Proceedings of the 34th International Conference on Neural Information Processing Systems. Vancouver, BC, Canada. New York: ACM, 2020: 11309-11321.

      [9]Lin Y T, Dong X Y, Zheng L A, et al. A bottom-up clustering approach to unsupervised person re-identification[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2019, 33(1): 8738-8745.

      [10]孫義博, 張文靖, 王蓉, 等. 基于通道注意力機(jī)制的行人重識(shí)別方法[J]. 北京航空航天大學(xué)學(xué)報(bào), 2022, 48(5): 881-889.

      [11]Yu H X, Wu A C, Zheng W S. Unsupervised person re-identification by deep asymmetric metric embedding[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(4): 956-973.

      [12]Zhang B H, Zhu S Y, Zhou Y F, et al. A novel unsupervised person re-identification algorithm based on soft multi-label and compound attention model[J]. Multimedia Tools and Applications, 2022, 81(17): 24081-24098.

      [13]Xuan S Y, Zhang S L. Intra-inter camera similarity for unsupervised person re-identification[C]∥2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Nashville, TN, USA. IEEE, 2021: 11921-11930.

      [14]Xie K, Wu Y, Xiao J, et al. Unsupervised person re-identifcation via K-reciprocal encoding and style transfer[J]. International Journal of Machine Learning and Cybernetics, 2021, 12(10): 2899-2916.

      [15]Zheng L, Shen L Y, Tian L, et al. Scalable person re-identification:a benchmark [C]∥2015 IEEE International Conference on Computer Vision (ICCV). Santiago, Chile. IEEE, 2016:1116-1124.

      [16]Zheng Z D, Zheng L, Yang Y. Unlabeled samples generated by GAN improve the person re-identification baseline in vitro[C]∥2017 IEEE International Conference on Computer Vision (ICCV). Venice, Italy. IEEE, 2017: 3774-3782.

      [17]Selvaraju R R, Cogswell M, Das A, et al. Grad-cam: Visual explanations from deep networks via gradient-based localization[C]∥2017 IEEE International Conference on Computer Vision (ICCV). Venice, Italy. IEEE, 2017: 618-626.

      [18]Qi L, Wang L, Huo J, et al. Adversarial camera alignment network for unsupervised cross-camera person re-identification[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2022, 32(5): 2921-2936.

      [19]Zhou S R, Wang Y, Zhang F, et al. Cross-view similarity exploration for unsupervised cross-domain person re-identification[J]. Neural Computing and Applications, 2021, 33(9): 4001-4011.

      [20]Pang Z Q, Guo J F, Ma Z Q, et al. Median stable clustering and global distance classification for cross-domain person re-identification[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2022, 32(5): 3164-3177.

      [21]Wang M L, Lai B S, Huang J Q, et al. Camera-aware proxies for unsupervised person re-identification[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2021, 35(4): 2764-2772.

      [22]Liu Y X, Ge H W, Sun L, et al. Camera-aware progressive learning for unsupervised person re-identification[J]. Neural Computing and Applications, 2023, 35(15): 11359-11371.

      (責(zé)任編輯:康 鋒)

      收稿日期: 2023-04-14網(wǎng)絡(luò)出版日期:2023-07-07

      基金項(xiàng)目: 安徽省自然科學(xué)基金項(xiàng)目(2108085MF197);安徽高校省級(jí)自然科學(xué)研究重點(diǎn)項(xiàng)目(KJ2019A0162);安徽工程大學(xué)國(guó)家自然科學(xué)基金預(yù)研項(xiàng)目(Xjky2022040)

      作者簡(jiǎn)介: 陳元妹(1998- ),女,安徽宿州人,碩士研究生,主要從事智能信息處理方面的研究。

      通信作者: 王鳳隨,E-mail:fswang@ahpu.edu.cn

      东阿县| 青海省| 泉州市| 东乌珠穆沁旗| 泌阳县| 大港区| 永吉县| 都江堰市| 额尔古纳市| 井研县| 迭部县| 治多县| 临漳县| 广西| 多伦县| 泰兴市| 岳阳市| 永仁县| 象州县| 万盛区| 昆明市| 咸阳市| 华池县| 曲水县| 玉门市| 墨竹工卡县| 松桃| 张家川| 淳化县| 札达县| 贵德县| 彭山县| 陇川县| 大悟县| 五大连池市| 龙口市| 阿巴嘎旗| 秦安县| 黎川县| 马边| 彰武县|