龔云鵬,曾智勇,葉 鋒
(福建師范大學(xué)計(jì)算機(jī)與網(wǎng)絡(luò)空間安全學(xué)院,福州 350117)
(?通信作者電子郵箱zzyong@fjnu.edu.cn)
視頻分析及圖像偵查技術(shù)在安防、智慧城市、民生服務(wù)等方面發(fā)揮了愈來(lái)愈強(qiáng)大的作用。行人重識(shí)別(Person Re-Identification,ReID)是對(duì)行人進(jìn)行跨攝像頭檢索,從而判斷圖像或者視頻序列中是否存在特定身份行人的技術(shù)[1]。這項(xiàng)任務(wù)的挑戰(zhàn)在于不同攝像頭拍攝的圖像往往包含由視角、人體姿態(tài)、光線變化、遮擋等變化引起的顯著的類內(nèi)變化,即同一行人圖像的表觀可能會(huì)發(fā)生了巨大的變化,使得行人間的類內(nèi)(同一個(gè)行人)的差異可能大于類間(不同行人)差異,因此,尋找更加魯棒的特征與度量方法來(lái)有效地解決上述問(wèn)題,已經(jīng)成為ReID的主要目標(biāo)之一。
本文提出的方法通過(guò)模擬行人樣本的顏色信息丟失并從數(shù)據(jù)增強(qiáng)的角度強(qiáng)調(diào)樣本的結(jié)構(gòu)信息,促進(jìn)模型學(xué)習(xí)到更穩(wěn)健的特征。灰度圖像可以看作是丟失了一些顏色信息但保留了空間結(jié)構(gòu)的RGB 圖像。在人類認(rèn)知上,人類通過(guò)灰度圖片就可以很好地辨別不同的行人。因此,探究如何充分利用灰度信息,減少顏色信息偏差對(duì)ReID 的影響是一個(gè)重要的問(wèn)題。為了探究灰度圖像在ReID 任務(wù)中的所能起到的作用,本文設(shè)計(jì)了如下的灰度貢獻(xiàn)率測(cè)試實(shí)驗(yàn):
通過(guò)圖像的灰度變換將可見(jiàn)光RGB 圖像構(gòu)成的數(shù)據(jù)集A1 轉(zhuǎn)換成由灰度圖像構(gòu)成的數(shù)據(jù)集A2,然后分別用A1 和A2在同一個(gè)基準(zhǔn)模型上訓(xùn)練和測(cè)試,并把模型在RGB 數(shù)據(jù)集和其對(duì)應(yīng)灰度數(shù)據(jù)集上相應(yīng)性能評(píng)價(jià)指標(biāo)的比值當(dāng)作灰度信息的貢獻(xiàn)率,如圖1所示。
圖1 灰度貢獻(xiàn)率實(shí)驗(yàn)示意圖Fig.1 Schematic diagram of experiment on grayscale contribution rate
表1 則展示了在ReID 三個(gè)數(shù)據(jù)集上測(cè)試得到灰度圖像在各數(shù)據(jù)集上對(duì)模型性能的貢獻(xiàn)度,其中:Rank-1、Rank-5、Rank-10表示按相似度排序的查詢結(jié)果中第1、5、10個(gè)返回結(jié)果的平均準(zhǔn)確率,mAP 表示平均精度均值(mean Average Precision)??梢钥闯觯叶葓D像對(duì)檢索精度的貢獻(xiàn)率占87%以上。值得一提的是,在Rank10 中,灰度圖像對(duì)檢索精度的貢獻(xiàn)率高達(dá)95%以上。
表1 不同數(shù)據(jù)集上在各評(píng)價(jià)指標(biāo)上的灰度貢獻(xiàn)率 單位:%Tab.1 Grayscale contribution rate on each evaluation index on different datasets unit:%
圖2直觀地展示了利用灰度進(jìn)行數(shù)據(jù)增強(qiáng)(圖2(a))和利用生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)進(jìn)行數(shù)據(jù)增強(qiáng)(圖2(b))這兩種數(shù)據(jù)增強(qiáng)方式的對(duì)比。如圖2(a)中第一行彩色圖像和第二行灰度圖像所示(第一列圖像給出來(lái)正常情況下的對(duì)比,其余列為具有顏色偏差的情況下的對(duì)比),各數(shù)據(jù)集中普遍存在著行人對(duì)比度低的著裝、暗色系和灰色系著裝、行人的移動(dòng)而引起的圖像模糊或分辨率低、光線變化等引起的顏色偏差等問(wèn)題,這些因素使得圖片本身會(huì)更接近于灰度圖片。由于顏色偏差問(wèn)題客觀存在且不可避免,即使顏色偏差不是趨向于介于黑白的灰度形式而是看起來(lái)整體圖像偏向于某一色調(diào),總體情形也是相似的,因?yàn)檫@種情況下模型在判別過(guò)程中所依賴的顏色信息都已經(jīng)不再可靠,而圖像結(jié)構(gòu)信息就顯得尤為重要。這也直觀地揭示了為什么在評(píng)價(jià)指標(biāo)Rank-10 上灰度圖像對(duì)檢索精度的貢獻(xiàn)率能夠高達(dá)95%以上。這些證據(jù)表明灰度圖像的空間結(jié)構(gòu)信息在ReID檢索任務(wù)中具有很大的潛力。
如圖2(b)所示,Zheng 等[5]提出的DGNet 利用GAN 為圖像上的每一個(gè)行人換上其他行人的衣著,生成了更多樣化的數(shù)據(jù)來(lái)降低顏色變化對(duì)模型的影響,有效提升了模型的泛化能力。該結(jié)果表明,通過(guò)減少模型訓(xùn)練過(guò)程中對(duì)顏色信息的過(guò)度擬合,可以有效提高模型的泛化能力。實(shí)際上,本文提出的局部灰度轉(zhuǎn)換(Local Grayscale Transformation,LGT)方法通過(guò)隨機(jī)將RGB 圖像中的某些區(qū)域轉(zhuǎn)換為灰度也可以達(dá)到相同的目的。
圖2 兩種數(shù)據(jù)增強(qiáng)方式對(duì)比Fig.2 Comparison of two data augmentation approaches
基于對(duì)灰度貢獻(xiàn)率的探索,本文提出了一種有效的數(shù)據(jù)增強(qiáng)方法來(lái)模擬行人圖像顏色信息的丟失來(lái)提高特征的魯棒性,所提方法包括全局灰度轉(zhuǎn)換(Global Grayscale Transformation,GGT)、局部灰度轉(zhuǎn)換(LGT)以及這兩者的組合。該方法有以下的優(yōu)點(diǎn):
1)它是一種輕量級(jí)方法,可以在不改變學(xué)習(xí)策略的情況下與各種卷積神經(jīng)網(wǎng)絡(luò)模型相結(jié)合;
2)它是現(xiàn)有數(shù)據(jù)增強(qiáng)的一種補(bǔ)充方法,當(dāng)組合其他方法使用時(shí),本文方法可以進(jìn)一步提高模型識(shí)別精度。
本文的主要工作如下:
1)針對(duì)ReID 提出了一種有效的數(shù)據(jù)增強(qiáng)方法,充分利用灰度圖像的結(jié)構(gòu)信息和RGB 圖像的顏色信息,兩者的互相補(bǔ)充有效解決了ReID 訓(xùn)練過(guò)程中顏色偏差所帶來(lái)的不良影響,提升了現(xiàn)有模型的性能上限。
2)通過(guò)大量實(shí)驗(yàn)和分析驗(yàn)證了本文方法能有效提升ReID 性能。本文方法可以為ReID 未來(lái)的研究提供一個(gè)有效增長(zhǎng)的方向,并在多個(gè)基準(zhǔn)和具有代表性的數(shù)據(jù)集上驗(yàn)證了所提方法的有效性。
自深度學(xué)習(xí)被引入到ReID 領(lǐng)域后,短短幾年間就取得了快速的發(fā)展,先后公開(kāi)的數(shù)據(jù)集很快就被不斷提出的模型和方法逼近識(shí)別精度的上限。諸如的隨機(jī)裁剪、隨機(jī)翻轉(zhuǎn)等眾所周知的簡(jiǎn)單數(shù)據(jù)增強(qiáng)技巧在分類、檢測(cè)和ReID 領(lǐng)域發(fā)揮了重要作用。利用GAN[6]來(lái)增加訓(xùn)練數(shù)據(jù)也是ReID 研究的一個(gè)活躍領(lǐng)域[3,7-8],該類方法能增加訓(xùn)練數(shù)據(jù)的多樣性,從而在一定程度上提升模型的泛化能力。此外,最近的研究提出了一些有針對(duì)性的方法來(lái)從不同的角度幫助模型提高泛化能力。隨機(jī)擦除[9]在訓(xùn)練過(guò)程中模擬真實(shí)場(chǎng)景中頻繁遇到的遮擋問(wèn)題,在一定程度上有效解決了識(shí)別任務(wù)面臨遮擋問(wèn)題時(shí)泛化能力不足的缺陷,成為公認(rèn)有效的方法。Fan 等[10]發(fā)現(xiàn)學(xué)習(xí)率對(duì)ReID 模型的性能有很大的影響,為了取得更好的性能它采用了一種預(yù)熱策略來(lái)引導(dǎo)網(wǎng)絡(luò)盡可能跳出局部最優(yōu)解。Zhong 等[11]提出的k倒數(shù)編碼來(lái)對(duì)檢索得到的結(jié)果進(jìn)行重新排序以提升模型精度,這一技巧被稱之為re-Rank,同樣是一種公認(rèn)提升模型性能的方法。Circle Loss[12]從統(tǒng)一的相似度配對(duì)優(yōu)化角度出發(fā),統(tǒng)一了分類學(xué)習(xí)和樣本對(duì)學(xué)習(xí)兩種基本學(xué)習(xí)范式下的損失函數(shù),在Market-1501數(shù)據(jù)集上取得了CVPR2020的最高識(shí)別精度。IANet(Interaction-and-Aggregation Network)[13]針對(duì)ReID 圖像空間位置不匹配的問(wèn)題,通過(guò)設(shè)計(jì)空間交互聚合模塊和通道交互聚合模塊實(shí)現(xiàn)自適應(yīng)地確定感受野和增強(qiáng)特征表示,以克服卷積神經(jīng)網(wǎng)絡(luò)難以應(yīng)對(duì)建模人體姿態(tài)和尺度的巨大變化這一固有局限。AdaptiveReID[14]通過(guò)將可訓(xùn)練的標(biāo)量變量作為正則化因子來(lái)實(shí)現(xiàn)正則化因子的反向傳播進(jìn)行自適應(yīng)更新。據(jù)我們所知,該方法在MSMT17數(shù)據(jù)集上取得了目前的最高識(shí)別精度。此外,還有其他一些方法[15-19]從空間通道相關(guān)性、局部信息匹配、注意力方面來(lái)改善模型性能,雖然以上這些方法各不相同,但它們分別從不同的角度和環(huán)節(jié)提高了ReID 模型的泛化能力。這激勵(lì)我們打開(kāi)思維,從更多的角度尋找方法來(lái)解決問(wèn)題。
由于灰度圖像的結(jié)構(gòu)信息對(duì)ReID 模型性能有很大影響,為了充分利用灰度結(jié)構(gòu)信息并降低ReID 模型對(duì)顏色信息的過(guò)度擬合,本文提出了隨機(jī)灰度轉(zhuǎn)換,它包括全局灰度轉(zhuǎn)換(GGT)、局部灰度轉(zhuǎn)換(LGT)以及這兩者的組合。通過(guò)在訓(xùn)練數(shù)據(jù)中以一定的概率將輸入圖像進(jìn)行隨機(jī)灰度轉(zhuǎn)換讓模型更充分地挖掘灰度信息的潛力以增強(qiáng)模型的泛化能力。本文方法的框架如圖3所示。
圖3 本文方法框架Fig.3 Framework of the proposed method
全局灰度轉(zhuǎn)換在數(shù)據(jù)加載過(guò)程中隨機(jī)抽取K個(gè)身份,對(duì)每個(gè)身份抽取m個(gè)RGB 樣本圖像來(lái)組成一個(gè)訓(xùn)練批組。用集合表示為表示訓(xùn)練批組的第i個(gè)樣本圖像,yi表示樣本圖像的類別標(biāo)簽。然后以一定的概率隨機(jī)將整個(gè)批組的訓(xùn)練圖像進(jìn)行全局灰度轉(zhuǎn)換,最后再輸入到模型中進(jìn)行訓(xùn)練。對(duì)于每個(gè)RGB 樣本圖像的灰度轉(zhuǎn)換可以由如下公式實(shí)現(xiàn):
其中:t(?)是全局灰度圖像轉(zhuǎn)換函數(shù),通過(guò)在原始的可見(jiàn)光RGB 圖像的R、G、B通道上應(yīng)用灰度變換函數(shù)執(zhí)行逐像素累加計(jì)算實(shí)現(xiàn)。轉(zhuǎn)換后的圖像標(biāo)簽和原來(lái)保持一致。用xg表示轉(zhuǎn)換后得到的灰度樣本圖像,則有如下公式:
局部灰度轉(zhuǎn)換在訓(xùn)練中同樣按一定概率進(jìn)行。對(duì)于原始的RGB 圖像I,假設(shè)隨機(jī)灰度轉(zhuǎn)換的概率為p,則保持不變的概率為1-p。該方法在圖像中隨機(jī)選擇一個(gè)矩形區(qū)域,并用其對(duì)應(yīng)的灰度圖像中相同的矩形區(qū)域的像素進(jìn)行替換。其中Sl和Sh為最小和最大的矩形區(qū)域的面積比例,通過(guò)Sg=Rand(Sl,Sh)×S得到限定在最小和最大比例之間的隨機(jī)矩形區(qū)域的面積大小Sg。rg是一個(gè)系數(shù),用來(lái)將得到的隨機(jī)矩形寬、高的具體數(shù)值以確定矩形的形狀,它被限定在(r1,r2)區(qū)間。根據(jù)經(jīng)驗(yàn),本文以Sl=0.03,Sh=0.4,r1=0.3,r2=1/r1作為基礎(chǔ)設(shè)置。(xg,yg)為隨機(jī)得到的該矩形的左上角坐標(biāo),如果這個(gè)坐標(biāo)會(huì)導(dǎo)致隨機(jī)生成的矩形超出圖片范圍,則重新確定矩形的面積、形狀和位置坐標(biāo),直到找到了一個(gè)符合要求的矩形。最后對(duì)原始RGB 圖像中的目標(biāo)區(qū)域使用灰度像素進(jìn)行替換,由此產(chǎn)生了不同灰度替換區(qū)域的訓(xùn)練圖像。如圖4所示,這個(gè)過(guò)程中訓(xùn)練圖像的整體結(jié)構(gòu)沒(méi)有遭到破壞,方框指出了灰度轉(zhuǎn)換的部分。該方法實(shí)現(xiàn)了數(shù)據(jù)的多樣化,并保留了RGB 圖像的空間結(jié)構(gòu)信息。根據(jù)上述過(guò)程,本文建立局部灰度轉(zhuǎn)換算法如下:
圖4 局部灰度轉(zhuǎn)換示意圖Fig.4 Schematic diagram of local grayscale transformation
輸入 RGB 圖像I,圖像的寬W和高H,圖像的面積S,局部灰度轉(zhuǎn)換概率pr,灰度轉(zhuǎn)換面積比例范圍(Sl,Sh),形狀比例區(qū)間(r1,r2)。
輸出 局部灰度轉(zhuǎn)換圖像I*。
1)由Rand(r1,r2)得到一個(gè)屬于(0,1)區(qū)間的隨機(jī)數(shù)p1,若p1>pr則直接返回原圖像。
2)while True
2.1)通過(guò)計(jì)算Rand(Sl,Sh)×S得到目標(biāo)矩形區(qū)域的面積大小Sg。
2.2)由Rand(r1,r2)獲得(r1,r2)區(qū)間范圍內(nèi)的一個(gè)隨機(jī)數(shù)rg,并通過(guò)計(jì)算Sqrt(Sg×rg)和Sqrt(Sg/rg)得到目標(biāo)矩形區(qū)域的寬Wg和高Hg。
2.3)分別由Rand(0,W)和Rand(0,H)隨機(jī)得到目標(biāo)矩形的左上角坐標(biāo)(xg,yg)。
2.4)如果由目標(biāo)的左上角坐標(biāo)(xg,yg)和其寬Wg高Hg構(gòu)造出來(lái)的矩形區(qū)域在圖像范圍內(nèi),則將可見(jiàn)光圖像上的目標(biāo)區(qū)域替換為灰度;否則重新生成目標(biāo)區(qū)域的寬高和其左上角坐標(biāo)。
2.5)返回局部灰度轉(zhuǎn)換圖像。
除此之外,xv和xg使用一個(gè)共享身份分類器φ進(jìn)行訓(xùn)練。使用分類器φ識(shí)別,對(duì)其身份標(biāo)簽yi的預(yù)測(cè)概率表示為。身份損失表示如下:
綜上所述,進(jìn)行隨機(jī)灰度轉(zhuǎn)換時(shí)總體損失表示如下:
本文在三個(gè)基準(zhǔn)模型上進(jìn)行實(shí)驗(yàn)來(lái)驗(yàn)證所提方法的有效性,它們分別是ReID Baseline[20]、Strong Baseline[21](SB)和FastReID[22](FR)。ReID Baseline 和Strong Baseline都基于ResNet-50[23]骨干網(wǎng)絡(luò)實(shí)現(xiàn),F(xiàn)astReID 基于IBN-ResNet101[24]骨干網(wǎng)絡(luò)實(shí)現(xiàn)。
本文在ReID 的三個(gè)具有代表性的數(shù)據(jù)集上進(jìn)行對(duì)比實(shí)驗(yàn),它們分別是MTMC17、DukeMTMC和Market-1501數(shù)據(jù)集。
MSMT17數(shù)據(jù)集是2018年提出的更接近真實(shí)場(chǎng)景的大型數(shù)據(jù)集,總共包含4 101 個(gè)獨(dú)立人物,涵蓋了多場(chǎng)景多時(shí)段。該數(shù)據(jù)集共包含15 個(gè)攝像頭,其中包含12 個(gè)戶外攝像頭和3個(gè)室內(nèi)攝像頭。在一個(gè)月里選擇了具有不同天氣條件的4 天進(jìn)行數(shù)據(jù)采集,每天采集3 h,涵蓋了早上、中午、下午三個(gè)時(shí)間段。
DukeMTMC 數(shù)據(jù)集是一個(gè)大規(guī)模標(biāo)記的多目標(biāo)多攝像機(jī)行人跟蹤數(shù)據(jù)集,于2017 年提出。它提供了一個(gè)由8 個(gè)同步攝像機(jī)記錄的新型大型高清視頻數(shù)據(jù)集,具有7 000多個(gè)單攝像機(jī)軌跡和超過(guò)2 700多個(gè)獨(dú)立人物。
Market-1501 數(shù)據(jù)集于2015 年構(gòu)建并公開(kāi)。它包括由6個(gè)攝像頭(其中5 個(gè)高清攝像頭和1 個(gè)低清攝像頭)拍攝到的1 501個(gè)行人。
以上數(shù)據(jù)集是目前開(kāi)源ReID 數(shù)據(jù)集中最大的3 個(gè)數(shù)據(jù)集,它們總體包含了多季節(jié)、多時(shí)段、高清與低清攝像頭,具有豐富的場(chǎng)景和背景以及復(fù)雜的光照變化,因此也是最具代表性的。
ReID 最主要的兩個(gè)性能指標(biāo)是首選準(zhǔn)確率(Rank-1)和平均準(zhǔn)確率(mAP)。其中Rank-1 表示每個(gè)查詢圖片對(duì)應(yīng)的第一(最相似)返回結(jié)果的平均準(zhǔn)確率;mAP 表示返回查詢結(jié)果的平均精度均值,查詢中正確的結(jié)果越靠前得分就越高。
訓(xùn)練過(guò)程中有兩個(gè)超參數(shù)需要確定,其中一個(gè)是全局灰度轉(zhuǎn)換概率pg。取超參數(shù)pg分別為0.01、0.03、0.05、0.07、0.1、0.2、0.3、…、1,使用ReID Baseline 基準(zhǔn)在Market-1501 數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),對(duì)每個(gè)參數(shù)取值進(jìn)行3 次獨(dú)立重復(fù)實(shí)驗(yàn)取平均值得到的最終結(jié)果如圖5。從圖5 中可以看出,當(dāng)pg=0.05時(shí),模型的性能在評(píng)價(jià)指標(biāo)Rank-1和mAP上都一致地取得了最大值,最佳結(jié)果在Rank-1 和mAP 上比基準(zhǔn)提高了0.7個(gè)百分點(diǎn)和1.9 個(gè)百分點(diǎn);在同樣使用reRank(表示對(duì)檢索結(jié)果使用了重排序技術(shù))的條件,此時(shí)Rank-1 和mAP 比基準(zhǔn)提高了1.5 個(gè)百分點(diǎn)和1.7 個(gè)百分點(diǎn)。當(dāng)pg>0.2 時(shí),模型性能會(huì)受到負(fù)面影響。
圖5 全局灰度轉(zhuǎn)換中不同超參數(shù)下的模型性能Fig.5 Model performance in global grayscale transformation under different hyper-parameters
另一個(gè)需要確定的超參數(shù)是局部灰度轉(zhuǎn)換概率pl,在Market-1501 數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)得到的最終結(jié)果如圖6 所示。從圖6中可以看出,當(dāng)pl=0.4和pl=0.7時(shí)模型可以取得較好的性能,而當(dāng)pl=0.4 時(shí)模型的綜合性能最好,最佳結(jié)果在Rank-1 和mAP 上比基準(zhǔn)提高了1.2 個(gè)百分點(diǎn)和3.3 個(gè)百分點(diǎn);在同樣使用reRank 的條件下,此時(shí)Rank-1 和mAP 比基準(zhǔn)提高了1.5 個(gè)百分點(diǎn)和2.1 個(gè)百分點(diǎn)。不論pl取何值都不會(huì)對(duì)模型的性能帶來(lái)負(fù)面的影響。
圖6 局部灰度轉(zhuǎn)換中不同超參數(shù)下的模型性能Fig.6 Model performance in local grayscale transformation under different hyper-parameters
局部灰度轉(zhuǎn)換與全局灰度轉(zhuǎn)換的最佳結(jié)果相比,精度在Rank-1 和mAP 上分別提高了0.5 個(gè)百分點(diǎn)和1.4 個(gè)百分點(diǎn);在同樣使用reRank 的條件,mAP 提高了0.4 個(gè)百分點(diǎn)。這表明局部灰度替換在不使用reRank時(shí)優(yōu)勢(shì)更明顯。然而圖6也表明局部灰度替換所帶來(lái)的性能提升不夠穩(wěn)定,具有比較明顯的波動(dòng)變化,而全局灰度轉(zhuǎn)換所帶來(lái)的性能提升比較穩(wěn)定。因此本文通過(guò)結(jié)合兩者來(lái)提升性能表現(xiàn)的穩(wěn)定性。
在結(jié)合使用全局灰度轉(zhuǎn)換與局部灰度轉(zhuǎn)換時(shí),由于全局灰度替換的性能表現(xiàn)比較穩(wěn)定,并且在pg=0.05 時(shí)取得最佳性能,因此本文實(shí)驗(yàn)固定全局灰度替換的超參數(shù)值為pg=0.05,再確定局部灰度替換的超參數(shù)。使用ReID Baseline 基準(zhǔn)在Market-1501 數(shù)據(jù)集上進(jìn)行兩者的結(jié)合實(shí)驗(yàn),結(jié)果如圖7所示。從圖7 可以看出,兩者結(jié)合使用后模型性能的提升表現(xiàn)更為穩(wěn)定且波動(dòng)更小,并且在局部灰度轉(zhuǎn)換的超參數(shù)取值pl=0.4時(shí),模型的綜合性能表現(xiàn)最佳。因此本文在接下來(lái)的實(shí)驗(yàn)中設(shè)置超參數(shù)為pg=0.05,pl=0.4。
圖7 全局灰度轉(zhuǎn)換與局部灰度轉(zhuǎn)換結(jié)合的模型性能Fig.7 Model performance with combining global grayscale transformation with local grayscale transformation
本文方法與先進(jìn)方法在三個(gè)數(shù)據(jù)集上的性能比較如表2~4 所示,其中:+GGT 表示使用全局灰度轉(zhuǎn)換,+LGT 表示使用局部灰度轉(zhuǎn)換,+GGT&LGT 表示上述兩者的結(jié)合使用;+reRank 表示對(duì)檢索結(jié)果使用了重排序技術(shù);括號(hào)內(nèi)數(shù)值表示相對(duì)于原始基準(zhǔn)所提升的性能,如表2 的SB+GCT(94.6%)與SB(94.5%)相比,Rank-1提升了0.1個(gè)百分點(diǎn)。
表2 Market-1501數(shù)據(jù)集上不同方法的性能比較 單位:%Tab.2 Performance comparison of different methods on Market-1501 dataset unit:%
Strong Baseline 和FastReID 這兩個(gè)基準(zhǔn)訓(xùn)練時(shí)默認(rèn)使用了隨機(jī)翻轉(zhuǎn)、隨機(jī)裁剪、隨機(jī)擦除等數(shù)據(jù)增強(qiáng)方法,本文方法在使用它們的基礎(chǔ)上能進(jìn)一步提升模型精度,這表明本文的方法可以與其他數(shù)據(jù)增強(qiáng)方法結(jié)合,并且它們是互補(bǔ)的。據(jù)筆者所知,F(xiàn)astReID 上應(yīng)用本文方法在MTMC17 數(shù)據(jù)集上取得了目前的最高檢索精度。
表3 DukeMTMC數(shù)據(jù)集上不同方法的性能比較 單位:%Tab.3 Performance comparison of different methods on DukeMTMC dataset unit:%
除此之外,Strong Baseline 和FastReID 這兩個(gè)基準(zhǔn)默認(rèn)使用Circle Loss 作為損失函數(shù)來(lái)進(jìn)行模型訓(xùn)練,這表明本文的方法可以與該損失函數(shù)結(jié)合,并且它們是互補(bǔ)的。另外Strong Baseline 的報(bào)告表明,Circle Loss 的使用幫助模型性能在Rank-1和mAP 指標(biāo)上分別提升0.4個(gè)百分點(diǎn)和0.2個(gè)百分點(diǎn)。從表2 可以看出本文所提出的局部灰度轉(zhuǎn)換(LGT)所帶來(lái)的性能提升更大。
從表2到表4還可以看出,F(xiàn)astReID 明顯優(yōu)于當(dāng)前的先進(jìn)方法,本文方法可以在其基礎(chǔ)上幫助模型顯著提升性能,這驗(yàn)證了本文方法的有效性和通用性。
表4 MSMT17數(shù)據(jù)集上不同方法的性能比較 單位:%Tab.4 Performance comparison of different methods on MSMT17 dataset unit:%
一種方法的跨域性能表現(xiàn)可以檢驗(yàn)該方法是否切實(shí)提高了模型所提取特征的魯棒性。為了進(jìn)一步探究本文方法在跨域?qū)嶒?yàn)中的表現(xiàn),使用全局灰度轉(zhuǎn)換在Strong Baseline 上進(jìn)行以下跨域?qū)嶒?yàn),結(jié)果如表5所示。
在表5 中,本文使用Market-1501 數(shù)據(jù)集和DukeMTMC 數(shù)據(jù)集進(jìn)行跨域性能評(píng)估。其中:+REA 表示在模型訓(xùn)練中使用了隨機(jī)擦除的技巧,-REA 表示關(guān)閉它;M→D 表示在Market-1501 上訓(xùn)練模型然后在DukeMTMC 上評(píng)估模型;D→M 同理。實(shí)驗(yàn)結(jié)果表明,隨機(jī)擦除雖能顯著提高ReID 模型的性能,但會(huì)造成模型在跨域測(cè)試時(shí)性能顯著下降,而本文所提的全局灰度轉(zhuǎn)換(GGT)能顯著提高REID 模型的跨域性能,這表明本文方法有助于增強(qiáng)特征的魯棒性。
表5 全局灰度轉(zhuǎn)換與隨機(jī)擦除的跨域性能比較 單位:%Tab.5 Cross-domain performance comparison of global grayscale transformation with random erasing unit:%
本文提出了一種簡(jiǎn)單有效的行人重識(shí)別數(shù)據(jù)增強(qiáng)方法,該方法既不需要像GAN 那樣進(jìn)行大規(guī)模訓(xùn)練也不會(huì)引入噪聲。通過(guò)樣本圖像的隨機(jī)灰度轉(zhuǎn)換可以增加訓(xùn)練樣本的數(shù)量和多樣性,并讓圖像的結(jié)構(gòu)信息和顏色信息在模型訓(xùn)練中相互擬合,從而減少顏色偏差對(duì)ReID 的不利影響。本文通過(guò)在多個(gè)數(shù)據(jù)集和測(cè)試基準(zhǔn)上進(jìn)行實(shí)驗(yàn),驗(yàn)證了所提方法的有效性。