• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      面向行人再識(shí)別的特征融合與鑒別零空間方法

      2018-08-20 06:16:02翟懿奎陳璐菲
      信號(hào)處理 2018年4期
      關(guān)鍵詞:條紋識(shí)別率行人

      翟懿奎 陳璐菲

      (1. 五邑大學(xué)信息工程學(xué)院,廣東江門 529020; 2. 廣東省海量生物特征信息處理工程技術(shù)研究中心,廣東江門 529020)

      1 引言

      行人再識(shí)別技術(shù)是指在無重疊監(jiān)控?cái)z像中,檢索某個(gè)監(jiān)控?cái)z像頭拍攝到的某個(gè)行人是否在其他監(jiān)控?cái)z像中出現(xiàn)。由于監(jiān)控?cái)z像拍攝得到的圖像分辨率低,且拍攝視角和行人姿勢(shì)發(fā)生變化、拍攝背景復(fù)雜,導(dǎo)致同一行人在不同監(jiān)控?cái)z像中的外觀不同,因此行人再識(shí)別問題是一個(gè)具有挑戰(zhàn)性的問題。為有效解決這些問題,目前廣大研究者關(guān)于行人再識(shí)別算法提出的解決方法主要集中在特征表示和度量學(xué)習(xí)兩方面,其中特征表示方法[1-10],提取具有鑒別能力且對(duì)視角和光照不變的特征;度量學(xué)習(xí)方法[11-18],利用機(jī)器學(xué)習(xí)方法學(xué)習(xí)兩張行人圖像的相似度度量函數(shù),使得相關(guān)行人對(duì)的相似度高。

      特征表示方法主要是提取圖像顏色和紋理特征,Gray和Tao[1]將行人圖像分割成水平條紋,再利用RGB、HS、和YCbCr顏色特征,并在HSV的亮度V通道處使用21個(gè)紋理濾波器,并用Adaboost挑選出較好的特征,但該方法特征不能有效解決視角問題。Fa-renzena等[2]提出局部特征對(duì)稱性積累(symmetry-driven accumulation of local feature, SDALF)方法,利用行人對(duì)稱性與非對(duì)稱性減少背景干擾,以增強(qiáng)視角變換的魯棒性。Zhao等[3]提出顯著特征,并將行人特征劃分成重疊小塊,提取每塊顯著顏色特征與局部不變特征。但在姿態(tài)變化的情況下顯著性區(qū)域會(huì)出現(xiàn)偏移或消失,導(dǎo)致識(shí)別效果差。Das等[4]提出一致性再識(shí)別網(wǎng)絡(luò)(Network Consistent Re-identification, NCR)框架,并提取行人的頭、軀干和腿部HSV直方圖特征。Yan等[5]提出回歸特征聚合網(wǎng)絡(luò)(recurrent feature aggregation network, RFA-Net),先提取圖像的顏色和LBP特征,并與LSTM結(jié)合獲得基于序列特征,充分利用序列數(shù)據(jù)集信息。Liu等[6]提出基于累積運(yùn)動(dòng)上下文的視頻人重識(shí)別方法,采用空間和時(shí)間分離的兩路卷積網(wǎng)絡(luò)結(jié)構(gòu),然后將獲得的表觀特征和運(yùn)動(dòng)特征融合作為RNN的輸入,提高rank1識(shí)別率。使用深度學(xué)習(xí)得到的圖像特征能夠提高識(shí)別率,但是深度學(xué)習(xí)需要大量的數(shù)據(jù)以及大量的視角進(jìn)行訓(xùn)練,存在對(duì)小數(shù)據(jù)集的處理效果并不理想的問題。Pedagadi等[7]提取HSV和YUV空間顏色直方圖,然后利用PCA提取不同特征的主要成分并降維。Liu等[8]為解決外表變化提出一種有效的半監(jiān)督耦合字典學(xué)習(xí)方法,更好地表示特征內(nèi)在結(jié)構(gòu)。Liao等[9]提出局部最大事件(Local Maximal Occurrence, LOMO)特征,并利用HSV顏色直方圖和SILTP描述算子提取特征,SILTP既具有LBP的尺度不變形,且圖像噪聲魯棒的特點(diǎn)。Zheng等[10]為每個(gè)小塊提取11維顏色描述算子,并通過詞袋(Big-of-Words, BoW)模型把這些顏色描述算子聚集到全局向量。

      不同行人的特征描述子間距離最大,同一行人的特征描述算子間距離最小。因此,度量學(xué)習(xí)方法主要是學(xué)習(xí)行人特征間最佳距離。Weinberger和Saul等[11]提出大間隔最近鄰分類(Large Margin Nearest Neighbor, LMNN)算法,該算法采用三元組形式,并加上不相似樣本對(duì)約束得到最優(yōu)矩陣,但構(gòu)建三元組的方法會(huì)丟失一些重要的訓(xùn)練特征距離。Kostinger等[12]提出保持簡(jiǎn)單且直接算法(Keep it Simple and Straight, KISS),通過模型參數(shù)估計(jì)直接得到最終距離函數(shù)的參數(shù)矩陣,為后續(xù)計(jì)算提供方便。該方法用于大尺度數(shù)據(jù)的學(xué)習(xí),但在估計(jì)訓(xùn)練數(shù)據(jù)不足時(shí),存在估計(jì)處理的參數(shù)不準(zhǔn)確的問題。Davis等[13]提出基于信息論度量學(xué)習(xí)(Information Theoretic Metric Learning, ITML)算法,把歐式距離矩陣看作單位陣,并將該矩陣轉(zhuǎn)換映射到一個(gè)高斯模型,然后用散度來度量不同歐式距離矩陣之間的相似性。Liao等[9]提出交叉視覺二次判別分析(Cross-view Quadratic Discriminant Analysis,XQDA)算法,是KISSME算法和貝葉斯人臉?biāo)惴ǖ臄U(kuò)展,以學(xué)習(xí)低維子空間度量,該度量函數(shù)分別用來度量同類樣本和非同類樣本。隨后Xiong等[14]提出一種新的基于內(nèi)核的距離學(xué)習(xí)方法,利用4種基于核的度量學(xué)習(xí)方法即歸一化成對(duì)約束成分分析法(regularized Pairwise Constrained Component Analysis, rPCCA)、核化局部Fisher判別分析法(kernel Local Fisher Discriminant Classifier, kLFDC)、邊際Fisher分析法(Marginal Fisher Analysis, MFA),巧妙利用核技巧避免解決復(fù)雜的散列矩陣,既減少運(yùn)算量又提高識(shí)別率。Chen等[15]為解決不同視角提取的特征差異而提出不對(duì)稱距離模型,學(xué)習(xí)具體攝像機(jī)投影到包含特征差異的通用空間。但該方法需根據(jù)拍攝場(chǎng)景的書面分別學(xué)習(xí)與數(shù)目對(duì)應(yīng)的投影矩陣,會(huì)增加訓(xùn)練時(shí)間和存儲(chǔ)復(fù)雜度。Zhang等[16]為解決小樣本類問題提出有差異零空間方法訓(xùn)練數(shù)據(jù),同一個(gè)人的圖像數(shù)據(jù)在零空間內(nèi)集合成一個(gè)點(diǎn),達(dá)到最小化類內(nèi)差異和最大化類間差異。You等[17]改進(jìn)LMMN算法提出頂部推距離學(xué)習(xí)模型(top-push distance learning model, TDL),縮小正樣本間的差異,懲罰離的最近的負(fù)樣本,比LMMN有更強(qiáng)約束。Zhou等[18]利用深度學(xué)習(xí)將特征學(xué)習(xí)和度量學(xué)習(xí)統(tǒng)一在一個(gè)框架下,進(jìn)行端對(duì)端的訓(xùn)練和推理,并利用基于空間的循環(huán)神經(jīng)網(wǎng)絡(luò)模型,使得相似度量融合了上下文信息而變的魯棒,但該模型沒有在小數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)。

      為解決上述行人再識(shí)別算法存在的問題,本文提出面向行人再識(shí)別的融合特征和鑒別零空間方法。特征融合則是將條紋特征與塊狀特征相互融合,其中條紋特征將圖片水平方向無重疊分成18條,每條提取HSV、LAB、RGB和YCrCb四種顏色特征以及Gabor紋理特征;塊狀特征則將圖片水平重疊分成7塊,利用高斯分布從每塊中取小塊提取RGB、HSV、LAB和nRnG四種顏色特征。度量距離算法是將原始特征空間投影到另一個(gè)具有區(qū)分性空間,本文鑒別零空間采用Foley-Sammom 零空間變換模型學(xué)習(xí)一個(gè)投影矩陣,將高維特征向量轉(zhuǎn)換成低維特征向量進(jìn)行行人匹配。實(shí)驗(yàn)結(jié)果表明所提方法能充分融合行人圖像特征,對(duì)環(huán)境有較強(qiáng)魯棒性,可有效提高識(shí)別率。

      本文其余章節(jié)的組織安排如下。第2節(jié)介紹本文所提條紋與塊狀特征提取和融合方法;第3節(jié)介紹Foley-Sammom零空間變換算法及相應(yīng)步驟;第4節(jié)介紹本文算法在公共數(shù)據(jù)集上的實(shí)驗(yàn);第5節(jié)總結(jié)全文。

      2 特征提取與融合方法

      2.1 條紋特征提取方法

      條紋特征是將圖像水平無重疊均勻分成若干個(gè)條紋,然后從每個(gè)條紋中獲取顏色和紋理特征,最后融合所有條紋特征。顏色特征中常見RGB、HSV、LAB和YCrCb等顏色直方圖,紋理特征主要包括LBP、SIFT、Gabor濾波器等。本文中,條紋特征的顏色特征選擇RGB、HSV、LAB和YCrCb四種顏色直方圖,紋理特征選擇Gabor濾波器,其中RGB顏色空間上的距離不能表示人眼視覺上的顏色,因此在機(jī)器視覺上可以將其轉(zhuǎn)換成其他顏色空間。HSV能很好地反映人類對(duì)顏色的感知和鑒別能力,且其亮度與圖片色彩信息無關(guān),色調(diào)和飽和度與人的感受顏色方式緊密聯(lián)系[19]。LAB顏色空間描述方式與拍攝角度和設(shè)備無關(guān),能夠較好的處理不同設(shè)備獲取圖像顏色特征的差異。YCrCb是一種顏色空間,用于優(yōu)化彩色視頻信號(hào)的傳輸,其Y表示明亮度,Cr和Cb均表示色度,用于描述圖像色彩和飽和度。且Cr和Cb反映的是彩色圖像RGB藍(lán)色和紅色信號(hào)與RGB亮度之間的差異,RGB轉(zhuǎn)化成YCrCb的公式如下:

      Y=0.299R+0.587G+0.114B

      Cr=0.5R-0.4187G-0.0813B+128

      Cb=-0.1687R-0.3313G+0.5B+128

      (1)

      Gabor濾波器常用作紋理特征提取,易于調(diào)諧方向和徑向頻率帶寬以及中心頻率,并在時(shí)域和頻域中同時(shí)達(dá)到最佳分辨率[20]。Gabor濾波器在頻域空間以(0,0)點(diǎn)為中心,定義為:

      (2)

      (3)

      圖1表示條紋特征提取方法,每張圖像大小設(shè)置為144×48,然后將該圖像水平方向無重疊分成18層水平條紋,每層水平條紋提取HSV、LAB、RGB和YCrCb四種顏色特征和16個(gè)Gabor紋理特征,其中顏色特征包含RGB、LAB、HS和YCrCb 11個(gè)顏色通道,并在V亮度中提取Gabor紋理特征,因此每條條紋的特征維數(shù)均為416,最后18條水平條紋特征融合成一個(gè)特征向量,其特征維數(shù)為7488。

      圖1 條紋特征提取

      2.2 塊狀特征提取方法

      (4)

      (5)

      (6)

      (7)

      (8)

      2.3 條紋與塊狀特征融合方法

      單一特征提供的信息有限,可利用合理方法表達(dá)行人多個(gè)特征,獲得更多的行人特征信息,取得滿意結(jié)果。特征融合主要方法包括數(shù)據(jù)級(jí)融合、特征級(jí)融合和決策級(jí)融合,其中數(shù)據(jù)級(jí)融合處理的數(shù)據(jù)量過多,無法實(shí)時(shí)處理,因而很少運(yùn)用在實(shí)際應(yīng)用

      圖2 塊狀特征提取

      中;特征級(jí)融合主要針對(duì)提取的特征向量融合,豐富目標(biāo)物體特征,其數(shù)據(jù)量不多,能實(shí)現(xiàn)實(shí)時(shí)處理;決策級(jí)融合則是對(duì)每個(gè)特征最終分類結(jié)果進(jìn)行融合[34]。特征級(jí)融合可以分為特征組合和特征選擇兩種實(shí)現(xiàn)方式,其中特征組合方法是將待融合的特征向量按某種組合形成新的特征向量,通常有串行特征融合和并行特征融合,而本文特征融合選用特征串行融合方法。

      算法1特征融合算法流程

      輸入:N對(duì)相關(guān)行人圖像{X,Y},(X=(x1,x2,…,xn),Y=(y1,y2,…,yn))

      步驟1將行人圖像大小統(tǒng)一為144×48;

      步驟3圖像大小統(tǒng)一為128×48;

      3 Foley-Sammom零空間變換算法

      3.1 Foley-Sammom 零空間變換

      兩種特征融合之后得到的特征向量維數(shù)高,本文采用Foley-Sammom 零空間變換 (null Foley-Sammom Transform, NFST)方法將特征從高維空間投影到低維空間[35, 16]。NFST是Foley-Sammom變換(Foley-Sammom Transform, FST)的擴(kuò)展,F(xiàn)ST學(xué)習(xí)投影矩陣W∈Rd×m,每一列的投影矩陣定義為w,是一種使Fisher最大化的最佳判別標(biāo)準(zhǔn):

      (9)

      其中Sb表示類間散點(diǎn)矩陣,Sw表示類內(nèi)散點(diǎn)矩陣。優(yōu)化公式(9)可以解決廣義特征問題:

      Sbw=λSww

      (10)

      wTSww=0

      (11)

      wTSbw>0

      (12)

      (13)

      (14)

      Zt={z∈Rd|Stz=0}={z∈Rd|z⊥Stz=0}=

      (15)

      w=β1u1+…+βN-1uN-1=Uβ

      (16)

      St維數(shù)是N-1,因此有N-1個(gè)基準(zhǔn)向量。由于w∈Zw,把公式(16)代入公式(11)解決特征問題:

      (UTSwU)β=0

      (17)

      3.2 Foley-Sammom零空間變換算法步驟

      算法2Foley-Sammom零空間算法步驟

      輸入:Xx,Xc,K,P0=0

      輸出:學(xué)習(xí)的投影矩陣W

      步驟1用Xx評(píng)估W0;

      步驟2t=0;

      步驟5以最高百分比f來創(chuàng)建偽類Pt+1;

      步驟6t=t+1;

      步驟7重復(fù)步驟3到步驟6,直到收斂。

      4 實(shí)驗(yàn)結(jié)果與分析

      本節(jié)首先介紹本文所用數(shù)據(jù)庫和參數(shù)設(shè)置,其次把本文算法單獨(dú)與條紋特征、塊狀特征進(jìn)行比較,最后和已有最新行人再識(shí)別算法進(jìn)行性能比較。

      4.1 數(shù)據(jù)庫介紹及設(shè)置

      本文方法在VIPeR[22]、Prid_450s[23]和CUHK01[24]3個(gè)數(shù)據(jù)庫上進(jìn)行測(cè)試,并且每個(gè)數(shù)據(jù)庫在同等條件下訓(xùn)練10次,最后取平均值為測(cè)試的最終結(jié)果。VIPeR數(shù)據(jù)庫目前是比較常用的數(shù)據(jù)庫,也是比較具有挑戰(zhàn)的數(shù)據(jù)庫之一,其主要面臨視角變化、復(fù)雜背景、光照以及姿勢(shì)等因素挑戰(zhàn)。該數(shù)據(jù)庫包含632個(gè)人,每個(gè)人包含兩張圖像,分別從不同角度拍攝而得,且圖像大小統(tǒng)一為128×48;Prid_450s數(shù)據(jù)庫包含450個(gè)行人,每個(gè)行人有兩張圖像,分別從不同角度拍攝,但其圖像大小不一。CUHK01數(shù)據(jù)庫與其他兩個(gè)數(shù)據(jù)庫不同,其圖像拍攝源于校內(nèi),也是目前行人再識(shí)別中比較常用并具有挑戰(zhàn)性數(shù)據(jù)庫之一。該數(shù)據(jù)庫包含791個(gè)人,每個(gè)人有4張圖像,其中每個(gè)角度獲取每人兩張圖像,其像素大小統(tǒng)一為160×60。本實(shí)驗(yàn)數(shù)據(jù)庫評(píng)估方法采用single-shot方法,隨機(jī)選擇p對(duì)行人圖像作為訓(xùn)練集,余下作為測(cè)試集,其中測(cè)試集由行人圖像庫和查詢集組成。每隊(duì)行人圖像的一張并入查詢集,另一張則并入行人圖像庫,其中p分別取值為316,225和485。累積匹配特性(CMC)曲線是行人再識(shí)別算法性能常用的評(píng)價(jià)指標(biāo),其rank-k識(shí)別率表示與目標(biāo)樣本中找到最k個(gè)相似的樣本正確的行人概率。

      4.2 實(shí)驗(yàn)結(jié)果與分析

      4.2.1融合特征與單一的條紋特征和塊狀特征在不同數(shù)據(jù)庫中性能比較

      為驗(yàn)證本文融合特征的性能,將其在VIPeR、Prid_450s和CUHK01 3個(gè)數(shù)據(jù)庫上分別與單獨(dú)的條紋特征和塊狀特征進(jìn)行比較。從表1可以看出融合特征方法的識(shí)別率明顯高于條紋特征和塊狀特征,塊狀特征識(shí)別率明顯高于條紋特征。本文實(shí)驗(yàn)表明,在度量方法與評(píng)估方法相同的情況下,塊狀特征提取的圖像信息比條紋特征更充分,融合特征的圖像特征信息明顯比塊狀特征充分,本文所提融合特征方法能有效描述行人信息,對(duì)環(huán)境變化有較強(qiáng)魯棒性,因而可提高識(shí)別率。

      表1 融合特征與單一的條紋特征和塊狀特征在不同數(shù)據(jù)庫中性能比較

      4.2.2本文方法與其他方法分別在不同數(shù)據(jù)庫性能比較

      本文方法在VIPeR數(shù)據(jù)庫上分別與LOMO+NBFT[16]、GOG+XQDA[21]、LOMO+XQDA[9]、MKFSL[25]、Ensemble[26]、Semantic[10]、MCKCCA[27]和Kernel X-CRC[28]比較,其rank1到rank20識(shí)別率如表2所示。圖3是本文方法與其他方法識(shí)別率的CMC曲線圖,曲線分布情況明顯表明本文提出方法比最近幾年提出的算法識(shí)別率略高。其中GOG+XQD、MKFSL和Kernel X-CRC均是最新提出的算法,其特征提取采用GOG描述器,其識(shí)別率均比本文單獨(dú)塊狀特征高,但比融合特征低,進(jìn)一步說明本文所提融合方法能更充分地提取圖像行人特征信息,有效提高識(shí)別率。

      圖3 不同算法在VIPeR數(shù)據(jù)集上的識(shí)別率

      VIPeRr=1r=5r=10r=20LOMO+XQDA[9]40.0-80.591.1Semantic[10]41.671.986.295.1Ensemble[26]45.977.588.995.8LOMO+NBFT[16]42.371.582.992.0GOG+XQDA[21]49.779.788.794.5MKFSL[25]51.081.489.395.3MCKCCA[27]47.9-87.393.8Kernel X-CRC[28]51.680.889.495.3本文方法52.780.389.195.4

      本文方法在Prid_450s數(shù)據(jù)庫上分別和LOMO+NBFT[16]、MKFSL[25]、SCNCD[31]、GOG+XQDA[21]、Semantic[10]、LOMO+XQDA[9]、MirrorKMFA[30]和MCKCCA[27]進(jìn)行比較,各方法識(shí)別率曲線如圖4所示。表3直觀反映本方法rank1識(shí)別率達(dá)到72.2%,明顯高于其他方法的識(shí)別率。其中GOG+XQDA最近已提出新算法中效果最好的算法,但其rank1識(shí)別率低于本文方法將近4%,且rank1到rank20識(shí)別率均比低于本文方法。MKFSL與本文方法類似,均采用特征融合方法,但其采用GOG塊狀特征與WHOS[36]特征融合方法,rank1識(shí)別率為66.9%,低于本文方法將近6%。實(shí)驗(yàn)表明,本文提出方法取得了較好識(shí)別效果,特別是rank1識(shí)別率達(dá)到較高準(zhǔn)確率,可較好地推廣到實(shí)際應(yīng)用中。

      圖4 不同算法在Prid_450s數(shù)據(jù)集上的識(shí)別率

      Prid_450sr=1r=5r=10r=20SCNCD[31]41.668.979.487.8Semantic[10]44.971.777.586.7MirrorKMFA[30]55.479.387.893.9LOMO+XQDA[9]62.685.692.096.6LOMO+NBFTL[16]60.5-88.693.6GOG+XQDA[21]68.488.894.597.8MCKCCA[27]55.8-90.895.5MKFSL[25]66.989.394.297.7本文方法72.289.895.098.0

      由于本實(shí)驗(yàn)采用single-shot方法評(píng)估,但與其他方法不同,每個(gè)人4張圖像隨機(jī)選兩張用來實(shí)驗(yàn),數(shù)據(jù)相對(duì)較少。本文方法在CUHK01數(shù)據(jù)庫上分別與Kernel X-CRC[28]、GOG+XQDA[21]、MKFSL[25]、MFFIML[33]、MultiCNN[32]和MirrorKMFA[30]進(jìn)行比較,其識(shí)別率曲線如圖5所示。表4表明MKFSL和Kernel X-CRC的識(shí)別率比本文方法略高,但rank5和rank10較低,且算法模型比本文方法復(fù)雜。本文方法在數(shù)據(jù)較少的情況下仍能達(dá)到較好的結(jié)果,可行性較高。

      圖5 不同算法在CUHK01數(shù)據(jù)集上的識(shí)別率

      CUHK01r=1r=5r=10r=20MirrorKMFA[30]40.464.675.384.1MFFIML[33]43.770.879.087.3MultiCNN[32]53.784.391.096.3GOG+XQDA[21]57.879.186.292.1Kernel X-CRC[28]61.280.987.393.2MKFSL[25]62.082.9-94.2本文方法59.781.287.992.6

      5 結(jié)論

      本文提出面向行人再識(shí)別的融合特征與鑒別零空間方法,利用顏色和紋理特征分別提取條紋特征和塊狀特征,并將這兩種特征融合,然后利用鑒別零空間降低特征維度,取得了較好的效果。由于存在行人姿勢(shì)變化,光照變化以及遮擋和視角變化等困難,在多個(gè)公共數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果表明,本文方法取得了比主流方法較好的效果。這體現(xiàn)本文方法不僅具有良好識(shí)別性能,且具有較高特征魯棒性。為進(jìn)一步提高識(shí)別率,下一步將考慮從多特征中自適應(yīng)選擇角度進(jìn)行研究。

      [1] Gray D, Tao Hai. Viewpoint Invariant Pedestrian Recognition with an Ensemble of Localized Features[C]∥Proceedings of the 10thEuropean Conference on Computer Vision. Marseille, France: IEEE, 2008(5302): 262-275.

      [2] Farenzena M, Bazzani L, Perina A, et al. Person Re-identification by Symmetry-Driven Accumulation of Local Feature[C]∥Proceedings of the 2010 IEEE Computer Vision and Pattern Recognition. San Francisco, USA: IEEE, 2010(23): 2360-2367.

      [3] Zhao Rui, Ouyang Wanli, Wang Xiaogang. Unsupervised Salience Learning for Person Re-identification[C]∥Proceedings of the 2013 IEEE Computer Vision and Pattern Recognition. Washington, USA: IEEE, 2013(9): 3586-3593.

      [4] Das A, Chakraborty A, Roy-Chowdhury A K. Consistent Re-identification in a Camera Network[C]∥Proceedings of the 2014 European Conference on Computer Vision, 2014(8690): 330-345.

      [5] Yan Yichao, Ni Bingbing, Song Zhichao, et al. Pedestrian Re-identification via Recurrent Feature Aggregation[C]∥Proceedings of the 2016 European Conference on Computer Vision, 2016(99): 701-716.

      [6] Liu Hao, Jie Zequn, Jayashree K, et al. Video-Based Person Re-identification with Accumulative Motion Context[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2017(99): 1-11.

      [7] Pedagadi S, Orwell J, Velastin S, et al. Local Fisher Discriminant Analysis for Pedestrian Re-identification[C]∥Proceedings of the 2013 IEEE Conference on Computer Vision and Pattern Recognition. Washington, USA: IEEE, 2013(9): 3318-3325.

      [8] Liu Xiao, Song Mingli, Tao Dacheng, et al. Semi-supervised Coupled Dictionary Learning for Person Re-identification[C]∥Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Washington, USA: IEEE, 2014(8): 3550-3557.

      [9] Liao Shengcai, Hu Yang, Zhu Xiangyu, et al. Person Re-identification by Local Maximal Occurrence Representation and Metric Learning[C]∥Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston USA: IEEE, 2015: 2197-2206.

      [10] Zheng Zhiyuan, Hospedales T M, Xiang Tao. Transferring a Semantic Representation for Person Re-identification and Search[C]∥Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston USA: IEEE, 2015: 4184- 4193.

      [11] Weinberger K Q, Saul L K. Distance Metric Learning for Large Margin Nearest Neighbor Classification[J]. Journal of Machine Learning Research, 2009,10(1): 207-244.

      [12] Kostinger M, Hirzer M, Wohlhart P, et al. Larger Scale Metric Learning from Equivalence Constraints[C]∥Proceedings of the 2013 IEEE Conference on Computer Vision and Pattern Recognition. RI, USA: IEEE, 2012: 2288-2295.

      [13] Davis J V, Kulis B, Jain P, et al. Information-theoretic Metric Learning[C]∥Proceedings of the 24th international conference on Machine learning. New York, USA: 2007(227): 209-216.

      [14] Xiong Fei, Gou Mengran, Camps O, et al. Person Re-identification Using Kernel-based Metric Learning Methods[C]∥Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. Washington, USA: IEEE, 2014(8695): 1-16.

      [15] Chen Yingcong, Zheng Weishi, Lai Jianhuang, et al. An Asymmetric Distance Model for Cross-View Feature Mapping in Person Re-identification[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2016 (27): 1661-1675.

      [16] Zhang Li, Xiang Tao, Gong Shaogang. Learning Discriminative Null Space for Person Re-identification[C]∥Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV: IEEE, 2016: 1239-1248.

      [17] You Jinjie, Wu Ancong, Li Xiang, et al. Top-Push Video-Based Person Re-identification[C]∥Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV: IEEE, 2016: 1-10.

      [18] Zhou Zhen, Huang Yan, Wang Wei, et al. See the Forest for the Trees: Joint Spatial and Temporal Recurrent Neural Networks in Video-Based Person Re-identification[C]∥Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition, 2017: 4747- 4756.

      [19] Saghafi M A, Hussain A, Saad M H M, et al. Appearance Based Methods in Re-identification[C]∥Proceedings of the 2012 IEEE 8thInternational Colloquium on Signal Processing and ITS Application. Melaka, Malaysia: IEEE, 2012(2012): 404-408.

      [20] 李鈺,孟祥萍. 基于Gabor濾波器的圖像紋理特征提取[J]. 長春工業(yè)大學(xué)學(xué)報(bào):自然科學(xué)版,2008,29(1): 78- 81.

      Li Yu, Meng Xiangping. Image Texture Feature Detection Based on Gabor Filter[J]. Chinese Journal of Changchun University of Technology: Natural Science Edition, 2008,29(1): 78- 81. (in Chinese)

      [21] Matsukawa T, Okabe T, Suzuki E, et al. Hierarchical Gaussian Descriptor for Person Re-identification[C]∥Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV: IEEE, 2016: 1363-1372.

      [22] Gray D, Brennan S, Tao Hai. Evaluating Appearance Models for Recognition, Reacquisition, and Tracking[J]. International Workshop on Performance Evaluation of Tracking and Surveillance, 2007(3): 41- 47.

      [23] Roth P M, Hirzer M, Koestinger M, et al. Mahalanobis Distance Learning for Person Re-identification[M]. Person Re-identification. Florence, Italy, 2014: 247-267.

      [24] Li Wei, Zhao Rui, Wang Xiaogang. Human Re-identification with Transferred Metric Learning[C]∥Proceedings of the 11th Asian conference on Computer Vision. Daejeon, Korea: 2012(7724): 31- 44.

      [25] Yang Xun, Wang Meng, Hong Richang, et al. Enhancing Person Re-identification in a Self-trained Subspace[J]. ACM Transactions on Multimedia Computing, Communications, and Applications, New York, NY, USA, 2017,13(3): 1-14.

      [26] Paisitkriangkrai S, Shen C, Hengel A van den. Learning to Rank in Person Re-identification with Metric Ensembles[C]∥Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition, Boston USA: IEEE, 2015: 1846-1855.

      [27] Lisanti G, Karaman S, Masi L. Multi Channel-Kernel Canonical Correlation Analysis for Cross-View Person Re-identification[J]. ACM Transactions on Multimedia Computing, Communications, and Applications, New York, NY, USA, 2017(13): 1-19.

      [28] Prates R, Schwartz W R. Kernel Cross-View Collaborative Representation based Classification for Person Re-identification[C]∥Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition, 2017: 1-10.

      [29] Zhang Ying, Li Baohua, Lu Huchuan. Sample-Specific SVM Learning for Person Re-identification[C]∥Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV: IEEE, 2016: 1278-1287.

      [30] Chen Yingcong, Zheng Weishi, Lai Jianhuang. Mirror Representation for Modeling View-Specific Transform in Person Re-identification[C]∥Proceedings of the 24thInternational Joint Conference of Artificial Intelligence. Buenos Aires, Argentina: 2015: 3402-3408.

      [31] Yang Yang, Yang Jimei, Yan Junjie, et al. Salient Color Names for Person Re-identification[C]∥Proceedings of the 2014 European Conference on Computer Vision. Springer, Cham, 2014(8690): 536-551.

      [32] Cheng De, Gong Yihong, Zhou Sanping, et al. Person Re-identification by Multi-Channel Parts-Based CNN with Improved Triplet Loss Function[C]∥Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV: IEEE, 2016:1335-1344.

      [33] 齊美彬,胡龍飛,蔣建國,等. 多特征融合與獨(dú)立測(cè)度學(xué)習(xí)的行人再識(shí)別[J]. 中國圖像圖形學(xué)報(bào), 2016,21(11):1464-1472.

      Qi Meibin, Hu Longfei, Jiang Jianguo, et al. Person Re-identification Based on Multi-Features Fusion and Independent Metric Learning[J]. Chinese Journal of Image and Graphics, 2016,21(11):1464-1472.(in Chinese)

      [34] 劉苗苗. 基于2D和3D SIFT特征融合的一般物體識(shí)別算法研究[D]. 南京:東南大學(xué), 2015.

      Liu Miaomiao. Generic Object Recognition Research Based on Feature Fusion of 2D and 3D SIFT Descriptors[D]. Nanjing: Southeast University, 2015.(in Chinese)

      [35] Foley D, Sammon J. An Optimal Set of Discriminant Vectors[J]. IEEE Transaction on Computers, 1975,100(3): 281-289.

      [36] Lisanti G, Masi L, Bagdanov A D, et al. Person Re-identification by Iterative Re-Weighted Sparse Ranking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015,37(8):1629-1642.

      猜你喜歡
      條紋識(shí)別率行人
      毒舌出沒,行人避讓
      意林(2021年5期)2021-04-18 12:21:17
      基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測(cè)
      誰是窮橫條紋衣服的人
      小福爾摩斯(2019年2期)2019-09-10 07:22:44
      基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識(shí)別率的關(guān)系
      別急!丟了條紋的斑馬(上)
      別急!丟了條紋的斑馬(下)
      路不為尋找者而設(shè)
      提升高速公路MTC二次抓拍車牌識(shí)別率方案研究
      我是行人
      高速公路機(jī)電日常維護(hù)中車牌識(shí)別率分析系統(tǒng)的應(yīng)用
      西充县| 石台县| 湖北省| 济南市| 龙州县| 郓城县| 松原市| 嘉峪关市| 甘德县| 金乡县| 古交市| 贞丰县| 大渡口区| 武汉市| 雅江县| 栾川县| 聊城市| 定结县| 济源市| 白沙| 嫩江县| 宁津县| 台江县| 连平县| 娱乐| 衢州市| 禹州市| 金华市| 库车县| 峨边| 科尔| 精河县| 马公市| 徐水县| 墨江| 渭源县| 南陵县| 临泉县| 盘锦市| 永吉县| 通州区|