• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于加權(quán)稀疏近鄰表示的人臉識(shí)別

      2016-02-23 09:05:45謝文浩翟素蘭
      關(guān)鍵詞:訓(xùn)練樣本識(shí)別率字典

      謝文浩,翟素蘭

      (安徽大學(xué) 數(shù)學(xué)科學(xué)學(xué)院,安徽 合肥 230601)

      基于加權(quán)稀疏近鄰表示的人臉識(shí)別

      謝文浩,翟素蘭

      (安徽大學(xué) 數(shù)學(xué)科學(xué)學(xué)院,安徽 合肥 230601)

      稀疏表示的人臉識(shí)別目前受到廣泛的關(guān)注。針對(duì)現(xiàn)有稀疏近鄰表示算法沒(méi)有考慮不同訓(xùn)練樣本對(duì)測(cè)試樣本的重構(gòu)權(quán)重,同時(shí)為了提高基于稀疏近鄰表示人臉識(shí)別的識(shí)別率,文中提出一種加權(quán)稀疏近鄰表示的人臉識(shí)別算法。首先在每一類訓(xùn)練樣本中尋找與測(cè)試樣本最近的k個(gè)樣本,構(gòu)成這一類新的訓(xùn)練樣本;然后在每一類中都進(jìn)行同樣的操作,從而構(gòu)造一個(gè)新的訓(xùn)練字典,在求解l1范數(shù)最小化的稀疏系數(shù)時(shí),為每一個(gè)新的訓(xùn)練樣本對(duì)應(yīng)的稀疏系數(shù)賦上一個(gè)權(quán)值;最后在新的字典下,根據(jù)重構(gòu)誤差最小化來(lái)完成識(shí)別任務(wù)。在YaleB數(shù)據(jù)庫(kù)和ORL數(shù)據(jù)庫(kù)上的大量實(shí)驗(yàn)結(jié)果表明,文中所提算法與KNN算法和稀疏近鄰表示算法相比,取得了較高的識(shí)別率,證明了該方法的有效性。

      稀疏表示;特征提?。患訖?quán)近鄰;人臉識(shí)別

      0 引 言

      人臉識(shí)別(Face Recognition,F(xiàn)R)是近幾十年來(lái)模式識(shí)別、圖像處理、機(jī)器學(xué)習(xí)等領(lǐng)域研究的熱點(diǎn)課題之一[1-2],它在檔案管理系統(tǒng)、罪犯身份識(shí)別、信用卡驗(yàn)證、海關(guān)及銀行監(jiān)控的場(chǎng)合具有廣闊的應(yīng)用前景。

      過(guò)去二十年已有許多研究者提出一些人臉識(shí)別算法。文獻(xiàn)[3]提出主成分分析(Principal Component Analysis,PCA)用于人臉識(shí)別,該方法將高維向量降到低維,在特征子空間中完成分類,取得了較好的效果,已成為人臉識(shí)別的基準(zhǔn)程序和事實(shí)上的工業(yè)標(biāo)準(zhǔn)。文獻(xiàn)[4]提出線性鑒別分析(Linear Discriminant Analysis,LDA)利用類別歸屬信息,它選擇類內(nèi)散度與類間散度差異特征進(jìn)行人臉識(shí)別,也取得了一定的成功。近幾年相關(guān)研究表明,人臉特征更可能存在于低維非線性流行子空間中,典型的算法有局部線性嵌入(Locality Linear Embedding,LLE)[5]和等距映射(ISOmetric MAPping,ISOMAP)[6],也取得了相當(dāng)可觀的效果。Wright等將稀疏表示(Sparse Representation,SR)[7]用于人臉識(shí)別,由于其對(duì)噪聲和遮擋有一定的魯棒性使得人臉識(shí)別取得了突破性進(jìn)展[8-11]。該方法將訓(xùn)練樣本構(gòu)成超完備字典,然后求出測(cè)試樣本在此字典上的稀疏系數(shù),最后根據(jù)重構(gòu)誤差最小化來(lái)完成分類任務(wù),然而該方法沒(méi)有考慮樣本的分布特性和訓(xùn)練樣本的類別代表性,稀疏系數(shù)求解的計(jì)算量較大,大大限制了它的應(yīng)用。文獻(xiàn)[12-13]在稀疏表示的基礎(chǔ)上選取與測(cè)試樣本最近的k個(gè)訓(xùn)練樣本構(gòu)成新的字典來(lái)進(jìn)行分類。文獻(xiàn)[14]則在每類中都選取k個(gè)最近鄰樣本構(gòu)成此類的基進(jìn)行稀疏表示分類。然而以上近鄰的選擇忽略了各訓(xùn)練樣本對(duì)測(cè)試樣本的不同權(quán)重表示,導(dǎo)致識(shí)別率下降。

      針對(duì)以上問(wèn)題,文中在文獻(xiàn)[14]的基礎(chǔ)上提出加權(quán)近鄰稀疏表示的人臉識(shí)別算法。該方法首先在每類訓(xùn)練樣本中都找出與測(cè)試樣本最近的k個(gè)樣本構(gòu)成新字典,然后在求解稀疏系數(shù)時(shí),給每個(gè)訓(xùn)練樣本對(duì)應(yīng)的稀疏系數(shù)賦上一個(gè)權(quán)值。該方法充分利用了樣本的分布特性和樣本的局部信息,在YaleB數(shù)據(jù)庫(kù)和ORL數(shù)據(jù)庫(kù)上的大量實(shí)驗(yàn)結(jié)果表明,該算法取得了較好的效果。

      1 加權(quán)稀疏近鄰表示

      1.1 稀疏表示分類思想

      Step1:將訓(xùn)練字典A按列進(jìn)行歸一化,使其具有l(wèi)2范數(shù);

      (1)

      其中,ε是誤差容限。

      Step3:計(jì)算各類訓(xùn)練樣本對(duì)測(cè)試樣本的重構(gòu)誤差。

      (2)

      Step4:最后將測(cè)試樣本歸為重構(gòu)誤差最小的類別。

      (3)

      1.2 加權(quán)稀疏近鄰表示分類思想

      文中提出的加權(quán)稀疏近鄰表示的人臉識(shí)別算法,不是選擇所有訓(xùn)練樣本構(gòu)成字典,而是在每類訓(xùn)練樣本中選擇與測(cè)試樣本最近的k個(gè)樣本,然后構(gòu)成一個(gè)新字典,在求解稀疏系數(shù)時(shí)為每一個(gè)訓(xùn)練樣本對(duì)應(yīng)的系數(shù)賦上一個(gè)權(quán)值,實(shí)現(xiàn)對(duì)測(cè)試樣本的識(shí)別。

      首先在每一類訓(xùn)練樣本中選擇與測(cè)試樣本最近鄰的k個(gè)樣本,如某一類i(1≤i≤C),共有ni個(gè)訓(xùn)練樣本,首先求得測(cè)試樣本與每一類中訓(xùn)練樣本的距離。

      distih=dist(y,Aih),h=1,2,…,ni

      (4)

      其中,dist()表示距離函數(shù),文中采用歐氏距離。

      然后對(duì)每一類中的距離按從小到大排序,取前k個(gè)最小距離對(duì)應(yīng)的訓(xùn)練樣本作為該類的新的訓(xùn)練樣本,對(duì)每一類都進(jìn)行同樣的操作,最終可獲得新的訓(xùn)練字典。

      (5)

      (6)

      其中,W是一個(gè)塊對(duì)角矩陣,也即是一個(gè)權(quán)重矩陣,對(duì)重構(gòu)一個(gè)測(cè)試樣本對(duì)應(yīng)的每一個(gè)訓(xùn)練樣本的稀疏系數(shù)賦加一個(gè)權(quán)值。

      diag(W)=[dist(y,x11),…,dist(y,xCk)]

      (7)

      dist(y,xij)=‖y-xij‖s

      (8)

      其中,i=1,2,…,C,j=1,2,…,k,s為局部適應(yīng)參數(shù),當(dāng)s=0時(shí),文中算法就退化為典型的稀疏近鄰表示算法。

      當(dāng)測(cè)試樣本與某一訓(xùn)練樣本的距離越大,表明測(cè)試樣本與這個(gè)訓(xùn)練樣本的差異性越大,那么這個(gè)訓(xùn)練樣本對(duì)重構(gòu)此測(cè)試樣本的貢獻(xiàn)就越小。由于圖像容易受噪聲的影響,式(6)轉(zhuǎn)化為:

      通過(guò)制定實(shí)施財(cái)政、金融、擔(dān)保等方面的政策,促進(jìn)政府財(cái)政、社會(huì)商業(yè)性、政策性金融機(jī)構(gòu)以及保險(xiǎn)機(jī)構(gòu)等合力支持企業(yè)科技成果轉(zhuǎn)化,彌補(bǔ)市場(chǎng)機(jī)制引導(dǎo)企業(yè)成果轉(zhuǎn)化在資金、風(fēng)險(xiǎn)等方面的缺陷和不足,實(shí)現(xiàn)科技成果轉(zhuǎn)化市場(chǎng)的有序良性發(fā)展。

      (9)

      求出稀疏系數(shù)后,同樣計(jì)算各類別訓(xùn)練樣本對(duì)測(cè)試樣本的重構(gòu)誤差。

      (10)

      (11)

      2 實(shí)驗(yàn)結(jié)果及分析

      為了驗(yàn)證文中算法的有效性,與KNN算法[1]、稀疏近鄰表示算法[14]進(jìn)行對(duì)比。文中將采用式(9)進(jìn)行加權(quán)稀疏系數(shù)的求解,采用SPAMS工具箱[15-16],ε設(shè)置為10-4,s設(shè)置為1.5。實(shí)驗(yàn)采用YaleB[7]數(shù)據(jù)庫(kù)和ORL[12]數(shù)據(jù)庫(kù)。實(shí)驗(yàn)平臺(tái)為Inteli3處理器,2.30GHz,4G內(nèi)存,軟件采用MATLABR2012a。

      2.1 Yale B數(shù)據(jù)庫(kù)

      Yale B數(shù)據(jù)庫(kù)包括38個(gè)人的經(jīng)裁剪后的2 414幅正面人臉圖像,這些圖像存在不同的光照差異,原始圖像大小為192×168。實(shí)驗(yàn)中采用下采樣后的32×32大小的圖像,每類中隨機(jī)選取40幅作為訓(xùn)練樣本,余下的作為測(cè)試樣本,并對(duì)每一幅圖像進(jìn)行了歸一化處理,部分圖像如圖1所示。

      圖1 Yale B數(shù)據(jù)庫(kù)部分人臉圖像

      由于圖像的維數(shù)較高,首先采用PCA進(jìn)行降維處理,在特征子空間中進(jìn)行分類,保持0.95的能量,取5次實(shí)驗(yàn)的平均值,實(shí)驗(yàn)結(jié)果見(jiàn)表1。

      表1 Yale B數(shù)據(jù)庫(kù)上的實(shí)驗(yàn)結(jié)果

      從表1可以看出,在每類近鄰數(shù)k為20時(shí),文中算法的識(shí)別率為0.853 5,均大于SNRC算法的0.830 0和KNN算法的0.727 1。當(dāng)每類近鄰數(shù)k為30時(shí),文中算法識(shí)別率為0.911 6,也大于SNRC算法和KNN算法的識(shí)別率。由此可見(jiàn),文中算法取得了較好的效果。

      為了進(jìn)一步驗(yàn)證文中算法的識(shí)別率,將在每類近鄰數(shù)k為20和30時(shí)測(cè)試不同維數(shù)下的識(shí)別率,也重復(fù)5次實(shí)驗(yàn)取平均值,實(shí)驗(yàn)結(jié)果如圖2、圖3所示。

      圖2 Yale B數(shù)據(jù)庫(kù)k=20時(shí)不同維數(shù)下的識(shí)別率

      圖3 Yale B數(shù)據(jù)庫(kù)k=30時(shí)不同維數(shù)下的識(shí)別率

      從圖2和圖3可以看出,在每類近鄰數(shù)為20和30時(shí),文中算法均比SNRC算法和KNN算法的識(shí)別率高,并且隨著特征維數(shù)的增加,文中算法可以取得相當(dāng)好的識(shí)別效果。

      2.2 ORL數(shù)據(jù)庫(kù)

      ORL人臉數(shù)據(jù)庫(kù)是由AT&T實(shí)驗(yàn)室提供,共有40個(gè)人的400幅圖像,每人10幅圖像。這些人臉圖像在人臉表情和面部細(xì)節(jié)都有不同的變化,比如眼鏡戴或者不戴,眼睛睜開(kāi)或者閉著,笑與不笑等。原始圖像為112×92,實(shí)驗(yàn)中采用下采樣至32×32大小,每類隨機(jī)選取5幅作為訓(xùn)練樣本,其余的作為測(cè)試樣本。也對(duì)每一幅圖像進(jìn)行了歸一化處理,部分圖像如圖4所示。

      圖4 ORL數(shù)據(jù)庫(kù)部分人臉圖像

      首先采用PCA進(jìn)行降維在特征子空間中完成分類任務(wù),并保持0.95的能量。由于ORL為小樣本數(shù)據(jù),為了避免數(shù)據(jù)選取的偶然性,也重復(fù)5次實(shí)驗(yàn)求取平均值,實(shí)驗(yàn)結(jié)果見(jiàn)表2。

      表2 ORL數(shù)據(jù)庫(kù)上的實(shí)驗(yàn)結(jié)果

      從表2可以看出,當(dāng)每類近鄰數(shù)k為3時(shí),文中算法的識(shí)別率為0.803 0,略低于SNRC算法的0.839 0和KNN算法的0.856 0。這是因?yàn)镺RL為小樣本數(shù)據(jù)庫(kù),此時(shí)每類中選取的訓(xùn)練樣本個(gè)數(shù)比較少,算法學(xué)習(xí)的經(jīng)驗(yàn)不足。當(dāng)每類近鄰數(shù)k為4時(shí),訓(xùn)練樣本個(gè)數(shù)增加,識(shí)別率也會(huì)提高。文中算法的識(shí)別率為0.900 0,均高于SNRC算法和KNN算法的識(shí)別率。由此可見(jiàn),文中算法還是可行的。

      為了進(jìn)一步驗(yàn)證算法的有效性,測(cè)試每類近鄰數(shù)k為3和4時(shí)不同維數(shù)下的識(shí)別率,同樣取5次實(shí)驗(yàn)的平均值,實(shí)驗(yàn)結(jié)果如圖5、圖6所示。

      圖5 ORL數(shù)據(jù)庫(kù)k=3時(shí)不同維數(shù)下的識(shí)別率

      圖6 ORL數(shù)據(jù)庫(kù)k=4時(shí)不同維數(shù)下的識(shí)別率

      從圖5可以看出,當(dāng)維數(shù)較低時(shí),文中算法的識(shí)別率均高于SNRC算法,但卻低于KNN算法,而當(dāng)維數(shù)進(jìn)一步增大時(shí),文中算法的識(shí)別率有所下降,這是因?yàn)榇藭r(shí)每類近鄰數(shù)k為3,每類選取的訓(xùn)練樣本較少,又因?yàn)镻CA降維存在過(guò)擬合,主成分多時(shí)存在更多的干擾信息。

      如圖6所示,當(dāng)每類近鄰數(shù)k為4時(shí),由于每類訓(xùn)練樣本的增加,所以識(shí)別率會(huì)進(jìn)一步提高,此時(shí)文中算法的識(shí)別率均高于SNRC和KNN算法。所以可以看出,文中算法還是行之有效的。

      3 結(jié)束語(yǔ)

      文中針對(duì)稀疏近鄰表示算法沒(méi)有考慮訓(xùn)練樣本與測(cè)試樣本的不同權(quán)重表示,提出加權(quán)稀疏近鄰表示的人臉識(shí)別算法。首先在每一類訓(xùn)練樣本中尋找與測(cè)試樣本最近鄰的k個(gè)樣本,逐類進(jìn)行后構(gòu)造一個(gè)新的訓(xùn)練字典,然后在求解稀疏系數(shù)時(shí),對(duì)每一個(gè)訓(xùn)練樣本重構(gòu)測(cè)試樣本對(duì)應(yīng)的稀疏系數(shù)賦加一個(gè)權(quán)值。在YaleB數(shù)據(jù)庫(kù)和ORL數(shù)據(jù)庫(kù)上的實(shí)驗(yàn)驗(yàn)證了文中算法的有效性。

      現(xiàn)實(shí)中人臉識(shí)別受到各種因素的影響,如何設(shè)計(jì)更合理的訓(xùn)練字典以及構(gòu)造更加魯棒性的算法是下一步的研究重點(diǎn)。

      [1]ZhaoW,ChellappaR,PhillipsPJ,etal.Facerecognition:aliteraturesurvey[J].ACMComputingSurveys,2003,35(4):399-459.

      [2] 李武軍,王崇駿,張 煒,等.人臉識(shí)別研究綜述[J].模式識(shí)別與人工智能,2006,19(1):58-66.

      [3]TurkM,PentlandA.Eigenfacesforrecognition[J].JournalofCognitiveNeuroscience,1991,3(1):71-86.

      [4]BelhumeurPN,HespanhaJP,KriegmanD.Eigenfacesvs.fisherfaces:recognitionusingclassspecificlinearprojection[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,1997,19(7):711-720.

      [5]RoweisST,SaulLK.Nonlineardimensionalityreductionbylocallylinearembedding[J].Science,2000,290(5500):2323-2326.

      [6]TenenbaumJB,deSilvaV,LangfordJC.Aglobalgeometricframeworkfornonlineardimensionalityreduction[J].Science,2000,290(5500):2319-2323.

      [7]WrightJ,YangAY,GaneshA,etal.Robustfacerecognitionviasparserepresentation[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2009,31(2):210-227.

      [8]ZhangD,YangM,FengX.Sparserepresentationorcollaborativerepresentation:whichhelpsfacerecognition?[C]//ProcofIEEEinternationalconferenceoncomputervision.[s.l.]:IEEE,2011:471-478.

      [9]XuY,ZuoW,FanZ.Supervisedsparserepresentationmethodwithaheuristicstrategyandfacerecognitionexperiments[J].Neurocomputing,2012,79:125-131.

      [10] 蔡體健,樊曉平,劉遵雄.基于稀疏表示的高噪聲人臉識(shí)別及算法優(yōu)化[J].計(jì)算機(jī)應(yīng)用,2012,32(8):2313-2315.

      [11] 馬小虎,譚延琪.基于鑒別稀疏保持嵌入的人臉識(shí)別算法[J].自動(dòng)化學(xué)報(bào),2014,40(1):73-82.

      [12]NanZ,YangJ.Knearestneighborbasedlocalsparserepresentationclassifier[C]//ProcofChineseconferenceonpatternrecognition.[s.l.]:IEEE,2010:1-5.

      [13]LiCG,GuoJ,ZhangHG.Localsparserepresentationbasedclassification[C]//Procof20thinternationalconferenceonpatternrecognition.[s.l.]:IEEE,2010:649-652.

      [14]HuiK,LiC,ZhangL.Sparseneighborrepresentationforclassification[J].PatternRecognitionLetters,2012,33(5):661-669.

      [15]MairalJ,BachF,PonceJ,etal.Onlinedictionarylearningforsparsecoding[C]//Proceedingsofthe26thannualinternationalconferenceonmachinelearning.[s.l.]:ACM,2009:689-696.

      [16]MairalJ,BachF,PonceJ,etal.Onlinelearningformatrixfactorizationandsparsecoding[J].JournalofMachineLearningResearch,2010,11:19-60.

      Face Recognition Based on Weighted Sparse Neighbor Representation

      XIE Wen-hao,ZHAI Su-lan

      (School of Mathematical Sciences,Anhui University,Hefei 230601,China)

      Currently,face recognition via sparse representation has gained widespread attention.Since the sparse neighbor representation algorithm without considering the different weight of training samples to reconstruct the test sample,simultaneously,to improve the recognition rate of face recognition based on sparse neighbor representation,in this paper,a face recognition algorithm of weighted sparse neighbor representation was proposed.First,in each class of the training samples,ksamplesnearesttothetestsamplesareselected,constructednewtrainingsamplesinthisclass.Andthendothesameoperationineachclass,soastoconstructanewtrainingdictionary,whensolvingsparsecoefficientwithl1normminimization,aweightisgiventothesparsecoefficientofeachnewtrainingsample.Finallywiththenewtrainingdictionary,accordingtotheminimumreconstructionerrortocompletetherecognitiontask.ThemostexperimentsresultsonYaleBfacedatabaseandORLfacedatabaseshowthattheproposedmethodachieveshigherrecognitionratecomparedwithKNNandSNRC(SparseNeighborRepresentationforClassification),whichconfirmstheeffectivenessofthealgorithm.

      sparse representation;feature extraction;weighted nearest neighbor;face recognition

      2015-05-21

      2015-08-26

      時(shí)間:2016-01-26

      安徽省高校省級(jí)優(yōu)秀青年人才基金重點(diǎn)項(xiàng)目(2013SQRL005ZD)作者簡(jiǎn)介:謝文浩(1990-),男,碩士研究生,研究方向?yàn)閳D像處理與模式識(shí)別;翟素蘭,副教授,博士,碩士生導(dǎo)師,研究方向?yàn)槟J阶R(shí)別、視頻分析、數(shù)據(jù)挖掘。

      http://www.cnki.net/kcms/detail/61.1450.TP.20160126.1521.056.html

      TP

      A

      1673-629X(2016)02-0022-04

      10.3969/j.issn.1673-629X.2016.02.005

      猜你喜歡
      訓(xùn)練樣本識(shí)別率字典
      開(kāi)心字典
      家教世界(2023年28期)2023-11-14 10:13:50
      開(kāi)心字典
      家教世界(2023年25期)2023-10-09 02:11:56
      基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測(cè)
      人工智能
      基于真耳分析的助聽(tīng)器配戴者言語(yǔ)可懂度指數(shù)與言語(yǔ)識(shí)別率的關(guān)系
      提升高速公路MTC二次抓拍車牌識(shí)別率方案研究
      寬帶光譜成像系統(tǒng)最優(yōu)訓(xùn)練樣本選擇方法研究
      融合原始樣本和虛擬樣本的人臉識(shí)別算法
      我是小字典
      基于稀疏重構(gòu)的機(jī)載雷達(dá)訓(xùn)練樣本挑選方法
      天水市| 威宁| 奉节县| 南京市| 富锦市| 封丘县| 舞阳县| 金塔县| 阳曲县| 临沧市| 文安县| 交城县| 北安市| 灵丘县| 延长县| 堆龙德庆县| 玉屏| 合作市| 伊宁县| 札达县| 彝良县| 洪雅县| 常宁市| 宁陵县| 肥城市| 临颍县| 大厂| 织金县| 鹿邑县| 青岛市| 台东市| 扶绥县| 咸宁市| 洪湖市| 柘城县| 武宣县| 留坝县| 宜昌市| 吉安县| 布尔津县| 东方市|