• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      一種新的低秩分塊稀疏表示的人臉識別算法

      2015-05-04 05:34:38胡昭華趙孝磊徐玉偉
      數(shù)據(jù)采集與處理 2015年5期
      關(guān)鍵詞:分塊識別率人臉識別

      胡昭華 趙孝磊 徐玉偉 何 軍

      (1.南京信息工程大學(xué)電子與信息工程學(xué)院,南京,210044;2.南京信息工程大學(xué)江蘇省大氣環(huán)境與裝備技術(shù)協(xié)同創(chuàng)新中心,南京,210044)

      ?

      一種新的低秩分塊稀疏表示的人臉識別算法

      胡昭華1,2趙孝磊1徐玉偉1何 軍1

      (1.南京信息工程大學(xué)電子與信息工程學(xué)院,南京,210044;2.南京信息工程大學(xué)江蘇省大氣環(huán)境與裝備技術(shù)協(xié)同創(chuàng)新中心,南京,210044)

      針對人臉圖像中表情變化、遮擋、光照的問題,本文提出了一種新穎的基于低秩分塊稀疏表示的人臉識別算法。該算法采用了一種新的結(jié)構(gòu)不相關(guān)的低秩矩陣恢復(fù)方法,同時(shí)采用離散余弦變換方法聯(lián)合處理人臉圖像中遮擋、掩飾和光照的問題,對處理過的圖片采用一種獨(dú)特的重疊分塊方法,利用冗余信息有效地提高了算法的識別率。在分類階段,利用Alignment pooling的方法,有效地提高了識別速度。該算法在標(biāo)準(zhǔn)人臉數(shù)據(jù)庫上進(jìn)行了多次實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明:與現(xiàn)有人臉識別算法相比,算法的識別準(zhǔn)確率和計(jì)算效率都得到了一致提高。

      人臉識別;低秩恢復(fù);稀疏表示;重疊分塊

      引 言

      人臉識別是計(jì)算機(jī)視覺領(lǐng)域里一項(xiàng)熱門的研究課題,它屬于生物特征識別技術(shù),利用生物體(一般特指人)本身的生物特征來區(qū)分生物體個(gè)體。人臉識別技術(shù)廣泛采用特征分析算法,融合了計(jì)算機(jī)圖像處理技術(shù)與生物學(xué)統(tǒng)計(jì)技術(shù),利用生物統(tǒng)計(jì)學(xué)原理進(jìn)行分析并建立相應(yīng)的數(shù)學(xué)模型,具有廣闊的發(fā)展前景。

      對于給定的人臉圖像訓(xùn)練數(shù)據(jù),設(shè)計(jì)一個(gè)人臉識別系統(tǒng),大多人都著眼于人臉特征的提取和分類模型的學(xué)習(xí),卻忽視了用來評估系統(tǒng)性能的測試數(shù)據(jù)。為了進(jìn)一步評估所設(shè)計(jì)的人臉識別算法的魯棒性,遮擋和偽裝等現(xiàn)象將會出現(xiàn)在測試數(shù)據(jù)中。同時(shí)本文注意到盡管測試數(shù)據(jù)是損壞的,但訓(xùn)練數(shù)據(jù)往往從一些比較理想的人臉圖像中取得,這些人臉圖像訓(xùn)練數(shù)據(jù)沒有遮擋、偽裝、光照以及表情的變化等等。當(dāng)把現(xiàn)有的人臉識別系統(tǒng)應(yīng)用到實(shí)際的案例中時(shí),不得不丟棄那些損壞的訓(xùn)練數(shù)據(jù),同時(shí)可能會遇到小樣本和過度擬合的問題。另外,丟棄損壞的人臉圖像訓(xùn)練數(shù)據(jù)可能會丟失對識別有用的信息。在人臉識別中,許多經(jīng)典的技術(shù)如Eigenfaces,F(xiàn)isherfaces,Laplacianfaces[1],它們用來降低人臉圖片數(shù)據(jù)的維數(shù)。然而,當(dāng)這些人臉識別技術(shù)遇到人臉圖像的遮擋、偽裝[2]和光照變化時(shí)魯棒性會降低。近期一些關(guān)于低秩矩陣恢復(fù)的工作有效地解決了訓(xùn)練數(shù)據(jù)中人臉遮擋、偽裝的問題[3-5]。但這類方法也有不足之處:首先,低秩矩陣恢復(fù)不能處理人臉圖像中光照變化的問題;其次,低秩矩陣恢復(fù)是對訓(xùn)練數(shù)據(jù)的預(yù)處理,對測試數(shù)據(jù)中人臉遮擋、掩飾卻無能為力;最后,它不能保證求完低秩后訓(xùn)練數(shù)據(jù)識別效果的好壞。針對以上3點(diǎn)不足,本文分別提出了相應(yīng)的解決方案。

      在人臉識別領(lǐng)域,光照變化仍然是一個(gè)極具挑戰(zhàn)性的問題?,F(xiàn)有的解決光照變化問題的方法有許多。例如,直方圖均衡化[6]、圖像灰度校正和對數(shù)變換等,它們在光照歸一化中得到廣泛的應(yīng)用[7-8]。然而,這些全局處理技術(shù)難以處理人臉圖像中非均勻光照變化的問題。還有一些方法試圖提取面部特征不變量來應(yīng)對光照變化,典型的方法有邊緣映射、灰度級圖像擴(kuò)展和Gabor濾波[9]等等,但實(shí)驗(yàn)研究表明,當(dāng)改變?nèi)四樥彰鞣较驎r(shí),這些方法的效果就會很差。光照變化主要是由于三維人臉模型在不同的照明方向下出現(xiàn)不同的明暗現(xiàn)象[10]。最近,一些研究人員試圖構(gòu)建一個(gè)3D人臉模型來解決圖像中的光照補(bǔ)償問題[11-13]。但這種基于人臉模型的處理方法有一個(gè)缺點(diǎn):大量不同光照條件下的圖片的三維信息需要在訓(xùn)練階段獲取,這大大降低了識別速度。伴隨著離散余弦變換的提出與其在圖像處理中的運(yùn)用,使得圖像光照變化問題得到有效地解決。本文通過運(yùn)用離散余弦變換與低秩分塊共同處理人臉圖像中光照的問題。

      稀疏編碼是最近比較流行的人臉識別算法[14]。稀疏編碼利用l1范數(shù)和l0范數(shù)達(dá)到了令人滿意的識別精度,類似的算法還有線性回歸分類[15]。這些方法在某些控制條件下能夠表現(xiàn)很好,然而當(dāng)測試圖像或訓(xùn)練圖像中有連續(xù)性遮擋、偽裝的時(shí)候表現(xiàn)卻很差。因此,模塊化方法[16]才得以應(yīng)用到稀疏表示編碼和線性回歸分類之中。然而,模塊化稀疏表示編碼和模塊化線性回歸分類有一個(gè)共同的缺點(diǎn):它們的每一個(gè)模塊都獨(dú)立處理,失去了模塊與模塊之間的關(guān)聯(lián)信息。正是基于上述問題,本文提出一種新的人臉圖像重疊分塊方法。人臉圖像重疊分塊利用冗余信息可以有效地處理圖像中部分遮擋、偽裝問題。同時(shí)在識別階段,為了利用模塊之間的關(guān)聯(lián)信息,本文提出了一個(gè)基于Alignmentpooling[17]的分類方法,通過Pooling同一類的稀疏系數(shù),不僅有利于分類識別,而且提高了識別速率。同時(shí),為了增強(qiáng)求取低秩[18-19]后訓(xùn)練數(shù)據(jù)的識別效果,本文提出了一種新穎的基于結(jié)構(gòu)不相關(guān)的低秩矩陣恢復(fù)算法。該算法引進(jìn)了一個(gè)能夠提高類與類之間識別能力的參考項(xiàng),對進(jìn)一步提升人臉識別水平有著積極的作用。

      1 低秩矩陣恢復(fù)

      主成分分析(Principalcomponentanalysis,PCA)[2]作為一種經(jīng)典的算法,廣泛應(yīng)用于數(shù)據(jù)分析和數(shù)據(jù)降維。然而PCA卻對大量的稀疏誤差很敏感。為了有效地解決稀疏噪聲的問題,大量相關(guān)工作被提出,如:交替最小化技術(shù)、影響函數(shù)的引入、低秩矩陣恢復(fù)[3]等。在這些方法中,低秩矩陣恢復(fù)能更有效地控制和去除稀疏噪聲,本文算法正是基于低秩矩陣恢復(fù)技術(shù)。

      低秩矩陣恢復(fù)的目的為將數(shù)據(jù)矩陣D分解成A+E,其中A代表低秩矩陣,E代表分解后的稀疏誤差。更準(zhǔn)確地說,對于給定的輸入數(shù)據(jù)矩陣D,低秩矩陣恢復(fù)通過最小化矩陣A的秩,同時(shí)減小‖E‖0的值來達(dá)到輸入數(shù)據(jù)矩陣D的最佳低秩逼近。但是上述的問題是NP-hard問題,Candes[3]通過求解如下公式使傳統(tǒng)的低秩矩陣恢復(fù)變得易于處理

      ‖A‖*+λ‖E‖1s.t.D=A+E

      (1)

      式中:核范數(shù)‖A‖*為矩陣A秩的近似;零范數(shù)‖E‖0被一范數(shù)‖E‖1所替代。解決這個(gè)凸優(yōu)化問題就相當(dāng)于解決了原始的低秩矩陣近似問題,只要保證矩陣A的秩不要太大,同時(shí)矩陣E足夠稀疏。由于增廣拉格朗日乘法(Augmented Lagrange multiplier,ALM)[3,20]的高效性,在求解低秩矩陣近似問題時(shí)得到廣泛應(yīng)用。

      2 離散余弦變換

      離散余弦變換(Discrete cosine transform, DCT)[21]對相關(guān)的圖像數(shù)據(jù)具有非常好的能量聚焦性,它能夠?qū)D像從空間域變換到頻域,經(jīng)過變換,圖像信號能量的絕大部分被集中到變換域的少數(shù)系數(shù)上。因此,對于受光照影響的圖像,只需要修改很少的頻域系數(shù),就可以對圖像的光照做出較好的調(diào)整,避免了需要調(diào)節(jié)多個(gè)參數(shù)以適合不同圖像的問題。

      DCT有3個(gè)很重要的特點(diǎn):(1)在DCT所有系數(shù)中,絕大多數(shù)系數(shù)都接近0;(2)DCT的高頻系數(shù)很小,接近于0,比較大的系數(shù)一般集中在低頻部分;(3)以人臉圖像為例,低頻系數(shù)包含的是人臉圖像的絕大部分非細(xì)節(jié)特征信息,而中高頻系數(shù)包含的則是人臉細(xì)節(jié)信息。根據(jù)DCT的這些特點(diǎn),本文采用此算法來構(gòu)建一個(gè)更具有魯棒性的系統(tǒng)。DCT算法的效果如圖1所示。

      圖1 基于DCT變換的人臉光照處理Fig.1 Human face illumination processing based on DCT transform

      3 基于結(jié)構(gòu)不相關(guān)的低秩矩陣恢復(fù)

      基于結(jié)構(gòu)不相關(guān)的低秩矩陣恢復(fù)是算法的重要組成部分。算法通過對低秩矩陣分解的觀察與分析,引入一個(gè)能夠提高字典辨別能力的參考項(xiàng)。但參考項(xiàng)的引入會引起目標(biāo)函數(shù)的變化,必然要求采取新的算法解決相應(yīng)的優(yōu)化問題。

      3.1 低秩矩陣分解

      圖2 低秩矩陣恢復(fù)Fig.2 Low-rank matrix recovery

      低秩矩陣恢復(fù)將輸入數(shù)據(jù)矩陣分解成兩個(gè)不同的部分:一個(gè)代表低秩矩陣部分,另一個(gè)代表稀疏誤差部分[18]。低秩矩陣分解既要保證輸入數(shù)據(jù)的結(jié)構(gòu),如圖像的紋理;又要保證誤差矩陣足夠稀疏。當(dāng)將低秩矩陣恢復(fù)應(yīng)用于一個(gè)有c個(gè)主體的人臉識別系統(tǒng)中時(shí),相應(yīng)的訓(xùn)練矩陣為D=[D1,D2,…,Dc],其中Di為主體i的數(shù)據(jù)矩陣,包括人臉圖像的遮擋,偽裝等,如圖2(a)所示。當(dāng)執(zhí)行低秩矩陣分解時(shí),輸入數(shù)據(jù)矩陣D=[D1,D2,…,Dc]將會分解成低秩矩陣A=[A1,A2,…,Ac]和誤差矩陣E=[E1,E2,…,Ec]之和。如圖2(b)所示,低秩矩陣A中圖像可以認(rèn)為是原始的人臉圖像去除稀疏噪聲以后效果。從而也可以看出,低秩矩陣A比原始的數(shù)據(jù)矩陣D更具有代表性,更加有利于人臉識別。

      盡管低秩矩陣A比原始數(shù)據(jù)矩陣D有更強(qiáng)的代表能力,但不同主體的人臉圖片卻有著一些共同的特征,如眼睛、鼻子的位置等,這也可能導(dǎo)致低秩矩陣A不能夠包含足夠的區(qū)分信息。因此,本文決定提高低秩矩陣之間的非相關(guān)性[18,22],盡量保持不同低秩矩陣之間的獨(dú)立性。根據(jù)低秩矩陣恢復(fù)式(1),本文對目標(biāo)函數(shù)增加了一個(gè)能夠增強(qiáng)低秩矩陣之間非相關(guān)性的參考項(xiàng)。新的目標(biāo)函數(shù)表示如下

      ‖Ai‖*+λ1‖Ei‖1}+λ2Ψ(A1,A2,…,Ac)s.t.Di=Ai+Ei

      (2)

      式中:i=1,2,…,c,c為訓(xùn)練矩陣中主體的個(gè)數(shù);Di為第i個(gè)訓(xùn)練樣本數(shù)據(jù)矩陣;Ai為第i個(gè)訓(xùn)練樣本的低秩分解矩陣;Ei為稀疏誤差矩陣;Ψ(A1,A2,…,Ac)為提高低秩矩陣區(qū)分能力的參考項(xiàng);λ2為常數(shù)(λ2≥0),圖3為人臉識別算法。算法分為兩個(gè)階段:訓(xùn)練階段輸入數(shù)據(jù)矩陣經(jīng)過低秩分解、光照歸一化、重疊分塊組成一個(gè)新的字典;測試階段測試圖片經(jīng)過重疊分塊、稀疏編碼,然后通過Alignmentpooling分類達(dá)到人臉識別分類的效果。DCT光照歸一化方法是對經(jīng)過低秩矩陣分解的人臉圖像采用DCT變換,同時(shí)應(yīng)用非局部均值去噪算法(Non-localmeans,NLM)[23]使圖像光照歸一化。NLM通過采用非局部均值去噪的方法計(jì)算光照度函數(shù),估算出反射系數(shù)。圖4為不同條件下的人臉圖像首先通過低秩矩陣分解,然后經(jīng)過DCT光照歸一化后的效果圖。以圖4(a)為例,最左側(cè)的人臉圖像為原始圖像,中間的為經(jīng)過低秩矩陣分解后的人臉圖像,最右側(cè)的為經(jīng)過DCT光照歸一化后的人臉圖像。

      圖3 本文算法流程圖Fig.3 Flow diagram of proposed algorithm

      圖4 經(jīng)過低秩分解和DCT光照歸一化后的圖像Fig.4 Recovered images based on low-rank recovery and DCT transform

      3.2 參考項(xiàng)的引入

      參考項(xiàng)Ψ(A1,A2,…,Ac)的設(shè)計(jì)不僅有利于字典學(xué)習(xí),還能夠盡可能地提高字典的辨別能力。線性判別分析(Linear discriminant analysis,LDA)[22,24]的目的是從高維特征空間里提取出最具有判別能力的低維特征,這些特征能將同一個(gè)類別的所有樣本聚集在一起,不同類別的樣本盡量分開。根據(jù)LDA的準(zhǔn)則,定義以下矩陣向量。

      各類樣本的均值向量

      (3)

      樣本的總體均值向量

      (4)

      樣本的類內(nèi)離散度矩陣

      (5)

      樣本的類間離散度矩陣

      (6)

      式(3~6)中,i=1,2,…,c;ni為第i個(gè)主體中樣本的個(gè)數(shù);n為訓(xùn)練樣本的總數(shù)n=n1+n2+…+nc;Ai為第i個(gè)主體的訓(xùn)練數(shù)據(jù)矩陣;a為Ai中的列向量。

      本文根據(jù)LDA的原理和樣本類間離散矩陣與類內(nèi)離散矩陣的特性將參考項(xiàng)定義為

      Ψ(A1,A2,……,Ac)=tr(Sw)-tr(Sb)

      (7)

      式中:tr(·)為求矩陣的跡。將式(7)代入式(2),可得

      ‖Ai‖*+λ1‖Ei‖1}+λ2(tr(Sw)-tr(Sb))s.t.Di=Ai+Ei

      (8)

      由于算法是對不同主體的數(shù)據(jù)矩陣分別求低秩矩陣分解,因此為了避免對式(8)的直接求解,根據(jù)文獻(xiàn)[18,22]可將目標(biāo)函數(shù)可以轉(zhuǎn)化為

      ‖Ai‖*+λ1‖Ei‖1+λ2ψ(Ai)s.t.Di=Ai+Ei

      (9)

      (10)

      由于λ2ζ是常量,目標(biāo)函數(shù)最終整理得

      (11)

      對于式(11),本文利用ALM對每一個(gè)主體數(shù)據(jù)矩陣做低秩分解。

      3.3 基于ALM的算法優(yōu)化

      ALM作為一種標(biāo)準(zhǔn)的算法廣泛應(yīng)用于求解低秩矩陣恢復(fù)的問題。當(dāng)約束條件h(X)=0時(shí),求解f(X)的最小值,ALM的目標(biāo)函數(shù)定義為

      (12)

      式中:Y代表拉格朗日乘數(shù)矩陣。令

      (13)

      h(X)=Di-Ai-Ei

      (14)

      則式(11)在利用ALM算法時(shí)可表示如下

      (15)

      (1)Ai更新

      (16)

      通過矩陣奇異值分解

      s.t. (U,S,VT)=SVD(Xa)

      (2)Ei更新

      (17)

      上述凸優(yōu)化問題及其收斂性可以通過l1最小化技術(shù)[25]求解和證明。

      4 人臉重疊分塊與識別

      4.1 人臉重疊分塊

      圖5 基于結(jié)構(gòu)不相關(guān)的低秩矩陣恢復(fù)算法Fig.5 Low-rank matrix recovery algorithm with structural incoherence

      圖6 人臉圖片重疊分塊Fig.6 Face image overlapping partition

      文獻(xiàn)[4]提出了一種基于稀疏表示的人臉識別算法(Sparse representation classification,SRC)[14]。SRC認(rèn)為每一個(gè)測試圖片是訓(xùn)練圖片集的線性組合,可以通過l1最小化來求解其中的稀疏編碼問題。根據(jù)SRC相關(guān)的理論,對于任意一個(gè)測試模塊yk,有

      yk=Akxk

      (18)

      由于這是一個(gè)欠定方程,式(18)有很多解,需要添加一個(gè)約束條件。因?yàn)閘2范數(shù)最小化比較簡單方便,使其成為最普遍的約束條件。然而,它產(chǎn)生的稀疏系數(shù)比較稠密,對測試圖像識別沒有太大益處。為了獲得一個(gè)比較理想的稀疏解,本文利用了l1范數(shù)最小化。其最優(yōu)化問題

      (19)

      式中:xk為第k個(gè)模塊相應(yīng)的稀疏系數(shù)。

      4.2 識別方法

      在基于稀疏表示的人臉識別中,一般都通過比較殘差的大小來判斷測試圖片屬于哪一個(gè)訓(xùn)練樣本,從而實(shí)現(xiàn)正確地分類

      i=argminj‖Akδj(xk)-yk‖2

      (20)

      式中:δj(xk)代表在xk中與第j個(gè)類相關(guān)聯(lián)的特征函數(shù)[14]。

      為了避免單獨(dú)對模塊進(jìn)行處理而忽略模塊之間的相關(guān)性,本文算法充分利用不同模塊的稀疏系數(shù),借鑒Alignmentpooling[17]的方法,先將不同模塊的屬于同一類的稀疏系數(shù)疊加在一起,然后對同一類稀疏系數(shù)從大到小排序,這樣既能利用模塊之間的相關(guān)信息,又能突出權(quán)重比較高的模塊在分類過程中的重要性。如圖7所示。對于一個(gè)有c個(gè)主體每個(gè)主體有N個(gè)訓(xùn)練樣本的訓(xùn)練集,它的測試圖片第k個(gè)模塊所對應(yīng)的稀疏系數(shù)為xk∈RcN×1(1≤k≤12)。其中vkj代表測試圖片第k個(gè)模塊第j個(gè)主體所對應(yīng)的同一類的稀疏系數(shù)絕對值之和,即

      vkj=‖δj(xk)‖1

      (21)

      因此vk=[vk1,vk2,…,vkc]T。利用pooling的方法,將各個(gè)模塊的稀疏系數(shù)聯(lián)系起來有

      (22)

      式中:f∈Rc×1,通過求解f中最大值的坐標(biāo)即可確定測試圖片屬于哪一類,從而實(shí)現(xiàn)正確分類與識別。

      圖7 本文基于Alignment pooling的分類方法Fig.7 Classification method based on alignment pooling

      5 實(shí)驗(yàn)結(jié)果與分析

      實(shí)驗(yàn)過程中所用到的數(shù)據(jù)庫與文獻(xiàn)[14]中所用到的數(shù)據(jù)庫相同,分別為:ExtendedYaleB數(shù)據(jù)庫、AR數(shù)據(jù)庫和MultiPIE數(shù)據(jù)庫。實(shí)驗(yàn)過程中,將本文算法與現(xiàn)有的算法:GlobalSRC[14],ModularSRC[14],GlobalLRC[26],ModularLRC[26],NN[27]和CRC_RLS[28]進(jìn)行比較。同時(shí),為了弄清DCT光照處理與LDA參考項(xiàng)對本實(shí)驗(yàn)算法的影響,分別做了不使用DCT變換(WithoutDCT)與不加LDA參考項(xiàng)(WithoutLDA)的實(shí)驗(yàn)。

      5.1ExtendedYaleB數(shù)據(jù)庫

      在ExtendedYaleB數(shù)據(jù)庫中包含38個(gè)主體,共2 280幅圖片,每幅圖片的大小為168×192像素,每類包含60種不同光照條件下的人臉圖片。本文隨機(jī)從每一類中抽取55幅圖片作為訓(xùn)練樣本,另外5幅作為測試樣本。同時(shí),實(shí)驗(yàn)中將每幅圖片重新采樣為20×16像素,40×32像素,80×64像素,目的是比較在不同尺寸下不同算法之間的識別效果。實(shí)驗(yàn)識別率如表1所示。

      表1 不同圖像尺寸下算法的識別率

      對于尺寸為20×16像素的小圖像來說,由于缺乏足夠的人臉特征,模塊化的方法比全局化的方法表現(xiàn)的更差。然而,本文方法通過利用人臉圖像中重疊部分的冗余信息,在識別率上接近全局化的方法,而且遠(yuǎn)遠(yuǎn)高于模塊化的方法。當(dāng)圖像尺寸增加到40×32像素時(shí),模塊化方法的表現(xiàn)得到了很大提高。然而,模塊化方法的優(yōu)點(diǎn)無法完全克服它自身的缺點(diǎn),與模塊化和全局化的方法相比,本文方法仍然能夠表現(xiàn)最好。當(dāng)處理大圖像尺寸80×64像素時(shí),模塊化、全局化的方法雖然有所提高,但本文算法依然能夠獲得最高的識別率。ExtendedYaleB數(shù)據(jù)庫主要由不同光照條件下的人臉圖片構(gòu)成,從WithoutDCT實(shí)驗(yàn)中的識別率可以看出,DCT光照處理對本文算法識別具有重要作用。WithoutLDA實(shí)驗(yàn)中的識別率雖然比本文算法要低一點(diǎn),但相比其他幾種算法還是有所提高。同時(shí),本文在不同的維度的特征空間下比較各種算法的識別效果,如圖8所示。從圖8可看出,本文算法與其他幾種算法相比,識別率有相應(yīng)的提高。

      圖8 在Extended Yale B數(shù)據(jù)庫中實(shí)驗(yàn)效果圖Fig.8 Recognition performance on the extended Yale B database

      5.2AR數(shù)據(jù)庫

      AR數(shù)據(jù)庫包含126個(gè)主體,共4 000幅人臉圖片。實(shí)驗(yàn)中,本文從男性圖片中選擇50個(gè)主體,從每個(gè)主體中隨機(jī)選擇20幅作為訓(xùn)練圖片,另外6幅作為測試圖片,圖像的尺寸為80×64像素。實(shí)驗(yàn)識別率如表2所示。

      表2 不同遮擋下算法的識別率

      圖9 測試圖像分類識別效果圖Fig.9 Test image classification results

      當(dāng)處理人臉圖像中有眼鏡、圍巾等這些遮擋時(shí),算法Global SRC,Global LRC,Modular LRC表現(xiàn)很差,無法處理這些遮擋。Modualr SRC雖然表現(xiàn)良好,但和本文算法還是有些差距,從而充分體現(xiàn)本算法的優(yōu)越性。由于DCT變換對人臉圖像的非連續(xù)遮擋不能進(jìn)行有效處理,從實(shí)驗(yàn)識別率中也可以看出,在AR數(shù)據(jù)庫中DCT變換對本文算法的影響比LDA參考項(xiàng)的影響要小得多。實(shí)驗(yàn)中有50個(gè)類共300幅測試圖像,每個(gè)類有6幅測試圖像。300個(gè)測試圖像的識別效果如圖9所示,圖中橫坐標(biāo)代表300幅測試圖像,縱坐標(biāo)代表測試圖像的識別標(biāo)簽,圖中波動比較大的地方出現(xiàn)了錯(cuò)誤識別。同時(shí),針對不同的場景,實(shí)驗(yàn)分別在不同維度的特征空間下對上述幾種算法作出性能的比較。如圖10(a,b)所示,從圖中可以看出,在不同的場景下,本文都能獲得比其他幾種算法更高的識別率。

      圖10 在AR數(shù)據(jù)庫中不同場景下實(shí)驗(yàn)對比圖Fig.10 Performance comparisons on AR database for different scenarios

      5.3 Multi PIE數(shù)據(jù)庫

      Multi PIE數(shù)據(jù)庫包含337個(gè)主體,由750 000多幅人臉圖片組成。每個(gè)主體的圖片集分別在4種不同的場景下拍攝完成,同時(shí)伴隨著有姿勢、表情和光照的變化。實(shí)驗(yàn)中,隨機(jī)選擇250個(gè)主體,從每個(gè)主體中選擇15幅正面的圖片和15幅光照變化的圖片作為訓(xùn)練圖片,隨機(jī)選擇10幅作為測試圖片。實(shí)驗(yàn)在場景2、場景3和場景4下進(jìn)行,每幅圖片尺寸為80×64像素。實(shí)驗(yàn)識別率如表3所示。與表中幾種算法相比,本文算法都有相應(yīng)的提高。

      表3 不同場景下算法的識別率

      6 結(jié)束語

      本文利用低秩矩陣非相關(guān)性,DCT光照歸一化與人臉重疊分塊設(shè)計(jì)一個(gè)更加具有魯棒性的人臉識別算法。該算法在不同條件下進(jìn)行了多次實(shí)驗(yàn),包括光照變化、表情變化、眼鏡遮擋、圍巾遮擋等,實(shí)驗(yàn)結(jié)果清楚地表明本文算法比模塊化、全局化的方法更加優(yōu)越,更加具有魯棒性。然而本文算法也有不足之處,對于一個(gè)人臉數(shù)據(jù)庫,預(yù)先要經(jīng)過低秩、光照歸一化、重疊分塊等一系列復(fù)雜的數(shù)據(jù)處理,使系統(tǒng)變的更加繁瑣。接下來的工作將會在不同類型、不同人種的人臉數(shù)據(jù)庫中進(jìn)行試驗(yàn)和算法改進(jìn),使算法更加簡潔高效。

      [1] He Xiaofei, Yan Shuicheng, Hu Yuxiao, et al.Face recognition using Laplacianfaces[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2005, 27(3): 328-340.

      [2] Dela T F, Black M. Robust principal component analysis for computer vision[C]//Proceeding of International Conference on Computer Vision. Vancouver, Canada: IEEE, 2001: 362-369.

      [3] Candes E, Li Xiaodong, Ma Yi, et al. Robust principal component analysis[J]. Journal of the ACM, 2011, 58(3):1-37.

      [4] Tzimiropoulos G, Zafeiriou S, Pantic M. Subspace learning from image gradient orientations[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2012, 34(12): 2454-2466.

      [5] Qifa K, Kanade T. Robust L1 norm factorization in the presence of outliers and missing data by alternative convex programming[C]//Proceeding of Conference on Computer Vision and Pattern Recognition. San Diego, USA: IEEE, 2005, 1:739-746.

      [6] Pizer S, Amburn E.Adaptive histogram equalization and its variations[J]. Computer Vision Graphics and Image Processing, 1987, 39(3):355-368.

      [7] Shan Shiguang, Gao Wen, Cao Bo. Illumination normalization for robust face recognition against varying lighting conditions[J]. Analysis and Modeling of Faces and Gestures, IEEE International Workshop on, 2003,10(3): 157-164.

      [8] Savvides M, Kumar V. Illumination normalization using logarithm transforms for face authentication[J]. Lecture Notes in Computer Science, 2003,2688:549-556.

      [9] 黃兵,郭繼昌. 基于Gabor小波與LBP直方圖序列的人臉年齡估計(jì)[J]. 數(shù)據(jù)采集與處理,2012,27(3):340-345.

      Huang Bing, Guo Jichang. Age estimation of facial images based on Gabor and histogram sequence of LBP[J]. Journal of Data Acquisition and Processing, 2012, 27(3): 340-345.

      [10]Shashua A, Riklin R T. The quotient image:Class-based rendering and recognition with varying illuminations[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2002, 23(2):129-139.

      [11]Liu Zhonghua, Zhao Haixia, Pu Jiexin. Face recognition under varying illumination[J]. Neural Computing and Applications, 2013, 23(1): 133-139.

      [12]Georghiades A, Belhumeur P, Jacobs D. From few to many: Illumination cone models for face recognition under variable lighting and pose[J]. Pattern Analysis and Machine Intelligence,IEEE Transactions on, 2001 , 23(6): 630-660.

      [13]Chen Chiaping, Chen Chusong. Intrinsic illumination subspace for lighting insensitive face recognition[J]. Systems Man & Cybernetics Part B Cybernetics, IEEE Transactions on, 2012, 42(2): 422-433.

      [14]Wright J, Yang A, Ganesh A. Robust face recognition via sparse representation[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2009, 31(2): 210-227.

      [15]Pentland A, Moghaddam B, Starner T. View-based and modular eigenspaces for face recognition[C]//Proceeding of Conference on Computer Vision and Pattern Recognition. Seattle, USA: IEEE, 1994:84-91.

      [16]Lai Jian, Jiang Xudong. Modular weighted global sparse representation for robust face recognition[J]. IEEE Signal Processing Letters, 2012, 19(9):571-574.

      [17]Jia Xu, Lu Huchuan. Visual tracking via adaptive structural local sparse appearance model[C]//Proceeding of Conference on Computer Vision and Pattern Recognition. Providence, USA: IEEE, 2012:1822-1829.

      [18]Chen C F, Wei C P, Wang Y C F. Low-rank matrix recovery with structural lncoherence for robust face recognition[C]//Proceeding of Conference on Computer Vision and Pattern Recognition. Providence, USA: IEEE, 2012: 2618-2625.

      [19]Ramirez I, Sprechmann P, Sapiro G. Classification and clustering via dictionary learning with structured incoherence and shared features[C]//Proceeding of Conference on Computer Vision and Pattern Recognition.San Francisco, USA:IEEE, 2010:3501-3508.

      [20]Lin Zhouchen, Chen Minming. The augmented lagrange multiplier method for exact recovery of corrupted low-rank matrices[EB/OL].http://arxiv.org/abs/1009.5055, 2010.

      [21] Kang J, Gabbouj M, Kuo C. Sparse/DCT (S/DCT) two-layered representation of prediction residuals for video coding[J]. IEEE Transactions on Image Processing, 2013, 22(7): 2711-2722.

      [22]Zhou Ning, Shen Yi, Peng J. Learning inter-related visual dictionary for object recognition[C]//Proceeding of Conference on Computer Vision and Pattern Recognition. Providence, USA:IEEE, 2012: 3490-3497.

      [23]Zhao Yitian, Liu Yonghuai, Song Ran. Extended non-local means filter for surface saliency detection[J]. International Conference on Image Processing, 2012,8556: 633-636.

      [24]Duda R, Hart P, Stork D. Pattern classification[M]. 2nd ed.New York: Wiley & Interscience, 2001.

      [25]Hale E, Yin W T, Zhang Y. Fixed-point continuation for l1-minimization: Methodology and convergence[J]. SIAM Journal on Optimization, 2008, 19(3):1107-1130.

      [26]Jaiswal A, Kumar N, Agrawal R. Local linear regression on hybrid eigenfaces for pose invariant face recognition[J]. International Journal of Computer Vision & Image Processing, 2012, 2(2):48-58.

      [27]Hicham G, Elmongui, M F. Continuous aggregate nearest neighbor queries[J]. GeoInformatica, 2013, 17(1):63-69.

      [28] Zhang Lei, Yang Meng, Feng Xiangchu. Sparse representation or collaborative representation: Which helps face recognition[C]//Proceeding of International Conference on Computer Vision. Barcelona, Spain: IEEE, 2011, 6(13):471-478.

      Face Recognition Algorithm Based on Novel Low-Rank and Block-Based Sparse Representation

      Hu Zhaohua1,2, Zhao Xiaolei1, Xu Yuwei1, He Jun1

      (1.School of Electronic & Information Engineering, Nanjing University of Information Science & Technology, Nanjing, 210044, China;2.Jiangsu Collaborative Innovation Center on Atmospheric Environment and Equipment Technology, Nanjing University of Information Science & Technology, Nanjing, 210044, China)

      Aiming at the problem of human faces with varying expression and illumination, as well as occlusion and disguise, a face recognition algorithm is proposed based on local structural sparse representation. This algorithm combines low-rank matrix recovery with structural incoherence and discrete cosine transform (DCT) method to remove occlusion, disguise and illumination variations in face image. Meanwhile, the partial information is fully utilized by using sparse codes of local image patches with spatial layout. In the classification stage, the algorithm effectively improves the recognition rate based on a novel alignment pooling method. Extensive experiments are conducted on publicly available face databases. Compared with the related state-of-the-art methods, the experimental results demonstrate the accuracy and efficiency of the proposed method.

      face recognition; low-rank recovery; sparse representation; overlapped block

      國家自然科學(xué)青年基金(61203273)資助項(xiàng)目;江蘇省自然科學(xué)基金青年基金(BK20141004)資助項(xiàng)目;江蘇省普通高校自然科學(xué)研究(11KJB510009,14KJB510019)資助項(xiàng)目;江蘇省信息與通信工程優(yōu)勢學(xué)科建設(shè)工程資助項(xiàng)目。

      2014-03-02;

      2014-05-22

      TN911.73

      A

      胡昭華(1981-),女,副教授,研究方向:視頻目標(biāo)跟蹤、模式識別和粒子濾波, E-mail:zhaohua_hu@163.com。

      何軍(1978-),男,講師,研究方向:計(jì)算機(jī)視覺、高維數(shù)據(jù)分析和壓縮感知。

      趙孝磊(1988-),男,碩士研究生,研究方向:人臉識別。

      徐玉偉(1987-),男,碩士研究生,研究方向:視頻目標(biāo)跟蹤。

      猜你喜歡
      分塊識別率人臉識別
      人臉識別 等
      揭開人臉識別的神秘面紗
      基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測
      分塊矩陣在線性代數(shù)中的應(yīng)用
      基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識別率的關(guān)系
      提升高速公路MTC二次抓拍車牌識別率方案研究
      反三角分塊矩陣Drazin逆新的表示
      高速公路機(jī)電日常維護(hù)中車牌識別率分析系統(tǒng)的應(yīng)用
      基于自適應(yīng)中值濾波的分塊壓縮感知人臉識別
      基于多分辨率半邊的分塊LOD模型無縫表達(dá)
      扎兰屯市| 潼南县| 香河县| 瓦房店市| 崇阳县| 信宜市| 广河县| 乐昌市| 张家川| 贺兰县| 武强县| 建水县| 全州县| 邓州市| 额尔古纳市| 和林格尔县| 杭锦后旗| 城固县| 吉水县| 边坝县| 余江县| 资阳市| 永泰县| 成都市| 柏乡县| 上蔡县| 太保市| 安陆市| 渭南市| 温州市| 申扎县| 南开区| 安国市| 蒙阴县| 东源县| 西乡县| 渭源县| 正宁县| 合川市| 喜德县| 景洪市|