楊國(guó)亮,豐義琴,魯海榮
(江西理工大學(xué)電氣工程與自動(dòng)化學(xué)院,江西 贛州 341000)
基于低秩表示中稀疏誤差的可變光照和局部遮擋人臉識(shí)別*
楊國(guó)亮,豐義琴,魯海榮
(江西理工大學(xué)電氣工程與自動(dòng)化學(xué)院,江西 贛州 341000)
可變光照和有遮擋人臉識(shí)別是人臉識(shí)別問題中的一個(gè)難點(diǎn)。受到魯棒主成分分析法(RPCA)和稀疏表示分類法(SRC)的啟發(fā),提出一種基于低秩表示(LRR)中稀疏誤差圖像的可變光照有遮擋人臉識(shí)別算法。在訓(xùn)練階段,利用LRR計(jì)算每類人臉低秩數(shù)據(jù)矩陣,在此基礎(chǔ)上求解每類人臉圖像低秩映射矩陣,通過各類低秩映射矩陣將未知人臉圖像投影得到每類下的低秩數(shù)據(jù)矩陣和稀疏誤差矩陣,為了有效提取稀疏誤差圖像中的鑒別信息,分別對(duì)稀疏誤差圖像進(jìn)行邊緣檢測(cè)和平滑度分析,設(shè)計(jì)了基于兩者加權(quán)和的類別判據(jù)。在Extended Yale B和AR兩個(gè)數(shù)據(jù)庫(kù)上進(jìn)行了詳細(xì)的實(shí)驗(yàn)分析,實(shí)驗(yàn)結(jié)果與其它算法相比較有明顯提高,證實(shí)了所提算法的有效性和魯棒性。
低秩表示;低秩映射;稀疏誤差圖;人臉識(shí)別
由于受到光照和局部遮擋等因子的影響,傳統(tǒng)的人臉識(shí)別方法受到實(shí)用性的考驗(yàn)。最近幾年已經(jīng)有很多的專家學(xué)者開始致力于帶光照變化以及局部遮擋的人臉識(shí)別研究。主成分分析法PCA(Principal Component Analysis)是將高維數(shù)據(jù)提取主要特征后實(shí)現(xiàn)有效降維。PCA方法對(duì)于數(shù)據(jù)中幅值小的噪聲具有較好的魯棒性,當(dāng)噪聲幅值較大時(shí),算法性能嚴(yán)重下降。Candès E[1]和Wright J[2]提出的魯棒主成分分析法RPCA(Robust Principal Component Analysis)對(duì)具有較大幅值的稀疏誤差具有較好的恢復(fù)效果,RPCA方法是將數(shù)據(jù)矩陣分解成低秩矩陣和稀疏噪聲兩部分,在數(shù)據(jù)受到較大污染的情況下也能在一定程度上比較好地實(shí)現(xiàn)低秩矩陣恢復(fù),具有較強(qiáng)的魯棒性,因而受到機(jī)器視覺領(lǐng)域的廣泛關(guān)注。
Wright J等人[3]在2009年提出基于Lasso回歸的稀疏表示分類器方法SRC(Sparse Represenlation_based Classificaton)。SRC是將人臉識(shí)別問題看作是多元線性回歸模型中的分類問題,將測(cè)試的人臉圖像表示成所有訓(xùn)練圖像的線性組合,然后利用重構(gòu)樣本和測(cè)試樣本間的殘差來判斷測(cè)試樣本所屬的類別。針對(duì)SRC對(duì)連續(xù)遮擋情況下的魯棒性減弱問題,Naseem I等人[4]提出了線性回歸分類器方法LRC(Linear Regression Classification)。LRC是將人臉識(shí)別問題看作線性回歸問題,對(duì)于每一類的所有訓(xùn)練樣本都采用最小二乘估計(jì),然后對(duì)測(cè)試圖像進(jìn)行擬合。該方法充分考慮了殘差圖像的稀疏特性,此外,SRC和LRC在處理人臉光照問題上具有較好的效果。
受到RPCA和SRC及LRC方法的啟發(fā),本文采用最新的低秩表示模型LRR(Low Rank Representation)將數(shù)據(jù)矩陣分解為低秩數(shù)據(jù)矩陣和稀疏噪聲兩部分,與RPCA不同的是,LRR[5,6]是假設(shè)對(duì)于某個(gè)字典,數(shù)據(jù)集的表示系數(shù)是低秩的,旨在尋求數(shù)據(jù)矩陣的最低秩表示。本文使用LRR對(duì)每一類的訓(xùn)練樣本進(jìn)行分解,得到低秩矩陣與稀疏矩陣和的形式。由于遮擋部分在誤差圖像中特征比較顯著,使得稀疏誤差圖像不僅包含了類內(nèi)信息,而且包含了類間信息,其中類間信息對(duì)分類起著關(guān)鍵作用。為了避免對(duì)每個(gè)測(cè)試樣本都進(jìn)行LRR分解,本文先利用LRR模型計(jì)算每類的低秩映射矩陣,即通過LRR模型對(duì)每類樣本分別計(jì)算其低秩數(shù)據(jù)矩陣,建立每類原始樣本與低秩數(shù)據(jù)樣本之間的低秩映射關(guān)系(低秩映射矩陣);然后將測(cè)試樣本在每類低秩映射矩陣下進(jìn)行投影,從而可以得到一系列稀疏誤差圖像。為了充分提取稀疏誤差圖的鑒別信息,使用邊緣檢測(cè)刻畫稀疏誤差圖像的局部邊緣信息,同時(shí)使用平滑度分析方法獲取整體誤差圖像的全局梯度信息,采用邊緣信息和平滑度信息的加權(quán)和對(duì)人臉圖像進(jìn)行分類。
針對(duì)可變光照和有遮擋人臉識(shí)別問題,借鑒低秩建模理論,本文提出了一種基于低秩表示模型中稀疏誤差圖像的魯棒人臉識(shí)別算法,其主要步驟為:(1)對(duì)每類訓(xùn)練人臉利用LRR模型計(jì)算低秩數(shù)據(jù)矩陣,建立低秩數(shù)據(jù)矩陣與原始訓(xùn)練樣本之間的低秩映射關(guān)系,得到每類人臉圖像的低秩映射矩陣;(2)利用各類低秩投影矩陣計(jì)算測(cè)試樣本對(duì)應(yīng)的低秩數(shù)據(jù)矩陣,進(jìn)而得到測(cè)試樣本對(duì)應(yīng)的稀疏誤差圖像;(3)對(duì)稀疏誤差圖像進(jìn)行邊緣檢測(cè)和平滑度分析,提取稀疏誤差圖像中的鑒別信息;(4)采用邊緣信息與平滑度信息加權(quán)和作為人臉識(shí)別依據(jù)。具體的算法框架如圖1所示。
Figure 1 Framework of the proposed method
2.1 低秩表示
對(duì)訓(xùn)練樣本數(shù)據(jù)集X=[x1,x2,…,xn]∈Rd×n,構(gòu)造一個(gè)字典A=[a1,a2,…,am]∈Rd×m,使得X=AZ,其中Z是表示系數(shù)矩陣,Z=[z1,z2,…,zn]。一般情況下字典A都是過完備的,這就使得Z有很多個(gè)解,而低秩表示的目的則是為了尋找其最低秩解,即尋找一個(gè)最低秩的Z。一般地,為了簡(jiǎn)化模型結(jié)構(gòu),多選用數(shù)據(jù)矩陣本身來構(gòu)造字典。問題轉(zhuǎn)化為如下模型的求解:
s.t. X=XZ
(1)
由于直接求解矩陣的秩是一個(gè)NP難問題,Candès E等人[1]提出使用核范數(shù)替代矩陣的秩,并證實(shí)了該方法的有效性。因此,問題(1)可以轉(zhuǎn)變成如下凸優(yōu)化問題:
s.t. X=XZ
(2)
s.t. X=XZ+E
(3)
s.t. X=XZ+E
(4)
對(duì)于問題(4)的求解,文獻(xiàn)[8]詳述了比較多的求解算法,本文采用非精確增廣拉格朗日乘子法IALM(Inexact Augmented Lagrange Multiplier)。為降低模型計(jì)算難度,參照文獻(xiàn)[9,10],引入輔助變量J,模型轉(zhuǎn)化為:
s.t. X=XZ+E,Z=J
(5)
其所構(gòu)建的增廣拉格朗日函數(shù)如下:
(6)
(7)
(8)
(I+XTX)-1(XTX-XTEk+1+Jk+1+
(XTY1,k-Y2,k)/μk)
(9)
使用IALM法分別對(duì)拉格朗日函數(shù)中的每個(gè)變量進(jìn)行交替迭代尋優(yōu),具體實(shí)現(xiàn)步驟如算法1所示。
算法1使用IALM算法求解低秩表示模型
輸入:數(shù)據(jù)矩陣X∈Rd×n,參數(shù)λ;
輸出:Z*,E*。
初始化:Z0=J0=E0=0,Y1,0=Y2,0=0,μ0=10-6,μmax=1030,ρ=1.1,ε=10-8;
3.更新Z: Zk+1=(I+XTX)-1(XTX-XTEk+1+Jk+1+(XTY1,k-Y2,k)/μk);
4.更新乘子Y1,Y2:Y1,k+1=Y1,k+μk(X-XZk+1-Ek+1),Y2,k+1=Y2,k+μk(Zk+1-Jk+1);
5.更新μ:μk+1=min(ρμk,μmax) ;
6.更新k:k←k+1;
End while
2.2 低秩映射矩陣
對(duì)于任意輸入的一張測(cè)試圖片,無(wú)法判定其具體所屬的類別,又由于遮擋部分在誤差圖像中特征顯著,為了獲得實(shí)用有效的稀疏誤差圖,在對(duì)每一類的訓(xùn)練樣本數(shù)據(jù)進(jìn)行LRR模型求解獲取低秩數(shù)據(jù)矩陣后,在訓(xùn)練樣本數(shù)據(jù)與低秩數(shù)據(jù)之間建立低秩映射。獲取低秩映射矩陣的過程是一個(gè)離線的過程,這樣,在對(duì)人臉的測(cè)試過程中,只需要將測(cè)試人臉圖像在每一類的低秩映射矩陣上進(jìn)行映射,再與原圖作差即可獲得相應(yīng)的稀疏誤差圖像,在一定程度上減少了計(jì)算復(fù)雜度,節(jié)約了測(cè)試時(shí)間。
關(guān)于低秩映射矩陣P的獲取,算法描述為:假定有一個(gè)訓(xùn)練樣本X=[X1,X2,…,XN]∈RM×L,M=m×n為每一張訓(xùn)練圖像的大小,N為訓(xùn)練的所有類別數(shù),L為整個(gè)訓(xùn)練樣本中圖像的總數(shù)。對(duì)于第i類訓(xùn)練樣本數(shù)據(jù)Xi,i∈(1,N),根據(jù)算法1求解低秩表示模型,獲得對(duì)應(yīng)的一組(Zi,Ei),從而計(jì)算出該類訓(xùn)練樣本數(shù)據(jù)的低秩部分?jǐn)?shù)據(jù)矩陣Yi=XiZi,為了計(jì)算實(shí)際測(cè)試人臉圖像在每類上對(duì)應(yīng)的低秩數(shù)據(jù)矩陣,必須通過X和Y對(duì)低秩映射矩陣P進(jìn)行學(xué)習(xí)。對(duì)于每一類(Xi,Yi),可以找到一個(gè)潛在的低秩映射矩陣Pi,使得PiXi=Yi。對(duì)于低秩映射矩陣Pi的求解可以轉(zhuǎn)化為模型(10)的優(yōu)化問題:
s.t. Yi=PiXi
(10)
對(duì)問題(10)進(jìn)行凸優(yōu)化,轉(zhuǎn)化成對(duì)問題(11)的求解:
s.t. Yi=PiXi
(11)
算法2基于低秩表示求解低秩映射
輸入:第i類訓(xùn)練樣本數(shù)據(jù)Xi,i∈(1,N);
1.求解LRR模型,獲取低秩表示Zi;
2.計(jì)算低秩數(shù)據(jù)矩陣Yi:Yi=XiZi;
3.構(gòu)建低秩映射關(guān)系:PiXi=Yi;
2.3 稀疏誤差圖分析
本文算法中,在訓(xùn)練部分對(duì)每一類的訓(xùn)練樣本數(shù)據(jù)使用算法2獲得其對(duì)應(yīng)低秩映射矩陣Pi。在測(cè)試部分,數(shù)據(jù)庫(kù)中任意給定的一張測(cè)試圖片y,都可以通過Pi在第i類訓(xùn)練樣本上獲得相應(yīng)的低秩數(shù)據(jù)圖,然后將測(cè)試樣本與低秩數(shù)據(jù)圖作差便可獲得稀疏誤差圖,即對(duì)于每一個(gè)輸入的測(cè)試樣本將通過低秩映射矩陣P產(chǎn)生與總類別數(shù)相同的稀疏誤差圖。
為了更好地提取稀疏誤差圖的類別信息,首先想到的是使用基于Sobel算子的邊緣檢測(cè)來刻畫,然而邊緣檢測(cè)方法只能獲取稀疏誤差圖的局部邊緣信息,缺乏對(duì)全局信息的提取,進(jìn)而加入對(duì)誤差圖求導(dǎo)的平滑度分析方法,從梯度的角度獲取誤差圖全局梯度信息。本文在3.1節(jié)和3.3節(jié)分別進(jìn)行了只提取邊緣信息和同時(shí)提取邊緣與平滑度信息作為鑒別信息并進(jìn)行了實(shí)驗(yàn)分析。
圖2為同一張測(cè)試圖像在不同的類上所獲取的稀疏誤差圖,以及對(duì)應(yīng)的平滑度圖和邊緣信息圖,圖2b~圖2d中的第一張圖分別為正確類產(chǎn)生的稀疏誤差圖、邊緣信息圖以及平滑度圖。
Figure 2 Images of a test sample
從圖2c中可以直觀地了解到,在正確類所對(duì)應(yīng)的邊緣信息圖中的邊緣線明顯比非正確類的邊緣線少;在圖2d中可以看出,正確類對(duì)應(yīng)的平滑度圖表現(xiàn)得更加平滑。無(wú)論是平滑度圖還是邊緣信息圖都顯示,正確類對(duì)應(yīng)的稀疏誤差圖與非正確類對(duì)應(yīng)的稀疏誤差圖存在明顯區(qū)別,這些信息刻畫了樣本的類間差異,可以作為分類的判斷依據(jù)。
為了更好地進(jìn)行描述,定義兩個(gè)描述子:平滑度描述子Dsmooth和邊緣信息描述子Dedge。
(12)
其中,ex和ey分別表示稀疏誤差圖像在x方向和y方向上的梯度,BW為稀疏誤差圖像的邊緣檢測(cè)后的二值圖像。
選擇對(duì)圍巾遮擋下的不同稀疏誤差圖分別進(jìn)行邊緣信息和平滑度實(shí)驗(yàn)比較分析。分別計(jì)算測(cè)試圖像在不同類別上所產(chǎn)生的稀疏誤差圖的平滑度值和邊緣信息值,并將其歸一化為0~1,實(shí)驗(yàn)結(jié)果如圖3所示。
Figure 3 Extracted information from sparse error images of different face categories with scarf
圖3中,被標(biāo)記點(diǎn)對(duì)應(yīng)的是測(cè)試樣本所屬正確類別。也就是說,在同一類別上所獲得的稀疏誤差圖的平滑度值和邊緣信息值都為最小。結(jié)合這一特征,本文采用平滑度信息與邊緣信息的加權(quán)和作為判別依據(jù),即:
(13)
由此,判別準(zhǔn)則為:
(14)
其中,α∈(0,1),為平滑度信息與邊緣信息之間的權(quán)衡系數(shù)。
綜合所有的因素,本文提出了基于稀疏誤差圖像的人臉識(shí)別算法,具體實(shí)現(xiàn)步驟如算法3所示。
算法3基于稀疏誤差圖像的人臉識(shí)別算法
輸入:訓(xùn)練樣本集X=[X1,X2,…,XN]∈RM×N,測(cè)試樣本y∈RM;
輸出:測(cè)試樣本類別Subject(y)。
1.For i=1:N
根據(jù)算法1,獲取低秩表示Zi;
根據(jù)算法2,求解低秩映射矩陣Pi;
End
2.求解y在Pi上的低秩映射數(shù)據(jù)矩陣Piy,i=1,2,…,N;
4.根據(jù)式(12),計(jì)算ei的平滑度Dsmooth和邊緣信息Dedge;
本文選用Extended Yale B和AR兩個(gè)數(shù)據(jù)庫(kù)對(duì)算法進(jìn)行有效性驗(yàn)證。實(shí)驗(yàn)主要硬件環(huán)境:Intel Pentium(R) E5500雙核處理器,主頻2.80 GHz,內(nèi)存2.00 GB,WindowsXP操作系統(tǒng);軟件環(huán)境:Matlab R2010a。實(shí)驗(yàn)分三部分進(jìn)行,首先在帶光照變化的Extended Yale B數(shù)據(jù)庫(kù)上對(duì)算法進(jìn)行光照變化測(cè)試;然后再進(jìn)行不同光照情況下的人為遮擋人臉識(shí)別測(cè)試;最后在具有光照變化和輕微表情變化條件下帶有持續(xù)遮擋的AR數(shù)據(jù)庫(kù)上進(jìn)行真實(shí)遮擋測(cè)試。為了充分說明本文算法的有效性,將算法與傳統(tǒng)的LPP(Locality Preserving Projections)+NN(Nearest Neighbors)和NPE(Neighborhood Preserving Embedding)+NN,以及最近比較流行的SRC(Sparse Representation-based Classification)和LRC(Linear Regression-based Classification)四種算法進(jìn)行比較。
3.1 變化光照下的人臉識(shí)別
這一部分實(shí)驗(yàn)在Extended Yale B數(shù)據(jù)庫(kù)上進(jìn)行,該數(shù)據(jù)庫(kù)中包含38個(gè)人(即38類),每人64幅不同光照條件下的正面人臉圖像。為了充分證實(shí)算法處理變化光照的有效性,根據(jù)文獻(xiàn)[13],將每個(gè)人的所有圖像按照光照影響程度分成五個(gè)子集,從子集1到子集5光照影響程度逐步變強(qiáng),每個(gè)子集分別含有7、12、12、14、19幅正面人臉圖。各子集部分圖像如圖4所示。
Figure 4 Images of the 5 subsets divided from the Extended Yale B
將子集1作為訓(xùn)練樣本,其他四個(gè)子集分別作為測(cè)試樣本,進(jìn)行不同光照影響下的識(shí)別測(cè)試。本文算法與NPE+NN和LPP+NN以及SRC和LRC算法進(jìn)行實(shí)驗(yàn)比較,表1顯示的是實(shí)驗(yàn)測(cè)試結(jié)果。
Table 1 Recognition rates of different methods with various illuminations表1 不同光照影響下的人臉識(shí)別率 %
從表1中可以獲知,在光照影響不是很大的子集2和子集3上,幾種算法的識(shí)別率都很高;隨著光照影響程度的加強(qiáng),Our_method_edge算法在不同光照下所表現(xiàn)出的識(shí)別率明顯低于Our_method_weighted算法,證實(shí)了邊緣檢測(cè)算法對(duì)光照的敏感性,同時(shí)也證實(shí)了本文對(duì)誤差圖采用邊緣檢測(cè)與梯度求導(dǎo)進(jìn)行加權(quán)分析的正確性;在子集4上,本文加權(quán)算法依然比較穩(wěn)定,識(shí)別率為91.35%,比較多地超出其他幾種算法。不過在子集5的測(cè)試中,所有算法的識(shí)別率都嚴(yán)重下降,相對(duì)而言,SRC、LRC和本文算法的識(shí)別率表現(xiàn)了優(yōu)勢(shì)。實(shí)驗(yàn)結(jié)果證實(shí)了對(duì)誤差圖進(jìn)行分析的正確性和可靠性。然而在光照影響較大的情況下,誤差圖的幾何特征變得十分模糊,所以識(shí)別率較低。
3.2 變化光照下的人為遮擋人臉識(shí)別
針對(duì)本文加權(quán)算法Our_method_weighted,為測(cè)試其在具有不同光照影響下不同物體遮擋的人臉識(shí)別情況,分別在具有不同光照程度的子集2和子集3上進(jìn)行測(cè)試,并給測(cè)試人臉圖像添加不同形式的遮擋,遮擋覆蓋面積從10%到90%。實(shí)驗(yàn)中分別給圖像添加隨機(jī)噪聲、狒狒臉和黑塊。圖5為測(cè)試人臉圖像分別添加30%不同形式遮擋后的效果圖。
Figure 5 Effect of adding 30% of different occlusion to a test image
將子集1作為訓(xùn)練樣本,分別在具有光照變化比較明顯的子集2和子集3上進(jìn)行遮擋測(cè)試。本文加權(quán)算法Our_method_weighted的測(cè)試結(jié)果如表2所示。
Table 2 Face recognition rates of our method weighted on different subsets with different occlusion表2 Our_method_weighted算法在不同光照影響下不同遮擋物人臉識(shí)別率 %
測(cè)試結(jié)果分析如下:(1)對(duì)隨機(jī)噪聲的遮擋,本文算法具有非常好的識(shí)別效果,表現(xiàn)了穩(wěn)定性和極好的魯棒性,在噪聲覆蓋達(dá)60%時(shí),子集2和子集3上的識(shí)別率都可以超過96%,并且,在覆蓋率90%的情況下,在子集2上依然保證有70.18%的識(shí)別率,而在光照影響更大的子集3上也有高達(dá)62.72%的識(shí)別率。(2)針對(duì)塊狀遮擋,也取得了比較好的識(shí)別效果。狒狒臉遮擋時(shí),在子集2上,50%的遮擋面積下依然可以保證100%的識(shí)別率,同等情況下子集3上的識(shí)別率也可達(dá)95.18%,此外,在遮擋高達(dá)70%時(shí),子集2上的遮擋識(shí)別率有75.44%,子集3上的識(shí)別率為42.76%,具有實(shí)際使用價(jià)值。(3)針對(duì)黑塊遮擋,在遮擋面積不高于50%時(shí),識(shí)別效果比較穩(wěn)定,然而在遮擋60%時(shí),識(shí)別率陡降,因?yàn)楹趬K不具有紋理,難于刻畫其特征,從而使得識(shí)別難度陡增。
3.3 光照變化下真實(shí)遮擋人臉識(shí)別
這一部分實(shí)驗(yàn)在AR數(shù)據(jù)庫(kù)上進(jìn)行。AR數(shù)據(jù)庫(kù)中包含100個(gè)人(50個(gè)男人,50個(gè)女人),每人26張不同時(shí)間、不同表情、不同光照條件下的帶遮擋圖像。AR數(shù)據(jù)庫(kù)中的部分人臉圖像如圖6所示。
Figure 6 Some images from a subset on AR
實(shí)驗(yàn)中,選用AR庫(kù)中的100個(gè)人(即100類)進(jìn)行訓(xùn)練與測(cè)試。每一類中,選擇八幅正常狀態(tài)下的人臉圖像作為訓(xùn)練樣本集,六幅有圍巾遮擋的人臉圖像作為測(cè)試集1,六幅戴太陽(yáng)鏡的人臉圖作為測(cè)試2。
Table 3 Recognition rates of different methods on AR表3 AR數(shù)據(jù)庫(kù)上各種算法的識(shí)別率 %
從表3可以比較明顯地看出,本文提出的算法取得了比其他幾種算法更好的識(shí)別效果,并且從中能夠認(rèn)識(shí)到:(1)從算法本身的性質(zhì)分析,NPE、LPP都是基于局部結(jié)構(gòu)信息的保持,在實(shí)驗(yàn)中遮擋實(shí)驗(yàn)無(wú)論是墨鏡還是圍巾遮擋所表現(xiàn)的識(shí)別率都不理想,魯棒性不強(qiáng);SRC、LRC則是從遮擋物圖像對(duì)全局?jǐn)?shù)據(jù)造成的影響出發(fā),挖掘其特征,這兩種方法在整體上對(duì)遮擋實(shí)驗(yàn)的識(shí)別率有了比較顯著的提高;而本文提出的基于低秩表示的低秩映射方法則是在保持全局結(jié)構(gòu)信息的基礎(chǔ)上最大化地尋求局部結(jié)構(gòu)信息,因而能夠更加準(zhǔn)確地識(shí)別出人臉圖像所屬類別。(2)同等條件下,SRC、LRC算法以及本文算法對(duì)墨鏡遮擋圖像識(shí)別率遠(yuǎn)遠(yuǎn)高于對(duì)圍巾遮擋圖像的識(shí)別率,因?yàn)閲碚趽醪糠置娣e明顯高于墨鏡遮擋所占面積。(3)本文算法在只對(duì)稀疏誤差圖采用邊緣檢測(cè)時(shí),識(shí)別率明顯低于邊緣檢測(cè)信息與平滑度信息加權(quán)處理的識(shí)別率,因?yàn)檫吘墮z測(cè)屬于局部上提取邊緣信息,平滑度分析則是從整個(gè)圖像的梯度角度出發(fā),二者相結(jié)合更能反映誤差圖像的結(jié)構(gòu)信息。(4)與3.2節(jié)相比,本節(jié)實(shí)驗(yàn)的識(shí)別率有所降低,尤其在圍巾遮擋時(shí)表現(xiàn)得更為顯著。主要原因有:一為本節(jié)實(shí)驗(yàn)數(shù)據(jù)中圍巾遮擋大概為40%,墨鏡遮擋大概為20%,且實(shí)驗(yàn)數(shù)據(jù)除了受光照影響較大外,還包含了表情的變化,給實(shí)驗(yàn)結(jié)果帶來了一定的干擾;二為本節(jié)所用的AR數(shù)據(jù)庫(kù)中類別數(shù)為100類,而3.2節(jié)所用的Extended Yale B中樣本類別數(shù)為38類,對(duì)識(shí)別率具有一定影響。
由于受到變化光照和局部遮擋等因子的影響,傳統(tǒng)的人臉識(shí)別方法受到實(shí)用性的考驗(yàn)。因此,針對(duì)變化光照和局部遮擋的人臉識(shí)別問題,本文提出了基于低秩表示的稀疏誤差人臉識(shí)別算法。使用低秩表示模型將每一類訓(xùn)練樣本數(shù)據(jù)都分解為低秩矩陣與稀疏矩陣和的形式并求取各類低秩映射矩陣,再利用低秩映射矩陣對(duì)測(cè)試的人臉圖像進(jìn)行投影,獲取稀疏誤差圖,為了提取稀疏誤差圖中包含的全局與局部鑒別信息,分別對(duì)稀疏誤差圖進(jìn)行邊緣信息計(jì)算和平滑度分析,采用兩者加權(quán)和作為人臉圖像判斷依據(jù)。在Extended Yale B和AR兩個(gè)數(shù)據(jù)庫(kù)上的實(shí)驗(yàn)結(jié)果顯示了本文算法比其他算法具有更高的識(shí)別率,證實(shí)了算法的有效性和魯棒性。此外,針對(duì)光照變化明顯,遮擋面積較大的人臉識(shí)別,本文算法依舊表現(xiàn)出了很好的穩(wěn)定性,具有較好的實(shí)際應(yīng)用價(jià)值。
[1] Candès E,Li X D,Ma Y,et al. Robust principal component analysis[J]. Journal of the ACM, 2011,58(3):11,Article.
[2] Wright J,Ganesh A,Rao S,et al. Robust principal component analysis: Exact recovery of corrupted low-rank matrices via convex optimization[C]∥Proc of Neural Information Processing Systems (NIPS),2009:1.
[3] Wright J,Ma Y,Mairal J,et al. Sparse representation for computer vision and pattern recognition[C]∥Proc of IEEE,2009:1031-1044.
[4] Naseem I, Togneri R, Bennamoun M. Linear regression for face recognition [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,32 (11): 2106-2112.
[5] Liu G,Lin Z,Yu Y. Robust subspace segmentation by low-rank representation[C]∥Proc of the International Conference on Machine Learning,2010.
[6] Liu G, Lin Z, Yan S, et al. Robust recovery of subspace structures by low-rank representation [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2013,35(1): 171-184.
[7] Recht B,F(xiàn)azel M,Parrilo P A. Guarantee minimum-rank solutions of linear matrix equations via nuclear norm minimization [J].SIAM Review,2010,52(3): 471-501.
[8] Lin Z,Chen M,Ma Y. The augmented lagrange multiplier method for exact recovery of corrupted low-rank matrices [J]. arXiv preprint arXiv: 1009. 5055,2010.
[9] Lin Z,Liu R,Su Z. Linearized alternating direction method with adaptive penalty for low rank representation[C]∥Proc of NIPS, 2011:1.
[10] Shi Jia-rong, Zheng Xiu-yun, Wei Zong-tian, et al. Survey on algorithms of low-rank matrix recovery[J].Application Research on Computers, 2013,30(6):1601-1605.(in Chinese)
[11] Zhuang L,Gao H,Lin Z,et al. Yu. Non-negative low rank and sparse graph for semi-supervised learning[C]∥Proc of CVPR, 2012:1.
[12] Jie Chen,Zhang Yi. Sparse representation for face recognition by discriminative low-rank matrix recovery[J]. Journal of Visual Communication and Image Representation, 2014,25(5):763-773.
[13] Luan Xiao,Fang Bin,Liu Ling-hui,et al. Extracting sparse error of robust PCA for face recognition in the presence of
varying illumination and occlusion[J].Pattern Recognition,2014,47(2):495-508.
附中文參考文獻(xiàn):
[10] 史加榮,鄭秀云,魏宗田,等.低秩矩陣恢復(fù)算法綜述[J].計(jì)算機(jī)應(yīng)用研究,2013,30(6):1601-1605.
楊國(guó)亮(1973-),男,江西豐城人,博士,副教授,研究方向?yàn)橹悄芸刂坪蛨D像處理與模式識(shí)別。E-mail:ygliang30@126.com
YANG Guo-liang,born in 1973,PhD,associate professor,his research interests include intelligent control,image processing, and pattern recognition.
豐義琴(1989-),女,江西豐城人,碩士生,研究方向?yàn)閳D像處理與模式識(shí)別。E-mail:feng5253995253@163.com
FENG Yi-qin,born in 1989,MS candidate,her research interests include image processing, and pattern recognition.
魯海榮(1989-),男,江西宜春人,碩士生,研究方向?yàn)閳D像處理與模式識(shí)別。E-mail:1248278429@qq.com
LU Hai-rong,born in 1989,MS candidate,his research interests include image processing, and pattern recognition.
Face recognition with varying illumination and occlusion based on sparse error of low rank representation
YANG Guo-liang,FENG Yi-qin,LU Hai-rong
(School of Electrical Engineering and Automation,Jiangxi University of Science and Technology,Ganzhou 341000,China)
Although difficult to deal with, face recognition with varying illumination and occlusion has been widely investigated in recent years. Motivated by the popular methods of robust principal component analysis (RPCA) and sparse representation-based classification (SRC), we present a novel algorithm which uses the sparse error of low rank representation (LRR) for face recognition with varying illumination and occlusion. As for each type of training samples, we first calculate their low-rank matrix using LRR and then construct low rank projection between the training face matrix and the obtained low-rank data matrix. With the constructed low-rank projection, any test face image can obtain a low-rank matrix and a sparse error matrix corresponding on each face category. In order to fully extract the discrimination information of the sparse error image, its smoothness and edge information are analyzed respectively. Furthermore, a set of concrete classification criteria is proposed, which fuses smoothness information with the edge information using weighted sum rules. Experiment results on face databases of AR and the Extended Yale B confirm that the proposed method is robust to varying illumination and occlusion, and has better recognition rate than many other methods.
low rank representation;low rank projection;sparse error image;face recognition
1007-130X(2015)09-1742-08
2014-10-20;
2015-01-16基金項(xiàng)目:國(guó)家自然科學(xué)基金資助項(xiàng)目(51365017,61305019);江西省科技廳青年科學(xué)基金資助項(xiàng)目(20132bab211032)
TP391.4
A
10.3969/j.issn.1007-130X.2015.09.024
通信地址:341000 江西省贛州市紅旗大道86號(hào) 江西理工大學(xué)電氣工程與自動(dòng)化學(xué)院
Address:School of Electrical Engineering and Automation,Jiangxi University of Science and Technology,86 Hongqi Avenue,Ganzhou 341000,Jiangxi,P.R.China