馬家軍
(商洛學(xué)院 數(shù)學(xué)與計(jì)算機(jī)應(yīng)用學(xué)院,陜西商洛726000)
基于改進(jìn)2D-DLPP算法的人臉識(shí)別
馬家軍
(商洛學(xué)院 數(shù)學(xué)與計(jì)算機(jī)應(yīng)用學(xué)院,陜西商洛726000)
在二維局部保持投影中引入類間結(jié)構(gòu)信息和類標(biāo)簽,得到有監(jiān)督的二維判別局部保持投影算法,從而提高了特征集的鑒別性。針對算法中參數(shù)的選取問題,建立無參數(shù)權(quán)重矩陣,提出無參數(shù)的二維判別局部保持投影(無參數(shù)2D-DLPP)算法。在Yale和ORL人臉庫上的仿真實(shí)驗(yàn)結(jié)果表明,該算法與二維判別局部保持投影(2D-DLPP)、二維局部保持投影法(2D-LPP)和二維線性判別分析法(2D-LDA)相比能夠取得更高的識(shí)別率。
人臉識(shí)別;特征提??;二維判別局部保持投影;無參數(shù)
特征提取是模式識(shí)別領(lǐng)域關(guān)鍵技術(shù)之一,其通過一定的數(shù)學(xué)變換將高維數(shù)據(jù)轉(zhuǎn)化為低維數(shù)據(jù),在保持高維數(shù)據(jù)流形結(jié)構(gòu)前提下對數(shù)據(jù)進(jìn)行壓縮。Turk[1]和Kirby等[2]首次提出了主成分分析人臉識(shí)別方法,并取得了成功。
有研究表明[3-4]圖像位于高維圖像空間的低維流形之上,二維局部保持投影(2D-LPP)算法[5]考慮了鄰域內(nèi)局部信息,而沒有考慮鄰域間局部信息。這只能使同一類內(nèi)的樣本在降維后盡可能地接近,而不能使不同類的樣本在降維后盡可能地隔遠(yuǎn)。因此,為了具有更好的判別性,在2D-LPP中引入類間約束信息,提出二維判別局部保持投影(two-dimensional discriminant locality preserving projections and face recognition, 2D-DLPP)算法[6-7]降維后的樣本類內(nèi)局部散度最小,同時(shí)類間局部散度最大。但構(gòu)造2D-DLPP的相似矩陣時(shí)涉及到參數(shù)的選擇,較為復(fù)雜。為此,提出一種新的算法:無參數(shù)二維判別局部保持投影(parameter-less two-dimensional discriminant locality preserving projections 2D-DLPP)算法。
假設(shè)x1,x2,…,xN是m×n維歐氏空間Rm×n中的N個(gè)訓(xùn)練樣本,共有C個(gè)類別,每個(gè)類對應(yīng)的樣本數(shù)量為n1,n2,…,nc一般的二維線性特征提取方法是把圖像矩陣向A上投影:
其中A∈Rn×d是按照某種優(yōu)化準(zhǔn)則得到的投影矩陣,y∈Rm×d(d<n)代表x的特征矩陣。
二維判別局部保持投影(2D-DLPP)算法的目標(biāo)函數(shù)為:
由式(1)和式(2),2D-DLPP的目標(biāo)函數(shù)可以表示為:
t>0是由經(jīng)驗(yàn)確定的參數(shù),B為類間相似矩陣, Bij表示第i類與第j類的平均樣本fi和fj的相似度,它定義為:,類似于類內(nèi)相似度,t>0同樣是需要確定的參數(shù)。
通過代數(shù)運(yùn)算,目標(biāo)函數(shù)式(3)化簡為:
X=[(x11),…,(x1n1),…,(xk1),…,(xc1),…,(xcnc)]∈Rm×nN為訓(xùn)練樣本空間;F=[f1,f2,…,fc]∈Rm×nC為平均樣本空間;L=D-W,D=diag(D1,D2,…,Dk,…,DC), W=diag(W1,W2,…,Wk,…,WC),Dk為對角矩陣,其第i個(gè)對角元素為的第i行元素求和,即;H= E-B,E為對角矩陣,;Im是m階的單位矩陣;運(yùn)算符?為矩陣的克羅內(nèi)克積。
要求滿足目標(biāo)函數(shù)的投影矩陣A,只需求解特征方程:SHA=λSLA,得到特征值λ對應(yīng)的特征向量構(gòu)成的矩陣A。
觀察目標(biāo)函數(shù)的表達(dá)式可知,其分子表示投影后的類內(nèi)離散度,分母則表示投影后的類間離散度。目標(biāo)函數(shù)的最小化就是在投影后使得在同一類的樣本最接近,同時(shí)使不同類的樣本盡可能隔得最遠(yuǎn)。
2D-DLPP是在2D-LPP中引入判別信息得到的,因而為監(jiān)督算法。它保留了局部保持的特征,同時(shí)反映了人臉圖像的流形結(jié)構(gòu)。因此,2D-DLPP優(yōu)于其它的統(tǒng)計(jì)類方法。但2D-DLPP面臨復(fù)雜的參數(shù)選擇。在計(jì)算類內(nèi)相似矩陣、類間相似矩陣時(shí)需要確定各自的參數(shù),通常分別取類內(nèi)或類間樣本平均距離。但參數(shù)的選擇會(huì)影響2D-DLPP刻畫樣本的流形結(jié)構(gòu)的精度,并且耗費(fèi)較多的時(shí)間。因此,本文提出了無參數(shù)二維判別局部保持投影算法。
2.1 無參數(shù)2D-DLPP數(shù)學(xué)定義
2D-DLPP使用歐氏距離刻畫樣本點(diǎn)的相似程度,兩點(diǎn)間的歐氏距離越小,相似度越大,歐式距離越大,則相似度越小。在無參數(shù)2D-DLPP的相似矩陣中引入皮爾遜相關(guān)系數(shù)(又稱簡單相關(guān)系數(shù))。皮爾遜相關(guān)系數(shù)描述了兩個(gè)數(shù)據(jù)間聯(lián)系的緊密程度,它可以看作是兩個(gè)隨機(jī)變量中的樣本集向量之間夾角的余弦函數(shù)。文獻(xiàn)[8]表明歐氏距離對離散數(shù)據(jù)點(diǎn)的選取依賴性較強(qiáng),而余弦距離在離散數(shù)據(jù)中的魯棒性更強(qiáng)。
令pij表示任意兩個(gè)樣本xi和xj之間的皮爾遜相關(guān)系數(shù),pij的取值在-1與+1之間,pij的絕對值越大表明兩個(gè)樣本間的相關(guān)性越強(qiáng);若pij=0則表明兩個(gè)樣本不是線性相關(guān)。將皮爾遜系數(shù)轉(zhuǎn)化為屬于區(qū)間[0,1]的樣本間相似度:
則第k類內(nèi)相似矩陣可定義為:
2D-DLPP的目標(biāo)函數(shù)為:
目標(biāo)函數(shù)式(7)的分子可化簡為:
2.2 算法步驟
Step1獲取訓(xùn)練樣本集:
X=[(x11),…,(x1n1),…,(x1k),…,(xknk),…,(x1C),…,(xCnc)],共有N個(gè)訓(xùn)練樣本,分為C個(gè)類別,每個(gè)類對應(yīng)的樣本數(shù)量為n1,n2,…,nC,其中xik∈Rm-n代表第k類中的第i個(gè)訓(xùn)練圖像矩陣。
Step2通過式(5)和式(6)分別計(jì)算類內(nèi)樣本和類間樣本的相似度,然后分別構(gòu)造類內(nèi)和類間相似矩陣。
Step4計(jì)算矩陣L和H,L=D-W、H=E-B。
Step5求解特征方程SHA=λSLA的d個(gè)最大特征值對應(yīng)的d個(gè)特征向量a1,a2,…,ad。
Step5令A(yù)=[a1,a2,…,ad],對訓(xùn)練樣本和測試樣本進(jìn)行投影。
Step6利用分類器對投影后的樣本進(jìn)行分類并分析結(jié)果。
為了驗(yàn)證本文算法的有效性,本文分別在Yale人臉庫和ORL人臉庫上進(jìn)行仿真實(shí)驗(yàn)。實(shí)驗(yàn)前,所有的人臉圖像都經(jīng)過手動(dòng)眼睛定位、校準(zhǔn),最終為歸一化的圖像。為了對比,同時(shí)使用2D-DLPP、2D-LPP、2D-LDA三種二維算法進(jìn)行特征提取。在運(yùn)行2D-LPP時(shí),第k類內(nèi)樣本的相似度Wijk中的參數(shù)t通常取第k類中任意樣本間距離的平均值;類似的,任意兩類平均樣本間的相似度Bij中的參數(shù)t通常取任意兩個(gè)平均樣本間距離的平均值。最后分別使用歐氏距離分類器和皮爾遜系數(shù)最近鄰分類器對樣本進(jìn)行分類,并對比分類結(jié)果。
3.1 ORL人臉庫試驗(yàn)
ORL人臉庫包含來自40個(gè)不同人的400幅圖像,每人有10幅大小、姿態(tài)、表情各異的圖像。ORL人臉庫主要用來測試本文算法在人臉圖像大小、表情和姿態(tài)都變化時(shí)的識(shí)別性能。在實(shí)驗(yàn)中,分別使用基于歐氏距離和皮爾遜系數(shù)的最近鄰分類器,研究特征值數(shù)目變化時(shí),本文算法、2D-DLPP、2D-LPP和2D-LDA在ORL人臉數(shù)據(jù)庫上正確識(shí)別率的變化情況。其中選取每人訓(xùn)練樣本數(shù)為5。
圖1為各算法使用基于歐氏距離的最近鄰分類器進(jìn)行分類,識(shí)別率隨特征值數(shù)變化的曲線圖;圖2為各算法使用基于皮爾遜相關(guān)系數(shù)的最近鄰分類器進(jìn)行分類,識(shí)別率隨特征值數(shù)變化。由圖1與圖2可知,無參數(shù)2D-DLPP在兩種分類器中,相同維數(shù)情況下的識(shí)別率高于2D-DLPP、2D-LPP和2D-LDA,從而驗(yàn)證了本文算法的有效性。
圖1 歐氏距離分類器下各算法的識(shí)別率與特征值數(shù)的關(guān)系
圖2 皮爾遜相關(guān)系數(shù)分類器下各算法的識(shí)別率與特征值數(shù)的關(guān)系
圖3無參數(shù)2D-DLPP在不同分類器下識(shí)別率與特征值數(shù)的關(guān)系
圖3則為無參數(shù)2D-DLPP分別使用基于歐氏距離和皮爾遜相關(guān)系數(shù)的最近鄰分類器進(jìn)行分類,識(shí)別率隨特征值數(shù)變化??梢钥闯?,使用基于皮爾遜相關(guān)系數(shù)的最近鄰分類器進(jìn)行分類時(shí),其識(shí)別率比基于歐氏距離的最近鄰分類器高出1.25%,并且前者在特征值數(shù)為4時(shí)即達(dá)到最佳識(shí)別率,而后者在特征值數(shù)為8時(shí)才能達(dá)到最佳識(shí)別率。這說明使用基于皮爾遜相關(guān)系數(shù)的最近鄰分類器進(jìn)行分類提高人臉識(shí)別率,同時(shí)大大降低計(jì)算復(fù)雜度。
3.2 Yale人臉庫試驗(yàn)
Yale人臉庫共有15個(gè)人,每人11幅圖像,包含三種不同的光照情況,6種不同的表情,并且圖像有戴眼鏡和不戴眼鏡的區(qū)別。
無參數(shù)2D-DLPP算法在YALE人臉庫分別使用歐氏距離和皮爾遜相關(guān)系數(shù)的最近鄰分類器進(jìn)行分類,每人訓(xùn)練樣本數(shù)為5。圖4給出了識(shí)別率隨特征值數(shù)變化。同樣可以觀察到,相較于基于歐氏距離的最近鄰分類器,使用基于皮爾遜相關(guān)系數(shù)的最近鄰分類器進(jìn)行分類時(shí)有更高的識(shí)別率,其最高識(shí)別率比使用基于歐氏距離的最近鄰分類器的最高識(shí)別率高出5.33%??梢哉f使用基于皮爾遜相關(guān)系數(shù)的最近鄰分類器對提高Yale人臉庫的識(shí)別率更有效。
圖4 無參數(shù)2D-DLPP在不同分類器下識(shí)別率與特征值數(shù)的關(guān)系
驗(yàn)證不同算法在各個(gè)分類器上的最佳識(shí)別率。每人選擇(n=4,5)幅圖像作為訓(xùn)練集,余下的作為測試集。表1為各算法在YALE人臉庫中采用最近鄰分類器分類所取得的最佳識(shí)別率及對應(yīng)的特征值,表1括號(hào)內(nèi)為各算法取得最優(yōu)識(shí)別率時(shí)的特征值,括號(hào)外的百分比為最優(yōu)識(shí)別率。
表1 YALE數(shù)據(jù)庫上各算法最佳識(shí)別率及對應(yīng)的特征值數(shù)
由表1可以看出,在訓(xùn)練樣本數(shù)相同,采用以皮爾遜相關(guān)系數(shù)為度量的最近鄰分類器進(jìn)行分類時(shí),各個(gè)算法有更好的識(shí)別效果,且本文算法(無參數(shù)2D-DLPP)識(shí)別率優(yōu)于其它算法,再次證明了無參數(shù)2D-DLPP算法的有效性。
本文在文獻(xiàn)[8-9]的基礎(chǔ)上,提出了無參數(shù)二維判別局部保持投影算法(無參數(shù)2D-DLPP)。無參數(shù)2D-DLPP不僅反映了投影后的鄰域內(nèi)局部信息,同時(shí)也反映了鄰域間局部信息。并且在構(gòu)造相似矩陣時(shí)不需要設(shè)置任何參數(shù),通過皮爾遜相關(guān)系數(shù)度量樣本間的相似度,使無參數(shù)2D-DLPP算法更加有效且對離散樣本更具魯棒性。最后在ORL和Yale人臉數(shù)據(jù)庫上的實(shí)驗(yàn)驗(yàn)證了本文算法的優(yōu)越性。
[1]Turk M,Pentland A.Eigenfaces for recognition[J].Journal of Cognitive Neuroscience,1991,3(1):72-86.
[2]Kirby M,Sirovich L.Application of the karhunen-loeve procedure for the characterization of human faces[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1990,12(1):103-108.
[3]龔 劬,馬家軍.基于改進(jìn)二維保局投影算法的人臉識(shí)別[J].計(jì)算機(jī)工程,2014,40(9):252-256.
[4]Sam T,Roweis Saul K.Nonlinear dimensionality reduction by locally linear embedding[J].Science,2000,290 (5500):2323-2326.
[5]Chen SB,Zhao H F,Kong M,et al.2DLPP:A two-dimensional extensionof localitypreservingprojections[J].Neurcompu-Ting,2007,70:912-921.
[6]Zhi R C,Ruan Q Q.Facial expression recognition basedon two-dimensionaldiscriminantlocality preserving projections[J].Neuro computing,2008,71:1730-1734.
[7]Yu WW.Two-dimensional discriminant locality preserving projections for face recognition[J].Pattern Recognition Letter,2009,30:1378-1383.
[8]殷 俊,周靜波,金 忠.基于余弦角距離的主成分分析與核主成分分析[J].計(jì)算機(jī)工程與應(yīng)用,2011,47(3):9-12.
[9]黃 璞,唐振民.無參數(shù)局部保持投影及人臉識(shí)別[J].模式識(shí)別與人工智能,2013,26(9):865-871.
(責(zé)任編輯:李堆淑)
Face Recognition Based on Improved 2D-DLPP Algorithm
MA Jia-jun
(College of Mathematics and Computer Application,Shangluo University,Shangluo 726000,Shaanxi)
By introducing between-class scatter constraint and label information into two-dimensional locality preserving projections(2D-LPP)algorithm,two-dimensional discriminant locality preserving projections(2D-DLPP)has more discriminant power than 2D-LPP.However,2D-DLPP is confronted with the difficulty of parameter selection,which limits its power on solving recognition problem.To solve this problem,by constructing parameter-less affinity matrix,an algorithm called parameter-less two-dimensional discriminant locality preserving projections(parameter-less 2D-DLPP)is proposed.The simulation results on Yale and ORL face database show that the method in this paper can get higher recognition rate than 2D-DLPP,2D-LPP and 2D-LDA.
face recognition;feature extraction;two-dimensional locality preserving projections; parameter-less
TP391.4
:A
:1674-0033(2014)06-0023-05
10.13440/j.slxy.1674-0033.2014.06.008
2014-10-05
馬家軍,男,陜西商南人,碩士,助教