崔建 游春芝
【摘? ?要】? ?針對單樣人臉識別中每個(gè)訓(xùn)練樣本只有一張人臉圖像,尤其是存在光照、表情以及遮擋等變化時(shí),提取特征信息單一化等問題,提出一種局部通用的分塊核協(xié)同表示單樣本人臉識別算法。算法通過備用的訓(xùn)練樣本構(gòu)造通用的類內(nèi)變化字典,并對通用集和訓(xùn)練樣本進(jìn)行分塊,以達(dá)到樣本擴(kuò)充的目的,保證訓(xùn)練字典的完備性,從而提取足夠的特征判別信息,然后利用高斯核變化將人臉數(shù)據(jù)映射到高維特征空間,從而實(shí)現(xiàn)人臉數(shù)據(jù)線性化的優(yōu)勢,增強(qiáng)人臉特征信息的可分性,提高算法在復(fù)雜環(huán)境下的適應(yīng)能力。最后通過正則化協(xié)同表示計(jì)算每個(gè)樣本塊的重構(gòu)誤差,根據(jù)所有分塊誤差和最小完成樣本的分類。在ORL、Extended Yale B、AR人臉庫進(jìn)行仿真實(shí)驗(yàn),結(jié)果表明,構(gòu)建通用的類內(nèi)變化字典和對樣本的分塊除了起到擴(kuò)充樣本的作用外,還有助于人臉特征的線性表示,增強(qiáng)了樣本的準(zhǔn)確率。
【關(guān)鍵詞】? ?人臉識別;局部通用;核協(xié)同表示;魯棒
Single Sample Face Recognition Based on Local Generic
Kernel Collaborative Representation
Cui Jian, You Chunzhi
(Fenyang College Shanxi Medical University, Lvliang 032200, China)
【Abstract】? ? Aiming at information extracting simplicity and other information extracting problems, this paper proposes a local generic kernel collaborative representation algorithm based single sample person recognition for illumination, expression and disguises. This algorithm use spare training samples to construct generic inter-class changes dictionary,and divide it into patches to achieve the purpose of the sample expansion, ensuring training dictionary completeness, so as to extract enough feature discriminant information. Then using the Gaussian kernel to map face data to high-dimensional, so as to realize the advantages of face data linearization, enhancing separability of feature information and improving the algorithm adaptability in complex environment. Finally, the algorithm uses collaborative representation to calculate reconstruction error of each patch, and classify it through error minimum. Through ORL, Extended Yale B, and AR face database simulation experiment, results show that constructing general inter-class dictionary and block of samples in addition has the effect of expansion of samples, also help to face data linearization, increasing sample accuracy.
【Key words】? ? ?face recognition; local generic; kernel collaborative representation; Robustness
〔中圖分類號〕? ? TP391? ? ? ? ? ? ? ?〔文獻(xiàn)標(biāo)識碼〕? A ? ? ? ? ? ? ?〔文章編號〕 1674 - 3229(2022)02- 0035 - 05
0? ? ?引言
稀疏表示[1-3]是人臉識別中常用的一種分類別算法,該算法最早是由Wright 等人提出應(yīng)用于圖像的壓縮感知方向,該思想是基于測試樣本與訓(xùn)練樣本的線性表示,后逐漸被應(yīng)用于人臉識別當(dāng)中,而且對光照、表情以及遮擋等變化有很好的識別效果。稀疏表示是基于L1范數(shù)約束求解的,求解過程當(dāng)中需要保證訓(xùn)練樣本的過完備性,才能保證系數(shù)的稀疏性,而且需要迭代計(jì)算,當(dāng)樣本維度較高時(shí),迭代計(jì)算的工作量非常高、存儲(chǔ)空間非常大。在特定的環(huán)境下,有的時(shí)候只能獲取少量的單個(gè)訓(xùn)練樣本無法保證訓(xùn)練樣本的完備性,在這種情況下很多傳統(tǒng)的稀疏表示算法無法滿足需求,很多改進(jìn)的單樣本稀疏表示算法相繼被提出[4-7],如(Extended Sparse representation based Classification,ESRC)[7]。在ESRC中Deng提出不同人臉內(nèi)部結(jié)構(gòu)變化的相似性,構(gòu)建類內(nèi)變化字典以達(dá)到訓(xùn)練樣本的完備性,取得了較好的效果,但是算法沒有考慮到人臉圖像的非線性結(jié)構(gòu)。Liu[8]等人提出協(xié)同表示人臉識別算法,提出構(gòu)建類內(nèi)特定字典,這些算法都是通過構(gòu)建通用集達(dá)到樣本的完備性,實(shí)驗(yàn)結(jié)果也表明構(gòu)建通用集能夠很好地提高單樣本識別的效果。但是這些算法都屬于線性分類器,沒有考慮到人臉結(jié)構(gòu)的非線性變化,而核變換[9-11]可以實(shí)現(xiàn)人臉數(shù)據(jù)從非線性到線性的轉(zhuǎn)化。本文在局部通用協(xié)同表示的基礎(chǔ)上,提出基于高斯核變換的局部通用協(xié)同表示的單樣本人臉識別算法。首先針對光照、表情、遮擋等變化構(gòu)造通用的變化字典,其次對測試樣本、訓(xùn)練樣本、通用集進(jìn)行分塊,確保每個(gè)訓(xùn)練樣本有足夠訓(xùn)練的子集,保證樣本的完備性,解決樣本少的問題。然后利用高斯核變化將人臉數(shù)據(jù)映射到高維空間中實(shí)現(xiàn)線性化的轉(zhuǎn)變,增強(qiáng)數(shù)據(jù)的線性表示,最后對每個(gè)字塊進(jìn)行協(xié)同表示,通過重構(gòu)誤差和最小化達(dá)到測試樣本的正確分類。0865259D-DB0E-4F59-A525-A8F0F9F2C9A2
1? ? ?局部通用協(xié)同表示
在人臉識別中常用的稀疏表示模型一般可以表示為:
y=Xα
其中y表示待測試樣本,X=[X1,X2…XC]?∈
Rm×N表示由C個(gè)人組成的訓(xùn)練字典,α表示重構(gòu)系數(shù)向量。在文獻(xiàn)[3-5]中研究者們提出,在人臉出現(xiàn)光照、表情、遮擋等變化時(shí)上述的稀疏表示思想很難達(dá)到理想的效果,為了解決此問題,提出構(gòu)建局部通用變化訓(xùn)練集的方法,即:
2? ? ?局部通用核協(xié)同表示
文獻(xiàn)[9-10]提出將人臉數(shù)據(jù)映射到高維空間,通過核函數(shù)變換將人臉結(jié)構(gòu)由非線性轉(zhuǎn)化成線性,然后特征提取,來提高識別類別。受核函數(shù)的啟發(fā)本文提出局部通用的核協(xié)同表示分塊單樣本人臉識別算法(Local Generic Kernel Collaborative Representation,LGKCR)。
3? ? ?實(shí)驗(yàn)驗(yàn)證與分析
實(shí)驗(yàn)部分采用ORL[12],Extended Yale B 和AR[13]人臉數(shù)據(jù)庫,對照實(shí)驗(yàn)中將局部通用核協(xié)同表示算法與以下幾種算法進(jìn)行比較,如:ESRC、PCRC、CRC、SVDL等。其中ESRC、SVDL、CRC是基于通用表示的算法,PCRC是沒有構(gòu)建通用集,在分塊的基礎(chǔ)上基于正則化協(xié)同表示算法。實(shí)驗(yàn)環(huán)境:Windows 10操作系統(tǒng)、Intel雙核處器,4GD內(nèi)存Matlab2012。在實(shí)驗(yàn)中所有人臉圖像采樣為80×80,每個(gè)分塊為20×20。在對樣本進(jìn)行分塊時(shí)根據(jù)文獻(xiàn)[8]中方法提取鄰近的樣本塊來擴(kuò)充訓(xùn)練樣本。SVDL、CRC、PCRC中數(shù)λ為0.001。
3.1? ?ORL、Extended Yale B 和AR人臉實(shí)驗(yàn)
實(shí)驗(yàn)一:ORL人臉數(shù)據(jù)庫是一組通用的人臉庫,由40個(gè)人總計(jì)400張人臉圖像組成,主要集中在表情、姿態(tài)的變化,如微笑、不笑、生氣、戴眼鏡等,部分樣本如圖1所示。每張人臉圖像均為92×112的灰度圖像,實(shí)驗(yàn)中將其縮放為80×80,每個(gè)樣本分成20×20的小塊。取其中前20個(gè)對象作為測試集,剩余的20個(gè)對象用于通用集。其中單樣本訓(xùn)練集由測試集中每個(gè)人的第一張正常表情變化圖像作為訓(xùn)練樣本,其余圖像組成測試樣本,通用集中以每個(gè)人的第一張正常表情作為標(biāo)準(zhǔn)臉,其余作為變化臉,構(gòu)建通用變化字典。
表1列出了局部通用核協(xié)同表示LGKCR新算法與CRC、PCRC、ESRC、SVDL等比較。其中CRC是基于分塊的局部通用協(xié)同表示算法,PCRC是基于分塊的協(xié)同表示算法,不難看出,在表情、光照變化條件下,基于通用集表示的算法如CRC、ESRC、SVDL、KCRC整體來說效果顯著。PCRC基于分塊的協(xié)同表示人臉識別與CRC相比,缺少構(gòu)建通用訓(xùn)練樣本,CRC比PCRC高出6個(gè)百分點(diǎn),說明構(gòu)建通用訓(xùn)練樣本在一定程度上可以提高樣本的識別率。本文的算法LGKCR在CRC基礎(chǔ)上對人臉數(shù)據(jù)增加了高斯核變換,改進(jìn)算法正確識別率比CRC高出3個(gè)百分點(diǎn)。比ESRC高出將近2個(gè)百分點(diǎn)。
實(shí)驗(yàn)二:Extended Yale B 是根據(jù)不同光照變化拍攝的人臉數(shù)據(jù)庫,是由38個(gè)對象兩千多張人臉圖像組成,按照光照角度從0~130變化分為5個(gè)子集,隨著光照角度的增加推向越來越模糊。子集1是由6張人臉圖像組成,在光照角度0~10內(nèi),圖像清晰;子集2是由12幅不同的人臉圖像組成,光照角度范圍是在10~25,圖像相對清晰;子集3是由12張人臉圖像組成,光照角度變化范圍25~50,與子集1、2相比模糊;子集4是由14幅人臉圖像組成的,光照變化范圍為50~75,人臉圖像比較模糊;子集5是由19幅人臉圖像組成,光照角度變化范圍為75~130,圖像比較模糊。實(shí)驗(yàn)中選取前20個(gè)對象作為訓(xùn)練集和測試集,其他18個(gè)對象用于構(gòu)建通用集。選取每個(gè)對象正面光照角度光照角度為零的人臉作為單樣本訓(xùn)練集,以子集1第一張正常表情作為標(biāo)準(zhǔn)臉,其余作為變化臉,構(gòu)建通用變化字典。將所有圖像縮放為 80 ×80,分塊大小為 20 ×20,extended Yale B 部分訓(xùn)練樣本和測試樣本如圖2所示。
從表2可以看出從子集1到子集5隨著光照角度的變化,識別率越來越低。尤其是在子集1上本文的算法LGKCR和SVDL最高等達(dá)到100%,分塊的協(xié)同表示最低也達(dá)到89.3%,該算法與本文算法相比,缺少了通用表示以及核變化。在子集1到子集3上本文的算法與SVDL識別率基本持平,但是比ESRC、PCRC、CRC要高得多,在子集1比PCRC要高出將近11個(gè)百分點(diǎn),在子集2上比ESRC、PCRC、CRC平均高出4個(gè)百分點(diǎn),即便是在子集4、5上識別率都能達(dá)到60%以上,比CRC平均高出10個(gè)百分點(diǎn),比PCRC高出將近20個(gè)百分點(diǎn)。而且在子集1、2上識別率超過95%,比CRC、PCRC效果更好。
實(shí)驗(yàn)三:AR 是基于表情、墨鏡、圍巾遮擋的人臉數(shù)據(jù)庫,共有 126 個(gè)對象、每個(gè)26 張人臉,大小為165 ×120。本文隨機(jī)選取60個(gè)對象用于實(shí)驗(yàn),其中的20個(gè)人臉圖像用做通用訓(xùn)練集。選取每個(gè)對象正面無表情變化人臉作為單樣本訓(xùn)練集和標(biāo)準(zhǔn)臉,其余為測試樣本或構(gòu)建通用變化字典。分別對表情、光照、墨鏡、圍巾遮擋等類型進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)中,所有圖像的尺寸調(diào)整為 80×80、分塊尺寸為 20 ×20;部分樣本如圖3所示。
表3是在AR人臉針對表情、光照、墨鏡、圍巾遮擋實(shí)驗(yàn)對照,墨鏡和圍巾遮擋比例在20%-40%。由表3可以看出,在復(fù)雜環(huán)境下基于通用集表示的算法如ESRC、SVDL、CRC以及新算法LGKCR,都取得很好的效果。在AR數(shù)據(jù)上光照變化環(huán)境下LGKCR比SVDL還略高一點(diǎn),比PCRC高出9個(gè)百分點(diǎn),比CRC高出1個(gè)百分點(diǎn),比ESRC高出3個(gè)百分點(diǎn)。在表情變化的數(shù)據(jù)上LGKCR比PCRC高出17個(gè)百分點(diǎn),比ESRC高出10個(gè)百分點(diǎn),比CRC高出4個(gè)百分點(diǎn)。在墨鏡遮擋中構(gòu)建通用集的算法整體識別率都超過80%,LGKCR算法達(dá)到88.8%,比PCRC高出很多。在圍巾遮擋下新算法達(dá)到81%,比CRC、ESRC高出10個(gè)百分點(diǎn),比PCRC高出20個(gè)百分點(diǎn)。0865259D-DB0E-4F59-A525-A8F0F9F2C9A2
3.2? ?實(shí)驗(yàn)結(jié)果分析
實(shí)驗(yàn)中對照組的方法主要涉及PCRC、CRC、ESRC、SVDL和本文的局部通用核協(xié)同表示算法(KLCRC),改進(jìn)的算法在光照、表情變化取得到較好效果,主要原因如下:一是局部通用核協(xié)同表示算法通過對樣本進(jìn)行分塊和構(gòu)建通用訓(xùn)練樣本達(dá)到樣本的完備性,保證協(xié)同表示需要的足夠樣本,提高人臉識別準(zhǔn)確性,增強(qiáng)魯棒性;二是從ESRC、PCRC、CRC對照實(shí)驗(yàn)可以發(fā)現(xiàn)構(gòu)建通用訓(xùn)練樣本后算法的識別率有明顯的提高,說明構(gòu)建通用的訓(xùn)練樣本除了起到擴(kuò)充樣本的作用外,還有助于人臉特征的線性表示,增強(qiáng)樣本的準(zhǔn)確率;三是將CRC和KCRC相比,KCRC是通過高斯核變換將非線性人臉識別線性化,有助于發(fā)現(xiàn)人臉的非線性結(jié)構(gòu),增強(qiáng)稀疏表示性能,提高算法的魯棒性;四是在光照、表情變化較小的人臉數(shù)據(jù)上KCRC效果明顯,隨著光照增強(qiáng)、遮擋顯著識別率沒整體下降,其原因在于特征信息的減少,相關(guān)性降低導(dǎo)致。
4? ? ?結(jié)語
本文針對單樣本人臉識別中樣本不足、遮擋等變化提出一種基于高斯核變換的核協(xié)同單樣本協(xié)同人臉識別算法,該算法通過樣本分塊和構(gòu)建通用訓(xùn)練樣本達(dá)到擴(kuò)充訓(xùn)練樣本圖像的目的,高斯核變換提高了協(xié)同表示在復(fù)雜環(huán)境下的算法應(yīng)用能力。公開的人臉數(shù)據(jù)實(shí)驗(yàn)表明,LGKCR算法能在表情、光照、遮擋等單樣本環(huán)境下有較好的識別效果。但是本算法容易受到通用訓(xùn)練集的影響,訓(xùn)練集過多容易導(dǎo)致稀疏,表示信息的冗余,而過少達(dá)不到應(yīng)有的效果,因此如何高效地構(gòu)造通用訓(xùn)練集有待進(jìn)一步研究。
[參考文獻(xiàn)]
[1]WRIGHT J,MA Y,MAIRAL J,et al. Sparse repre- sentation for computer vision and pattern recognition [J]. Proceedings of the IEEE,2010,98(6): 1031-1044.
[2] ZHANG Lei,YANG Meng,F(xiàn)ENG Xiang-chu. Spa- rse representation or collaborative representation: Which helps face recognition [C]//2011.IEEE International Conference on Computer Vision (ICCV),IEEE,2011: 471-478.
[3] 崔建,游春芝,丁伯倫.基于正則化協(xié)同表示的魯棒PCA人臉識別[J].重慶工商大學(xué)學(xué)報(bào)(自然科學(xué)版)2021,38 (3):36 -41.
[4] PANG Meng,CHEUNG Yiu-ming,WANG Bing-hui,et al. Robust heterogeneous discriminative analysis for face recognition with single sample per person[J]. Pattern Recognition,2019,89(12): 91 -107.
[5] 韓旭,諶海云,王溢,等. 基于SPCA和HOG的單樣本人臉識別算法[J].計(jì)算機(jī)科學(xué),2019,46 (z1): 274 -278.
[6] YANG Meng,VAN L,ZHANG Lei.Sparse variation dictionary learning for face recognition with a single training sample per person[C]//Proc of the 14th IEEE International Conference on Computer Vision. Wash- ington DC:IEEE Computer Society,2013: 689- 696.
[7] DENG Wei-hong,HU Jian-ni,GUO Jun.Extended SRC: under-sampled face recognition via intra- class variant dictionary [J].IEEE Trans on Pattern analysis and Machine Intelligence,2012,34 (9): 1864-1870.
[8] LIU Bao-di D,SHEN Bin,GUI Liang-ke,et al. Face recognition using class specific dictionary learning for sparse representation and collaborative representation [J].Neurocomputing,2016,204: 198-210.
[9] HUANG Ke-kun,DAI Daoqing,Ren Chuanxian,et al.Learning Kernel Extended Dictionary for Face Recognition[J].IEEE transactions on neural networks & learning systems,2017,28(5).1082-1094.
[10] LIU Zhong-hua,YANG Wan-kou,YIN Jun,et al. Kernel sparse representation based classification [J]. Neurocomputing,2012,77(1),120-128.
[11] 侯良國,向澤君,楚恒.加權(quán)融合核稀疏和協(xié)同表示的高光譜影像分類[J].計(jì)算機(jī)工程與設(shè)計(jì),2019,40 (4):1058-1063.
[12] LUAV Xiao,F(xiàn)ANG Bin,LIU Ling-hui, et al. Extracting sparse error of robust PCA for face recogni tion in the presence of varying illumination and occlus -ion[J]. Pattern Recognition,2014,47(2): 495 -508.
[13] CHEN Song-can,LIU Jun,ZHOU Zuan-xuan. Making FLDA applicable to face recognition with one sample per person[J]. Pattern recognition,2004,37(7): 1553- 1555.0865259D-DB0E-4F59-A525-A8F0F9F2C9A2