王化喆,李德啟
(商丘職業(yè)技術(shù)學(xué)院 河南 商丘 476000)
人臉識(shí)別技術(shù)作為一種新興的生物特征識(shí)別技術(shù),已經(jīng)被廣泛應(yīng)用到公安偵查、電子商務(wù)、安防監(jiān)控和國(guó)家安全等身份識(shí)別和鑒定的領(lǐng)域。因此,對(duì)人臉特征識(shí)別算法的研究越來(lái)越受到學(xué)者們的關(guān)注,因此,一些優(yōu)秀的算法隨之出現(xiàn),例如,小波加權(quán)雙向二維主成分分析人臉識(shí)別算法、四元數(shù)Gabor小波的彩色人臉識(shí)別算法等,并取得了良好的識(shí)別效果,被廣泛應(yīng)用到圖像識(shí)別的各個(gè)領(lǐng)域,然而這些算法在廣泛的圖像識(shí)別處理過(guò)程中,往往都會(huì)有一些缺陷或弊端[1]。以小波加權(quán)的雙向二維主成分分析人臉識(shí)別算法[2]為例,作為一個(gè)相對(duì)優(yōu)秀的生物特征識(shí)別算法,它是通過(guò)小波變換技術(shù)對(duì)所處理的人臉圖像進(jìn)行分解,對(duì)低頻子帶進(jìn)行加權(quán),然后用獲得的低頻子圖替代原始人臉圖像,不但可以起到很好的降維效果,而且在隨機(jī)噪聲方面得到有效地抑制。由于小波變換技術(shù)具有多分辨率的特征,所以是一種被廣泛使用的生物識(shí)別技術(shù)算法,然而,通過(guò)大量實(shí)驗(yàn)表明,此算法在對(duì)人臉圖像的處理過(guò)程中不具有各向異性的特征,只能反映出一維信號(hào)中奇異點(diǎn)的性質(zhì),對(duì)二維圖像的“沿”邊緣特征根本無(wú)法表達(dá)[3]?;谛〔ㄗ儞Q算法上的缺陷,Candes和Donoho于1999年在脊波理論的基礎(chǔ)上提出了第一代曲波變換算法,該算法是由一種特殊的濾波和多尺度Ridgelet變換組合而成,在對(duì)人臉圖像識(shí)別處理的過(guò)程中,直線奇異和曲線奇異特征在該算法中能夠很好的表達(dá)[4]。但是,第一代曲波在數(shù)字實(shí)現(xiàn)上特別復(fù)雜,需要子帶分解、平滑分塊、正規(guī)化和Ridgelet等一系列步驟,而且曲波變換的塔式分解中帶來(lái)的數(shù)據(jù)冗余量是巨大的,并且具有較高的時(shí)間復(fù)雜度,這樣勢(shì)必限制了第一代曲波變換算法的應(yīng)用[5]。
基于第一代曲波變換算法的局限性,Candles等于2005年又提出了實(shí)現(xiàn)更為簡(jiǎn)單、更為容易理解,而且具有良好的細(xì)節(jié)表達(dá)能力的第二代曲波變換算法。但是此算法在非線性變換過(guò)程中需要多個(gè)調(diào)節(jié)參數(shù),從而增加了在圖像識(shí)別復(fù)雜度。另外,第二代曲波變換算法中的變換函數(shù)在進(jìn)行曲波系數(shù)變換時(shí),沒(méi)有充分考慮到尺度不同分布特征不同的特點(diǎn),從而影響了圖像識(shí)別的效果[6]。為此,筆者對(duì)第二代曲波變換算法進(jìn)行了改進(jìn),即第二代曲波加權(quán)人臉識(shí)別算法。
Candes與Donoho詳細(xì)闡述了第二代曲波變換實(shí)現(xiàn)方法,即 USFFT(Unequispased FFT)和 Wrap(Wrapping-based transform)兩種算法[7]。
利用USFFT算法實(shí)現(xiàn)過(guò)程如下:
1)將 f[t1,t2]∈L2(R)經(jīng)過(guò)二維 FFT 得到 f^[n1,n2],-n/2≤n1,n2<n/2;
4)將局部化的f^經(jīng)過(guò)傅里葉反變換,從而,求得離散的Curvelet系數(shù) cD(j,l,k)。
該算法是在USFFT算法基礎(chǔ)上添加Wrap步驟,過(guò)程如下:
1)把給定的一個(gè)笛卡爾坐標(biāo)下的f[t1,t2]進(jìn)行二維傅里葉變換,其中二維函數(shù)f[t1,t2]用于處理圖像時(shí)為二維圖像數(shù)據(jù),0≤t1,t2<ω,求得二維頻域:
2)在頻域內(nèi),對(duì)不同尺度和方向參數(shù)(j,l),重新對(duì) f^[n1,n2]采樣,獲得的采樣值如下:f^[n1,n2-n1.tanθl]∈Pj,其中 θl為旋轉(zhuǎn)角度;
4)環(huán)繞原點(diǎn)Wrap局部化f^,可得:
5)對(duì)所有f^j,l通過(guò) 2D IFFT變換,即可獲得離散的Curvelet變換系數(shù) CD(j,l,k)。
該算法的核心思想是圍繞原點(diǎn)Wrap,利用周期化技術(shù)將任意區(qū)域一一映射到原點(diǎn)放射區(qū)域,進(jìn)而形成一一對(duì)應(yīng)的映射關(guān)系,通過(guò)2D IFFT變換把圖(1)中的橢圓從原點(diǎn)映射,進(jìn)而獲取矩形區(qū)域,這樣,就可以使用二維數(shù)組進(jìn)行表達(dá)。這里Pj,l表示一個(gè)平行四邊形,包含局部窗口U~j,l[n1,n2]的支撐,對(duì)于每個(gè)不同尺度的 j都對(duì)應(yīng)著兩個(gè)恒定的數(shù),即 L1,j~2j和 L2,j~2j。因此,對(duì)于不同的方位 θl通過(guò)水平(L1,j)和垂直(L2,j)方向的復(fù)合變換 Pj,l,把平面分塊。 然后周期化窗口數(shù)據(jù) d[n1,n2],可得如下等式:
圖1 Wrap算法實(shí)現(xiàn)原理圖Fig.1 The schematic of Wrap algorithm
通過(guò)第二代離散曲波變換算法的實(shí)現(xiàn)和大量實(shí)現(xiàn)證明,Wrapping快速離散曲波變換算法在進(jìn)行圖像處理時(shí),不可避免的存在下列缺陷:第一,通過(guò)Wrapping算法進(jìn)行對(duì)圖像邊緣信息降噪處理時(shí),因?yàn)樗哂械钠揭撇蛔冃?,將?huì)出現(xiàn)系數(shù)“過(guò)扼殺”現(xiàn)象,因此使圖像邊緣出現(xiàn)“振鈴”效應(yīng);第二,由于“楔形基”是曲波變換算法所具有的特性,所以變換因子的相關(guān)性客觀存在,一條直線的全部數(shù)據(jù)將隨系數(shù)的變化而發(fā)生改變,這樣勢(shì)必會(huì)導(dǎo)致所處理圖像的失真。
針對(duì)離散曲波變換算法的缺陷,筆者對(duì)第二代曲波非線性變換算法加以改進(jìn),提出了第二代曲波圖像加權(quán)算法,該算法實(shí)現(xiàn)流程如下:
2)根據(jù)直方圖圖像分類,確定Beta函數(shù)中的參數(shù)α與β,然后再利用下式進(jìn)行變換:
其中非完全Beta變換函數(shù)用F(·)表示;
3)將 g′(i,j)經(jīng)過(guò)反歸一操作,進(jìn)而得到對(duì)應(yīng)的圖像 x(i,j);
4)然后,通過(guò)第二代 Curvelet變換算法對(duì)圖像 x(i,j)實(shí)現(xiàn)分解處理;
5)通過(guò)下式對(duì)分解后圖像x(i,j)中的低頻與中頻相應(yīng)系數(shù)進(jìn)行非線性變換處理。
6)可以使用下式軟閾值函數(shù)對(duì)步驟(4)中的分解后的高頻曲波實(shí)現(xiàn)降噪,
7)通過(guò)反變換處理可以獲取結(jié)果圖像 x′(i,j)。
假設(shè):分別用N和C表示低頻人臉圖像的訓(xùn)練樣本和類別數(shù),F(xiàn)i表示第i類人臉圖像,樣本數(shù)用Mi表示,表示m×n圖像低頻區(qū)域的大小。重構(gòu)的低頻圖像(f′il)可以通過(guò)第二代曲波加權(quán)算法進(jìn)行獲取,利用下式獲取全部低頻人臉圖像均值:
行動(dòng)主張:建議學(xué)院專業(yè)再次結(jié)合現(xiàn)專業(yè)、行業(yè)背景確定什么是基本能力,什么是必要的擴(kuò)展能力,當(dāng)下行業(yè)緊俏的擴(kuò)展能力,但不能設(shè)置的太高,不然達(dá)不到技訓(xùn)的目的。
上式中的i和l分別表示第i類中的第l個(gè)樣本。
行和列的二維主成分分析是雙向二維主成分分析算法的主要內(nèi)容。
第一步:首先,利用此算法從人臉圖像行信息的訓(xùn)練樣本中求取最優(yōu)矩陣Y,然后,將人臉圖像投影至Y中,進(jìn)而求得m×d矩陣,如下式所示:
第二步:同樣利用二維主成分分析算法從人臉圖像列信息訓(xùn)練樣本中求取最優(yōu)矩陣P,然后,把m×n人臉圖像投影至矩陣P,進(jìn)而獲取q×n的矩陣L,如下式所示:
其中L就是系數(shù)矩陣。用來(lái)重構(gòu)人臉圖像Fi′l的公式可以表示如下:
使用最近鄰域準(zhǔn)則去實(shí)現(xiàn)對(duì)樣本的分類。特征矩陣L的求出,可以根據(jù)給定的相應(yīng)測(cè)試樣本A來(lái)實(shí)現(xiàn)。可以將所有的低頻人臉圖像Fi′l投影到矩陣Y和P中,進(jìn)而獲取相應(yīng)的特征矩陣Lk。
為了驗(yàn)證筆者提出的改進(jìn)算法的有效性,分別選取0RL和Yale人臉庫(kù)中的人臉圖像進(jìn)行仿真實(shí)驗(yàn),在不同的維數(shù)下,利用小波加權(quán)雙向二維主成分分析算法(簡(jiǎn)稱:小波加權(quán)傳統(tǒng)算法)和經(jīng)過(guò)改進(jìn)的第二代曲波圖像加權(quán)算法(簡(jiǎn)稱:曲波加權(quán)改進(jìn)算法)分別對(duì)不同人臉庫(kù)中的圖像進(jìn)行識(shí)別處理。在實(shí)驗(yàn)前,對(duì)所用的圖像進(jìn)行自動(dòng)檢測(cè)、姿態(tài)表情定位和歸一化處理。
0RL人臉庫(kù)由劍橋大學(xué)AT&T實(shí)驗(yàn)室創(chuàng)建,該數(shù)據(jù)庫(kù)包含了具有不同表情和姿勢(shì)、稍許傾斜(不超過(guò)20度)以及不同光照的人臉,共有40個(gè)人,每人有10幅不同的人臉圖片,共計(jì)400張分辨率為92×112人臉灰度圖像,影響圖像識(shí)別的因素有姿勢(shì)、表情和飾物[8]。在此人臉庫(kù)中選取150張人臉圖像作為訓(xùn)練樣本,其余的250張作為測(cè)試樣本,樣本圖像如圖2所示。
圖2 ORL人臉樣本圖像Fig.2 ORL face images
在不同特征矩陣的維數(shù)下,分別利用小波加權(quán)傳統(tǒng)算法和曲波加權(quán)改進(jìn)算法隨機(jī)的進(jìn)行30次仿真實(shí)驗(yàn),在實(shí)驗(yàn)過(guò)程中對(duì)特征向量進(jìn)行單位化處理,分別獲取平均識(shí)別時(shí)間和平均識(shí)別率,實(shí)驗(yàn)結(jié)果數(shù)據(jù)和平均識(shí)別率對(duì)比曲線圖分別如表1和圖3所示。
表1 ORL人臉庫(kù)仿真實(shí)驗(yàn)數(shù)據(jù)Tab.1 ORL database simulationdata
通過(guò)上表可以看出,ORL圖像庫(kù)中的圖像在特征向量維數(shù)為4、8和16,經(jīng)過(guò)改進(jìn)的曲波加權(quán)算法較小波加權(quán)傳統(tǒng)算法平均識(shí)別率分別提高7.73%、4.02%和4.01%,平均識(shí)別時(shí)間分別提高0.144 9 s、0.126 9 s和0.1321 s,在特征向量為8時(shí),經(jīng)過(guò)改進(jìn)的曲波加權(quán)算法獲得的識(shí)別率最高,圖像識(shí)別效果最好,較小波加權(quán)傳統(tǒng)算法具有明顯的優(yōu)勢(shì)。
圖3 ORL圖像庫(kù)仿真識(shí)別曲線Fig.3 The simulation curve recognition of ORL image database
通過(guò)圖(3)仿真識(shí)別對(duì)比曲線可以看出,經(jīng)過(guò)改進(jìn)的第二代曲波加權(quán)改進(jìn)算法,圖像識(shí)別率比曲波加權(quán)改進(jìn)算法有明顯的提高,識(shí)別效果顯著。
Yale人臉庫(kù)圖像由美國(guó)耶魯大學(xué)創(chuàng)建,其中共有15人在不同的飾物(是否戴眼鏡)、光照和表情下(正常、悲傷、愉快、驚訝、困乏、眨眼)建立的165張圖像,分辨率為144×116[9]。為了方便在實(shí)驗(yàn)過(guò)程中的數(shù)據(jù)處理,按照?qǐng)D像眼睛的位置進(jìn)行預(yù)處理操作,將圖像歸一化為圖像尺寸為100×100。在該圖像庫(kù)中選取60張圖像作為訓(xùn)練樣本,其余105張作為測(cè)試樣本,樣本圖像如圖(4)所示。
圖4 Yale人臉樣本圖像Fig.4 Yale face images
同樣在不同特征向量維數(shù)下,分別利用小波加權(quán)傳統(tǒng)算法和經(jīng)過(guò)改進(jìn)的曲波加權(quán)改進(jìn)算法隨機(jī)進(jìn)行30次實(shí)驗(yàn),分別求出平均識(shí)別率和識(shí)別時(shí)間,實(shí)驗(yàn)數(shù)據(jù)和識(shí)別仿真曲線如表2和圖5所示。
表2 Yale人臉庫(kù)仿真實(shí)驗(yàn)數(shù)據(jù)Tab.2 Yale database simulation data
通過(guò)表2中的仿真實(shí)驗(yàn)數(shù)據(jù)可以看出,在特征向量維數(shù)為4、12和20時(shí),經(jīng)過(guò)改進(jìn)的曲波加權(quán)算法較小波加權(quán)傳統(tǒng)算法平均識(shí)別率分別提高2.12%、6.64%和3.11%,平均識(shí)別時(shí)間分別提高0.009 2 s、0.048 9 s和0.023 9 s,在特征向量維數(shù)為12時(shí),經(jīng)過(guò)改進(jìn)的曲波加權(quán)算法識(shí)別率最高。從實(shí)驗(yàn)結(jié)果看出,曲波加權(quán)改進(jìn)算法無(wú)論在識(shí)別率還是識(shí)別時(shí)間方面提升效果明顯。
圖5 Yale圖像庫(kù)仿真識(shí)別曲線Fig.5 The simulation curve recognition of Yale image database
由圖5平均識(shí)別率對(duì)比曲線不難看出,經(jīng)過(guò)的第二代曲波加權(quán)改進(jìn)算法在處理人臉圖像識(shí)別率方面明顯較小波加權(quán)傳統(tǒng)算法優(yōu)越。
筆者首先在第二代離散曲波變換算法分析的基礎(chǔ)上,得出此算法在處理圖像時(shí)出現(xiàn)邊緣 “振鈴”效應(yīng)和由于“楔形基”特性使圖像失真的現(xiàn)象,然后,針對(duì)所存在的缺陷提出曲波加權(quán)改進(jìn)算法及在圖像識(shí)別時(shí)的實(shí)現(xiàn)方法,最后分別通過(guò)在ORL人臉庫(kù)和Yale人臉庫(kù)的仿真實(shí)驗(yàn),并和傳統(tǒng)的小波加權(quán)雙向二維主成分分析算法對(duì)比,說(shuō)明了筆者提出的第二代曲波加權(quán)改進(jìn)算法的優(yōu)越性,具有很好的應(yīng)用前景。
[1]賁晛燁,安實(shí),王科俊.改進(jìn)的完全二維主成分分析及其在步態(tài)識(shí)別中的應(yīng)用研究[J].計(jì)算機(jī)應(yīng)用研究,2011,28(6):2088-2091.BEN Xian-ye,AN Shi,WANG Ke-jun.Study on inpromed complete two dimensional principal comnent analysis and its application to gait cecognition[J].Application Research of Computers,2011,28(6):2088-2091.
[2]穆新亮,武亞靜.基于雙向主成分分析和壓縮感知的人臉識(shí)別算法[J].電子科技,2014(1):45-48.MU Xin-liang,WU Ya-jing.Face recognition algorithm based on two-way principal component analysis and compressed sensing[J].Electronic Science and Technology,2014(1):45-48.
[3]曹雪.小波理論在人臉識(shí)別中的應(yīng)用研究[D].南京:南京理工大學(xué),2012.
[4]Candes E J,Donoho D L.Ridgelets:a key to higher dimensionality intermittency[J].Philos Trans RSoc London A,1999:2495-2509.
[5]趙陽(yáng).曲波變換在人臉識(shí)別中的應(yīng)用[D].西安:西安理工大學(xué),2011.
[6]賈西貝.基于曲波變換的人臉識(shí)別算法研究[D].哈爾濱:哈爾濱工程大學(xué),2011.
[7]查宇飛,畢篤彥.基于小波變換的自適應(yīng)多閾值圖像去噪[J].中國(guó)圖像圖形學(xué)報(bào),2005,10(5):567-570.ZHA Yu-fei,BI Du-yan.Adaptive muti-thresholding for image denoising[J].Journal of Image and Graphics,2005,10(5):567-570.
[8]李德啟,劉傳領(lǐng).一種基于核函數(shù)特征提取改進(jìn)方法的應(yīng)用[J].計(jì)算機(jī)應(yīng)用研究,2011,28(8):3185-3187.LIDe-qi,LIUChuan-ling.Feature extraction basked on kernel function and application of improved methods[J].Application Research of Computers,2011,28(8):3185-3187.
[9]李艷芳.人臉特征提取及分類算法研究[D].哈爾濱:哈爾濱理工大學(xué),2011.