張起榮++胡如會++張繼燕++王燕
摘要:兩維雙樹四元數(shù)小波合并雙向拉普拉斯逆線性判別分析方法(2DQWTCBLIF)是先后對人臉圖像進行雙樹四元數(shù)小波變換處理和兩維合并雙向拉普拉斯逆線性判別分析方法處理。實驗中,2DQWTCBLIF同四個方法在2個人臉庫上進行了對比試驗,測試結果顯示該方法是有效和可行的。 2DQWTCBLIF提高了人臉識別率。
關鍵詞:人臉識別;雙樹四元數(shù)小波變換;兩維合并雙向拉普拉斯逆線性判別分析方法;兩維雙樹四元數(shù)小波合并雙向拉普拉斯逆線性判別分析方法
中圖分類號:TP391.4 文獻標識碼:A 文章編號:1009-3044(2017)03-0189-03
計算機方面的研究很多[1-10],而人臉識別在現(xiàn)代很多商業(yè)領域都有很大的應用,所以引起很多學者的研究。線性判別分析(LDA)[11]是Belhumeur于1997年提出的。它是一個可以利用的有監(jiān)督的方法。逆線性判別分析(IF)[12]被Zhuang于2005年提出,它的思想就是對LDA進行一個逆運算得到?,F(xiàn)在有不少學者提出新的人臉識別方法[13-18]。
為了進一步提高人臉圖像的識別率,兩維雙樹四元數(shù)小波合并雙向拉普拉斯逆線性判別分析方法(2DQWTCBLIF)被提出。它是通過對人臉圖像先后進行雙樹四元數(shù)小波變換[19]處理和2DCBLIF[20]得到的。通過在人臉庫上的實驗,2DQWTCBLIF與2DLDA, 2DMMC, 2DPCA等三個人臉識別的經(jīng)典方法及2DCBLIF方法進行對比,實驗結果顯示它具有更好的識別率。
1 IF[12]
[CW=1Nl=1Sd=1N(Mld-al)(Mld-al)T] (1)
在這里,公式(1)中的[CW]表示為類內(nèi)散度矩陣,[N]表示為所有的樣本總數(shù),[Mld]表示為第l類的第d個樣本。
[CB=1Nl=1SNl(al-a)(al-a)T] (2)
公式(2)中的[al]表示為第l類的樣本平均值。[a]表示為所有樣本的平均值。[Nl]表示為第l類的樣本個數(shù)。[CB]表示為類間散度矩陣。
[J(φ)=φTCwφφTCBφ] (3)
2 兩維雙樹四元數(shù)小波合并雙向拉普拉斯逆線性判別分析方法
2.1 雙樹四元數(shù)小波[19]
[w(t)=k∈ZaJ,kαJ,k(t)+j≥J,k∈Zbj,kβj,k(t)] (4)
公式(4)是一維實值信號[21]。其中[aJ,k]表示為縮放系數(shù),[bj,k]表示為小波系數(shù)。[αJ,k(t)]表示為尺度函數(shù),[βj,k(t)]表示為小波函數(shù)。由[j≥J,k∈Z]構成了正交的基礎。
[aJ,k=w(t)αJ,k(t)dt] (5)
[bj,k=w(t)βj,k(t)dt] (6)
[αJ,k(t)=2Jα(2J-k)] (7)
[βj,k(t)=2jβ(2j-k)] (8)
[wpA(X)=w(X)+i1wHk1(X)+i2wHk2(X)+i3wHk(X)] (9)
公式(9)中[wpA(X)]表示為兩維四元數(shù)解析信號[22]。[w(X)]表示為兩維實值信號。[wHk1(X)]表示為全部的希爾伯特變換。[wHk2(X)]和[wHk(X)]均都表示為部分希爾伯特變換。
[wHk1(X)=w(X)??η(y)πx] (10)
公式(10)中[η(y)]表示為沿[y]軸線沖動表,兩維卷積用[??]表示。一個兩維圖像的維數(shù)分別用[x]和[y]表示。于是就得到[X=(x,y)]。
[wHk2(X)=w(X)??η(x)πy] (11)
公式(11)中[η(x)]表示為沿[x]軸線沖動表。
[wHk(X)=w(X)??1π2xy] (12)
[w(X)=βh(x)βh(y)] (13)
公式(13)中[βh(x)]和[βh(y)]都表示為小波函數(shù)。
[(wHk1(X),wHk2(X),wHk(X))=(βg(x)βh(y),βh(x)βg(y),βg(x)βg(y))] (14)
[βD(x,y)=βh(x)βh(y)+i1βg(x)βh(y)+i2βh(x)βg(y)+i3βg(x)βg(y)] (15)
公式(15)表示的是二維小波分析及其相關四元小波變換(QWT)[19],[βD(x,y)]表示為對角子帶的四元數(shù)小波,[βh(x)]和[βg(x)]均都表示的是小波函數(shù)。2個小波濾波器是用[g]和[h]來表示。
[βH(x,y)=αh(x)βh(y)+i1αg(x)βh(y)+i2αh(x)βg(y)+i3αg(x)βg(y)] (16)
在這里,公式(16)中[βH(x,y)]表示為水平子帶的四元數(shù)小波,[αh(x)]表示為尺度函數(shù)。
[βV(x,y)=βh(x)αh(y)+i1βg(x)αh(y)+i2βh(x)αg(y)+i3βg(x)αg(y)](17)
在這里,公式(17)中[βV(x,y)]表示為垂直子帶的四元數(shù)小波,[αh(y)]表示為尺度函數(shù)。
[bDj,k=bDhhj,k+i1bDghj,k+i2bDhgj,k+i3bDggj,k] (18)
公式(18)得到對角子帶的QWT系數(shù),即合并四元素代數(shù)的每個濾波器,它輸出的相同的子帶小波系數(shù)得到。
2.2 2DCBLIF方法[20]
[m1,m2,...,mN]表示有[N]個訓練樣本,[i×n]是每個訓練樣本的大小,[Q]表示的是關系矩陣,就得到
[Q=exp(-mi-mj2/t) ] (19)
公式(19)中[mi]和[mj] 表示為人臉圖像。兩兩相鄰圖像的最大距離用[t]表示,并且它是一個常數(shù)。[||.||]在這里的意思表示 L2標準。
[Mij= Qij mi 和 mj 屬于同一類0 mi和mj不屬于同一類] (20)
公式(20)表示為在同類的兩個樣本的相似矩陣[30]
[DT=1Ni=1N(mi-m)T(mi-m) ∝i=1Nj=1N(mi-mj)T(mi-mj)] (21)
公式(21)表示人臉圖像在水平方向的總的散度矩陣[30]
[PDT=i=1Nj=1NQij(mi-mi)T(mi-mi) ∝ij(QijmTimi-QijmTimj) =mT(P?Im)m] (22)
公式(22)表示人臉圖像在水平方向的總的拉普拉斯散度矩陣[23]。其中 [F]的對角元素是[Fii],表示為[N×N]的對角矩陣。[Fii=jQij]。Q表示為相似矩陣。[P=F-Q]表示為拉普拉斯矩陣。
[Dw=1Nu=1Ci=1Cu(miu-lu)T(miu-lu) ∝u=1Ci=1Cuj=1Cu(miu-mju)T(miu-mju)] (23)
公式(23)表示水平方向的類內(nèi)散度矩陣[23]。
[PDW=u=1Ci=1Cuj=1CuMij(miu-mju)T(miu-mju) =i=1Nj=1NMij(miu-mju)T(miu-mju) ∝ij(MijmTimi-MijmTimj) =mT(PW?Im)m] (24)
公式(24)表示水平方向的類內(nèi)拉普拉斯散度矩陣[23]。
[DB=DT-DW] (25)
[PDB=PDT-PDW] (26)
公式(26)表示水平方向的類間拉普拉斯散度矩陣[23]。
[argminWTPDWWWTPDBW] (27)
公式(27)表示水平方向的兩維拉普拉斯逆線性判別分析[20]。
[J=mW] (28)
在這里,公式(28)中[J]表示為水平特征矩陣集。
[PD′T=m(P?In)mT] (29)
公式(29)表示垂直方向的整體拉普拉斯散度矩陣[23]。
[PD′W=m(PW?In)mT] (30)
公式(30)表示垂直方向的類內(nèi)拉普拉斯散度矩陣[23]。
[PD′B=PD′T-PD′W] (31)
[argminWTPD′WWWTPD′BW] (32)
公式(32)表示垂直方向的二維拉普拉斯逆線性判別分析[20]。
[K=WcolTm] (33)
復雜的特征矩陣[16]可以通過公式(28)和公式(33)得到。
[γ=J+iK] (34)
[Y=mγ] (35)
用公式(35)可以進行圖像的特征提取。
2.3 算法描述
二維雙樹四元數(shù)小波合并雙向拉普拉斯逆線性判別分析(2DQWTCBLIF)算法描述如下:
算法: 二維雙樹四元數(shù)小波合并雙向拉普拉斯逆線性判別分析(2DQWTCBLIF)算法
輸入: 有這樣{x1, x2, …, xN} N個人臉圖像作為訓練樣本和測試人臉圖像樣本[x]。
輸出:判斷人臉圖像[x]屬于哪個類別的圖像。
1)對輸入的人臉圖像和測試的人臉圖像都進行雙樹四元數(shù)小波處理
2)關系矩陣Q,M可以通過公式(19)-(20)計算得到,
3 )水平方向的二維拉普拉斯逆線性判別分析及投影矩陣J可以通過公式(22)-(28)計算得到,
4 )垂直方向的二維拉普拉斯逆線性判別分析及投影矩陣K可以通過公式(29)-公式(33)計算得到,
5)復雜特征矩陣[γ]可以通過公式(34)計算得到,
6 )最后利用公式(35)能夠可獲得分類。
3 實驗結果與分析
3.1 FERET人臉庫
基于FERET[24]上運行這個實驗。這個庫包括1196副人臉圖像。我們是從原始的FERET人臉圖像數(shù)據(jù)庫,選擇了其中120個人,每個人6副人臉圖像進行這個試驗,每一張人臉圖像的尺寸大小都是64×64。
我們在這個實驗中的設計思路是訓練樣本分別選擇一個人的3,4副圖像,測試樣本是一個人的其余3副,2副圖像,試驗一共是執(zhí)行6遍。
[方法\&3個訓練樣本\&4個訓練樣本\&2DLDA\&55.60(18)\&60.14(18)\&2DMMC\&67.31(21)\&72.01(16)\&2DPCA\&69.17(19)\&73.47(36)\&2DCBLIF\&71.20(4)\&76.67(14)\&2DQWTCBLIF\&72.69(8)\& 78.96(9)\&]
從表1,我們可以發(fā)現(xiàn)2DQWTCBLIF方法當訓練樣本是3時,它的最高識別率是72.69%,比2DLDA,2DMMC,2DPCA,2DCBLIF分別提高了17.09%,5.38%,3.52%,1.49 %。那么當訓練樣本是4時,2DQWTCBLIF方法的最高識別率是78.96%,比2DLDA,2DMMC,2DPCA,2DCBLIF分別提高了18.82 %,6.95%,5.49%,2.29 %。當訓練樣本較多時2DQWTCBLIF方法的識別率提高比較快。所以,在該庫中,2DQWTCBLIF比上述四個方法有效。
3.2 CMU PIE人臉庫
在 CMU PIE[25]中運行這個試驗。我們是采用了21張不同光照變化的68個人的人臉圖像進行試驗。每一張人臉圖像的大小都是64×64。在CMU PIE人臉庫中任意選擇人臉圖像進行試驗。
我們在這個實驗中的設計思路是訓練樣本是一個人的6張人臉圖像,測試樣本是選擇一個人剩下的15張人臉圖像,一共執(zhí)行21遍。表2給出了五個方法的最高識別率。
表2 在CMU PIE庫中的最高識別率(%)表
4 結束語
本研究結果發(fā)現(xiàn)將2DQWTCBLIF用于人臉特征,有較好的識別率。
2DQWTCBLIF是通過先對人臉圖像進行雙樹四元數(shù)小波變換的處理,然后再執(zhí)行2DCBLIF方法,通過結合兩種有良好識別率的方法得到的方法自然有比較好的識別率。
2DQWTCBLIF通過與2DMMC, 2DLDA, 2DPCA等三個經(jīng)典的人臉識別方法及在逆線性判別準則方法基礎上改進的2DCBLIF方法對比,實驗數(shù)據(jù)表明了該方法的有效性,可以看出在FERET人臉庫2DQWTCBLIF識別率提高比較明顯,且2DQWTCBLIF識別率在有光照的CMU PIE人臉庫上也有較大的提高。該方法適合在FERET及 CMU PIE人臉庫中。
參考文獻:
[1] 張起榮, 劉歆. 基于動態(tài)時間彎曲距離的灰關聯(lián)度量方法及其應用[J]. 重慶郵電大學學報:自然科學版, 2014, 26(5): 700-705.
[2] 張起榮, 劉歆, 閆一. 面向動態(tài)時間彎曲距離的灰關聯(lián)聚類方法研究[J]. 重慶郵電大學學報自然科學版, 2015, 27(4): 563-568.
[3] Zhang Q R, Hu R H, Yu T Z. Design and Implementation of Cherry Picking Robot Vision Recognition System Based on Face Recognition [J]. MATEC Web of Conference, 2016, 63: 05017.
[4] Zhang Q R, Peng P, Jin Y M. Cherry Picking Robot Vision Recognition System Based on OpenCV [J]. MATEC Web of Conference 2016, 63: 01005.
[5] 張起榮, 趙芳云, 顧嘉楠,等. 基于小型醫(yī)院放射科的PACS模板設計[J]. 科學之友, 2013(12): 156-157.
[6] 張起榮, 胡如會, 代宏偉. 基于云計算和物聯(lián)網(wǎng)的煤炭車輛裝載運輸監(jiān)控管理系統(tǒng)研究[J]. 電腦知識與技術, 2016, 12(8): 241-243.
[7] 張起榮. 管理信息系統(tǒng)的教學改革[J]. 考試周刊, 2013(33): 8-8.
[8] 張起榮. 生產(chǎn)與運作管理課程教學研究與改革[J]. 考試周刊, 2014(59): 8.
[9] 張起榮, 張繼燕, 王燕. 基于計算思維的計算機圖形學教學改革與實踐[J]. 考試周刊, 2016(64): 5-6.
[10] 張起榮, 張繼燕, 王燕. 計算機圖形學教學改革淺論[J]. 考試周刊, 2016(65): 10-10.
[11] BELHUMEUR P N, HESPANHA J P, KRIEGMAN D J. Eigenfaces vs. fisherfaces: Recognition using class specific linear projection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1997, 19(7): 711-720.
[12] ZHUANG X S and DAI D Q. Inverse Fisher discriminate criteria for small sample size problem and its application to face recognition[J]. Pattern recognition, 2005, 38(11): 2192-2194.
[13] Qirong Zhang, Zhongshi He. The Two-dimensional Bidirectional Inverse Laplacian Margin Maximum Criterion for Face Recognition[J]. Journal of Computational Information Systems, 2010, 6(4): 1101-1109
[14] Qirong Zhang, Zhongshi He. Dual-tree Quaternion Wavelets for Face Recognition [J]. Journal of Computational Information Systems, 2010, 6(4): 1151-1160
[15] Qirong Zhang, Zhongshi He. Two-dimensional locality discriminant preserving projections for face recognition[J]. Advanced Materials Research, 2010, 121-122: 391-398.
[16] Qirong Zhang, Jianan Gu, Mingfu Zhang. Inverse constrained maximum variance mapping for face recognition[J]. Applied Mechanics and Materials, 2014, 462-463: 452-457
[17] Qirong Zhang. Two-dimensional Parameter Principal Component Analysis for Face Recognition[J]. Advanced Materials Research, 2014, 971-973: 1838-1842
[18] Zhang Q R, Zhang J Y, Wang Y. The improved relative entropy for face recognition [J]. MATEC Web of Conferences, 2016, 63: 04006.
[19] CHAN W L, CHOI H, BARANIUK R G. Coherent multiscale image processing using dual-tree quaternion wavelets[J]. Image Processing, IEEE Transactions on, 2008, 17(7): 1069-1082.
[20] Qirong Zhang, Zhongshi He. The Two-dimensional Combined Bidirectional Laplacian Inverse Fisher Discriminate Analysis Method for Face Recognition[J]. Journal of Information and Computational Science, 2010, 7(13): 2919-2926.
[21] liVETTER M K, KOVACEVIC J. Wavelets and subband coding[J]. Englewood Cliffs, NJ: Prentice-Hall, 1995.
[22] BULOW T, SOMMER G. A novel approach to the 2-D analytic signal[J]. presented at the CAIP, Ljubljana, Slovenia, 1999.
[23] HAM J, LEE D, SAUL L. Semisupervised alignment of manifolds[EB/OL]. 2005, 10: 120-127.
[24] PHILLIPS P J, MOON H, RIZVIR S A, et al. The FERET evaluation methodology for face recognition algorithms[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, 22(10): 1090-1104.
[25] Sim T, Baker S, Bsat M. The CMU pose, illumination, and expression database[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003: 1615-1618.