林 森, 王 媛
(1. 沈陽(yáng)理工大學(xué) 自動(dòng)化與電氣工程學(xué)院,遼寧 沈陽(yáng) 110159;2. 遼寧工程技術(shù)大學(xué) 電子與信息工程學(xué)院,遼寧 葫蘆島 125105)
隨著社會(huì)信息化程度的不斷發(fā)展,信息安全對(duì)人類生活的影響愈發(fā)深入,如何準(zhǔn)確識(shí)別一個(gè)人的身份,已成為模式識(shí)別領(lǐng)域的關(guān)注焦點(diǎn)。指關(guān)節(jié)紋識(shí)別是一種比較新穎的身份認(rèn)證方式。與人臉識(shí)別[1-2]相比,指關(guān)節(jié)紋識(shí)別不受表情變化[3]等外部因素影響,其特征穩(wěn)定性強(qiáng);與指紋識(shí)別[4]相比,采集指關(guān)節(jié)紋特征的環(huán)境具有非侵犯性;與掌紋識(shí)別[5]相比,指關(guān)節(jié)紋接觸剛性物體少且特征不易被磨損;與指靜脈識(shí)別[6]相比,指關(guān)節(jié)紋的采集設(shè)備更簡(jiǎn)易。因此,指關(guān)節(jié)紋逐漸成為生物特征識(shí)別技術(shù)研究中的前沿?zé)狳c(diǎn),具有廣闊的發(fā)展空間[7]。
目前,基于指關(guān)節(jié)紋圖像的身份識(shí)別方法一般分為以下幾類:
(1)基于結(jié)構(gòu)特征的方法。這種方法提取指關(guān)節(jié)紋的空間結(jié)構(gòu)特征進(jìn)行匹配識(shí)別。如文獻(xiàn)[8]利用細(xì)節(jié)點(diǎn)特征對(duì)指關(guān)節(jié)紋圖像進(jìn)行恢復(fù)和匹配,有效地利用細(xì)節(jié)質(zhì)量來(lái)提高指關(guān)節(jié)模式匹配的性能,但點(diǎn)特征數(shù)量較多,導(dǎo)致算法復(fù)雜度上升,線特征提取復(fù)雜,識(shí)別能力有限。
(2)基于子空間學(xué)習(xí)的方法。這種方法將指關(guān)節(jié)紋圖像通過(guò)投影或變換,轉(zhuǎn)化為低維向量或矩陣,并對(duì)指關(guān)節(jié)紋進(jìn)行匹配識(shí)別。如文獻(xiàn)[9]利用復(fù)數(shù)局部保持投影(Complex Locality Preserving Projections, CLPP)來(lái)提取指關(guān)節(jié)紋圖像的低維特征,并利用正交復(fù)局部保持投影(Orthogonal Complex Locality Preserving Projections, OCLPP)的方法消除特征之間的冗余信息,但該方法受光照、噪聲等外部信息影響較大,應(yīng)用范圍相對(duì)有限。
(3)基于深度學(xué)習(xí)的方法。這種方法用指關(guān)節(jié)紋圖片訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模型,并對(duì)圖像進(jìn)行分類、匹配。如文獻(xiàn)[10]通過(guò)主成分分析網(wǎng)絡(luò)(PCANet)提取指關(guān)節(jié)紋特征,采用線性多類支持向量機(jī)方法進(jìn)行分類,建立分?jǐn)?shù)級(jí)融合的多模態(tài)生物識(shí)別系統(tǒng),該方法可取得較好分類效果,但目前指關(guān)節(jié)紋樣本量較小,難以支撐卷積神經(jīng)網(wǎng)絡(luò)從參數(shù)隨機(jī)初始化開(kāi)始訓(xùn)練。
(4)基于紋理特征的方法。這種方法通過(guò)提取指關(guān)節(jié)紋的紋理特征參數(shù)對(duì)指關(guān)節(jié)紋進(jìn)行分析。如文獻(xiàn)[11]將Log-Gabor濾波器應(yīng)用于不同的灰度圖像,以此來(lái)減小特征向量的維數(shù)達(dá)到縮短計(jì)算時(shí)間的效果。紋理分析方法可以較好地描述指關(guān)節(jié)紋特征,符合指關(guān)節(jié)紋識(shí)別特性。因此,基于紋理特征的方法適用于指關(guān)節(jié)紋的識(shí)別。
綜上分析,本文利用指關(guān)節(jié)紋紋理信息豐富的特點(diǎn),提出一種基于改進(jìn)Gabor-Tetrolet的指關(guān)節(jié)紋特征提取方法,利用某點(diǎn)鄰域內(nèi)的融合幅值特征代表該中心像素點(diǎn)的幅值特征,增強(qiáng)像素點(diǎn)之間的關(guān)聯(lián)性。綜合運(yùn)用具有方向選擇性的Gabor小波濾波器和能夠較好表達(dá)圖像高維紋理特征的Tetrolet變換算法,獲取圖像的最優(yōu)稀疏表示。根據(jù)指關(guān)節(jié)紋圖像的互功率譜計(jì)算識(shí)別準(zhǔn)確率。結(jié)果顯示,所提方法準(zhǔn)確性和魯棒性較好,在指關(guān)節(jié)紋識(shí)別領(lǐng)域具有優(yōu)勢(shì)。
指關(guān)節(jié)紋紋理的方向特征明顯,而Gabor小波變換能夠很好地提取圖像的局部空間信息,并且符合人類的視覺(jué)特性,故選取Gabor小波變換提取指關(guān)節(jié)紋的局部細(xì)微變化[12]。輸入指關(guān)節(jié)紋圖像,與Gabor核函數(shù)做卷積運(yùn)算:
Fu,v(z)=I(z)*Gu,v(z),
(1)
其中:z為指關(guān)節(jié)紋圖像的像素點(diǎn)坐標(biāo),F(xiàn)u,v(z)為所得特征圖像,u、v分別代表Gabor核的方向和尺度,Gu,v(z)為二維Gabor小波核函數(shù)[13],如式(2)所示:
(2)
Gabor核函數(shù)的實(shí)部與虛部響應(yīng)表達(dá)式如式(3)、(4)所示:
(3)
(4)
(5)
其中:Re(Fu,v(z))為Gabor特征Fu,v(z)的實(shí)部,Im(Fu,v(z))為Fu,v(z)的虛部。
傳統(tǒng)的Gabor小波變換在獲取像素點(diǎn)的幅值特征時(shí),忽略了像素點(diǎn)之間的關(guān)聯(lián)性,導(dǎo)致每個(gè)像素點(diǎn)的幅值特征相互獨(dú)立,不能較好地提取指關(guān)節(jié)紋的圖像特征。作為一種改進(jìn)的Gabor小波變換,本文提出融合每個(gè)點(diǎn)的鄰域像素作為該點(diǎn)的幅值特征,構(gòu)成相互之間具有緊密關(guān)聯(lián)性的新幅值特征。像素點(diǎn)z0及其3×3鄰域內(nèi)像素分布如圖1所示。
圖1 z0鄰域像素點(diǎn)分布Fig.1 Neighborhood distribution of pixels z0
首先計(jì)算像素點(diǎn)z0周圍3×3鄰域內(nèi)幅值特征的均值,并求取鄰域內(nèi)8個(gè)像素點(diǎn)的均值;其次,將求得的均值特征與z0的幅值特征相加取平均,作為z0最終的幅值特征,計(jì)算公式如下:
(6)
計(jì)算經(jīng)融合像素點(diǎn)變換后的某點(diǎn)特征值時(shí),為直觀顯示計(jì)算結(jié)果,假設(shè)任一點(diǎn)z0及其周圍鄰域像素點(diǎn)經(jīng)原始Gabor小波變換后的幅值特征分布如圖2(a)所示。由式(6)計(jì)算出z0的幅值特征為1.187 5,變換后的z0點(diǎn)幅值特征如圖2(b)所示。經(jīng)過(guò)融合像素點(diǎn)變換后,得到包含周圍鄰域像素點(diǎn)信息的幅值特征,增強(qiáng)了該點(diǎn)與周圍鄰域像素點(diǎn)的關(guān)聯(lián)性,便于經(jīng)過(guò)下一步的Tetrolet稀疏變換。
圖2 像素點(diǎn)特征值。(a)變化前的特征值分布;(b)變化后的特征值分布。Fig.2 Pixel eigenvalue. (a) Distribution of eigenvalues before change; (b) Distribution of eigenvalues after change.
Tetrolet變換是一種新的自適應(yīng)Haar小波變換,對(duì)指關(guān)節(jié)紋的高維特征有較好的稀疏表示效果[14]。該變換將指關(guān)節(jié)紋圖像分塊,并對(duì)每個(gè)圖像塊進(jìn)行拼版劃分。通過(guò)對(duì)劃分好的區(qū)域進(jìn)行Haar小波變換獲取圖像的稀疏表示。具體變換步驟如下:
Step1:將輸入的指關(guān)節(jié)紋圖像分解成N個(gè)4×4大小的圖像塊Qi,j,i,j=0,...,N/4J-1,J∈Z。
(7)
(8)
Step3:根據(jù)式(9)選出最佳排列方式:
(9)
其中:c*為最佳排列方式,argmin為取最小值操作。每個(gè)圖像塊Qi,j中具有最佳排列方式的子帶為:
(10)
(11)
(12)
Step5:存儲(chǔ)重排后的低通子帶和高通子帶,并進(jìn)行下一級(jí)變換。分解結(jié)束后,得到原圖像的最優(yōu)稀疏表示圖像。
匹配時(shí),采用計(jì)算量少、識(shí)別精度高的帶限相位相關(guān)算法進(jìn)行圖像特征之間相似性的度量[15],設(shè)兩個(gè)指關(guān)節(jié)紋圖像c(m,n)和d(m,n),大小為M×N,C(u,v)和D(u,v)表示兩幅圖像的2D DFT:
(13)
(14)
其中:m=-M0,...,M0,n=-N0,...,N0(M0、N0>0),M=2M0+1,N=2N0+1,u=-M0,...,M0,v=-N0,...,N0,AC(u,v)和AD(u,v)是振幅分量,φC(u,v)和φD(u,v)是相位分量,D(u,v)和C(u,v)之間的交叉相位光譜RDC(u,v)為:
(15)
設(shè)指關(guān)節(jié)紋紋理的固有頻帶范圍是u=-U0,...,U0和v=-V0,...,V0,其中0≤U0≤M0,0≤V0≤N0。因此,有效光譜尺寸為L(zhǎng)1=2U0+1和L2=2V0+1。BLPOC函數(shù)為:
(16)
其中:m=-U0,...,U0和n=-V0,...,V0。利用指關(guān)節(jié)紋圖像的帶限相位相關(guān)函數(shù)互功率譜作為相似性的度量。
本文提出基于融合像素點(diǎn)信息的改進(jìn)型Gabor-Tetrolet指關(guān)節(jié)紋識(shí)別方法。首先,將指關(guān)節(jié)紋圖像與融合像素點(diǎn)的5尺度8方向Gabor小波濾波器進(jìn)行卷積運(yùn)算,得到包含鄰域像素點(diǎn)信息的幅值特征,該幅值特征與周圍像素點(diǎn)具有關(guān)聯(lián)性,提升了特征提取的準(zhǔn)確性;其次,將所得的多特征經(jīng)Tetrolet變換獲取具有高稀疏性的特征圖像;最后根據(jù)帶限相位相關(guān)算法處理之后的互功率譜圖像進(jìn)行識(shí)別率的計(jì)算。識(shí)別流程圖如圖3所示。
圖3 改進(jìn)型Gabor-Tetrolet指關(guān)節(jié)紋識(shí)別流程圖Fig.3 Flow chart of improved Gador-Tetrolet finger-knuckle-print recognition
改進(jìn)的Gabor-Tetrolet特征提取算法偽代碼為:
1 第一個(gè)像素點(diǎn)z0的坐標(biāo);
2 fori←1 tom×n;
3Fu,v(z)←I(z)*Gu,v(z);
5 forj←1 to 8;
7 end for;//計(jì)算每個(gè)像素點(diǎn)的幅值特征
8 forJ←1 to 2;
12 end for;//存儲(chǔ)2層Tetrolet變換后的低 通圖像特征。
實(shí)驗(yàn)評(píng)價(jià)指標(biāo)為識(shí)別率、識(shí)別時(shí)間及等誤率。識(shí)別率計(jì)算公式如下:
(17)
其中:WCRR代表識(shí)別率,VC為正確識(shí)別的樣本個(gè)數(shù),VS為被測(cè)試樣本總數(shù)。WCRR值越大表明所求識(shí)別率越高,識(shí)別效果越好;反之,方法的性能較差。WFRR為錯(cuò)誤拒絕率,WFAR為錯(cuò)誤接受率,等誤率(Equal error rate, EER)為WFRR與WFAR的交點(diǎn),根據(jù)交點(diǎn)設(shè)定閾值,當(dāng)兩幅圖像之間的距離小于該閾值時(shí)判定為匹配。WEER的值越小代表方法性能越好。WFRR和WFAR的計(jì)算公式為:
(18)
(19)
其中:VNFR為錯(cuò)誤拒絕次數(shù),VNEA為類內(nèi)測(cè)試總次數(shù),VNFA為錯(cuò)誤接受次數(shù),VNIA為類間測(cè)試總次數(shù)。
實(shí)驗(yàn)環(huán)境:CPU為Intel(R)Core(TM)i5-7300HQ CPU @2.50 GHz;內(nèi)存為12.00 GB;Windows10,64位操作系統(tǒng)。實(shí)驗(yàn)采用標(biāo)準(zhǔn)指關(guān)節(jié)紋數(shù)據(jù)集包括香港理工大學(xué)接觸式(PolyU-FK)[16]、非接觸式圖庫(kù)(PolyU-CFK)[17],印度理工學(xué)院圖庫(kù)(IITD)[18]及3個(gè)噪聲圖庫(kù)作樣本,圖庫(kù)示例如圖4、5、6所示。
圖4 PolyU-FK及其噪聲圖庫(kù)Fig.4 PolyU-FK and noise database
圖5 IITD及其噪聲圖庫(kù)Fig.5 IITD and noise database
圖6 PolyU-CFK及其噪聲圖庫(kù)Fig.6 PolyU-CFK and noise database
4.2.1 香港理工大學(xué)接觸式圖庫(kù)實(shí)驗(yàn)
在PolyU-FK圖庫(kù)中選取前100個(gè)志愿者,每人6張指關(guān)節(jié)紋圖像,圖像噪聲選用高斯噪聲,以測(cè)試方法的抗噪性能。獲取等誤率的實(shí)驗(yàn)中進(jìn)行類內(nèi)匹配3 000次,類間匹配359 400次,所得類內(nèi)類間匹配曲線及受試者工作特征曲線(Receiver Operating Characteristic, ROC)如圖7、8所示。觀察類內(nèi)類間匹配曲線可以看出,該方法可較好區(qū)分類內(nèi)類間距離,在原圖庫(kù)及噪聲圖庫(kù)所得EER分別為1.8236%和5.0621%。
圖7 PolyU-FK及噪聲圖庫(kù)的匹配曲線Fig.7 Matching curves of PolyU-FK and noise database
圖8 PolyU-FK及噪聲圖庫(kù)的ROC曲線Fig.8 ROC curves of PolyU-FK and noise database
為檢驗(yàn)所提算法的有效性,與其他方法進(jìn)行對(duì)比,識(shí)別率、識(shí)別時(shí)間對(duì)比如表1、2所示。
表1 識(shí)別率與識(shí)別時(shí)間(PolyU-FK原圖庫(kù))
表2 識(shí)別率與識(shí)別時(shí)間(PolyU-FK噪聲圖庫(kù))
其中表1為在PolyU-FK原圖庫(kù)中的結(jié)果對(duì)比,表2為在PolyU-FK噪聲圖庫(kù)中的結(jié)果對(duì)比。對(duì)比方法包括Gabor+線性判別分析法(Gabor+Linear Discriminant Analysis, Gabor+LDA)、主成分分析法(Principal Component Analysis, PCA)、二維主成分分析法(Two-Dimensional Principal Component Analysis, 2DPCA)、基于NSST和Tetrolet的能量曲面方法(NSST and Tetrolet Energy Surface, NTES)、Gabor-局部二值模式(Gabor-Local Binary Patterns, Gabor-LBP)、基于VGG19、ResNet50網(wǎng)絡(luò)模型的方法。
4.2.2 印度理工學(xué)院圖庫(kù)實(shí)驗(yàn)
IITD指關(guān)節(jié)紋圖庫(kù)包含158個(gè)人,每人5張指關(guān)節(jié)紋圖像,實(shí)驗(yàn)共進(jìn)行類內(nèi)匹配3 160次,類間匹配623 310次,所得類內(nèi)類間匹配曲線及ROC曲線如圖9、10所示。
圖9 IITD及噪聲圖庫(kù)的匹配曲線Fig.9 Matching curves of IITD and noise database
圖10 IITD及噪聲圖庫(kù)的ROC曲線Fig.10 ROC curves of IITD and noise database
觀察匹配曲線可以看出該方法有效區(qū)分類內(nèi)類間距離,在原圖庫(kù)及噪聲圖庫(kù)求得EER分別為1.4601%和3.5731%。
表3、表4為與其他方法在IITD圖庫(kù)及其噪聲圖庫(kù)上的正確識(shí)別率及識(shí)別時(shí)間。
表3 識(shí)別率與識(shí)別時(shí)間(IITD原圖庫(kù))
表4 識(shí)別率與識(shí)別時(shí)間(IITD噪聲圖庫(kù))
4.2.3 香港理工大學(xué)非接觸式圖庫(kù)實(shí)驗(yàn)
在PolyU-CFK指關(guān)節(jié)紋圖庫(kù)中進(jìn)行類內(nèi)匹配2 000次,類間匹配249 500次,所得類內(nèi)類間匹配曲線及ROC曲線如圖11、12所示。
圖11 PolyU-CFK及噪聲圖庫(kù)的匹配曲線Fig.11 Matching curves of PolyU-CFK and noise database
圖12 PolyU-CFK及噪聲圖庫(kù)的ROC曲線Fig.12 ROC curves of PolyU-CFK and noise database
實(shí)驗(yàn)表明,在原圖庫(kù)及噪聲圖庫(kù)所得EER分別為2.4169%和7.3124%。該方法與其他方法在PolyU-CFK原圖庫(kù)和噪聲圖庫(kù)中的正確識(shí)別率及識(shí)別時(shí)間如表5、表6所示。
表5 識(shí)別率與識(shí)別時(shí)間(PolyU-CFK原圖庫(kù))
表6 識(shí)別率與識(shí)別時(shí)間(PolyU-CFK噪聲圖庫(kù))
續(xù) 表
4.2.4 實(shí)驗(yàn)分析
通過(guò)以上實(shí)驗(yàn)可得,本文方法在原圖庫(kù)及噪聲圖庫(kù)中的識(shí)別率最高分別可達(dá)99.1300%和98.0327%,識(shí)別時(shí)間最短分別為0.043 2 s和0.076 8 s,等誤率最低分別為1.4601%和3.5731%,相較于其他傳統(tǒng)方法,所提方法在識(shí)別精確度方面明顯提升且識(shí)別時(shí)間較快。
其中,PCA、2DPCA等方法由于進(jìn)行降維等操作,在特征提取時(shí)占用時(shí)間較長(zhǎng);Gabor+LDA、Gabor-LBP等方法忽略了各鄰近像素之間的關(guān)聯(lián)性,導(dǎo)致識(shí)別準(zhǔn)確性不理想,而Gabor-Tetrolet變換綜合運(yùn)用具有方向選擇性的Gabor小波濾波器和Tetrolet變換算法,根據(jù)指關(guān)節(jié)紋圖像的互功率譜進(jìn)行匹配,識(shí)別效率優(yōu)于Gabor+LDA/LBP方法;NTES雖然具有最短識(shí)別時(shí)間,但在進(jìn)行圖像的去噪及稀疏處理時(shí),圖像邊緣不能夠完全被表示,因此識(shí)別率的提高相對(duì)有限;標(biāo)準(zhǔn)卷積神經(jīng)網(wǎng)絡(luò)(CNN)框架下的VGG19網(wǎng)絡(luò)結(jié)構(gòu)為5個(gè)卷積組、5個(gè)最大池化層、3個(gè)全連接層和1個(gè)soft-max層,基于VGG19、ResNet50等網(wǎng)絡(luò)的識(shí)別方法由于對(duì)指關(guān)節(jié)紋的特征提取不充分以及計(jì)算參數(shù)量較大的問(wèn)題,導(dǎo)致在分類效果方面不具優(yōu)勢(shì)。而利用融合像素點(diǎn)的方法,可以獲取更為準(zhǔn)確的指關(guān)節(jié)紋圖像特征,并將濾波后的指關(guān)節(jié)紋圖像特征經(jīng)過(guò)具有高稀疏性的Tetrolet變換以獲取圖像的最優(yōu)稀疏表示。匹配時(shí),利用帶限相位相關(guān)算法提取指關(guān)節(jié)紋圖像的相位特征,根據(jù)兩幅圖像的互功率譜峰值進(jìn)行匹配。實(shí)驗(yàn)表明,所提算法有效提高了指關(guān)節(jié)紋識(shí)別精度,減少了運(yùn)算時(shí)間,取得了較好的等誤率效果。
針對(duì)指關(guān)節(jié)紋紋理信息豐富的特點(diǎn),考慮到指關(guān)節(jié)紋結(jié)構(gòu)中紋線褶皺深淺與延伸方向不同,提出基于融合像素點(diǎn)Gabor-Tetrolet的指關(guān)節(jié)紋特征提取方法。運(yùn)用具有方向選擇性的Gabor小波濾波器和能夠較好地表達(dá)圖像高維紋理特征的Tetrolet變換算法,獲取圖像的最優(yōu)特征表示,并利用區(qū)分度較高的帶限相位相關(guān)算法計(jì)算識(shí)別準(zhǔn)確率。在PolyU-FK、PolyU-CFK、IITD圖庫(kù)得到的識(shí)別準(zhǔn)確率分別為99.1300%,98.8324%,98.7937%,最低等誤率為1.4601%,最短識(shí)別時(shí)間為0.043 2 s,識(shí)別率較其他算法有較大提升,準(zhǔn)確性較高,在指關(guān)節(jié)紋識(shí)別領(lǐng)域具有優(yōu)勢(shì)。