?
正交Haar變換的眉毛識(shí)別方法*
0引言
【研究意義】生物特征識(shí)別作為一項(xiàng)身份驗(yàn)證技術(shù),以其準(zhǔn)確性、安全性和實(shí)用性得到了廣泛認(rèn)可。眉毛作為人體的一部分,也同樣可以用于身份識(shí)別。它比虹膜更易于采集,同時(shí)也能保持較高的識(shí)別率。然而,現(xiàn)有的眉毛識(shí)別方法識(shí)別效率較低,有必要研究更加高效的眉毛識(shí)別方法?!厩叭搜芯窟M(jìn)展】隨著生物特征識(shí)別技術(shù)的深入研究和發(fā)展,人體的各個(gè)特征,如指紋、人臉[1]、步態(tài)[2]、耳朵[3]、掌紋[4]、結(jié)膜血管[5]、指關(guān)節(jié)[6]等,已被使用并作為一種獨(dú)立的生物特征進(jìn)行研究,而且部分特征已經(jīng)被大量應(yīng)用到現(xiàn)實(shí)生活中,如指紋和人臉。在眾多的生物特征識(shí)別技術(shù)中,虹膜識(shí)別被認(rèn)為是準(zhǔn)確性和安全性較高的一種技術(shù)。但是,要在開(kāi)放環(huán)境中對(duì)虹膜實(shí)現(xiàn)自然的采集有較大困難,因?yàn)楹缒ぬ幱谝滓苿?dòng)的物體(眼球、頭部)上,成像需使用近紅外光,并且它的尺寸相對(duì)人臉而言很小,因此還需近距離采集[7]。此外,一旦出現(xiàn)閉眼或眨眼的情況,被采集的虹膜信息其完整性將難以保證。為此,Park等[7]提出眼周生物特征識(shí)別的概念。相比于虹膜,眼周可以通過(guò)可見(jiàn)光在一個(gè)相對(duì)遠(yuǎn)的距離下實(shí)現(xiàn)自然采集,它甚至可以使用現(xiàn)有的人臉采集設(shè)備,與人臉圖像一起被采集到。眼周識(shí)別可以在人臉鼻子及以下部分被遮擋時(shí)替代人臉識(shí)別,文獻(xiàn)[7]的實(shí)驗(yàn)結(jié)果顯示正確率最高達(dá)81.60%;但是,文獻(xiàn)[7]的研究也表明當(dāng)虹膜或眼睛被遮擋時(shí),眼周識(shí)別的平均識(shí)別正確率分別會(huì)下降3.65%和15.95%,可見(jiàn),眼周識(shí)別方法對(duì)眼睛的依賴較強(qiáng);另一方面,假如將眉毛計(jì)算在眼周區(qū)域內(nèi),眼周識(shí)別的平均識(shí)別正確率將提高10.66%。因此,要減少對(duì)眼睛的依賴,單獨(dú)使用眉毛進(jìn)行身份識(shí)別是一個(gè)很好的解決方案。事實(shí)上,眉毛在人臉中的作用不亞于眼睛[8];而且Li等[9]已經(jīng)證明眉毛具有強(qiáng)可區(qū)分性,因此單獨(dú)使用眉毛進(jìn)行身份識(shí)別是可行和有效的?!颈狙芯壳腥朦c(diǎn)】眉毛識(shí)別作為一種獨(dú)立的生物特征識(shí)別技術(shù),相關(guān)的研究仍十分有限。文獻(xiàn)[9]提出一種匹配識(shí)別框架的思想,它使用快速傅里葉變換(FFT)的模板匹配方法,將匹配和識(shí)別有效聯(lián)系在一起,實(shí)現(xiàn)了一種全自動(dòng)的眉毛識(shí)別方法。但是,F(xiàn)FT的模板匹配方法匹配效率較低,導(dǎo)致整個(gè)識(shí)別效率下降,不利于實(shí)時(shí)應(yīng)用。為此,本文在匹配識(shí)別框架下,使用更加快速的正交Haar變換模板匹配算法(FOHT)[10],設(shè)計(jì)一種更加快速的眉毛識(shí)別方法。【擬解決的關(guān)鍵問(wèn)題】由于正交性的限制,F(xiàn)OHT算法僅能處理標(biāo)準(zhǔn)大小的模板,即長(zhǎng)和寬相等且為2的冪次大小的模板。因此本文提出一種簡(jiǎn)單而有效的眉毛模板尺寸標(biāo)準(zhǔn)化處理方法,即使用最大標(biāo)準(zhǔn)子模板來(lái)替代原模板。另外,F(xiàn)OHT算法的閾值設(shè)定一般需要憑經(jīng)驗(yàn)手動(dòng)進(jìn)行設(shè)置,為此我們?cè)O(shè)計(jì)一種自適應(yīng)的閾值選擇方法,以避免人為因素對(duì)識(shí)別結(jié)果的過(guò)多干擾。
1FOHT算法
1.1圖像的Haar投影值
如圖1所示,對(duì)于N=2n×2n大小的模板(n=1時(shí),圖1),每個(gè)模板均包含有N個(gè)不同的Haar小波基函數(shù),表示為
τp(0,1),τp(1,1),…,τp(2n-1,1),
?,
τp(0,2n-1),τp(1,2n-1),…,τp(2n-1,2n-1))T,
(1)
其中,
(2)
(3)
(4)
圖12×2=4大小模板的Haar小波基函數(shù)
Fig.12×2=4 Haar basis function
1.2方形和的快速計(jì)算方法
對(duì)于大小為N=2n×2n的模板,其對(duì)應(yīng)的所有Haar投影值可以由尺寸分別為2k×2k,k=0,1,…,n和2k+1×2k,k=0,1,…,n-1的兩類矩形和計(jì)算得到。這兩類矩形和統(tǒng)稱為“方形和”[10]。方形和與計(jì)算Haar投影值所使用的矩形和一一對(duì)應(yīng),因此在計(jì)算每個(gè)Haar投影值時(shí)僅需要1次減法運(yùn)算。
(5)
可見(jiàn),方形和的計(jì)算過(guò)程是一個(gè)由細(xì)到粗,逐層迭代的過(guò)程。這正好與Haar投影值的計(jì)算順序相反(圖2)。因此,使用方形和計(jì)算Haar投影值時(shí),需要預(yù)先把圖像的所有方形和計(jì)算并存儲(chǔ)起來(lái),這就使得方形和方法需要消耗較大的輔助內(nèi)存。
進(jìn)一步對(duì)于左上角坐標(biāo)位于(x,y)位置,大小為2n×2n的候選窗口,所有22n個(gè)Haar投影值可以按如下方式計(jì)算得到
(6)
其中參數(shù)k=1,2,…,n-1。
由于使用方形和計(jì)算每個(gè)Haar投影值最多只需要1次減法運(yùn)算,因此對(duì)于N=2n×2n大小的模板,要計(jì)算它的所有N個(gè)Haar投影值需要N-1=22n-1次減法運(yùn)算。而又由公式(5)可知,計(jì)算模板的所有方形和需要1+2+…+22n-1=22n-1次加法運(yùn)算。因此,對(duì)于WP×HP的待檢測(cè)圖像,它包含有(WP-2n+1)(HP-2n+1)個(gè)候選窗口,最多需要(WP-2n+1)(HP-2n+1)(22n-1)次減法運(yùn)算來(lái)計(jì)算所有候選窗口的Haar投影值。事實(shí)上,隨著候選窗口的不斷減少,Haar投影值的計(jì)算量要遠(yuǎn)小于這一估值。
圖22×2滑動(dòng)窗口內(nèi)的所有方形和及其與Haar投影值的關(guān)系示例
Fig.2Square sums of a 2×2 sliding window and their relation to Haar projection values
1.3算法分析
FOHT算法使用方形和的方法計(jì)算圖像的Haar投影值,同時(shí)采用逐層篩選的策略對(duì)候選窗口進(jìn)行篩選,因此在進(jìn)行圖像模板匹配處理時(shí),能獲得很高的效率。
(7)
其中,E(l)為下屆增量函數(shù),可推導(dǎo)出其計(jì)算公式:
E(l)=
(8)
為了計(jì)算簡(jiǎn)單省略了公式中的系數(shù)1/4n,因?yàn)樗且粋€(gè)常數(shù),并不會(huì)影響計(jì)算的結(jié)果。
假設(shè)模板大小為2n×2n,輸入大小為WP×HP的圖像;Nmaxk表示算法的最大迭代次數(shù),其值小于等于n。那么FOHT算法首先需要計(jì)算出輸入圖像的所有方形和,然后通過(guò)下屆函數(shù)flow,并利用方形和,逐層次地對(duì)每個(gè)候選窗口進(jìn)行篩選;最后對(duì)于篩選剩下的候選窗口使用全搜索的方法以選出最佳匹配窗口。FOHT算法的具體描述如下:
FOHT算法在Step 1中需要計(jì)算所有的方形和,其花費(fèi)的計(jì)算時(shí)間會(huì)較長(zhǎng)。但是由于使用了方形和的方法計(jì)算Haar投影值,它在Step 2中的計(jì)算效率會(huì)很高。此外,當(dāng)一幅輸入圖像需要匹配多個(gè)模板時(shí),F(xiàn)OHT算法的優(yōu)勢(shì)將更加明顯。因?yàn)樗鼉H需要對(duì)輸入圖像進(jìn)行一次Step 1處理,并進(jìn)行多次匹配,這使得FOHT算法在Step 1中處理時(shí)間較長(zhǎng)的缺陷被彌補(bǔ),這已在文獻(xiàn)[11]得到證明。
2正交Haar變換的眉毛識(shí)別方法
在匹配識(shí)別框架[9]下,使用FOHT算法替代FFT算法,將有利于提高眉毛識(shí)別方法的效率。但是FOHT算法只能處理標(biāo)準(zhǔn)尺寸的模板,即模板尺寸必須為2n×2n大小。然而實(shí)際中的眉毛模板均是任意大小的尺寸,所以在眉毛識(shí)別中使用FOHT算法,首先需要對(duì)眉毛模板進(jìn)行標(biāo)準(zhǔn)化處理。此外,從FOHT算法的描述中可以看出,在算法Step 2進(jìn)行候選窗口篩選時(shí),總需要預(yù)先設(shè)定一個(gè)篩選閾值threshold,而在眉毛識(shí)別中這個(gè)閾值一般沒(méi)辦法預(yù)先設(shè)定的,因此也需要建立一種自適應(yīng)的閾值設(shè)定方法。
2.1最大標(biāo)準(zhǔn)子模板的選取
為了適應(yīng)FOHT算法,我們對(duì)眉毛模板進(jìn)行簡(jiǎn)單處理,即從眉毛模板圖像中截取出一個(gè)最大的,且具有足夠大可區(qū)分度的標(biāo)準(zhǔn)子模板,稱之為最大標(biāo)準(zhǔn)子模板,然后用它替代原模板進(jìn)行匹配和識(shí)別處理。假設(shè)原模板t,其大小為WT×HT。通過(guò)以下步驟可以截取出t的最大標(biāo)準(zhǔn)子模板t′,即
Step 1取k值,使得2k+1>WT以及2k+1>HT,且2k≤WT以及2k≤HT;
Step 2重復(fù)計(jì)算rect=randSelect(t,k);
直至 std(rect)>ξ;
Step 3令t′=rect。
可以看出,Step 1實(shí)際上是要確定模板t的最大標(biāo)準(zhǔn)子模板尺寸;Step 2中的函數(shù)randSelect(t,k)表示從t中隨機(jī)選取一個(gè)2k×2k大小的區(qū)域rect。為了使得所選取的最大標(biāo)準(zhǔn)子模板具有較大的可區(qū)分度,算法使用圖像的標(biāo)準(zhǔn)差對(duì)隨機(jī)選擇的區(qū)域進(jìn)行篩選,即函數(shù)std(rect),表示計(jì)算得到rect的標(biāo)準(zhǔn)差。當(dāng)std(rect)大于某個(gè)設(shè)定的閾值ξ時(shí),則認(rèn)為已經(jīng)找到了所需要的最大標(biāo)準(zhǔn)子模板。實(shí)驗(yàn)中都取ξ=45,截取的結(jié)果如圖2所示。
2.2閾值自適應(yīng)設(shè)置
FOHT算法在篩選候選窗口時(shí),面臨著篩選閾值threshold的設(shè)定問(wèn)題。如果使用文獻(xiàn)[9]的方法設(shè)定篩選閾值,則要求事先知道模板的最佳匹配位置,而在實(shí)際應(yīng)用中無(wú)法事先知道每個(gè)眉毛模板在輸入圖像中的最佳匹配位置,因此該方法并不適用于眉毛識(shí)別。為此,我們?cè)O(shè)計(jì)了一種自適應(yīng)的閾值計(jì)算方法,即
2.3眉毛識(shí)別
在匹配識(shí)別框架[8]下,應(yīng)用FOHT算法,得到如圖3所示的正交Haar變換眉毛識(shí)別方法。如前述討論,該識(shí)別方法首先需要截取眉毛模板的最大標(biāo)準(zhǔn)子模板,并以此來(lái)替代原模板;然后直接使用FOHT算法分別匹配得到模板的最佳匹配子區(qū)域;最后通過(guò)判別距離d計(jì)算出識(shí)別結(jié)果。在圖3中,判別距離d使用文獻(xiàn)[8]的傅里葉頻譜距離作為度量方法。此外,這種正交Haar變換眉毛識(shí)別方法還用到了2.2節(jié)討論的閾值自適應(yīng)算法,這使得識(shí)別結(jié)果更加客觀和可信。
圖3正交Haar變換的眉毛識(shí)別方法
Fig.3Orthogonal Haar transform eyebrow recognition method
3仿真實(shí)驗(yàn)及結(jié)果分析
實(shí)驗(yàn)在BJUTED眉毛數(shù)據(jù)庫(kù)[10]上進(jìn)行,它包含有109人的1118幅自然條件下采集的原始眉毛圖像。這些圖像大小均是768×576,以眉毛為中心的24位RGB彩色圖像,且每人至少對(duì)應(yīng)10幅圖像。其中,有一半是睜眼狀態(tài)下采集獲得的圖像,另一半是閉眼狀態(tài)下采集獲得的圖像。
為建立眉毛模板庫(kù),從BJUTED眉毛數(shù)據(jù)庫(kù)中為每人抽取一幅閉眼原始眉毛圖像,并使用手動(dòng)方式圈選出每幅圖像的純眉毛區(qū)域作為模板,這樣便構(gòu)成了包含109幅純眉毛區(qū)域圖像的模板庫(kù)。這些圈選的模板平均大小約為437×166,如圖4所示。然后,從BJUTED眉毛數(shù)據(jù)庫(kù)中,為每人隨機(jī)選取一幅睜眼原始眉毛圖像,從而構(gòu)成包含109幅圖像的測(cè)試集,實(shí)驗(yàn)的所有代碼均在Windows7環(huán)境下經(jīng)VS2010編譯完成,并在一臺(tái)擁有i5-2400 CPU和4GB內(nèi)存的Dell PC運(yùn)行。
圖4眉毛區(qū)域模板庫(kù)示例
Fig.4Examples of pure eyebrow region images
從圖5看,正交Haar變換眉毛識(shí)別方法(圖5中用FOHT表示)效率最高,平均每幅圖像的識(shí)別速度約為0.5 s。相比之下,文獻(xiàn)[8]的眉毛識(shí)別方法(圖5中用FFT表示)效率較慢,約0.74 s處理完成一幅圖像??梢?jiàn),將FOHT算法應(yīng)用到眉毛識(shí)別中,能提高眉毛識(shí)別的效率。然而,從圖5的實(shí)驗(yàn)結(jié)果也發(fā)現(xiàn),正交Haar變換眉毛識(shí)別方法的正確率有所下降,只有85.32%,109幅圖像識(shí)別正確了93幅。而文獻(xiàn)[8]的眉毛識(shí)別方法識(shí)別正確率達(dá)99.08%。分析可知,由于在正交Haar變換眉毛識(shí)別方法中,眉毛模板采用最大標(biāo)準(zhǔn)子模板替代原模板。這使得截取得到的最大標(biāo)準(zhǔn)子模板尺寸較小,其中在109幅模板圖像中,尺寸為32×32的子模板有1個(gè),256×256的子模板有6個(gè),64×64的子模板有21個(gè),128×128的子模板有81個(gè)。它們?cè)谠0逯械恼急茸畹蜑?.24%,最高為68.28%。差距相對(duì)較大,因此導(dǎo)致最終識(shí)別正確率比較低。另外,文獻(xiàn)[8]的眉毛識(shí)別方法能取得更高識(shí)別正確率,是因?yàn)锽JUTED眉毛數(shù)據(jù)庫(kù)中采集到的圖像變化較小,所以使用FFT匹配方法能取得更高的匹配準(zhǔn)確性。而當(dāng)采集的圖像變換較大時(shí),F(xiàn)FT算法的匹配準(zhǔn)確性必然會(huì)下降,而FOHT算法是否能取得更高的匹配準(zhǔn)確性,還需進(jìn)一步研究。
圖5實(shí)驗(yàn)結(jié)果
Fig.5Experimental results
4結(jié)束語(yǔ)
本文利用FOHT算法在匹配識(shí)別框架下設(shè)計(jì)了一種更快速的正交Haar變換眉毛識(shí)別方法。該方法首先對(duì)不規(guī)則模板選取出其最大標(biāo)準(zhǔn)子模板,然后利用FOHT算法匹配出各個(gè)模板的最佳匹配子區(qū)域,最后使用這些最佳匹配子區(qū)域與原模板一起進(jìn)行判別計(jì)算,以取得最終的識(shí)別結(jié)果。從BJUTED眉毛數(shù)據(jù)庫(kù)中的實(shí)驗(yàn)得知,本文提出的正交Haar變換眉毛識(shí)別方法效率得到了很大的提升,但是其識(shí)別正確率有所下降。這主要是受到最大標(biāo)準(zhǔn)子模板選取方法的限制所導(dǎo)致的。如何進(jìn)一步提高這種正交Haar變換眉毛識(shí)別方法的識(shí)別正確率,將是下一步的研究方向。例如可以采用直接處理非標(biāo)準(zhǔn)模板的快速匹配方法,或者采用多個(gè)子模板同時(shí)匹配的策略等。此外,如何在采集圖像發(fā)生較大變化時(shí)仍保持較高的識(shí)別正確率和效率,也還有待進(jìn)一步研究。
參考文獻(xiàn):
[1]陳中勝,李春貴,蔣凱.基于分布估計(jì)算法的人臉Haar特征選擇[J].廣西科技大學(xué)學(xué)報(bào),2015(2):47-52.
CHEN Z S,LI C G,JIANG K.Haar feature selection of face detection based on estimation of distribution algorithm[J].Journal of Guangxi University of Science and Technology,2015(2):47-52.
[2]HAYFRON-ACQUAH J B,NIXON M S,CARTER J N.Automatic gait recognition by symmetry analysis[C]//BIGVN J,SMERALDI F,eds.Proceedings of the 3th International Conference on Audio and Video-Based Biometric Person Authentication (AVBPA).Berlin:Springer,2001:272-277.
[3]CHEN H,BHANU B.Human ear recognition in 3D
[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,29(4):718-737.
[4]DAI J F,ZHOU J.Multifeature-based high-resolution palmprint recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(5):945-957.
[5]DERAKHSHANI R,ROSS A.A texture-based neural network classifier for biometric identification using ocular surface vasculature[C]//Proceedings of International Joint Conference on Neural Networks (IJCNN2007).[S.l.]:IEEE,2007:2982-2987.
[6]KUMAR A,ZHOU Y.Human identification using kn-
ucklecodes[C]//Proccedings of the IEEE Third International Conference on Biometrics:Theory,Applications and Systems (BTAS).[S.l.]:IEEE,2009:147-152.
[7]PARK U,JILLELA R R,ROSS A,et al.Periocular biometrics in the visible spectrum[J].IEEE Transactions on Information Forensics and Security,2011,6(1):96-106.
[8]PAWAN S,BENJAMIN B,YURI O,et al.Face recognition by humans:Nineteen results all computer vision researchers should know about[J].Proceedings of the IEEE,2006,94(11):1948-1962.
[9]LI Y J,LI H J,CAI Z.Human eyebrow recognition in the matching-recognizing framework[J].Computer Vision and Image Understanding,2013,117(2):170-181.
[10]LI Y J,LI H J,CAI Z.Fast orthogonal haar transform pattern matching via image square sum[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2014,36(9):1748-1760.
[11]LI Y,LI H.The BJUT Eyebrow Database[DB/OL].[2015-05-11].http://mpccl.bjut.edu.cn/EyebrowRecognition/BJUTEyebrowDatabase/BJUTED.html.
(責(zé)任編輯:尹闖)
(責(zé)任編輯:米慧芝)
(上接第35頁(yè)Continue from page 35)
[9]段凡丁.關(guān)于最短路徑的SPFA快速算法[J].西南交通大學(xué)學(xué)報(bào),1994,29(2):207-211.
DUAN F D.The SPFA fast algorithm of shortest path[J].Journal of Southwest Jiaotong University,1994,29(2):207-211.
[10]溫菊屏,鐘勇.圖聚類的算法及其在社會(huì)關(guān)系網(wǎng)絡(luò)中的應(yīng)用[J].計(jì)算機(jī)應(yīng)用與軟件,2012,29(2):161-163.
WEN J P,ZHONG Y.Graph clustering algorithm and its application in social network[J].Computer Applications and Software,2012,29(2):161-163.
[11]程遠(yuǎn).網(wǎng)絡(luò)最短路徑的一種更新策略[J].計(jì)算機(jī)應(yīng)用與軟件,2013,30(1):172-175.
CHENG Y.An update strategy for shortest path of graph net[J].Computer Applications and Software,2013,30(1):172-175.
[12]趙慧娟,湯兵勇,張?jiān)?基于動(dòng)態(tài)規(guī)劃法的物流配送路徑的隨機(jī)選擇[J].計(jì)算機(jī)應(yīng)用與軟件,2013,30(4):110-113.
ZHAO H J,TANG B Y,ZHANG Y.Random selection of logistics distribution route based on dynamic programming[J].Computer Applications and Software,2013,30(4):110-113.
[13]符光梅,王紅.基于節(jié)點(diǎn)可達(dá)度的公交多路徑搜索算法[J].計(jì)算機(jī)應(yīng)用研究,2012,29(12):4492-4494.
FU G M,WANG H.Multi-path search algorithm in public transportation based on node accessibility[J].Application Research of Computers,2012,29(12):4492-4494.
[14]HSIEH M H,MAGEE C L.A new method for finding hierarchical sub-groups from networks[J].Social Networks,2011,32(3):234-244.
[15]裴立秋.公交網(wǎng)絡(luò)最優(yōu)出行路徑模型與算法研究[J].吉林建筑工程學(xué)院學(xué)報(bào),2012,29(4):95-98.
PEI L Q.Network optimal path model and algorithm research[J].Journal of Jilin Institute of Architecture & Civil Engineering,2012,29(4):95-98.
Orthogonal Haar Transform for Eyebrow Recognition
李厚君,王日鳳,李春貴
LI Houjun,WANG Rifeng,LI Chungui
(廣西科技大學(xué)計(jì)算機(jī)科學(xué)與通信工程學(xué)院,廣西柳州545006)
(School of Computer Science and Communication Engineering,Guangxi University of Science and Technology,Liuzhou,Guangxi,545006,China)
摘要:【目的】提高現(xiàn)有眉毛識(shí)別方法的識(shí)別效率?!痉椒ā坎捎每焖僬籋aar變換模板匹配算法(FOHT),設(shè)計(jì)一種基于正交Haar變換的眉毛識(shí)別方法;同時(shí),使用最大標(biāo)準(zhǔn)子模板和自適應(yīng)閾值解決了FOHT算法只能處理標(biāo)準(zhǔn)模板且需要手動(dòng)設(shè)置閾值的缺陷?!窘Y(jié)果】所構(gòu)建的眉毛識(shí)別方法比原方法效率提高約32%。【結(jié)論】正交Haar變換的眉毛識(shí)別方法實(shí)時(shí)性強(qiáng),具有一定的實(shí)用價(jià)值。
關(guān)鍵詞:眉毛識(shí)別正交Haar變換模板匹配最大標(biāo)準(zhǔn)子模板自適應(yīng)閾值
Abstract:【Objective】To improve the efficiency of current method on the eyebrow recognition.【Methods】Orthogonal Haar Transform Eyebrow Recognition method was established by using fast orthogonal Haar Transform template matching algorithm (FOHT).The approaches of maximum standard template and adaptive threshold were used to solve the problems of FOHT,which could only process the situation of standard template and need to set the threshold manually.These methods increased the automatic degree of eyebrow recognition,and improved the recognition efficiency.【Results】Experimental results showed that the recognition efficiency of the proposed method increased about 32% than that of the original method.【Conclusion】The orthogonal Haar transform eyebrow recognition method shows better real-time performance and is practically valuable for the promotion and application of eyebrow recognition.
Key words:eyebrow recognition,orthogonal Haar transform,template matching,maximum standard template,adaptive threshold
中圖分類號(hào):TP181
文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):1002-7378(2016)01-0036-06
作者簡(jiǎn)介:李厚君(1985-),男,博士,講師,主要從事模式識(shí)別和機(jī)器學(xué)習(xí)方面的研究。
收稿日期:2015-12-10
網(wǎng)絡(luò)優(yōu)先數(shù)字出版時(shí)間:2016-01-27
網(wǎng)絡(luò)優(yōu)先數(shù)字出版地址:http://www.cnki.net/kcms/detail/45.1075.N.20160127.1616.012.html
*國(guó)家自然科學(xué)基金項(xiàng)目(61440017),廣西科技大學(xué)博士基金項(xiàng)目(院科博11z13)和廣西多源信息挖掘與安全重點(diǎn)實(shí)驗(yàn)室開(kāi)放基金項(xiàng)目(MIMS13-04)資助。