• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      一種基于類間類內(nèi)雙權(quán)重圖像分塊PCA的人臉識(shí)別技術(shù)

      2014-03-23 05:38:40施志剛
      關(guān)鍵詞:訓(xùn)練樣本分塊識(shí)別率

      施志剛

      (南通航運(yùn)職業(yè)技術(shù)學(xué)院管理信息系,江蘇南通226010)

      0 引 言

      近年來,主成分分析[1-5](PCA)方法被廣泛用于人臉圖像的特征提取和識(shí)別.它基于K-L變換[6]提取人臉圖像的主要成分.但是用此方法需要將二維圖像矩陣轉(zhuǎn)換成一維列向量,如果圖像分辨率高,勢必會(huì)引起特征提取計(jì)算的復(fù)雜度.并且PCA方法提取的是圖像的全局信息,圖像中的所有像素在特征提取中的作用相同,但是在人臉識(shí)別的過程中,這些圖像往往會(huì)因光照、表情以及姿態(tài)等因素表現(xiàn)出很大的差異,因此傳統(tǒng)PCA方法的識(shí)別效果并不理想.于是找出某種能減輕這些因素在提取有效鑒別特征中的影響的方法便成為提高識(shí)別性能的關(guān)鍵.

      文獻(xiàn)[7]基于傳統(tǒng)的PCA方法提出了分塊PCA算法.該方法不僅能有效地提取圖像的局部信息,改善因光照和表情不同對(duì)特征提取所帶來的干擾,還可以解決“小樣本”問題.但此方法是根據(jù)所有訓(xùn)練樣本分塊圖像的平均圖像來建立總體散布矩陣,因此在特征提取時(shí)沒有考慮到不同位置分塊圖像的特征差異.

      為進(jìn)一步提高人臉識(shí)別的正確率,本文提出一種新的方法.該法首先對(duì)訓(xùn)練樣本圖像建立同類圖像空間,根據(jù)同類訓(xùn)練樣本的平均圖像與所有訓(xùn)練樣本平均圖像的距離,定義類間圖像加權(quán)函數(shù),以增強(qiáng)不同類圖像在特征提取中的類間區(qū)分度,同時(shí)計(jì)算類內(nèi)訓(xùn)練樣本圖像與該類平均圖像的距離,定義類內(nèi)圖像加權(quán)函數(shù),將此和類間加權(quán)函數(shù)相乘,這樣每個(gè)圖像均可獲得一個(gè)權(quán)重.如果權(quán)重越小,說明此圖像在特征提取中的作用越低;然后對(duì)訓(xùn)練樣本圖像分塊,建立所有同位置加權(quán)子圖像空間;最后基于新的樣本空間對(duì)所有相同位置的子圖像分別采用PCA方法提取特征,目的可以更好消除不同位置子圖像之間的差異.

      1 PCA方法

      PCA算法基于K-L變換.在人臉識(shí)別中利用此原理可以提取人臉的主要成分,即特征臉空間,這樣任何一幅圖像都可以投影到此空間,并獲得一組系數(shù),用以人臉識(shí)別.

      令ω1,ω2,…,ωc為C個(gè)模式類,A=∈Rm×n,i=1,2,…,C,j=1,2,…,ni}為訓(xùn)練樣本集,其中:ni為第i類樣本的個(gè)數(shù),為訓(xùn)練樣本的總數(shù),表示第i個(gè)人第j幅圖像.

      總體散布矩陣可表示為

      根據(jù)總體散布矩陣St,由式λU=US求出一組正交的特征向量ut(t=1,2,…,N)及其對(duì)應(yīng)的特征值λt,將對(duì)應(yīng)的特征向量ut按非零特征值λt從大到小的順序排列.所組成的特征向量矩陣即為特征空間U,U的每一列為一個(gè)特征向量,即U=.取前t(t<N)個(gè)非零特征值所對(duì)應(yīng)的特征向量作為正交矢量,組成新的特征臉子空間,有了這樣一個(gè)降維子空間,任何一幅人臉圖像矢量都可以在此獲得一組投影系數(shù),表示為

      2 基于類間類內(nèi)雙權(quán)重圖像的分塊PCA方法

      本文方法首先對(duì)訓(xùn)練樣本圖像建立同類樣本空間,根據(jù)同類訓(xùn)練樣本的平均圖像與所有訓(xùn)練樣本平均圖像的距離以及類內(nèi)訓(xùn)練樣本圖像與該類平均圖像的距離,分別定義類間和類內(nèi)圖像加權(quán)函數(shù),將它們相乘以獲得每幅圖像的權(quán)重;然后將圖像分塊,用權(quán)重乘以各自對(duì)應(yīng)的子圖像,構(gòu)建同位置加權(quán)子圖像空間;接著基于新的樣本空間對(duì)所有相同位置的子圖像分別采用PCA方法提取特征;最后用最近鄰分類器分類,具體算法步驟如下:

      2)定義類間加權(quán)函數(shù).第i類訓(xùn)練樣本圖像的平均圖像矩陣表示為,所有訓(xùn)練樣本圖像的平均圖像矩陣表示為,第i類訓(xùn)練樣本平均圖像Ai與所有訓(xùn)練樣本平均圖像Γ的距離di用歐氏距離[8]可表示為,則第i類第j幅訓(xùn)練樣本圖像的加權(quán)函數(shù)可由式(3)定義:

      3)定義類內(nèi)加權(quán)函數(shù).

      第i類第j幅訓(xùn)練樣本圖像與該類平均圖像的距離用歐氏距離可表示為,則第i類第j幅訓(xùn)練樣本圖像相對(duì)于該類的加權(quán)函數(shù)可由式(4)定義:

      5)圖像分塊構(gòu)造加權(quán)子圖像樣本空間.

      將圖像分塊,用訓(xùn)練樣本子圖像矩陣乘以各自對(duì)應(yīng)的權(quán)重形成同位置加權(quán)子圖像樣本空間,即為=,每個(gè)訓(xùn)練樣本圖像矩陣分成p×q塊,子圖像矩陣是m1×n1矩陣,其中k∈[1,p],l∈[1,q],pm1=m,qn1=n.

      6)基于新的樣本空間分別求所有相同位置子圖像矩陣的總體散布矩陣Gt.新的訓(xùn)練樣本第kl分塊子圖像的平均圖像向量表示為,其中.則所有kl分塊子圖像矩陣的總體散布矩陣Gt(kl)表示為

      7)取總體散布矩陣Gt(kl)的前t個(gè)最大特征值所對(duì)應(yīng)的鑒別矢量u1,u2,…,ut,得到最優(yōu)投影矩陣Ukl=[u1,u2,…,ut].

      9)設(shè)待測試樣本圖像矩陣Φx,對(duì)其第kl分塊子圖像向量(ψx)kl=Vec(Φx)kl在特征空間Ukl=[u1,u2,…,ut]進(jìn)行投影,得到Φx第kl分塊子圖像的特征矩陣空間,即UT(ψx)kl=[u1,u2,…,ut]T(ψx)kl=(Yx)kl.

      10)計(jì)算所有訓(xùn)練樣本和待測試樣本第kl分塊子圖像各自特征投影的距離,表示為

      11)計(jì)算所有訓(xùn)練樣本和待測試樣本圖像在特征臉空間各自投影的距離,可表示為

      12)分類識(shí)別.

      3 實(shí)驗(yàn)結(jié)果與分析

      3.1 實(shí)驗(yàn)1

      本實(shí)驗(yàn)在ORL標(biāo)準(zhǔn)人臉庫上進(jìn)行.該人臉庫由40人、每人10幅、分辨率均為112×92的圖像組成.這些圖像拍攝于不同的時(shí)期,均有著不同程度的表情、姿態(tài)變化和細(xì)節(jié)差異等,如圖1所示就是ORL人臉庫中一個(gè)人的10幅圖像.

      本實(shí)驗(yàn)選取每人的前5幅圖像作為訓(xùn)練樣本,其余圖像作為測試樣本.圖2為對(duì)原始圖像矩陣進(jìn)行4×2和4×4分塊后分別采用本文方法得到的識(shí)別率與普通MPCA方法識(shí)別率的比較.兩種分塊方式下得到的子圖像矩陣大小分別為28×46和28×23.

      在人臉識(shí)別中,眼、鼻、嘴等部位為主要特征,按照這些特征對(duì)圖像分塊可使區(qū)分度增強(qiáng),進(jìn)而提高識(shí)別的正確率.為此本文采用4×2和4×4的分塊方式.從圖2的實(shí)驗(yàn)結(jié)果可以看出,在這兩種分塊方式下,本文方法較普通MPCA方法能在選取較少投影軸數(shù)的情況下達(dá)到較高的識(shí)別率,說明了本文方法的有效性.

      進(jìn)一步比較圖2結(jié)果,可以看出本文方法和普通MPCA方法在4×2分塊方式下的識(shí)別率均明顯高于4×4分塊.這是由于4×4分塊較4×2分塊在縱向上分塊較多,這樣會(huì)破壞人臉主要特征的完整性,從而對(duì)識(shí)別的效果產(chǎn)生干擾.因此,圖像分塊方式的不同是影響識(shí)別性能的因素之一.

      圖1 ORL人臉庫中一個(gè)人的10幅圖像Fig.1 Someone's 10images in ORL database

      圖2 ORL人臉庫實(shí)驗(yàn)結(jié)果Fig.2 Experimental data in ORL database

      圖3 Yale人臉庫中一個(gè)人的10幅圖像Fig.3 Someone's 10images in Yale database

      圖4 Yale人臉庫實(shí)驗(yàn)結(jié)果Fig.4 Experimental data in Yale database

      3.2 實(shí)驗(yàn)2

      本實(shí)驗(yàn)在Yale人臉庫上進(jìn)行.該人臉庫由15人,每人11幅、分辨率均為100×80的圖像組成.這些圖像的光照和表情變化比較大.圖3所示即為Yale人臉庫中一個(gè)人的10幅圖像.

      本實(shí)驗(yàn)同樣選取每人的前5幅圖像作為訓(xùn)練樣本,其余圖像作為測試樣本.圖4為對(duì)原始圖像矩陣進(jìn)行4×2和4×4分塊后分別采用本文方法得到的識(shí)別率與普通MPCA方法識(shí)別率的比較.兩種分塊方式下得到的子圖像矩陣大小分別為25×40和25×20.

      從圖4可以看出,在4×2和4×4分塊方式下,本文方法較普通MPCA方法為達(dá)到相同的高識(shí)別率,所需投影軸數(shù)明顯要少,并且當(dāng)投影軸數(shù)增加到一定數(shù)目,識(shí)別率達(dá)到最高時(shí)便開始趨于穩(wěn)定.在4×2分塊方式下,為達(dá)到最高識(shí)別率,普通MPCA方法所需的投影軸數(shù)為10,而本文方法選取4個(gè)投影軸即可達(dá)到此識(shí)別率;在4×4分塊方式下,普通MPCA方法需9個(gè)投影軸才可達(dá)到最高識(shí)別率,但本文方法只要選取3個(gè)投影軸便可達(dá)到此識(shí)別率,這說明本文方法可以有效地改善識(shí)別性能.

      此外,對(duì)比圖2和圖4結(jié)果發(fā)現(xiàn),基于ORL人臉庫無論是本文方法還是普通MPCA方法得出的實(shí)驗(yàn)數(shù)據(jù)都要明顯好于Yale人臉庫.進(jìn)一步分析,這是由于ORL和Yale人臉庫圖像的組成有很大差異.在ORL人臉庫中,每個(gè)人的臉部表情、姿態(tài)和細(xì)節(jié)等均有著不同程度的變化,其中人臉姿態(tài)變化的程度最大,深度旋轉(zhuǎn)和平面旋轉(zhuǎn)高達(dá)20°,人臉尺度的變化也多達(dá)10%;而在Yale人臉庫中,每個(gè)人的姿態(tài)變化很小,主要是表情和光照的變化較大,因此兩種方法都對(duì)有較大旋轉(zhuǎn)和尺度變化圖像的識(shí)別效果好.

      4 結(jié) 語

      普通MPCA算法能提取圖像的局部信息,改善因光照和表情不同對(duì)特征提取所帶來的干擾,同時(shí)圖像分塊可以避免使用矩陣的奇異值分解,有效降低了問題的復(fù)雜度;為進(jìn)一步改善識(shí)別性能,本文結(jié)合分塊圖像的思想,根據(jù)同類訓(xùn)練樣本的平均圖像與所有訓(xùn)練樣本平均圖像的距離以及類內(nèi)訓(xùn)練樣本圖像與該類平均圖像的距離,分別定義類間和類內(nèi)圖像加權(quán)函數(shù),構(gòu)造加權(quán)子圖像空間,用以特征提?。贠RL和Yale人臉庫上的實(shí)驗(yàn)結(jié)果表明,此方法的識(shí)別性能優(yōu)于普通MPCA算法,但是在實(shí)驗(yàn)中也發(fā)現(xiàn),基于不同的人臉庫,采取相同的分塊方式,所獲得的識(shí)別率也不同,甚至相差很大.這是由于ORL和Yale人臉庫圖像組成的差異,因此能否找出一種方法,使得適應(yīng)性更強(qiáng),在不同人臉庫上均有著同等的高識(shí)別率是今后研究的方向.

      [1]Kirby M,Sirovich L.Application of the KL procedure for the characterization of human face[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1990,12(1):103-108.

      [2]Turk M,Pentland A.Eigenface for recognition[J].Journal of Cognitive Neuroscience,1991,3(1):71-86.

      [3]Belhumeur P N,Hespanha J P,Kriegman D J.Eigenfaces vs.fisherfaces:recognition using class specific linear projection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1997,19(7):711-720.

      [4]張翠平,蘇光大.人臉識(shí)別技術(shù)綜述[J].中國圖象圖形學(xué)報(bào),2000,5(11):885-894.

      [5]胡靜.基于代數(shù)特征的若干人臉識(shí)別方法研究[D].南京:南京理工大學(xué),2003.

      [6]彭輝,張長水,榮鋼,等.基于K-L變換的人臉自動(dòng)識(shí)別方法[J].清華大學(xué)學(xué)報(bào):自然科學(xué)版,1997,37(3):67-70.

      [7]陳伏兵,楊靜宇.分塊PCA及其在人臉識(shí)別中的應(yīng)用[J].計(jì)算機(jī)工程與設(shè)計(jì),2007,28(8):1889-1892.

      [8]孫即祥.現(xiàn)代模式識(shí)別[M].2版.北京:高等教育出版社,2008:184-187.

      猜你喜歡
      訓(xùn)練樣本分塊識(shí)別率
      基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測
      分塊矩陣在線性代數(shù)中的應(yīng)用
      人工智能
      基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識(shí)別率的關(guān)系
      提升高速公路MTC二次抓拍車牌識(shí)別率方案研究
      寬帶光譜成像系統(tǒng)最優(yōu)訓(xùn)練樣本選擇方法研究
      融合原始樣本和虛擬樣本的人臉識(shí)別算法
      基于稀疏重構(gòu)的機(jī)載雷達(dá)訓(xùn)練樣本挑選方法
      反三角分塊矩陣Drazin逆新的表示
      高速公路機(jī)電日常維護(hù)中車牌識(shí)別率分析系統(tǒng)的應(yīng)用
      景泰县| 洛川县| 且末县| 宁夏| 玉树县| 堆龙德庆县| 新巴尔虎左旗| 乌鲁木齐市| 延长县| 木里| 拉萨市| 岫岩| 邯郸市| 新龙县| 荥经县| 嘉义县| 临安市| 江孜县| 五河县| 内黄县| 鹤岗市| 革吉县| 黄冈市| 安仁县| 台中县| 博乐市| 玉山县| 富源县| 东源县| 离岛区| 兴宁市| 萨嘎县| 府谷县| 江永县| 忻州市| 安达市| 四会市| 光山县| 弥勒县| 区。| 久治县|