向順靈(廣西民族大學(xué)信息科學(xué)與工程學(xué)院,廣西南寧,530006)
?
論訓(xùn)練樣本集結(jié)構(gòu)和稀疏表示分類算法的關(guān)系
向順靈
(廣西民族大學(xué)信息科學(xué)與工程學(xué)院,廣西南寧,530006)
摘要:近年來(lái),基于表示法的人臉識(shí)別技術(shù)主要都集中在約束條件和字典學(xué)習(xí)。很少有研究用樣本數(shù)據(jù)特征來(lái)確定基于表示分類算法的性能。本文定義了結(jié)構(gòu)離散度,表示樣本集的結(jié)構(gòu)特征。實(shí)驗(yàn)結(jié)果表明,具有較高的結(jié)構(gòu)離散度的集合能讓一個(gè)分類算法獲得更高的識(shí)別率。
關(guān)鍵詞:模式識(shí)別;人臉識(shí)別
在基于標(biāo)準(zhǔn)的分類算法中,訓(xùn)練樣本集的整除是影響分類結(jié)果的重要因素。標(biāo)準(zhǔn)也是衡量樣本集可分性的重要指標(biāo)。在不同的公共人臉數(shù)據(jù)庫(kù)中,許多實(shí)驗(yàn)表明,標(biāo)準(zhǔn)在基于稀疏表示分類方法上不是有利的。事實(shí)上,樣本集的過(guò)度聚集包含了高類內(nèi)離散度(within-class scatter),因此,這個(gè)樣本集的稀疏表示能力將嚴(yán)重減弱,低類內(nèi)離散度中的一組樣本向量集通常不能跨越高類內(nèi)離散度中的更大向量空間。例如,兩個(gè)樣本集中的一個(gè)樣本的離散度明顯高于單個(gè)樣本;那么兩個(gè)樣本的稀疏表示能力比單個(gè)樣本強(qiáng)。這個(gè)事實(shí)就可以解釋為什么當(dāng)訓(xùn)練樣本越多,基于稀疏表示的分類算法能獲得較高的識(shí)別率。
因此,樣本高類內(nèi)離散度對(duì)基于稀疏表示的分類算法是有益的。設(shè)人臉圖像的調(diào)整大小為,像素值為。人臉圖像空間是有限距離。隨著樣本類內(nèi)離散度(within-class scatter)的增加,樣本類間離散度(between-class scatter)隨之減少。最后,我們假設(shè)訓(xùn)練樣本集,其中代表的是第類數(shù)據(jù)集,表示類的數(shù)量,是類樣本的數(shù)量。定義如下:
總樣本集的類內(nèi)離散度的定義:
圖1 結(jié)構(gòu)離散的曲線和不同人臉數(shù)據(jù)的識(shí)別率
樣本集的類間離散度的定義:
其中表示樣本集中類的均值,是總樣本集中所有訓(xùn)練樣本的均值。而且,樣本集的結(jié)構(gòu)離散度定義為:
以上分析得出樣本結(jié)構(gòu)離散度中高類內(nèi)離散度可能是影響SRC算法性能的原因。下面通過(guò)實(shí)驗(yàn)分析進(jìn)一步驗(yàn)證這個(gè)結(jié)論。
為了進(jìn)一步驗(yàn)證結(jié)構(gòu)離散和基于稀疏表示分類算法之間的關(guān)系,我們選用AR;FERET;extended Yale B作為人臉基準(zhǔn)數(shù)據(jù)集。實(shí)驗(yàn)表明訓(xùn)練樣本集的增加超過(guò)某個(gè)固定值時(shí),大多數(shù)基于稀疏表示分類的識(shí)別率不可能明顯的提高。本文從人臉基準(zhǔn)數(shù)據(jù)集中選擇2到4個(gè)樣本。
實(shí)驗(yàn)環(huán)境為:Window XP,隨機(jī)存取存儲(chǔ)器(Ramdom Access Memory,RAM)大小為:3.25GB;CPU頻率為:3.16GHz,使用的軟件為:MATLAB。結(jié)構(gòu)離散作為水平軸,正確的識(shí)別率作為垂直軸。如圖1所示:
圖1中的直線是擬合線,對(duì)應(yīng)的是有序?qū)木€性回歸;曲線是訓(xùn)練樣本集SSD的識(shí)別率變化,圖1可看出結(jié)構(gòu)離散越高,分類算法得到越高的正確識(shí)別率。因此,可以得到結(jié)論:訓(xùn)練樣本集中的結(jié)構(gòu)離散度越高對(duì)基本稀疏表示的識(shí)別算法越有利。
本文通過(guò)實(shí)驗(yàn)分析得到訓(xùn)練樣本集中的結(jié)構(gòu)離散越高,基于稀疏表示的分類算法的識(shí)別率越高。正確的識(shí)別率是人臉識(shí)別中重要的標(biāo)準(zhǔn)。選擇合理的訓(xùn)練樣本集數(shù)量和高結(jié)構(gòu)離散可以有效地提高正確識(shí)別率。
參考文獻(xiàn)
[1]D.Lowe.Distinctive image features from scale-invariant key-points.International Journal of Computer Vision.2004,60(2): 91-110.
[2]T.Ojala,M.Pietikainen,and D.Harwood. A comparative-study of texture measures with classi cation based on feature distributions.Pattern Recognition,1996,29(1):51-59.
[3] Wright,J.,Yang,A.,Ganesh,A.,Sastry,S.,Ma, Y.: Robust face recognition via sparse representation. IEEE Transactions on Pattern Analysis and Machine Intelligence,2009,31(2): 210-227.
[4] Martinez,A.:The ar face database.CVC Technical Report 24 (1998)
[5] A.P.J.Phillips,H.Moon,P.J.Rauss,S.Rizvi, The FERET evaluation methodology for face recognition algorithms,IEEE Transactions on Pattern Analysis and Machine Intelligence,2000,22 (10):1090-1104.
[6]L.Chen,H.Man,A.V.Nefian.Face recognition based on multiclass mapping of Fisher scores.Pattern Recognition 38(2005):799-811.
向順靈(1989-),女,碩士研究生,研究方向?yàn)閳D像處理、視頻處理;
Relationship between the representation-based classification algorithm and structure of the training sample set
Xiang Shunling
(School of information science and engineering, Guangxi University For Nationalities, Nanning, Guangxi 530006)
Abstract:In recent years,representation-based face-recognition techniques are focus mainly on constraint conditions and dictionary learning. Few researchers study which sample data features determine the performance of representation-based classification algorithms.we define the structure-scatter degree, which represents the structure features of training sample sets, said structure characteristics of sample set. Experimental results show that sets with a higher structure scatter more likely allows a classification algorithm to obtain a higher recognition rate.
Keywords:Pattern recognition;Face recognition
通訊作者:向舜然(1987-),男,講師,重慶市城市管理職業(yè)學(xué)院
作者簡(jiǎn)介
中圖分類號(hào):TP319
文獻(xiàn)標(biāo)識(shí)碼:A
人臉識(shí)別已經(jīng)發(fā)展成為計(jì)算機(jī)視覺(jué)領(lǐng)域中一個(gè)活躍的研究課題,其中子空間方法(subspace method)主要是將高維數(shù)據(jù)向低維特征空間轉(zhuǎn)變。在這個(gè)過(guò)程中,將原來(lái)樣本中的信息嵌入到少量的特征向量中,這其中包括一些對(duì)分類有利和不利的信息。因此有了局部特征提取的方法,如尺度不變特征變換(Scale invariant feature transform,SIFT),局部二值特征(local binary pattern,LBP),基于稀疏表示的分類(Sparse Representation-based Classification, SRC)對(duì)人臉?lè)诸愑休^好的效果。但是經(jīng)過(guò)實(shí)驗(yàn)分析,在同一人臉數(shù)據(jù)庫(kù)中,不同的訓(xùn)練樣本集可能會(huì)引起相同的算法,并得到完全不同的識(shí)別率。最直觀的原因就是不同的訓(xùn)練樣本集中的不同結(jié)構(gòu)分布,從而影響算法性能。