周洪毅
摘要:傳統(tǒng)的基于LDA的字符識(shí)別需要將圖像向量化,這會(huì)造成協(xié)方差矩陣維數(shù)過(guò)大和奇異問(wèn)題,而基于2D-LDA的識(shí)別算法能夠克服上述傳統(tǒng)算法的缺陷。首先介紹了2D-LDA算法的原理;然后,在車(chē)牌字符數(shù)據(jù)集上測(cè)試了算法的識(shí)別率;最后,與多層感知機(jī)神經(jīng)網(wǎng)絡(luò)做了對(duì)比,表明2D-LDA算法有較高的識(shí)別率。
關(guān)鍵詞:字符識(shí)別;2D-PCA;2D-LDA;多層感知機(jī)神經(jīng)網(wǎng)絡(luò)
中圖分類(lèi)號(hào):TP391.41 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1007-9416(2016)06-0000-00
Abstract: The traditional character recognition based on LDA requires the image vectorization processing, which will bring about a too large covariance matrix dimension and singular problems, but 2D-LDA based recognition algorithm can overcome the shortcomings of the traditional algorithm described above. First, this paper introduced the principle of 2D-LDA algorithm. Then it tested the recognition rate of the algorithm on the license plate character data set. At last, it gave a comparation between 2D-LDA algorithm and MLP neural networks. The comparation indicates 2D-LDA algorithm has a higher recognition rate.
Key words: character recognition; 2D-PCA; 2D-LDA; MLP neural networks
字符識(shí)別是計(jì)算機(jī)視覺(jué)中一個(gè)重要課題,有著廣泛的應(yīng)用前景。近年來(lái),如何提取有鑒別性的特征以及如何對(duì)它進(jìn)行降維,成為研究的熱點(diǎn)。其中,主成分分析(Principal Component Analysis, PCA)和線性鑒別分析(Linear Discriminant Analysis, LDA)是兩種最常用的線性降維方法。
PCA的意義是在重構(gòu)樣本數(shù)據(jù)時(shí)使其平方誤差最小,也即PCA利用一組為數(shù)不多的特征去盡可能精確地表示模式樣本。PCA計(jì)算向量樣本的總體協(xié)方差矩陣,其最大的d個(gè)特征值對(duì)應(yīng)的特征向量作為鑒別矢量集,然后樣本在鑒別矢量集上投影,得到的d個(gè)系數(shù)就是抽取出的特征。LDA的基本思想是選擇使得Fisher準(zhǔn)則函數(shù)達(dá)到極值的向量作為最佳投影方向,從而使得樣本在該方向上投影后,達(dá)到最大的類(lèi)間離散度和最小的類(lèi)內(nèi)離散度[1-2]。由于LDA在降維過(guò)程中也考慮到了類(lèi)別信息,所以在人臉識(shí)別的應(yīng)用中識(shí)別率高于PCA[7],所以采用LDA的方法對(duì)車(chē)牌字符進(jìn)行降維。另外,經(jīng)典的PCA和LDA要求樣本數(shù)據(jù)是一維的,但是一維方法在處理圖像識(shí)別時(shí)存在固有弊病。比如,將字符圖像向量化后維數(shù)常常高達(dá)上萬(wàn)維,這會(huì)造成計(jì)算負(fù)荷過(guò)大和矩陣奇異問(wèn)題[3]。為解決這一問(wèn)題,研究者提出了直接基于2D圖像矩陣而無(wú)須矢量化的2D-PCA[4-5]和2D-LDA[6-9]法,有效降低了運(yùn)算量和矩陣奇異問(wèn)題。綜上所述,采用2D-LDA算法。
1 2D-LDA算法
經(jīng)典的數(shù)據(jù)降維方法主要有主成分分析(PCA)和線性鑒別分析(LDA)兩類(lèi)。PCA的目的是最大化所有類(lèi)別樣本之間總體分散程度,可以看作是一種無(wú)監(jiān)督的學(xué)習(xí)方法。而LDA的主要思想是最大化類(lèi)間分散程度,并且同時(shí)使類(lèi)內(nèi)散布最小。因此,LDA是一種監(jiān)督學(xué)習(xí)算法。2D-LDA是一種直接基于二維圖像矩陣的方法,分別計(jì)算二維圖像投影的類(lèi)內(nèi)和類(lèi)間散度矩陣,在一定最優(yōu)化準(zhǔn)則下確定最優(yōu)的投影坐標(biāo)系。2D-LDA方法運(yùn)算量小,有效利用了圖像的空間結(jié)構(gòu)信息。
令訓(xùn)練圖像為 ,圖像數(shù)據(jù)共有K個(gè)類(lèi)別,類(lèi)別標(biāo)號(hào)為C1,C2,…,CK,分別包含Ni個(gè)樣本,因此共有 個(gè)訓(xùn)練數(shù)據(jù)。將二維圖像Xj投影到一個(gè)一維列向量上得到投影后列向量yj:
4 結(jié)語(yǔ)
本文介紹了2D-LDA的算法,以及與傳統(tǒng)LDA相比的優(yōu)勢(shì)。從理論上說(shuō)明了2D-LDA可以有效避免矩陣奇異問(wèn)題。最后,將2D-LDA應(yīng)用于車(chē)牌字符識(shí)別中,給出了使用K最近鄰分類(lèi)器情況下的分類(lèi)識(shí)別率,并與開(kāi)源項(xiàng)目EasyPR中的識(shí)別方法對(duì)比,前者有著更高的識(shí)別率。
參考文獻(xiàn)
[1]張生亮,楊靜宇.2DPCA及2DLDA相關(guān)研究綜述[J].世界科技研究與發(fā)展,2008,30(3):286-289.
[2]程正東,章毓晉,樊祥.基于圖像抽樣重組的2維線性鑒別分析[J].中國(guó)圖象圖形學(xué)報(bào),2010,15(2):261-265.
[3]溫福喜,劉宏偉.基于2D-PCA和2D-LDA的人臉識(shí)別方法[J].計(jì)算機(jī)應(yīng)用研究,2007,24(8):201-203.
[4]王友釗,潘芬蘭,黃靜.基于2D-PCA的兩級(jí)LDA人臉識(shí)別方法[J].計(jì)算機(jī)工程,2014(9):243-247.
[5]Li M, Yuan B. 2D-LDA: A statistical linear discriminant analysis for image matrix[J]. Pattern Recognition Letters,2005,26(5):527-532.
[6]Yang J, Zhang D, Yong X, et al. Two-dimensional discriminant transform for face recognition[J]. Pattern Recognition,2005,38(7):1125-1129.
[7]覃磊,李德華,周康.基于分塊2DPCA與2DLDA的單訓(xùn)練樣本人臉識(shí)別[J].微電子學(xué)與計(jì)算機(jī),2015(11):105-110.
[8]李球球,楊恢先,奉俊鵬 等.2DPCA+2DLDA和改進(jìn)的LPP相結(jié)合的人臉識(shí)別算法[J].計(jì)算機(jī)工程與應(yīng)用,2015(21):199-204.