包曉敏,任文靜,呂文濤
(浙江理工大學(xué) 信息學(xué)院,浙江 杭州 310018)
Gabor小波與HOG特征融合的行人識(shí)別算法
包曉敏,任文靜,呂文濤
(浙江理工大學(xué) 信息學(xué)院,浙江 杭州 310018)
針對(duì)傳統(tǒng)HOG特征行人檢測(cè)方法中,當(dāng)目標(biāo)存在遮擋以及面對(duì)復(fù)雜環(huán)境條件下,行人識(shí)別存在較高漏檢率和誤檢率的問(wèn)題,提出一種基于Gabor小波與HOG特征融合(G-HOG)的行人識(shí)別算法。利用Gabor小波對(duì)樣本圖像進(jìn)行特征變換并在尺度和方向上融合,獲取Gabor特征圖像,利用HOG算子在特征圖像上提取目標(biāo)特征,進(jìn)行樣本分類(lèi),獲取行人目標(biāo)的疑似區(qū)域;對(duì)行人樣本進(jìn)行HOG特征提取與訓(xùn)練,實(shí)現(xiàn)對(duì)疑似區(qū)域的目標(biāo)識(shí)別。實(shí)驗(yàn)結(jié)果表明,基于G-HOG特征的行人識(shí)別算法在INRIA、MIT與Daimler數(shù)據(jù)庫(kù)上性能表現(xiàn)良好,能夠獲取較高的查全率和識(shí)別率。
行人識(shí)別;Gabor變換;方向梯度直方圖;支持向量機(jī)
車(chē)輛輔助駕駛系統(tǒng)中的行人檢測(cè)主要運(yùn)用模式識(shí)別和圖像處理等技術(shù)實(shí)現(xiàn)車(chē)輛前方行人的檢測(cè)與識(shí)別,有效保護(hù)道路上的行人。因?yàn)槭艿阶藨B(tài)、外表、服飾和光照天氣等眾多因素的影響,使得行人檢測(cè)成為一個(gè)非常具有挑戰(zhàn)性的課題[1]。
當(dāng)前行人檢測(cè)大多采用基于統(tǒng)計(jì)分類(lèi)的方法,行人特征提取和分類(lèi)器的選擇是這類(lèi)方法中最為關(guān)鍵的2部分。Dalal和Triggs[2]等人首次提出了梯度方向直方圖特征(Histogram of Oriented Gradient,HOG),應(yīng)用于行人檢測(cè)中;Sun D[3]等人提出一種增強(qiáng)的HOG特征用于檢測(cè)靜態(tài)圖像中的行人;ARMANFARD N[4]等人把紋理邊緣描述子(Texture Edge Descriptor,TED)特征應(yīng)用于視頻序列中的行人檢測(cè),此特征包括紋理和垂直方向的邊緣信息;Lee S[5]等人提出使用Gabor濾波器組的行人檢測(cè)算法,在預(yù)處理階段使用Gabor濾波;另外,行人檢測(cè)中常用的一些特征還有:CENTRIST特征[6-7]、Haar-like特征[8-9]、LBP(Local Binary Pattern)特征[10-11]和SIFT(Scale-Invariant Feature Transform)特征[12-13]等。在分類(lèi)的選擇上,通常選擇支持向量機(jī)(Support Vector Machine)分類(lèi)器[14-15]、Adaboost分類(lèi)器[16]和神經(jīng)網(wǎng)絡(luò)(Convolutional Nature Networks)[17]等。
在現(xiàn)有的各種行人特征提取方法中,梯度方向直方圖特征表現(xiàn)出了優(yōu)良的檢測(cè)性能,其對(duì)光照變化和偏移不敏感,能有效地刻畫(huà)人體的邊緣特征。然而,HOG特征維度高,大量的重疊和直方圖統(tǒng)計(jì)使得特征的計(jì)算速度慢,遮擋處理能力較差[18-21];在復(fù)雜的環(huán)境下準(zhǔn)確率較低。
在此基礎(chǔ)上,本文提出一種新的采用Gabor特征和HOG特征融合技術(shù)的兩階段識(shí)別算法,使用Gabor小波對(duì)圖像進(jìn)行特征變換并在尺度和方向上進(jìn)行融合,所得圖像增強(qiáng)了與人體檢測(cè)有關(guān)的信息,消除了非相關(guān)數(shù)據(jù)和噪聲,行人整體信息得以維護(hù)和豐富,提高了HOG算法的全局性能。
1.1 Gabor特征提取
Gabor小波描述了對(duì)應(yīng)于空間頻率(尺度)、空間位置及方向選擇性的局部結(jié)構(gòu)信息。實(shí)際應(yīng)用中,Gabor濾波器可以在頻域的不同尺度、不同方向上提取相關(guān)特征,其函數(shù)定義為:
(1)
式中,z=(x,y);‖·‖表示范數(shù)運(yùn)算;kμ,ν=kvexp(iφμ);kv=kmax/fv;Φμ=πμ/8;f為核函數(shù)在一個(gè)限定域中的間隔因子;在介于4~16 像素中,μ和v分別表示 Gabor 濾波器的方向和尺度。用 Gabor小波函數(shù)對(duì)目標(biāo)圖像的濾波,可以通過(guò)與圖像的卷積來(lái)實(shí)現(xiàn)[22-24]。
Gμ,ν=I(z)*Φμ,ν(z),
(2)
式中,I(z)為目標(biāo)的灰度圖像z=(x,y);*為卷積運(yùn)算。
為了在采樣過(guò)程中較全面地得到細(xì)節(jié)紋理,本文采用均勻離散采樣的方法,使每個(gè)方向上都有采樣點(diǎn)。暫時(shí)根據(jù)經(jīng)驗(yàn)通過(guò)選取5個(gè)尺度(v{0,1,2,3,4} )、8個(gè)方向(0 ~ 7π/8)進(jìn)行采樣,μ∈{0,1,2,3,4,5,6,7} 。
行人Gabor特征提取過(guò)程如圖 1所示,從圖1中可以看出,使用Gabor濾波器的5個(gè)尺度、8個(gè)方向?qū)D像進(jìn)行濾波,會(huì)生成 40 幅Gabor 特征圖像。如果直接提取這40幅圖像的HOG特征,會(huì)使之后的訓(xùn)練和分類(lèi)過(guò)程計(jì)算量和內(nèi)存過(guò)大,運(yùn)行緩慢,因此為了使行人識(shí)別系統(tǒng)更有效,訓(xùn)練過(guò)程中又不丟失其特征信息,需要對(duì) Gabor 特征進(jìn)行融合。
圖1 行人Gabor特征提取與融合
1.1.1 方向融合
方向融合方面,采用全局編碼[25-28]的形式,對(duì)同一尺度多個(gè)方向上的Gabor 特征進(jìn)行編碼,這樣既能有效降低 Gabor 特征的維數(shù),又能保證方向特征信息不丟失。
(3)
根據(jù)每個(gè)像素在5個(gè)尺度和8個(gè)方向上形成的40個(gè)Gabor特征,可以在給定尺度時(shí)對(duì)不同方向上的 Gabor 特征的實(shí)部和虛部分別進(jìn)行編碼。
(4)
(5)
(6)
(7)
1.1.2 尺度融合
從圖1可以看出,方向融和后,圖像還有5個(gè)尺度上的特征,其紋理比較相似,可見(jiàn)這些圖像還存在一定的數(shù)據(jù)冗余,因此對(duì)5個(gè)尺度繼續(xù)融合,依然采用求均值的方法來(lái)實(shí)現(xiàn)尺度融合,這樣既可以讓融合后的圖像簡(jiǎn)單、有效地展現(xiàn)其Gabor 特征,又能保證其特征信息不丟失。
(8)
(9)
從圖1可以看到,完成尺度融合后,圖像剔除了姿態(tài)和陰影等造成的干擾,鑒別出目標(biāo)的紋理特征,使得行人整體信息得到維護(hù)和豐富。
1.2 HOG特征提取
方向梯度直方圖(Histogram of Oriented Gradient,HOG)特征是通過(guò)計(jì)算和統(tǒng)計(jì)圖像局部區(qū)域的梯度方向直方圖來(lái)進(jìn)行物體檢測(cè)的特征描述子。由于Gabor特征融合圖像既保留了原始圖像的紋理信息和邊緣信息又剔除了大量非相關(guān)信息,HOG算子易于提取圖像紋理特征,且檢測(cè)率較高,因此利用Gabor特征融合圖像作為輸入圖像,對(duì)其進(jìn)行HOG特征提取。本文所采取的HOG特征提取算法流程如下:
① 圖像灰度化與歸一化處理
I(x,y)?G(x,y),H(x,y)=I(x,y)gamma,
式中,G表示灰度化處理;gamma通常取值為1/2;
② 計(jì)算圖像每個(gè)像素的梯度大小和方向
Gx(x,y)=H(x+1,y)-H(x-1,y),
Gy(x,y)=H(x,y+1)-H(x,y-1);
③ 將圖像歸一化為36×72像素大小,分為4×4像素的單元(cell),8×8像素的塊(block),4個(gè)像素的塊步長(zhǎng),每個(gè)單元9個(gè)方向通道;
④ 統(tǒng)計(jì)每個(gè)單元格內(nèi)的梯度方向直方圖;
⑤ 統(tǒng)計(jì)cell的梯度方向直方圖組成block的HOG描述子,并對(duì)block內(nèi)的描述子采用重疊單元?dú)w一化方法提高結(jié)果穩(wěn)定性;
⑥ 統(tǒng)計(jì)所有block的HOG描述子組成的圖像HOG特征描述子。
獲取圖像的G-HOG特征后,首先使用分類(lèi)器獲取疑似目標(biāo)區(qū)域,確保高查全率,其次對(duì)疑似目標(biāo)利用原始HOG特征分類(lèi)器在疑似區(qū)域進(jìn)行再次篩選,提高行人識(shí)別率。本文提出的算法流程如下:
輸入:圖像Im
輸出:圖像To
① 對(duì)輸入圖像Iin進(jìn)行預(yù)處理,即Iinit?P(Iin),其中,P表示預(yù)處理操作,包括灰度化、尺寸歸一化和高斯濾波;
② 對(duì)Iinit進(jìn)行Gabor卷積,獲得Gabor特征圖像:G(Iinit)=Iinit?Φ;
④ 對(duì)編碼圖像分別進(jìn)行尺度與方向的融合,基于式(6)~式(9)獲得Gabor融合圖像GC(z),其中z=(GCRe,GCIm);
⑤ 對(duì)融合后圖像提取HOG特征獲得G-HOG描述子;
⑥ 對(duì)圖像的G-HOG描述子進(jìn)行訓(xùn)練并獲取分類(lèi)器1:C1?SVM(GC);
⑦ 對(duì)Iinit提取HOG描述子進(jìn)行訓(xùn)練并獲得分類(lèi)器2:C2?SVM(Iinit);
⑧ 對(duì)圖像進(jìn)行識(shí)別:首先利用C1獲取行人目標(biāo)疑似區(qū)域:Fc?R(C1),其中,R表示對(duì)圖片上行人進(jìn)行識(shí)別;其次在疑似區(qū)域上利用C2進(jìn)一步識(shí)別行人:To?R(Fc);
⑨ 輸出識(shí)別圖像To。
2.1 參數(shù)設(shè)置
本文所討論的算法是面向行人與非行人的二分類(lèi)識(shí)別,分類(lèi)器使用支持向量機(jī)(Support Vector Machine)[19]。在分類(lèi)器參數(shù)設(shè)置中,核函數(shù)使用線性核函數(shù),松弛因子C=0.01,其他參數(shù)由經(jīng)驗(yàn)獲取,以保證SVM具有良好的分類(lèi)性能。
本文采用開(kāi)源數(shù)據(jù)庫(kù)數(shù)據(jù)進(jìn)行實(shí)驗(yàn),包括MIT數(shù)據(jù)庫(kù)、INRIA數(shù)據(jù)庫(kù)和Daimler數(shù)據(jù)庫(kù)。其中,MIT數(shù)據(jù)庫(kù)包含924張行人圖片,未區(qū)分訓(xùn)練集和測(cè)試集;INRIA數(shù)據(jù)庫(kù)是目前使用最多的靜態(tài)行人檢測(cè)數(shù)據(jù)庫(kù),提供原始圖片及相應(yīng)的標(biāo)注文件;Daimler行人數(shù)據(jù)庫(kù)采用車(chē)載攝像機(jī)獲取,分為檢測(cè)和分類(lèi)2個(gè)數(shù)據(jù)集,檢測(cè)數(shù)據(jù)集的訓(xùn)練樣本集中,正樣本大小為1836和4896的圖片各15 560張,分類(lèi)數(shù)據(jù)集有3個(gè)訓(xùn)練集和2個(gè)測(cè)試集;針對(duì)本文研究的特殊領(lǐng)域,在算法中,訓(xùn)練集采用Daimler數(shù)據(jù)庫(kù)中的正負(fù)樣本,訓(xùn)練時(shí)統(tǒng)一為36×72像素,測(cè)試集采用MIT、INRIA、Daimler三個(gè)數(shù)據(jù)庫(kù),訓(xùn)練與測(cè)試樣本示例如圖2和圖3所示。
圖2 訓(xùn)練樣本示例
圖3 測(cè)試樣本示例
在測(cè)試數(shù)據(jù)集上采用查全率(Recall)和準(zhǔn)確率(Precision)來(lái)檢測(cè)本文提出的方法,查全率是檢測(cè)正確目標(biāo)的數(shù)目除以目標(biāo)的總數(shù)目(tp為正陽(yáng)性數(shù)目,檢測(cè)到是目標(biāo)像素的數(shù)目;fn為沒(méi)有檢測(cè)到目標(biāo)像素的數(shù)目);準(zhǔn)確率是檢測(cè)到目標(biāo)像素?cái)?shù)目除以檢測(cè)目標(biāo)像素?cái)?shù)目(tp真陽(yáng)性與假陽(yáng)性fp的和)。
(10)
(11)
2.2 Gabor參數(shù)分析
用 Daimler訓(xùn)練樣本對(duì)本文提出的方法進(jìn)行學(xué)習(xí)后,在第一節(jié)的Gabor特征提取中在方向和尺度上暫時(shí)使用了經(jīng)驗(yàn)參數(shù)5和8,實(shí)驗(yàn)中發(fā)現(xiàn),其中方向和尺度以及Gabor核大小的改變都對(duì)查全率和準(zhǔn)確率有所影響,結(jié)果如圖4、圖5和圖6所示。
圖4中,在同一個(gè)方向下,尺度越大,查全率越大,當(dāng)尺度達(dá)到14或者16時(shí)已經(jīng)趨于飽和,在同一個(gè)尺度下,隨著方向的增加,查全率增大,當(dāng)方向在8~10 之間時(shí),查全率變化緩慢;圖5中在同一方向下,隨著尺度的增加,準(zhǔn)確率呈現(xiàn)先上升后下降的趨勢(shì),同樣的,在同一個(gè)尺度下,隨著方向的增加,準(zhǔn)確率也呈現(xiàn)先上升后下降的趨勢(shì);綜合圖4和圖5,在保證查全率和準(zhǔn)確率都較優(yōu)的情況下,決定將尺度取為12,方向取為8;圖6中,隨著Gabor核的增大,查全率逐漸下降,取值38時(shí)為臨界點(diǎn);準(zhǔn)確率緩慢增大隨后呈現(xiàn)下降趨勢(shì);綜合圖6,將Gabor核取為38,這樣既保證了查全率又保證了準(zhǔn)確率。
圖4 Gabor不同尺度和方向的Recall
圖5 Gabor不同尺度和方向的Precision
圖6 Gabor不同核大小情況下的Recall和Precision
基于INRIA數(shù)據(jù)庫(kù),對(duì)兩階段訓(xùn)練得到的分類(lèi)器性能進(jìn)行測(cè)試,結(jié)果如表1所示。
表1 分階段的Recall和Precision比較結(jié)果 (%)
由表1可知,在第1階段中的查全率比第2階段高,但是準(zhǔn)確率比第2階段低,兩階段融合后可以看出,雖然查全率比第1階段低,但是與兩階段相比變化不大,且準(zhǔn)確率均明顯提高,由此進(jìn)一步證明了本文算法的有效性。
將本文算法與文獻(xiàn)[3]使用的HOG算法和文獻(xiàn)[5]Gabor算法分別在INRIA數(shù)據(jù)庫(kù)、MIT數(shù)據(jù)庫(kù)、Daimler數(shù)據(jù)庫(kù)上對(duì)3種算法進(jìn)行測(cè)試,結(jié)果如表2和表3所示。
表2 不同數(shù)據(jù)庫(kù)上的Recall比較結(jié)果 (%)
表3 不同數(shù)據(jù)庫(kù)上的Precision比較結(jié)果 (%)
由表2和表3可知,本文提出的算法基于三大數(shù)據(jù)庫(kù)數(shù)據(jù)的實(shí)驗(yàn)表明,其性能均優(yōu)于HOG算法和Gabor算法。其中,通過(guò)表2對(duì)比,INRIA數(shù)據(jù)庫(kù)上的查全率比其他2個(gè)數(shù)據(jù)庫(kù)低,這是因?yàn)镮NRIA數(shù)據(jù)庫(kù)中,行人樣本背景較復(fù)雜,遮擋較嚴(yán)重,圖像的冗余信息較多,而MIT數(shù)據(jù)庫(kù)與Daimler數(shù)據(jù)庫(kù)中行人樣本背景簡(jiǎn)單,目標(biāo)清晰,易于識(shí)別;通過(guò)表3對(duì)比,在不同數(shù)據(jù)庫(kù)的檢測(cè)準(zhǔn)確率方面,本文算法較傳統(tǒng)HOG算法與Gabor算法都有較大提高。
本文算法采用Gabor特征和HOG特征融合技術(shù),并通過(guò)兩階段策略進(jìn)行疑似候選目標(biāo)選取和行人最終檢測(cè)結(jié)果辨別,可以在保證高查全率條件下,有效提高目標(biāo)的識(shí)別率,基于真實(shí)場(chǎng)景的數(shù)據(jù)庫(kù)實(shí)驗(yàn)結(jié)果,驗(yàn)證了算法的魯棒性和可靠性。
本文提出了一種新的基于Gabor小波和HOG特征融合的兩階段行人識(shí)別算法,在提高行人識(shí)別率上主要解決2個(gè)問(wèn)題:① 在第1階段,通過(guò)對(duì)圖像進(jìn)行Gabor變換以及特征融合,能夠較好地去除原始圖像上的一些冗余信息,并有效保留行人的紋理信息邊緣信息,在此基礎(chǔ)上能夠有效改善HOG檢測(cè)性能;② 在行人樣本上提取HOG特征,訓(xùn)練和分類(lèi)后,在第1階段中得到的行人疑似區(qū)域上進(jìn)一步識(shí)別,基于經(jīng)典開(kāi)源數(shù)據(jù)庫(kù)的實(shí)驗(yàn)結(jié)果表明,與HOG特征識(shí)別算法和Gabor特征識(shí)別算法相比,基于G-HOG特征的兩階段行人識(shí)別算法表現(xiàn)良好,能夠獲取較高的查全率與識(shí)別率。
在本文兩階段算法測(cè)試中,均使用SVM對(duì)樣本進(jìn)行分類(lèi)。當(dāng)然,可以采用其他分類(lèi)器,如BP神經(jīng)網(wǎng)絡(luò)、Adaboost分類(lèi)器或其他分類(lèi)器,對(duì)文中所提算法進(jìn)行進(jìn)一步驗(yàn)證。
[1] 曾春,李曉華,周激流.基于感興趣區(qū)梯度方向直方圖的行人檢測(cè)[J].計(jì)算機(jī)工程,2009,35(24):182-184.
[2] DALAL N,TRIGGS B.Histograms of Oriented Gradients for Human Detection[C]∥Computer Vision and Pattern Recognition,2005.CVPR 2005.IEEE Computer Society Conference on.IEEE,2005,1:886-893.
[3] SUN D,WATADA J.Detecting Pedestrians and Vehicles in Traffic Scene Based on Boosted HOG Features and SVM[C]∥Intelligent Signal Processing(WISP),2015 IEEE 9th International Symposium on.IEEE,2015:1-4.
[4] ARMANFARD N,KOMEILI M,KABIR E.TED:A Texture-edge Descriptor for Pedestrian Detection in Video Sequences[J].Pattern Recognition,2012,45(3):983-992.
[5] LEE S,JANG J W,BAEK K R.Pedestrian Detection Algorithm Using a Gabor Filter Bank[J].Journal of Institute of Control,Robotics and Systems,2014,20(9):930-935.
[6] JOSHI K,KAVITHA R,NAIR M S.Real Time Pedestrian Detection Using CENTRIST Feature with Distance Estimation[C]∥Advanced Computing and Communication Technologies.Springer Singapore,2016:223-232.
[7] WU J,REHG J M.CENTRIST:A Visual Descriptor for Scene Categorization[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(8):1489-1501.
[8] ERRAMI M,RZIZA M.Improving Pedestrian Detection Using Support Vector Regression[C]∥Computer Graphics,Imaging and Visualization(CGiV),2016 13th International Conference on.IEEE,2016:156-160.
[9] ZHANG S,BAUCKHAGE C,CREMERS A B.Informed Haar-Like Features Improve Pedestrian Detection[C]∥IEEE Conference on Computer Vision and Pattern Recognition.IEEE,2014:947-954.
[10] HUANG Z.Vehicle Pedestrian Detection Algorithm Based on AdaBoost[C]∥Intelligent Transportation,Big Data and Smart City(ICITBS),2015 International Conference on.IEEE,2015:973-976.
[11] HALIDOU A,YOU X,HAMIDINE M,et al.Fast Pedestrian Detection Based on Region of Interest and Multi-block Local Binary Pattern Descriptors[J].Computers & Electrical Engineering,2014,40(8):375-389.
[12] LI J,LIAO Y J,ZHANG H M.Pedestrian Detection Based on Bag-of-Visual-Words and SVM Method[C]∥Applied Mechanics and Materials.Trans Tech Publications,2014,678:189-192.
[13] XIAO P,CAI N,TANG B,et a1.Eficient SIFT Descriptor via Color Quantization[C]∥IEEE InternationalConference on Consumer Electronics,Shenzhen,2014:1-3.
[14] BORRAJO M L,ROMERO R,IGLESIAS E L.A Linear-RBF Multikernel SVM to Classify Big Text Corpora[OL].http:∥dx.doi.org/10.1155/2015/878291,2015.
[15] MEYER D,WIEN F H T.Support Vector Machines[J].The Interface to Libsvm in Package e1071,2015.
[16] WU Shu-qiong,NAGAHASHI H.Parameterized AdaBoost:Introducing a Parameter to Speed up the Training of Real AdaBoost[J].IEEE Signal Processing Letters,2014,21(6):687-691.
[17] KIM Y.Convolutional Neural Networks for Sentence Classification[J].arXiv Preprint arXiv:1408.5882,2014.
[18] 自德貴,辛晨,張婷,等.顯著性紋理結(jié)構(gòu)特征及車(chē)載環(huán)境下的行人檢測(cè)[J].軟件學(xué)報(bào),2014,25(3):675-689.
[19] 程廣濤,陳雪,郭照莊.基于HOG特征的行人視覺(jué)檢測(cè)方法[J].傳感器與微系統(tǒng),2011,30(7):68-70.
[20] 劉召,宋立濱,耿美曉,等.基于激光雷達(dá)的舞蹈機(jī)器人室內(nèi)行人跟蹤方法[J].計(jì)算機(jī)工程,2017,43(6):247-252.[21] 劉曙,羅予頻,楊士元.基于多尺度的輪廓匹配方法[J].計(jì)算機(jī)工程,2008,34(1):201-203.
[22] 羅元,張?zhí)?張毅.一種改進(jìn)的LDP面部表情特征提取方法[J].半導(dǎo)體光電,2016,37(1):122-125.
[23] 鐘劍丹,雷濤,姚光樂(lè),等.基于支持向量約簡(jiǎn)的快速目標(biāo)檢測(cè)[J].半導(dǎo)體光電,2017,38(3):153-158.
[24] 羅元,崔葉,王艷,等.基于融合DCT和LBP特征提取的面部表情識(shí)別[J].半導(dǎo)體光電,2014,35(2):330-333.[25] 薛茹,常岐海,吳宗勝.基于Gabor小波與HOG特征的目標(biāo)檢測(cè)方法[J].電視技術(shù),2014,38(7):182-185.
[26] 胡麗喬,仇潤(rùn)鶴.一種自適應(yīng)加權(quán)HOG特征的人臉識(shí)別算法[J].計(jì)算機(jī)工程與應(yīng)用,2017,53(3):164-168.
[27] 徐淵,許曉亮,李才年,等.結(jié)合SVM分類(lèi)器與HOG特征提取的行人檢測(cè)[J].計(jì)算機(jī)工程,2016,42(1):56-60.
[28] ZHANG B,SHAN S,CHEN X,et al.Histogram of Gabor Phase Patterns(hgpp):A Novel Object Representation Approach for face Recognition[J].IEEE Transactions on Image Processing,2007,16(1):57-68.
ANovelAlgorithmforPedestrianRecognitionBasedonGaborWaveletandHOGFeature
BAO Xiao-min,REN Wen-jing,LU Wen-tao
(SchoolofInformationScienceandTechnology,ZhejiangSci-TechUniversity,HangzhouZhejiang310018,China)
Conventional algorithms for pedestrian detection based on histogram of Oriented Gradient(HOG) feature present weak performance in recognition rate and accuracy when the scenes have complex conditions.In this paper,a novel algorithm is presented for pedestrian recognition based on Gabor wavelet and HOG feature(G-HOG).In the first stage,a Gabor wavelet is first applied to obtain Gabor feature.It involves the feature transform and fusion of Gabor feature in the scale and direction.Then,the G-HOG features are generated from the Gabor image.They are finally fed into a classifier to acquire the candidate sample for pedestrian.In the second stage,the HOG features are extracted from the candidate targets.These are then used to recognize the pedestrian based on a two-category discriminator.Because of applying the fusion of Gabor feature and HOG feature,the presented algorithm enhances the recall rate and precision for pedestrian detection.The test results based on INRIA,MIT and Daimler data demonstrate that the presented algorithm has better performance.
pedestrian recognition;Gabor transform;histogram of oriented gradient;support vector machine
10.3969/j.issn.1003-3106.2017.10.06
包曉敏,任文靜,呂文濤.Gabor小波與HOG特征融合的行人識(shí)別算法[J].無(wú)線電工程,2017,47(10):25-29,48.[BAO Xiaomin,REN Wenjing,LU Wentao.A Novel Algorithm for Pedestrian Recognition Based on Gabor Wavelet and HOG Feature[J].Radio Engineering,2017,47(10):25-29,48.]
TN911.73
A
1003-3106(2017)10-0025-05
2017-04-26
國(guó)家自然科學(xué)基金資助項(xiàng)目(61601410);浙江省自然科學(xué)基金資助項(xiàng)目(LY16F010018)。
包曉敏女,(1965—),教授。主要研究方向:模式識(shí)別與圖像處理。任文靜女,(1993—),碩士研究生。主要研究方向:模式識(shí)別與圖像處理。