丁博 王水凡
摘 要:隨著高級(jí)駕駛輔助系統(tǒng)(advanced driver assistance systems, ADAS)和無(wú)人駕駛技術(shù)快速發(fā)展,交通標(biāo)志識(shí)別方法成為一個(gè)重要的研究方向。為了輔助駕駛員實(shí)現(xiàn)安全駕駛,減少交通事故的發(fā)生,將AdaBoost-SVM和卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)相結(jié)合,構(gòu)建一個(gè)混合預(yù)測(cè)模型(mixed forecasting model, MFM),通過(guò)該模型識(shí)別交通標(biāo)志。將卷積神經(jīng)網(wǎng)絡(luò)作為可訓(xùn)練的特征提取器,AdaBoost-SVM作為識(shí)別器。采用卷積層和下采樣層構(gòu)建兩組隱層結(jié)構(gòu),將預(yù)處理的圖像作為CNN模型的輸入,利用反向傳播算法(backpropagation, BP)對(duì)CNN模型進(jìn)行訓(xùn)練直至收斂,最后將測(cè)試集的高維特征提取出來(lái),采用AdaBoost-SVM分類(lèi)器進(jìn)行分類(lèi)識(shí)別。實(shí)驗(yàn)結(jié)果表明,該MFM對(duì)交通標(biāo)志具有很高的識(shí)別率和魯棒性,且識(shí)別率和收斂時(shí)效都優(yōu)于其他傳統(tǒng)算法,對(duì)提高輔助駕駛和無(wú)人駕駛的安全性具有重要意義。
關(guān)鍵詞:混合預(yù)測(cè)模型; 卷積神經(jīng)網(wǎng)絡(luò);反向傳播算法;AdaBoost-SVM分類(lèi)器;交通標(biāo)志
DOI:10.15938/j.jhust.2019.05.018
中圖分類(lèi)號(hào): TP393.4
文獻(xiàn)標(biāo)志碼: A
文章編號(hào): 1007-2683(2019)05-0108-08
Abstract:With the rapid development of Advanced Driver Assistance Systems (ADAS) and unmanned technology, the identification of traffic signs becomes an important research topic. In order to assist the driver to achieve safe driving and reduce the possibility of traffic accidents, a Mixed Forecasting Model (MFM) based on AdaBoost-SVM and CNN was proposed to identify traffic signs. In MFM, the CNN is used as a trained feature extractor and AdaBoost-SVM is used as a recognizer. The two layers of hidden layer structure were constructed by convolution and subsampling. The pretreatment images were used as the input of CNN model. The CNN model was trained by Back propagation (BP) until convergence. Finally the test set of the dimensional features were extracted, and the AdaBoost-SVM classifier was adopted to classify and identify the dimensional features. The experimental results show that the MFM has high recognition rate and robustness to traffic signs, and the recognition rate and convergence time are superior to other traditional algorithms, which are of great significance to improve the driving and unmanned safety.
Keywords:MFM; CNN; BP; AdaBoost-SVM classifier; traffic sign
0 引 言
隨著經(jīng)濟(jì)的快速發(fā)展,車(chē)輛的數(shù)量持續(xù)增多,交通事故時(shí)有發(fā)生,道路的安全性問(wèn)題日益突出,智能交通系統(tǒng)(intelligent traffic system, ITS)被認(rèn)為是解決這些問(wèn)題的基本手段[1]。其中,交通標(biāo)志識(shí)別系統(tǒng)(traffic sign recognition, TSR)作為ITS的一個(gè)重要子系統(tǒng),有效識(shí)別交通標(biāo)志,從而輔助駕駛員或控制系統(tǒng)安全駕駛,對(duì)提高車(chē)輛的安全駕駛方面具有重大意義。在現(xiàn)實(shí)的環(huán)境中,道路上的交通標(biāo)志往往由于復(fù)雜的室外環(huán)境,出現(xiàn)因光照、部分遮擋、運(yùn)行模糊等問(wèn)題,導(dǎo)致駕駛員或控制系統(tǒng)很難識(shí)別交通標(biāo)志,降低了交通的安全性,故設(shè)計(jì)并實(shí)現(xiàn)一個(gè)快速、準(zhǔn)確、有效的交通標(biāo)志識(shí)別方法,并將其反饋給駕駛?cè)藛T或控制系統(tǒng),對(duì)于駕駛的安全性具有重要的研究意義。隨之而來(lái),大量復(fù)雜的交通標(biāo)志識(shí)別算法被提出,然而目前的交通標(biāo)志識(shí)別算法存在準(zhǔn)確率高但訓(xùn)練速度慢,或者訓(xùn)練速度快識(shí)別率低等問(wèn)題,為了解決以上問(wèn)題,本文提出將AdaBoost-SVM和CNN相結(jié)合的MFM,該模型旨在對(duì)交通標(biāo)志進(jìn)行及時(shí)、準(zhǔn)確的識(shí)別,從而有效提高駕駛的安全性。
近年來(lái),在智能交通方面對(duì)交通標(biāo)志的識(shí)別取得了突破性的進(jìn)展,吸引了很多研究者投入其中。朱雙東等人通過(guò)對(duì)交通標(biāo)志的顏色和形狀進(jìn)行分析,提出了一種顏色形狀對(duì)的概念,并構(gòu)建了一個(gè)交通標(biāo)志顏色-幾何模型,對(duì)交通標(biāo)志進(jìn)行了分類(lèi)及檢測(cè)[2];劉亞辰等提出了一種融合空間塔式算子和直方圖交叉核支持向量機(jī)(HIK-SVM)的識(shí)別方法,從三個(gè)方面對(duì)圖像進(jìn)行特征提取,有效的對(duì)交通標(biāo)志進(jìn)行識(shí)別[3];繆小冬等提出了一種在復(fù)雜環(huán)境中的交通標(biāo)志識(shí)別方法,通過(guò)改進(jìn)多尺度LogGabor小波進(jìn)行特征提取,利用優(yōu)化的SVM分類(lèi)器進(jìn)行分類(lèi),識(shí)別效果良好[4];張卡等提出了一種基于中心投影的交通標(biāo)志識(shí)別算法,利用訓(xùn)練后的概率神經(jīng)網(wǎng)絡(luò),實(shí)現(xiàn)交通標(biāo)志的識(shí)別,具有較高的識(shí)別率[5]。國(guó)外研究者Lau采用深層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)對(duì)交通標(biāo)志進(jìn)行分類(lèi),并與淺層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)作比較 [6];Abedin等采用混合功能的魯棒特征描述符形成TSR系統(tǒng)的一種新方法,稱(chēng)為梯度方向直方圖(histogram of oriented gradient, HOG)特征和加速魯棒特征(Speed-up Robust Feature, SURF)和人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network, ANN)分類(lèi)器,識(shí)別準(zhǔn)確率明顯提高[7];Han等介紹了一種用于駕駛員輔助系統(tǒng)或自主車(chē)輛的交通標(biāo)志識(shí)別系統(tǒng),該系統(tǒng)利用SURF算法提取特征進(jìn)行訓(xùn)練,對(duì)交通標(biāo)志進(jìn)行檢測(cè)和識(shí)別 [8];Shams等提出了一種基于Bag-of-Word(BOW)模型的多類(lèi)交通標(biāo)志識(shí)別系統(tǒng),實(shí)現(xiàn)了88.02 %的識(shí)別率,且執(zhí)行時(shí)間短[9]。以上算法在交通標(biāo)志方面取得了良好效果,但存在訓(xùn)練時(shí)間過(guò)長(zhǎng),魯棒性較差等問(wèn)題,且隨著實(shí)驗(yàn)交通標(biāo)志樣本量的增加,識(shí)別率會(huì)有所下降。
針對(duì)以上問(wèn)題,本文對(duì)CNN結(jié)構(gòu)進(jìn)行優(yōu)化,將CNN與AdaBoost-SVM算法相組合,設(shè)計(jì)出MFM,其中,利用CNN作為特征提取器,AdaBoost-SVM作為分類(lèi)器。該優(yōu)化方法首次應(yīng)用在智能交通領(lǐng)域,本文針對(duì)交通標(biāo)志識(shí)別設(shè)計(jì)出CNN結(jié)構(gòu),包括兩個(gè)卷積層、兩個(gè)下采樣層和一個(gè)全連接層,利用反向傳播算法對(duì)模型進(jìn)行訓(xùn)練,同時(shí)在最后分類(lèi)層使用AdaBoost-SVM分類(lèi)器進(jìn)行分類(lèi)。實(shí)驗(yàn)驗(yàn)證了該組合算法的性能,并與PCA-SIFT[10-11]、K-means[12-13]和傳統(tǒng)的CNN算法[14-15]進(jìn)行識(shí)別率及收斂時(shí)間的比較,取得了良好效果。
1 構(gòu)建混合預(yù)測(cè)模型
CNN分為特征提取和分類(lèi)(預(yù)測(cè))兩個(gè)過(guò)程,它通過(guò)卷積和降采樣實(shí)現(xiàn)映射并提取不同層次的特征,最后通過(guò)單層感知機(jī)實(shí)現(xiàn)分類(lèi)。實(shí)驗(yàn)發(fā)現(xiàn)對(duì)于交通標(biāo)志圖像的識(shí)別,CNN的卷積操作可以提取輸入圖像的局部有用且關(guān)鍵的特征,而且每一個(gè)卷積圖上的神經(jīng)元共享卷積參數(shù),具有良好的特征提取能力,但僅僅通過(guò)CNN最后一層單層感知機(jī)進(jìn)行分類(lèi),容易出現(xiàn)局部最優(yōu)及過(guò)擬合等問(wèn)題,導(dǎo)致圖像分類(lèi)的準(zhǔn)確率不高。為了解決這個(gè)問(wèn)題,CNN模型通常結(jié)合其他分類(lèi)器進(jìn)行分類(lèi)預(yù)測(cè)。本文采用了AdaBoost-SVM分類(lèi)算法,相比于其他分類(lèi)算法,它在分類(lèi)預(yù)測(cè)方面具有良好的性能,可以有效避免過(guò)擬合、訓(xùn)練速度低等問(wèn)題,準(zhǔn)確的獲取全局最優(yōu)解,從而提升交通標(biāo)志分類(lèi)的準(zhǔn)確率。本文將兩種算法相結(jié)合,采用深度學(xué)習(xí)中的CNN算法對(duì)交通標(biāo)志進(jìn)行特征學(xué)習(xí),再應(yīng)用淺層學(xué)習(xí)AdaBoost-SVM算法對(duì)特征進(jìn)行分類(lèi)。
本文提出采用AdaBoost-SVM和CNN相結(jié)合的MFM識(shí)別交通標(biāo)識(shí),如圖1所示。該模型由圖像預(yù)處理、CNN特征提取、AdaBoost-SVM分類(lèi)三部分組成。首先經(jīng)過(guò)預(yù)處理后的圖像利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取與特征選擇,在獲得高維特征數(shù)據(jù)后,在應(yīng)用AdaBoost-SVM分類(lèi)器進(jìn)行分類(lèi),加速深度學(xué)習(xí)訓(xùn)練過(guò)程,有效提高分類(lèi)的準(zhǔn)確率。
區(qū)域裁剪:實(shí)驗(yàn)部分采用的每幅圖像只含一個(gè)交通標(biāo)志且位于中心位置,但仍有多余的背景信息會(huì)對(duì)目標(biāo)識(shí)別造成影響,根據(jù)不同類(lèi)別的圖像的大小進(jìn)行一定比例裁剪,使交通標(biāo)志填充整個(gè)圖像。
灰度化:由于不同地區(qū)交通標(biāo)志圖像的顏色信息會(huì)不同,導(dǎo)致同一交通標(biāo)志在不同區(qū)域下識(shí)別效果存在誤差,同時(shí)處理彩色圖像的數(shù)據(jù)量偏大,因此將交通標(biāo)志灰度化十分必要?;叶然蟮膱D像可以更好地反映圖像整體與局部的關(guān)系,降低圖像復(fù)雜度。本文采用加權(quán)平均法進(jìn)行灰度化處理即將彩色圖像的顏色值以固定的分量系數(shù)進(jìn)行求和運(yùn)算,將計(jì)算結(jié)果作為灰度圖像的灰度值,如式(1),其中 R、G、B為原始彩圖的三種顏色分量,I(x, y)是(x, y)像素點(diǎn)的灰度值。
I(x,y)=0.3×R(x,y)+0.59×G(x,y)+
0.11×B(x,y)(1)
圖像增強(qiáng):由于數(shù)據(jù)集中圖像存在光線(xiàn)暗、對(duì)比度差、模糊等問(wèn)題,需要對(duì)圖像增強(qiáng)來(lái)擴(kuò)大目標(biāo)與背景的差別,提升圖像質(zhì)量。本文采用空間域增強(qiáng)方法中的直方圖均衡化來(lái)完成圖像增強(qiáng)。通過(guò)特定的灰度映射關(guān)系將輸入的圖像映射到含有相似像素點(diǎn)的輸出圖像,增加了像素灰度值動(dòng)態(tài)范圍,達(dá)到增強(qiáng)圖像整體的對(duì)比度效果。
尺寸歸一化:數(shù)據(jù)集中圖像尺寸大小不一,且有的圖不是正方形圖像,使MFM難以提取到有效的特征向量。實(shí)驗(yàn)中采用雙三次插值算法將圖像尺寸統(tǒng)一調(diào)整到4848,可以保持圖像邊緣細(xì)節(jié)信息,使圖像降質(zhì)最少,效果最佳,便于后期交通標(biāo)志的識(shí)別[16]。
2)通過(guò)訓(xùn)練集圖像訓(xùn)練CNN模型直至收斂或穩(wěn)定。為了加速CNN收斂,卷積層采用Re LU(Rectified Linear Units)來(lái)激活神經(jīng)元[17],即
yiμ,ν=xiμ,ν/(e+αmin(N-1,i+n/2max(0,i-n/2)(xjμ,ν)2)β(2)
其中:xiμ,ν 表示(μ,ν)處通過(guò)過(guò)濾器計(jì)算得到的神經(jīng)元激活度,n是該層的核總數(shù),其余為超參數(shù)。由實(shí)驗(yàn)驗(yàn)證,將e、n、α、β分別設(shè)置為2、5、10-4、0.5。
3)MFM最后利用CNN提取的特征向量作為AdaBoost-SVM分類(lèi)器的輸入,具體的分類(lèi)過(guò)程為:首先將測(cè)試集分類(lèi)過(guò)程等分為若干層支持向量機(jī)弱分類(lèi)器的組合疊加;然后基于CNN模型提取到的特征數(shù)據(jù),應(yīng)用非線(xiàn)性SVM算法進(jìn)行交通標(biāo)志分類(lèi);根據(jù)每層SVM訓(xùn)練結(jié)果調(diào)整樣本權(quán)重;通過(guò)T次訓(xùn)練得到T個(gè)子SVM分類(lèi)器,加權(quán)求和得到AdaBoost-SVM強(qiáng)分類(lèi)器,輸出更準(zhǔn)確的交通標(biāo)志分類(lèi)結(jié)果。
首先通過(guò)實(shí)驗(yàn)預(yù)處理得到交通標(biāo)志圖像的訓(xùn)練集和測(cè)試集圖像,將訓(xùn)練集圖像對(duì)卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,從訓(xùn)練數(shù)據(jù)中進(jìn)行學(xué)習(xí),不斷調(diào)整參數(shù),直至訓(xùn)練模型穩(wěn)定或收斂,再將測(cè)試集圖像采用訓(xùn)練好的CNN模型進(jìn)行特征提取,并將提取到的特征數(shù)據(jù)作 AdaBoost-SVM分類(lèi)器的輸入。然后利用訓(xùn)練集提取到的特征數(shù)據(jù)來(lái)訓(xùn)練AdaBoost-SVM模型,調(diào)整參數(shù),直至識(shí)別率最高,訓(xùn)練完成后,把CNN采樣層中對(duì)測(cè)試集提取到的高維特征放到AdaBoost-SVM分類(lèi)器中,最后完成交通標(biāo)志分類(lèi)過(guò)程。
2 卷積神經(jīng)網(wǎng)絡(luò)
2.1 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
CNN結(jié)構(gòu)由輸入層、卷積層和采樣層組成[18]。圖4為本文構(gòu)建的交通標(biāo)志識(shí)別CNN結(jié)構(gòu)。該模型由卷積層C1、下采樣層S2、卷積層C3、下采樣層S4和全連接層F5構(gòu)成。其中CNN的輸入層為預(yù)處理后4848的圖像,利用8個(gè)可訓(xùn)練的濾波器及可加偏置進(jìn)行卷積,卷積核大小為55,卷積后在C1層形成8個(gè)大小相等的4444特征映射圖;經(jīng)過(guò)采樣層S2,采樣核大小為22,得到8個(gè)2222特征映射圖;同樣,第2個(gè)卷積層C3,采樣核大小為33,產(chǎn)生14個(gè)大小為2020特征圖;經(jīng)過(guò)采樣層S4,產(chǎn)生14個(gè)大小是1010的特征圖;在F5全連接層中,將得到的14個(gè)特征圖排列為一條列向量與F5層120個(gè)神經(jīng)元全連接。
圖4 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
Fig.4 Convolutional neural network structure
最后一層是分類(lèi)器,將Softmax分類(lèi)器替換成本文的提出的AdaBoost-SVM分類(lèi)器對(duì)交通標(biāo)志進(jìn)行分類(lèi)。通過(guò)比較預(yù)測(cè)值和真實(shí)值來(lái)調(diào)整CNN模型,當(dāng)訓(xùn)練集的識(shí)別率在CNN上表現(xiàn)穩(wěn)定時(shí),將測(cè)試集圖像輸入CNN模型中,通過(guò)AdaBoost-SVM分類(lèi)器對(duì)提取到的特征數(shù)據(jù)進(jìn)行有效分類(lèi)。
2.2 卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練
卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練采用反向傳播算法,其中樣本數(shù)據(jù)集是由:輸入向量和理想輸出向量的向量對(duì)構(gòu)成,下面是用交通標(biāo)志數(shù)據(jù)集訓(xùn)練CNN的具體過(guò)程。
第一階段,前向傳播階段:①?gòu)臉颖緮?shù)據(jù)集中取一個(gè)樣本(I,Px),將I輸入網(wǎng)絡(luò);②計(jì)算相應(yīng)的實(shí)際輸出Ox。
第二階段,反向傳播階段:①前面計(jì)算的實(shí)際輸出類(lèi)別Ox與相應(yīng)的理想輸出類(lèi)別Px做比較,求偏差;②并以誤差Ex最小化作為優(yōu)化目標(biāo),反向傳播更新連接權(quán)重矩陣。
Ex=12∑j(Pxj-Oxj)2(3)
本文在訓(xùn)練CNN模型的過(guò)程中,具體公式推導(dǎo)為:
1)在卷積層中,假設(shè)第l層為卷積層,第l+1層為下采樣層,則第l層第j個(gè)特征圖xlj的計(jì)算公式如(4),式中:ulj表示在卷積層l的第j個(gè)特征圖的凈激活(Net activation),ulj由l-1層所輸出的特征圖xl-1i和第l層的第j個(gè)卷積核klij做卷積運(yùn)算求和,然后加上一個(gè)偏置參數(shù)blj得到。其中Mj是特征圖子集,f(·)是激活函數(shù),“*”表示卷積符號(hào)。
2)在下采樣層,假設(shè)第l層為下采樣層,第l-1層為卷積層。采用一對(duì)一重疊采樣的方法,第l層計(jì)算公式如式(8),ulj表示在下采樣層l的第j個(gè)特征圖的凈激活,ulj由H層特征圖xl-1i進(jìn)行下采樣加權(quán)、偏置后得到。β是下采樣權(quán)重系數(shù), blj為下采樣偏置項(xiàng),down(n)為下采樣函數(shù)。假設(shè)采樣大小為2×2,那么 是將x中2×2的大小像素進(jìn)行求和。
3 AdaBoost-SVM組合算法
支持向量機(jī)(support vector machine, SVM)算法和AdaBoost算法均屬于比較流行的分類(lèi)算法。SVM算法以結(jié)構(gòu)風(fēng)險(xiǎn)最小化為準(zhǔn)則,通過(guò)訓(xùn)練得到的分類(lèi)器來(lái)獲得全局最優(yōu)解[19]。而AdaBoost算法通過(guò)迭代訓(xùn)練一系列弱分類(lèi)器,直到誤差達(dá)到一個(gè)足夠小的閥值來(lái)結(jié)束算法。隨著交通標(biāo)志數(shù)據(jù)樣本的增加,SVM算法的分類(lèi)準(zhǔn)確率會(huì)有所下降,同時(shí)核函數(shù)的選擇目前也沒(méi)有完善的理論支撐。而采用AdaBoost算法在處理數(shù)據(jù)集時(shí),對(duì)噪聲比較敏感,容易出現(xiàn)“過(guò)學(xué)習(xí)”,同時(shí)處理高維數(shù)據(jù)誤差比較大。將AdaBoost和SVM相結(jié)合可以有效結(jié)合兩者的優(yōu)點(diǎn)并彌補(bǔ)一部分缺點(diǎn),能夠在每次迭代過(guò)程中,通過(guò)改變SVM的參數(shù)使得AdaBoost獲得性能更好的分類(lèi)效果[20]。
圖5為本文設(shè)計(jì)的AdaBoost-SVM組合算法識(shí)別模型,該模型將SVM抽象成AdaBoost機(jī)制中的弱分類(lèi)器,利用AdaBoost算法提高任意弱分類(lèi)器的分類(lèi)性能,通過(guò)不斷迭代SVM弱分類(lèi)器,集成SVM弱分類(lèi)器,最后得到強(qiáng)分類(lèi)器進(jìn)行分類(lèi)識(shí)別。
本文訓(xùn)練AdaBoost-SVM模型的具體步驟為:
1)輸入CNN模型中特征提取數(shù)據(jù)。將卷積神經(jīng)網(wǎng)絡(luò)的特征提取后的數(shù)據(jù)作為SVM的輸入。
2)初始化樣本權(quán)值。選擇n組訓(xùn)練數(shù)據(jù),每組數(shù)據(jù)的權(quán)值為Wt(i)=1/n,i=1,選擇合適的SVM核函數(shù)及核參數(shù)。
3)弱分類(lèi)器SVM的預(yù)測(cè)。訓(xùn)練第t個(gè)弱分類(lèi)器時(shí),得到預(yù)測(cè)樣本j(t)的預(yù)測(cè)誤差et,et為
4)計(jì)算預(yù)測(cè)樣本權(quán)重。根據(jù)樣本j(t)的預(yù)測(cè)誤差et計(jì)算序列的權(quán)重ωt為
5)測(cè)試數(shù)據(jù)權(quán)值調(diào)整。根據(jù)預(yù)測(cè)樣本序列調(diào)整下一輪訓(xùn)練樣本的權(quán)值,下一輪Wt+1(i)調(diào)整為
6)獲得強(qiáng)分類(lèi)函數(shù)。經(jīng)過(guò)T次訓(xùn)練,得到T組弱分類(lèi)函數(shù)f(jt,ωt),集成所有弱分類(lèi)函數(shù)f(jt,ωt)得到的強(qiáng)分類(lèi)器函數(shù)h(x)為
對(duì)于任意的交通標(biāo)志定義為Ci,且Ci∈C={C1,C2,…,C5},設(shè)交通標(biāo)志Ci的識(shí)別率為u,它被正確分類(lèi)為Ci樣本數(shù)目為c,實(shí)際分類(lèi)為Ci的樣本數(shù)目為d,識(shí)別率為
在分類(lèi)算法的測(cè)試中,實(shí)驗(yàn)完成了基于AdaBoost-SVM算法的識(shí)別函數(shù)的訓(xùn)練設(shè)計(jì),識(shí)別的準(zhǔn)確率為93.98%。將AdaBoost-SVM分類(lèi)器分別換成SVM分類(lèi)器和AdaBoost分類(lèi)器進(jìn)行訓(xùn)練,測(cè)試結(jié)果分別為89.73%、85.12%。如表1所示。記錄3個(gè)分類(lèi)器的網(wǎng)絡(luò)訓(xùn)練時(shí)間,可以看出AdaBoost-SVM組合分類(lèi)器訓(xùn)練時(shí)間短于其他兩個(gè)分類(lèi)器,大幅提高了訓(xùn)練速度,后續(xù)實(shí)驗(yàn)中采用AdaBoost-SVM分類(lèi)器,有效縮短訓(xùn)練時(shí)間,提高收斂速度。
4 實(shí)驗(yàn)與分析
本實(shí)驗(yàn)平臺(tái)為Windows7(64bit)操作系統(tǒng),E5-2640CPU2.0GHz,64G內(nèi)存,512G固態(tài)硬盤(pán),軟件環(huán)境為MATLAB2015a。
4.1 實(shí)驗(yàn)數(shù)據(jù)集簡(jiǎn)介
實(shí)驗(yàn)使用德國(guó)交通標(biāo)志數(shù)據(jù)集(german traffic sign recognition benchmark, GTSRB),該數(shù)據(jù)集包括43類(lèi)德國(guó)實(shí)時(shí)采集的道路交通標(biāo)志圖像,主要包括限速標(biāo)志、其他禁令標(biāo)志、解除禁令標(biāo)志、指示標(biāo)志、警告標(biāo)志、其他標(biāo)志。數(shù)據(jù)集共51839張真實(shí)的道路交通標(biāo)志圖像,每張圖像僅含一個(gè)交通標(biāo)志,其中訓(xùn)練集與測(cè)試集圖像分別為39209,12630張,約3∶1。每類(lèi)圖像都是在不同的自然場(chǎng)景下進(jìn)行采集的,且每類(lèi)圖像包含大小不同、光照不同的交通標(biāo)志圖像,也會(huì)有部分圖像具有運(yùn)動(dòng)模糊、視角傾斜和局部遮擋等問(wèn)題,所以GTSRB能夠較為全面的反映真實(shí)的交通標(biāo)志情況。
4.2 預(yù)處理的有效性測(cè)試
CNN具有良好的特征提取特性,所以只需對(duì)GTSRB數(shù)據(jù)集中的圖像進(jìn)行簡(jiǎn)單且有效的預(yù)處理,從而提升原始圖像的質(zhì)量,為有效進(jìn)行交通標(biāo)志識(shí)別提供前提。本文用到的預(yù)處理方法包括區(qū)域裁剪、灰度化、圖像增強(qiáng)以及尺寸歸一化。
為了驗(yàn)證本文預(yù)處理方法的有效性,以警告標(biāo)志類(lèi)識(shí)別為例,將預(yù)處理的圖像和只經(jīng)過(guò)尺寸歸一化處理的原始圖像分別作為CNN的輸入,在網(wǎng)絡(luò)模型各個(gè)參數(shù)均相同的情況下對(duì)圖像進(jìn)行分類(lèi)識(shí)別,對(duì)比結(jié)果如圖6所示。
由圖6可知,本文預(yù)處理圖像的識(shí)別率一直高于簡(jiǎn)單處理的原始圖像的識(shí)別率,原因在于經(jīng)過(guò)預(yù)處理后的圖像其對(duì)比度、質(zhì)量、標(biāo)志范圍等都得到改善,從而增強(qiáng)了圖像中的有效特征。在整個(gè)500次迭代過(guò)程中,本文預(yù)處理的識(shí)別率最高可達(dá)到97.10%,而簡(jiǎn)單歸一化處理的圖像的識(shí)別率為95.13%,即預(yù)處理圖像使網(wǎng)絡(luò)的識(shí)別率總體提高2%。
4.3 CNN模型對(duì)圖像的特征表示
為了測(cè)試CNN模型對(duì)交通標(biāo)志圖像的各層特征表示,實(shí)驗(yàn)中將某一預(yù)處理后的交通標(biāo)志作為訓(xùn)練好的CNN模型的輸入,提取到卷積層C1、下采樣S2、卷積層C3、下采樣S4特征表示如圖7所示。
觀察圖7不難發(fā)現(xiàn),預(yù)處理后的交通標(biāo)志圖像為菱形且位于圖像的中心區(qū)域,經(jīng)過(guò)CNN網(wǎng)絡(luò)提取得到的各層特征,其交通標(biāo)志與背景的對(duì)比度很大,有利于后續(xù)實(shí)驗(yàn)對(duì)交通標(biāo)志類(lèi)別的判斷。本組實(shí)驗(yàn)說(shuō)明本文構(gòu)建的CNN網(wǎng)絡(luò)模型可以有效提取交通標(biāo)志的多尺度特征。
4.4 MFM分類(lèi)的識(shí)別率分析
為了驗(yàn)證本文提出的MFM識(shí)別效果,通過(guò)實(shí)驗(yàn),運(yùn)用識(shí)別率和收斂時(shí)間對(duì)交通標(biāo)志的分類(lèi)性能進(jìn)行評(píng)價(jià)。
實(shí)驗(yàn)中,調(diào)整MFM訓(xùn)練次數(shù)直至識(shí)別率最佳。當(dāng)訓(xùn)練次數(shù)(N)為100、300、500的情況下對(duì)交通標(biāo)志識(shí)別率及MFM性能進(jìn)行比較。表2對(duì)不同訓(xùn)練次數(shù)N下的MFM的特征性能進(jìn)行比較,發(fā)現(xiàn)隨著N的增加CNN訓(xùn)練時(shí)間成倍的增長(zhǎng);然而不同N下的網(wǎng)絡(luò)特征提取時(shí)間相差不多;在N為300時(shí),分類(lèi)器訓(xùn)練時(shí)間和分類(lèi)識(shí)別時(shí)間最短。
表3對(duì)比了不同N下的6種交通標(biāo)志識(shí)別率的情況,其中,在限速標(biāo)志識(shí)別時(shí),N為300比100的識(shí)別率提高了5.25%;而在警告標(biāo)志識(shí)別時(shí),N為500比300的識(shí)別率只提高了1.73%,沒(méi)有明顯的提升。
結(jié)果表明,N為300或500時(shí)識(shí)別率較高,且相差不多,但CNN訓(xùn)練時(shí)間后者是前者的兩倍,且N為300時(shí)MFM特征性能最佳,所以從訓(xùn)練時(shí)間和識(shí)別率綜合考慮,N取300比較合適。
綜合上述因素,MFM在后續(xù)實(shí)驗(yàn)中選定訓(xùn)練次數(shù)為300,來(lái)提高分類(lèi)的準(zhǔn)確率。為了更好地評(píng)價(jià)本文提出的模型,實(shí)驗(yàn)中選擇幾種常見(jiàn)的算法和本文提出的算法對(duì)交通標(biāo)志識(shí)別效果進(jìn)行比較。將實(shí)驗(yàn)測(cè)試數(shù)據(jù)依次采用PCA-SIFT、K-means和傳統(tǒng)的CNN算法進(jìn)行識(shí)別,統(tǒng)計(jì)每種算法的分類(lèi)結(jié)果的整體準(zhǔn)確率,與本文提出的算法進(jìn)行對(duì)比,實(shí)驗(yàn)結(jié)果如圖8所示。
對(duì)4種算法的識(shí)別率進(jìn)行比較,可以看出,在任何交通標(biāo)志下,本文提出的算法識(shí)別率均在90%以上,最高可達(dá)到98.13%,其中在警告標(biāo)志的識(shí)別中,比K-means算法提高了5.88%;在指示標(biāo)志的識(shí)別中,比PCA-SIFT算法提高了7.07%;限速標(biāo)志的識(shí)別中,比CNN算法提高了3.21%。主要的原因:K-means算法中聚類(lèi)個(gè)數(shù)K是事先設(shè)定的,K值的選定很難估計(jì),導(dǎo)致分類(lèi)識(shí)別率不高;傳統(tǒng)的CNN通過(guò)最后一層單層感知機(jī)進(jìn)行分類(lèi),當(dāng)數(shù)據(jù)量較大時(shí),容易出現(xiàn)局部最優(yōu),識(shí)別率會(huì)降低;PCA-SIFT算法的投影矩陣需要一系列的代表性圖像,由于交通標(biāo)志圖像的復(fù)雜性,導(dǎo)致準(zhǔn)確率不高。
隨著樣本數(shù)量的增加,不同的算法呈現(xiàn)收斂時(shí)間如圖9,實(shí)驗(yàn)發(fā)現(xiàn)本文算法比其他的算法收斂速度要快。
上述實(shí)驗(yàn)表明,本文提出的算法在交通標(biāo)志識(shí)別上,不論是識(shí)別準(zhǔn)確率還是收斂時(shí)間都優(yōu)于其他算法。
5 結(jié) 語(yǔ)
本文以GTSRB為研究對(duì)象,將AdaBoost-SVM和CNN兩種算法相結(jié)合,提出了一種混合預(yù)測(cè)模型MFM,在交通標(biāo)志識(shí)別的問(wèn)題上取得了良好的效果。該模型首先對(duì)數(shù)據(jù)集圖像進(jìn)行預(yù)處理,然后利用卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行特征提取,最后將提取的特征數(shù)據(jù)采用AdaBoost-SVM分類(lèi)器進(jìn)行交通標(biāo)志識(shí)別。經(jīng)仿真驗(yàn)證,卷積神經(jīng)網(wǎng)絡(luò)與AdaBoost-SVM算法相結(jié)合,既保持了傳統(tǒng)CNN算法特征提取的優(yōu)勢(shì),又提高了分類(lèi)器的性能,實(shí)驗(yàn)驗(yàn)證交通標(biāo)志的預(yù)測(cè)識(shí)別率約為95%。其識(shí)別準(zhǔn)確率優(yōu)于傳統(tǒng)的幾種算法,且收斂至預(yù)設(shè)閾值更加迅速。分類(lèi)結(jié)果驗(yàn)證了該MFM的有效性和可行性,對(duì)輔助駕駛員及無(wú)人駕駛車(chē)輛對(duì)交通標(biāo)志的預(yù)測(cè)具有良好的實(shí)用參考價(jià)值。
參 考 文 獻(xiàn):
[1] CHANG X, CHEN B Y, LI Q, et al. Estimating Real-Time Traffic Carbon Dioxide Emissions Based on Intelligent Transportation System Technologies[J]. Intelligent Transportation Systems, 2013, 14(1): 469.
[2] 朱雙東, 劉蘭蘭, 陸曉峰,等.一種用于道路交通標(biāo)志識(shí)別的顏色-幾何模型[J].儀器儀表學(xué)報(bào), 2007, 28(5): 956.
[3] 劉亞辰, 陳躍鵬, 張賽碩,等. 融合式空間塔式算子和HIK-SVM的交通標(biāo)志識(shí)別研究[J]. 交通運(yùn)輸系統(tǒng)工程與信息, 2017, 17(1): 220.
[4] 繆小冬, 李舜酩, 沈峘,等. 復(fù)雜環(huán)境中交通標(biāo)志的實(shí)時(shí)識(shí)別方法[J]. 江蘇大學(xué)學(xué)報(bào)(自然科學(xué)版), 2013, 34(5): 514.
[5] 張卡, 盛業(yè)華, 葉春,等. 基于中心投影形狀特征的車(chē)載移動(dòng)測(cè)量系統(tǒng)交通標(biāo)志自動(dòng)識(shí)別[J]. 儀器儀表學(xué)報(bào), 2010, 31(9): 2101.
[6] LAU M M, LIM K H, GOPALAI A A. Malaysia Traffic Sign Recognition with Convolutional Neural Network[C]// IEEE International Conference on Digital Signal Processing. IEEE, 2015: 1006.
[7] ABEDIN M Z, DHAR P, DEB K. Traffic Sign Recognition Using Hybrid Features Descriptor and Artificial Neural Network Classifier[C]// International Conference on Computer and Information Technology, 2016: 457.
[8] HAN Y, VIRUPAKSHAPPA K, ORUKLU E. Robust Traffic Sign Recognition with Feature Extraction and k-NN Classification Methods[C]// IEEE International Conference on Electro/information Technology. IEEE, 2015: 484.
[9] SHAMS M M, KAVEH H, SAFABAKHSH R. Traffic Sign Recognition Using an Extended Bag-of-features Model with Spatial Histogram[C]// Signal Processing and Intelligent Systems Conference, 2015: 189.
[10]WANG Y W, YU H L. Image Registration Method Based on PCA-SIFT Feature Detection[J]. Advanced Materials Research, 2013, 715: 2395.
[11]于之靖,王韶彬.改進(jìn)PCA-SIFT算法的立體匹配系統(tǒng)[J].激光與光電子學(xué)進(jìn)展, 2016, 53(3): 177.
[12]BLOMER J, BRAUER S, BUJNA K. A Theoretical Analysis of the Fuzzy K-Means Problem[C]// IEEE, International Conference on Data Mining, IEEE, 2016: 805.
[13]劉雪娟,袁家斌,許娟,等.量子k-means算法[J].吉林大學(xué)學(xué)報(bào)(工學(xué)版), 2018, 48(2): 539.
[14]李蘭英,孔銀,陳德運(yùn).一種新的卷積神經(jīng)網(wǎng)絡(luò)的ECT圖像重建算法[J]. 哈爾濱理工大學(xué)學(xué)報(bào), 2017, 22(4): 28.
[15]劉長(zhǎng)征,張磊.語(yǔ)音識(shí)別中卷積神經(jīng)網(wǎng)絡(luò)優(yōu)化算法[J]. 哈爾濱理工大學(xué)學(xué)報(bào), 2016, 21(3): 34.
[16]龐志勇, 譚洪舟, 陳弟虎. 一種改進(jìn)的低成本自適應(yīng)雙三次插值算法及VLSI實(shí)現(xiàn)[J]. 自動(dòng)化學(xué)報(bào), 2013, 39(4): 407.
[17]史鶴歡, 許悅雷, 馬時(shí)平, 等. PCA預(yù)訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)目標(biāo)識(shí)別算法[J]. 西安電子科技大學(xué)學(xué)報(bào)(自然科學(xué)版), 2016, 43(3): 161.
[18]胡長(zhǎng)雨. 基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)算法研究[D].哈爾濱:哈爾濱理工大學(xué), 2017: 34.
[19]丁然. 支持向量機(jī)多類(lèi)分類(lèi)算法研究[D]. 哈爾濱:哈爾濱理工大學(xué), 2012: 44.
[20]CHENG W C, JHAN D M. Triaxial Accelerometer-Based Fall Detection Method Using a Self-Constructing Cascade-AdaBoost-SVM Classifier[J]. IEEE Journal of Biomedical & Health Informatics, 2013, 17(2): 411.
(編輯:溫澤宇)