菅博瑞 王怡素
摘要:針對(duì)智能交通車(chē)輛圖像特征識(shí)別問(wèn)題,本文對(duì)深度網(wǎng)絡(luò)和車(chē)輛圖像特征提取方法進(jìn)行研究,構(gòu)建一種車(chē)輛特征檢測(cè)網(wǎng)絡(luò)結(jié)構(gòu)。實(shí)驗(yàn)表明通過(guò)對(duì)車(chē)輛圖像變換拉伸等數(shù)據(jù)增強(qiáng)操作,并在結(jié)構(gòu)中引入隨機(jī)清零,在保證識(shí)別率的前提下有效抑制了模型過(guò)擬合現(xiàn)象。最后運(yùn)用特征提取結(jié)合自己設(shè)計(jì)的分類層訓(xùn)練出模型,該模型對(duì)車(chē)輛前后端圖像特征有較高的識(shí)別率。
關(guān)鍵詞:深度學(xué)習(xí);數(shù)據(jù)增強(qiáng);圖像識(shí)別;過(guò)擬合
中圖分類號(hào):TP31 ? ? 文獻(xiàn)標(biāo)識(shí)碼:A ? ?文章編號(hào):1009-3044(2019)14-0147-04
1 引言
隨著智慧城市、物聯(lián)網(wǎng)前沿技術(shù)的迅速發(fā)展,智能時(shí)代已經(jīng)到來(lái),車(chē)輛圖像識(shí)別和特征檢測(cè)成為智能交通的熱點(diǎn)問(wèn)題[1]。新風(fēng)潮下,圖像識(shí)別技術(shù)在車(chē)輛違章監(jiān)管應(yīng)用中顯得愈發(fā)常見(jiàn)。在傳統(tǒng)的交通監(jiān)督機(jī)制中,僅依靠警力監(jiān)管車(chē)輛違章行為,浪費(fèi)了人力資源的同時(shí)也不能保證實(shí)時(shí)監(jiān)督,在一定程度上存在較大的弊端。為了改善交通道路車(chē)輛運(yùn)行效率,完善自動(dòng)化管理,對(duì)車(chē)輛圖像識(shí)別方法的研究顯得日益迫切。該技術(shù)在交通監(jiān)管、治安巡防、嫌疑車(chē)輛跟蹤等領(lǐng)域有著重要應(yīng)用,在實(shí)時(shí)性和準(zhǔn)確性方面要求極高[2]。車(chē)輛違章逆行現(xiàn)象常發(fā)生在單向行駛道路,對(duì)往來(lái)行人和車(chē)輛造成了很大的安全隱患,大大降低了道路交通的運(yùn)行效率。基于圖像處理的違章逆行識(shí)別技術(shù)能夠及時(shí)檢測(cè)并識(shí)別違章逆行,保障了行人和車(chē)輛的交通安全。利用傳統(tǒng)抓拍監(jiān)控融合深度網(wǎng)絡(luò)模型,對(duì)車(chē)輛前后端進(jìn)行識(shí)別檢測(cè)來(lái)判斷其是否處于逆行狀態(tài),在此基礎(chǔ)上結(jié)合圖像處理技術(shù)進(jìn)行牌照字符識(shí)別[3],能夠節(jié)省警力和硬件資源。
目前國(guó)內(nèi)外對(duì)該方法的研究大致分為3個(gè)方向,其中基于外觀特征的車(chē)輛圖像識(shí)別技術(shù)主要通過(guò)目標(biāo)檢測(cè)、車(chē)輛分割、車(chē)輛的特征提取以及分類這幾個(gè)主要步驟來(lái)完成。傳統(tǒng)識(shí)別圖像的方法包括統(tǒng)計(jì)模式識(shí)別[4]、支持向量機(jī)[5]、模板匹配[6]技術(shù)以及新興的神經(jīng)網(wǎng)絡(luò)[7],早期特征提取是人工設(shè)計(jì)的,存在識(shí)別準(zhǔn)確率低和檢測(cè)速度慢等缺陷。
目前,深度網(wǎng)絡(luò)學(xué)習(xí)算法在圖像分類和目標(biāo)物檢測(cè)識(shí)別等方面取得了很好的效果,可以使用訓(xùn)練數(shù)據(jù)來(lái)適應(yīng)不同的網(wǎng)絡(luò)構(gòu)建特征[8]。卷積運(yùn)算能夠自動(dòng)提取并學(xué)習(xí)車(chē)輛圖像特征,而且權(quán)值共享等算法的創(chuàng)新使得網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)數(shù)量級(jí)驟減[9],增強(qiáng)了網(wǎng)絡(luò)泛化能力。針對(duì)上述問(wèn)題,本文通過(guò)研究基于深度學(xué)習(xí)的圖像識(shí)別方法,對(duì)車(chē)輛局部特征進(jìn)行檢測(cè)識(shí)別探討。
2 深度卷積神經(jīng)網(wǎng)絡(luò)
2.1 神經(jīng)網(wǎng)絡(luò)原理
1)神經(jīng)網(wǎng)絡(luò)的構(gòu)成依賴于神經(jīng)元這一基本單元,神經(jīng)元的基本模型用表達(dá)式表示為:
其中f()表示激活函數(shù),本文使用的激活函數(shù)為relu和sigmoid,后者是一種擠壓函數(shù),它可以把很大的值域范圍壓縮為0~1之間,[yk]值的計(jì)算是由輸入數(shù)據(jù)與其對(duì)應(yīng)的權(quán)值進(jìn)行線性計(jì)算并求和,結(jié)果加上偏置值[bk],然后通過(guò)激活函數(shù)f()計(jì)算獲得。
2)網(wǎng)絡(luò)模型在訓(xùn)練的過(guò)程中,就是利用梯度下降算法來(lái)對(duì)每層網(wǎng)絡(luò)的權(quán)重參數(shù)進(jìn)行重新調(diào)整的過(guò)程,通過(guò)把輸出信號(hào)和期望信號(hào)得到誤差進(jìn)行比較,利用鏈?zhǔn)角髮?dǎo)法則將誤差逐層向前傳播從而獲取各層誤差,其中調(diào)整各層權(quán)重以及相關(guān)參數(shù)的依據(jù)就是這些誤差信號(hào)。輸入層通常是不經(jīng)過(guò)神經(jīng)元進(jìn)行計(jì)算的,因此輸入層的輸出與輸入是相等的。而對(duì)于隱藏層和輸出層的輸出,需要結(jié)合與單元j相連的單元,單元j的輸入計(jì)算表示為:
網(wǎng)絡(luò)模型終止訓(xùn)練時(shí)的信號(hào)可以開(kāi)發(fā)人員設(shè)定,也可以是網(wǎng)絡(luò)收斂到一定的程度自己終止。選取終止信號(hào)的條件相當(dāng)重要,如果是人為設(shè)定迭代次數(shù),那么次數(shù)過(guò)多,網(wǎng)絡(luò)模型可能會(huì)出現(xiàn)過(guò)度擬合問(wèn)題,次數(shù)太少,網(wǎng)絡(luò)訓(xùn)練時(shí)誤差降低的程度會(huì)過(guò)低。
2.2 卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別上的優(yōu)勢(shì)
近年來(lái),隨著計(jì)算機(jī)視覺(jué)領(lǐng)域的不斷發(fā)展,深度學(xué)習(xí)技術(shù)日趨成熟,其中,卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別中扮演著非常重要的角色,提高了運(yùn)算效率并且實(shí)現(xiàn)了對(duì)圖像高精度的識(shí)別。
1)降低了網(wǎng)絡(luò)總參數(shù)量的數(shù)量級(jí)
卷積實(shí)際上就是使用兩個(gè)大小不同的矩陣進(jìn)行的一種數(shù)學(xué)運(yùn)算,并且較于傳統(tǒng)神經(jīng)網(wǎng)絡(luò),卷積層使用局部連接和權(quán)值共享方法大大減少了網(wǎng)絡(luò)總參數(shù)量的數(shù)量級(jí),能更好地抽取出車(chē)輛的局部特征和邊緣信息。
2)圖像視覺(jué)上擁有良好不變性規(guī)則
本文用于實(shí)驗(yàn)研究拍攝的圖像數(shù)據(jù)集有限,需要進(jìn)行旋轉(zhuǎn)平移、參數(shù)縮放等圖像變化進(jìn)行數(shù)據(jù)集擴(kuò)充,而且圖像受相機(jī)拍攝的角度、距離、天氣環(huán)境、光照等因素的影響較大。卷積神經(jīng)網(wǎng)絡(luò)能較好避免因?yàn)檐?chē)輛外觀變形帶來(lái)的不利影響,即待辨識(shí)的物體在圖像中的形狀、姿勢(shì)、位置、明暗度都不會(huì)影響分類結(jié)果。
3)多通道卷積
多通道卷積層允許網(wǎng)絡(luò)輸入原始彩色圖像,較于灰度圖,最大程度上保留了圖像的特征,能夠有效地利用圖像顏色信息。
3 深度學(xué)習(xí)算法對(duì)車(chē)輛前后端圖像識(shí)別
3.1車(chē)輛圖像數(shù)據(jù)加工預(yù)處理
本文采用的車(chē)輛圖像數(shù)據(jù)均來(lái)自移動(dòng)端設(shè)備拍攝采集的,大部分是晴天拍攝,少量圖像是雨雪天拍攝的。首先就是把拍攝的圖片進(jìn)行分類,分別存放到三個(gè)文件夾中,訓(xùn)練路徑、校驗(yàn)路徑、測(cè)試路徑,其中每個(gè)文件夾中又分成兩個(gè)子文件,分別為behind和front,用來(lái)存放車(chē)的后端和前端圖像,在一定圖像數(shù)量基礎(chǔ)上進(jìn)行模型的訓(xùn)練和測(cè)試。由于數(shù)據(jù)集中的原始數(shù)據(jù)并沒(méi)有按照規(guī)格大小統(tǒng)一處理,對(duì)于不同的圖片,其規(guī)格尺寸都不盡相同,因此數(shù)據(jù)在輸入網(wǎng)絡(luò)之前需要對(duì)數(shù)據(jù)集進(jìn)行處理,把數(shù)據(jù)集剪裁成既定的尺寸,由于硬件設(shè)備算力有限,這里在保證車(chē)輛圖像不失真的情況下把圖像剪裁為150*150像素的,然后輸入網(wǎng)絡(luò)中對(duì)模型進(jìn)行訓(xùn)練。
3.2網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)
本文構(gòu)建網(wǎng)絡(luò)結(jié)構(gòu)使用的深度學(xué)習(xí)框架是keras,網(wǎng)絡(luò)的輸入層用來(lái)接收?qǐng)D像的三維矩陣數(shù)據(jù),網(wǎng)絡(luò)結(jié)構(gòu)最后是分類層,對(duì)車(chē)輛前后端進(jìn)行分類。文中使用的彩色圖像決定了矩陣是三維的,因此網(wǎng)絡(luò)結(jié)構(gòu)需要使用三通道卷積核。文中網(wǎng)絡(luò)1結(jié)構(gòu)的構(gòu)建共有10層,具有四個(gè)卷積運(yùn)算層、四個(gè)池化操作層和兩個(gè)全連接層,卷積層和池化層的結(jié)合方式是相互交替進(jìn)行的,文中數(shù)據(jù)像素點(diǎn)具有三個(gè)分量,數(shù)據(jù)形式為150*150*3。在四個(gè)卷積層中,卷積核形式為3*3*3,在進(jìn)行卷積運(yùn)算時(shí),卷積核移動(dòng)步長(zhǎng)為1,運(yùn)算結(jié)束后,輸出的特征圖通道數(shù)與上一層卷積核的數(shù)量一致。在該網(wǎng)絡(luò)結(jié)構(gòu)中,卷積運(yùn)算輸出的特征圖傳入到池化層進(jìn)行特征的強(qiáng)化,提取的特征圖經(jīng)過(guò)最后一層池化層下采樣,得到形式為128*7*7的特征圖,最有用flatten層把特征圖轉(zhuǎn)化為一維矩陣,作為從卷積層到全連接層的過(guò)渡,本文的網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)設(shè)置如下:
通過(guò)分析網(wǎng)絡(luò)層的卷積核數(shù)量和大小,以及輸入網(wǎng)絡(luò)的圖像大小可以粗略了解網(wǎng)絡(luò)中的參數(shù)數(shù)量級(jí),激活函數(shù)層和池化層是沒(méi)有參數(shù)的,不需要學(xué)習(xí),它們只是提供了一種非線性的變換。視覺(jué)類網(wǎng)絡(luò)組件中帶參數(shù)的層主要有卷積層和全連接層,而且粗略估計(jì)參數(shù)量時(shí)一般不考慮偏執(zhí)項(xiàng)的參數(shù)量,因?yàn)椴粫?huì)影響總參數(shù)量的數(shù)量級(jí)。
文中池化層主要是對(duì)卷積層的卷積結(jié)果進(jìn)行下采樣操作,作用是降低緯度并保留有效信息,緩解過(guò)擬合現(xiàn)象。文中采用的采樣策略是最大值區(qū)域采樣,由于網(wǎng)絡(luò)需要對(duì)車(chē)輛圖像進(jìn)行二分類,所以最后一層只有一個(gè)神經(jīng)元,最后文中通過(guò)全連接層把以前的局部特征重新通過(guò)權(quán)值矩陣組裝成完整的圖。
3.3 圖像批量輸入和像素規(guī)格化處理
對(duì)圖像進(jìn)行規(guī)格化處理就是把像素點(diǎn)的值除以255,使之在0到1之間,然后指定圖像數(shù)據(jù)集路徑,批量讀入圖像。網(wǎng)絡(luò)結(jié)構(gòu)中參數(shù)batch_size=20,分批次往內(nèi)存輸入圖片,每次讀取20張,keras框架中封裝了批量讀取圖像的類Generator,然后結(jié)合循環(huán)語(yǔ)句讀取。因?yàn)閿?shù)據(jù)集中只包含車(chē)輛前后端兩類,本文使用參數(shù)class_mode為讀取的圖像分別賦值為0和1,用來(lái)作為模型訓(xùn)練時(shí)的標(biāo)簽值,對(duì)訓(xùn)練集中每張圖像進(jìn)行標(biāo)注,是模型學(xué)習(xí)提取車(chē)輛特征的重要環(huán)節(jié)。文中用來(lái)實(shí)驗(yàn)的數(shù)據(jù)共有1000張圖像,由于在構(gòu)造網(wǎng)絡(luò)時(shí)batch_size=20,因此參數(shù)steps_per_epoch的值設(shè)置為50,保證1000張圖像全部輸入到網(wǎng)絡(luò)中。
3.4 特征圖可視化
這里通過(guò)對(duì)卷積層和池化層的輸出特征圖進(jìn)行可視化,來(lái)展示卷積神經(jīng)網(wǎng)絡(luò)連續(xù)的層是如何對(duì)輸入的圖像數(shù)據(jù)進(jìn)行特征提取的。本文用視覺(jué)化的方式展示部分網(wǎng)絡(luò)層抽取圖片信息的方式,圖1表明,隨著層數(shù)的加深,特征層變得越來(lái)越抽象,難以用視覺(jué)信息進(jìn)行直觀解釋,但是可以明顯感受到特征圖確實(shí)已經(jīng)開(kāi)始在表征高層次的視覺(jué)概念,提取的特征越來(lái)越抽象。
4實(shí)驗(yàn)研究
為了評(píng)估優(yōu)化后的深度卷積網(wǎng)絡(luò)模型對(duì)車(chē)輛前后端識(shí)別的準(zhǔn)確率,在數(shù)據(jù)集上進(jìn)行研究分析,實(shí)驗(yàn)測(cè)試如下。
4.1 實(shí)驗(yàn)環(huán)境
目前可供選擇深度學(xué)習(xí)框架環(huán)境有Keras、Caffe和Tensorflow等。選擇Keras框架環(huán)境是因?yàn)镵eras比較適合在初期學(xué)習(xí)探索深度學(xué)習(xí)階段快速地嘗試各種網(wǎng)絡(luò)結(jié)構(gòu),框架中組件是可插拔的模塊,可以很方便的將卷積層、激活函數(shù)等銜接起來(lái)。實(shí)驗(yàn)環(huán)境如表2所示。
實(shí)驗(yàn)初期,本文首先構(gòu)造了一個(gè)能初步判別車(chē)輛前后端的網(wǎng)絡(luò)模型,該深度網(wǎng)絡(luò)結(jié)構(gòu)目前沒(méi)有使用任何優(yōu)化方法,但圖2表明,模型在訓(xùn)練數(shù)據(jù)和驗(yàn)證數(shù)據(jù)上的平均識(shí)別率能達(dá)到90%以上,第一張圖表明模型對(duì)訓(xùn)練集的識(shí)別率在不斷提升,不過(guò)用驗(yàn)證數(shù)據(jù)進(jìn)行測(cè)試網(wǎng)絡(luò)模型時(shí),迭代次數(shù)過(guò)少會(huì)出現(xiàn)準(zhǔn)確率變化浮動(dòng)劇烈的現(xiàn)象,迭代次數(shù)在22以后,識(shí)別率開(kāi)始穩(wěn)定。第二張圖表明,模型在訓(xùn)練集上的表現(xiàn)良好,損失值呈下降趨勢(shì)且維持在較低水平,但是模型在驗(yàn)證集上的損失值在迭代次數(shù)為20時(shí)反而開(kāi)始明顯上升,表明模型出現(xiàn)了一定程度過(guò)擬合現(xiàn)象,這種情況下如果只是加大模型的訓(xùn)練強(qiáng)度,過(guò)擬合現(xiàn)象并不能有效解決。人工智能是依靠于大數(shù)據(jù)的基礎(chǔ)上,才能從圖像中抽取廣泛而通用的特征規(guī)律,因此該模型訓(xùn)練受到一個(gè)嚴(yán)重的制約因素,那就是數(shù)據(jù)量過(guò)少帶來(lái)的問(wèn)題。
4.2 數(shù)據(jù)增強(qiáng)和隨機(jī)清零緩解過(guò)擬合
1)對(duì)于解決過(guò)擬合的辦法就是提供大量數(shù)據(jù)集,讓模型在更可能多的數(shù)據(jù)上進(jìn)行擬合,不斷修正權(quán)重參數(shù),然而收集無(wú)限多數(shù)據(jù)是不現(xiàn)實(shí)的,因此本文通過(guò)數(shù)據(jù)增強(qiáng)的方法調(diào)整已有的數(shù)據(jù),通過(guò)添加噪聲和銳化、旋轉(zhuǎn)、拉伸、壓縮、明暗度調(diào)整等方法擴(kuò)充車(chē)輛圖像數(shù)量。
2)文中引入隨機(jī)清零,即使用Dropout在網(wǎng)絡(luò)結(jié)構(gòu)中,這是一種有效緩解過(guò)擬合現(xiàn)象的方法,這樣在訓(xùn)練模型時(shí)每次按50%的幾率關(guān)閉或者忽略某些層的神經(jīng)元節(jié)點(diǎn),使得模型在使用同樣的數(shù)據(jù)進(jìn)行訓(xùn)練時(shí)相當(dāng)于從不同的結(jié)構(gòu)中隨機(jī)選擇一個(gè)進(jìn)行訓(xùn)練。
圖4表明,圖像的變換和隨機(jī)清零這兩種操作可以對(duì)過(guò)擬合產(chǎn)生很好的抑制作用。模型在訓(xùn)練和校驗(yàn)集上對(duì)車(chē)輛前后端識(shí)別正確率逐漸上升,且平均識(shí)別率能達(dá)到85%以上,第二張圖反映了模型在數(shù)據(jù)集上的損失表現(xiàn),兩種損失變化趨勢(shì)基本處于同步狀態(tài),說(shuō)明過(guò)擬合現(xiàn)象得到了緩解,但是文中使用的數(shù)據(jù)增強(qiáng)變換后的圖像與原圖像相關(guān)性太強(qiáng),本質(zhì)上網(wǎng)絡(luò)獲取到的有效信息不多,因此網(wǎng)絡(luò)2識(shí)別效果改進(jìn)不明顯,尤其是在識(shí)別準(zhǔn)確率上,雖然也能接近90%,但是較于網(wǎng)絡(luò)1反而有所下降。
4.3 用Finetuning微調(diào)復(fù)用VGG網(wǎng)絡(luò)提升模型識(shí)別準(zhǔn)確率
在深度網(wǎng)絡(luò)結(jié)構(gòu)中,隨著層數(shù)加深,網(wǎng)絡(luò)對(duì)車(chē)輛圖像的特征提取粒度會(huì)變得越來(lái)越細(xì)。一般深度學(xué)習(xí)模型的最后幾層是全連接層,用來(lái)對(duì)圖像進(jìn)行分類,因此可以將其替換成本文所需要的結(jié)構(gòu)對(duì)車(chē)輛前后端進(jìn)行分類識(shí)別。卷積神經(jīng)網(wǎng)絡(luò)前幾層學(xué)到的是通用特征,后面幾層學(xué)到的是與類別相關(guān)的特征,而具體分類的特征層放在最后。
本文首先對(duì)VGG模型進(jìn)行修改,該模型最初是用來(lái)對(duì)上千個(gè)類別進(jìn)行判定識(shí)別的,這里是需要對(duì)車(chē)輛前后端圖像進(jìn)行識(shí)別,本文在VGG模型基礎(chǔ)上添加一層連接層,然后對(duì)輸出通道參數(shù)重新設(shè)置為1,接著通過(guò)Finetuning對(duì)深度模型的權(quán)重參數(shù)進(jìn)行重新訓(xùn)練調(diào)整。VGG模型訓(xùn)練集規(guī)模遠(yuǎn)大于文中提供的數(shù)據(jù)量,所以原始網(wǎng)絡(luò)層權(quán)重參數(shù)需保持不變,這里通過(guò)設(shè)置trainable參數(shù)保證部分網(wǎng)絡(luò)層參數(shù)在訓(xùn)練過(guò)程中保持原始值。
模型重新訓(xùn)練完成后,存儲(chǔ)下來(lái)用于觀察在驗(yàn)證集上的表現(xiàn)。這里存儲(chǔ)的模型是進(jìn)行Finetuning后訓(xùn)練的模型,用驗(yàn)證集判定后其平均識(shí)別準(zhǔn)確率可以達(dá)到93.13%,并且第二張圖表明,模型在訓(xùn)練集與驗(yàn)證集上的損失值變化規(guī)律高度吻合,很好地緩解了過(guò)擬合現(xiàn)象。
通過(guò)對(duì)表3分析得出,在不產(chǎn)生過(guò)擬合的情況下,網(wǎng)絡(luò)3識(shí)別準(zhǔn)確率較網(wǎng)絡(luò)1提升了近7個(gè)百分點(diǎn),較網(wǎng)絡(luò)2提升了近11個(gè)百分點(diǎn)。
5 結(jié)束語(yǔ)
本文對(duì)車(chē)輛前后端圖像分類識(shí)別方法進(jìn)行分析研究,針對(duì)傳統(tǒng)圖像識(shí)別方法提取低像素圖像特征復(fù)雜的問(wèn)題,利用Keras深度學(xué)習(xí)框架構(gòu)造了一個(gè)基于深度卷積神經(jīng)網(wǎng)絡(luò)的圖像識(shí)別模型,通過(guò)Finetuning復(fù)用VGG部分卷積層的基礎(chǔ)上結(jié)合本文構(gòu)造的分類層,重新訓(xùn)練存儲(chǔ)一個(gè)深度網(wǎng)絡(luò)模型。該模型在有效抑制過(guò)擬合現(xiàn)象的基礎(chǔ)上,有效提高了模型在測(cè)試集上的識(shí)別準(zhǔn)確率,對(duì)該方法的研究在車(chē)輛違章逆行監(jiān)管方面,有一定的應(yīng)用和理論參考價(jià)值。
參考文獻(xiàn):
[1] 張若偉,王猛.基于多特征的車(chē)輛檢測(cè)方法的研究[J].電腦知識(shí)與技術(shù),2018(7).
[2] 趙振東. 基于圖像處理的車(chē)輛違章逆行識(shí)別.Internet Security,2018.
[3] 宋馳, 沈國(guó)江, 楊永耀等.車(chē)牌自動(dòng)識(shí)別技術(shù)概述[A].第七屆中國(guó)智能交通年會(huì)優(yōu)秀論文集——智能交通應(yīng)用[C].2012.
[4] 張旭東,錢(qián)瑋,高雋,等.基于稀疏貝葉斯分類器的汽車(chē)車(chē)型識(shí)別[J].小型微型計(jì)算機(jī)系統(tǒng),2005(8).
[5] 陳愛(ài)斌.基于支持向量機(jī)的車(chē)型識(shí)別[D].湖南:中南大學(xué),2004.
[6] Wei W, Zhang Q, Wang M. A Method of Vehicle Classification using Models and Neural Networks[C]// Vehicular Technology Conference. IEEE, 2001.
[7] 袁公萍,湯一平.基于深度卷積神經(jīng)網(wǎng)絡(luò)的車(chē)型識(shí)別方法[J].浙江大學(xué)學(xué)報(bào),2018(7).
[8] 石磊,王亞敏,曹仰杰等.基于深度卷積神經(jīng)網(wǎng)絡(luò)的車(chē)型識(shí)別[J].計(jì)算機(jī)科學(xué),2018(13).
[9] 盧雅文.基于人工神經(jīng)網(wǎng)絡(luò)的圖像識(shí)別[J].電子技術(shù)與軟件工程,2016(12):103.
【通聯(lián)編輯:梁書(shū)】