杜金航,何 寧
北京聯(lián)合大學(xué),北京100101
圖1 YOLOV3網(wǎng)絡(luò)結(jié)構(gòu)
道路車輛檢測(cè)技術(shù)是機(jī)器視覺的重要研究?jī)?nèi)容,其中基于深度學(xué)習(xí)的車輛檢測(cè)技術(shù)是目前主要的研究技術(shù)手段。車輛檢測(cè)技術(shù)可應(yīng)用于無(wú)人駕駛、智能交通、交通安全等眾多領(lǐng)域,尤其在交通監(jiān)控、刑事案件取證等應(yīng)用中具有重要應(yīng)用價(jià)值。近幾年隨著計(jì)算機(jī)計(jì)算性能的提升和存儲(chǔ)空間的增長(zhǎng),卷積神經(jīng)網(wǎng)絡(luò)逐漸成為了計(jì)算機(jī)視覺領(lǐng)域研究的熱點(diǎn)和重點(diǎn),并憑借其強(qiáng)大的特征表達(dá)能力取得了巨大的成功。最早的經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)是Alex 等提出的AlexNet 模型[1],之后為了提高卷積神經(jīng)網(wǎng)絡(luò)的性能,國(guó)內(nèi)外學(xué)者在網(wǎng)絡(luò)結(jié)構(gòu)和網(wǎng)絡(luò)深度方面進(jìn)行了深入探索,高階特征在卷積神經(jīng)網(wǎng)絡(luò)中的研究也取得了一定的進(jìn)展[2-4]?;谏疃葘W(xué)習(xí)的車輛檢測(cè)方法可以分為兩類。一類是基于區(qū)域推薦的目標(biāo)檢測(cè)算法,首先使用區(qū)域推薦產(chǎn)生候選目標(biāo),隨后使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行處理。具有代表性的算法有RCNN[5]、Fast RCNN[6]、Faster RCNN[7]、Mask RCNN[8]等,這類方法的優(yōu)點(diǎn)是精度較高,缺點(diǎn)是由于計(jì)算量過(guò)大而不能滿足實(shí)時(shí)應(yīng)用的需求。另一類是基于回歸的目標(biāo)檢測(cè)方法,將檢測(cè)問(wèn)題作為回歸問(wèn)題處理,直接預(yù)測(cè)目標(biāo)位置與類別。具有代表性的算法有YOLO[9]、SSD[10]、YOLOv2[11]、YOLOv3[12]等。這類方法的優(yōu)點(diǎn)是結(jié)構(gòu)清晰,實(shí)時(shí)性好,缺點(diǎn)是相對(duì)于RCNN系列方法而言精度偏低。
本文針對(duì)車輛檢測(cè)算法存在檢測(cè)精度低、速度慢的問(wèn)題,提出了一種基于改進(jìn)YOLOv3的道路車輛目標(biāo)檢測(cè)方法。為了降低目標(biāo)檢測(cè)算法復(fù)雜度,提出了更為簡(jiǎn)單的網(wǎng)絡(luò)模型,同時(shí)為了降低檢測(cè)速度增加檢測(cè)精度使用k-means 聚類方法選取先驗(yàn)框,在保證檢測(cè)精度不降低的前提下顯著提高檢測(cè)速度,保證檢測(cè)的實(shí)時(shí)性。
為了保證目標(biāo)能夠快速檢測(cè)的前提下提高檢測(cè)性能,Redmon J 等[12]于2018 年提出YOLOv3,主要應(yīng)用于圖像目標(biāo)檢測(cè)、視頻目標(biāo)檢測(cè)、攝像頭實(shí)時(shí)目標(biāo)檢測(cè)等方面。
YOLOv3 的網(wǎng)絡(luò)結(jié)構(gòu)主要包括Darknet53 與YOLO層兩部分,分別用于提取圖像特征和多尺度預(yù)測(cè),通過(guò)在三種尺度上進(jìn)行預(yù)測(cè)的方法,有效增強(qiáng)了對(duì)不同大小物體及被遮擋物體的檢測(cè)效果,并引入躍層連接以強(qiáng)化收斂效果,同時(shí)采用隨機(jī)多尺度訓(xùn)練的方式增強(qiáng)了算法的魯棒性。
YOLOv3提出了新的提取圖片特征的網(wǎng)絡(luò)Darknet53,作為全卷積網(wǎng)絡(luò),Darknet53主要由卷積層、批量標(biāo)準(zhǔn)化及躍層連接組成,激活函數(shù)采用Leaky Relu,其網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,其中輸入圖像尺寸為416×416×3,虛線部分為Darknet53骨架網(wǎng)絡(luò),其余部分為YOLO網(wǎng)絡(luò)層。
圖1 中DBL 結(jié)構(gòu)是YOLOv3 的基本組件,由卷積層,批量標(biāo)準(zhǔn)化與激活函數(shù)構(gòu)成,如圖1 左下角所示。resn 結(jié)構(gòu)為YOLOv3 中的主要組成部分,n 代表數(shù)字,表示這個(gè)res_block里含有多少個(gè)res_unit。該結(jié)構(gòu)中包括零填充與殘差結(jié)構(gòu),如圖1右下角所示。圖中用紅色虛線框出的部分是骨干網(wǎng)絡(luò)Darknet53,該網(wǎng)絡(luò)用于提取圖像特征。卷積層的工作原理如圖2所示,其中淡藍(lán)色區(qū)域是大小為5×5的輸入圖像,綠色區(qū)域是大小為5×5 的輸出圖像,輸入圖像中深藍(lán)色區(qū)域?yàn)榇笮?×3 的卷積核。為保證輸出圖像與輸入圖像大小不變,首先擴(kuò)充輸入圖像如圖中白色虛線框。隨后計(jì)算輸入圖像中左上角3×3大小的區(qū)域,通過(guò)卷積運(yùn)算將其映射到輸出圖像的第一個(gè)點(diǎn)上。最后滑動(dòng)卷積核,完成整張圖像的卷積操作。通過(guò)卷積可以突出圖像的特征。
圖2 卷積層原理示意圖
圖3 YOLOV3多尺度檢測(cè)示意圖
圖1 右側(cè)為YOLOv3 網(wǎng)絡(luò)的特征交互層,YOLOv3在對(duì)目標(biāo)物體進(jìn)行分類時(shí)不再使用softmax函數(shù)。這是由于一個(gè)目標(biāo)邊框中出現(xiàn)的物體可能同時(shí)屬于多個(gè)類別,而softmax 進(jìn)行分類時(shí)只能將其分為一類。所以YOLOv3 采取多尺度分類思想,將YOLO 層分為3 個(gè)尺度,在同尺度YOLO 層利用卷積操作,使用卷積核(3×3和1×1)完成特征圖和局部特征的交互。YOLOv3 輸出了3 個(gè)不同尺度的feature map,如圖1 所示的y1,y2,y3。在特征圖大小為13×13、26×26、52×52的3個(gè)尺度上對(duì)目標(biāo)進(jìn)行檢測(cè),每一個(gè)單元格借助3個(gè)錨點(diǎn)框(anchor box)預(yù)測(cè)3 個(gè)邊界框。該部分網(wǎng)絡(luò)用于多尺度預(yù)測(cè)。多尺度檢測(cè)示意圖如圖3,圖3(a)為縮放后的圖片示意圖,縮放前圖片大小為1 242×375,縮放后圖片的大小為416×416。圖3(b)、(c)、(d)分別為YOLOv3 在52×52、26×26、13×13 尺度上進(jìn)行目標(biāo)檢測(cè)的示意圖。圖中藍(lán)色部分為當(dāng)前尺度下的錨點(diǎn)位置,YOLOv3使用錨點(diǎn)機(jī)制預(yù)測(cè)車輛邊界框,在錨點(diǎn)位置處產(chǎn)生維度比例為1∶1、1∶2和2∶1的錨點(diǎn)框,預(yù)測(cè)目標(biāo)位置。
骨干網(wǎng)絡(luò)Darknet53對(duì)于道路車輛目標(biāo)檢測(cè)過(guò)于復(fù)雜與冗余,會(huì)出現(xiàn)檢測(cè)速度過(guò)慢的問(wèn)題。特征交互層使用的錨點(diǎn)框是根據(jù)經(jīng)驗(yàn)、使用手工方式獲取錨點(diǎn)的尺度,YOLOv3的錨點(diǎn)選取在對(duì)道路車輛目標(biāo)檢測(cè)時(shí)實(shí)用性低,從圖4(a)、(b)中可以看出會(huì)誤檢的問(wèn)題,從圖4(c)中可以看出會(huì)漏檢的問(wèn)題,從圖4(c)、(d)中可以看出會(huì)重復(fù)檢測(cè)的問(wèn)題。
本文提出利用錨點(diǎn)機(jī)制預(yù)測(cè)道路車輛邊界框,并改進(jìn)骨干網(wǎng)絡(luò),降低網(wǎng)絡(luò)復(fù)雜度,在保證檢測(cè)精度的同時(shí)提高檢測(cè)速度。
Redmon等人[12]在YOLOv3中提出了Darknet53網(wǎng)絡(luò),獲得了很好的檢測(cè)精度與速度的平衡。雖然Darknet53通過(guò)殘差結(jié)構(gòu)使網(wǎng)絡(luò)的訓(xùn)練難度降低,并使用了大量的1×1 和3×3 是卷積核,步長(zhǎng)為2 的卷積核替代最大池化層減少了參數(shù)數(shù)量,但對(duì)于道路車輛的檢測(cè),Darknet53網(wǎng)絡(luò)有些復(fù)雜與冗余,過(guò)多的參數(shù)會(huì)導(dǎo)致訓(xùn)練復(fù)雜、增大對(duì)數(shù)據(jù)量的需求、減慢檢測(cè)速度。
圖4 YOLOV3在KITTI數(shù)據(jù)集上的錯(cuò)誤檢測(cè)結(jié)果實(shí)例
為了提高道路車輛目標(biāo)檢測(cè)速度,以保持準(zhǔn)確度、減少參數(shù)量為出發(fā)點(diǎn),本文借鑒Darknet53,提出一種參數(shù)數(shù)量相對(duì)較少、運(yùn)算復(fù)雜度相對(duì)較低的卷積神經(jīng)網(wǎng)絡(luò)作為特征提取網(wǎng)絡(luò)。本文提出的卷積神經(jīng)網(wǎng)絡(luò),稱為Darknet30,網(wǎng)絡(luò)結(jié)構(gòu)如表1所示。
第一個(gè)卷積層用32 個(gè)大小為3×3 的卷積核(濾波器)操作416×416分辨率的輸入圖像;然后,將先前卷積層的輸出作為輸入,使用64個(gè)尺寸為3×3的卷積核以及兩個(gè)像素的步長(zhǎng)對(duì)它們進(jìn)行卷積操作,實(shí)現(xiàn)下采樣操作,同時(shí)添加殘差塊增加網(wǎng)絡(luò)的深度,該殘差塊由1×1卷積層和3×3 卷積層組成,此時(shí)得到的特征圖尺寸為208×208;接下來(lái),執(zhí)行包含2×殘差塊的5 組網(wǎng)絡(luò),分別獲取104×104、52×52、26×26、26×26、13×13 分辨率的特征圖。在這5組殘差塊組成的網(wǎng)絡(luò)中,除了卷積核數(shù)與特征圖的尺度不同之外,每一個(gè)殘差塊都相似。
該網(wǎng)絡(luò)結(jié)構(gòu)包含1×、2×殘差塊的6組網(wǎng)絡(luò),相比較于YOLOv3中1×、2×、8×、8×、4×殘差塊的5組網(wǎng)絡(luò),參數(shù)數(shù)量減少47%,運(yùn)算復(fù)雜度下降,實(shí)現(xiàn)檢測(cè)速度的提升。
表1 Darknet30的網(wǎng)絡(luò)結(jié)構(gòu)
為高效地預(yù)測(cè)不同尺度與寬高比的物體邊界框,F(xiàn)aster R-CNN 最早提出使用錨點(diǎn)框作為選取物體邊界框的參照物,代替?zhèn)鹘y(tǒng)的圖像金字塔與特征金字塔的方法,同時(shí)降低了模型訓(xùn)練的復(fù)雜度,提高了運(yùn)行速度。隨后SSD、YOLOv2與YOLOv3均采用了錨點(diǎn)機(jī)制并取得了良好效果,因此,本文延用YOLOv3中的錨點(diǎn)機(jī)制預(yù)測(cè)車輛邊界框。傳統(tǒng)YOLOv3 中的錨點(diǎn)個(gè)數(shù)與維度是由VOC 20 類和COCO 80 類數(shù)據(jù)集聚類得到,錨點(diǎn)框維度比例為1∶1、1∶2和2∶1。不適用于道路車輛目標(biāo)檢測(cè)。道路車輛目標(biāo)的長(zhǎng)寬比始終是一個(gè)相對(duì)固定的值,聚類后長(zhǎng)寬比呈現(xiàn)為1∶1,因此需要對(duì)道路車輛目標(biāo)候選框進(jìn)行聚類分析,重新確定錨點(diǎn)個(gè)數(shù)和寬高維度。
Faster R-CNN 通過(guò)在每個(gè)滑動(dòng)位置采用3 個(gè)尺度和3個(gè)縱橫比的框產(chǎn)生9個(gè)錨點(diǎn),SSD使用6個(gè)縱橫比表示不同形狀的錨點(diǎn)。這些方法的共性是根據(jù)經(jīng)驗(yàn)、使用手工方式獲取錨點(diǎn)的尺度,然后在模型訓(xùn)練過(guò)程中調(diào)整錨點(diǎn)框的尺寸。受到Y(jié)OLOv2的啟發(fā),本文使用k-means維度聚類的方法對(duì)訓(xùn)練數(shù)據(jù)集的邊界框做聚類,選取最合適的邊界框先驗(yàn),對(duì)車輛進(jìn)行更好的預(yù)測(cè),其中聚類方法中距離公式定義如下:
其中,B 為矩形框的大小,C 為矩形框的中心,RIOU表示兩個(gè)矩形框的交疊比。
本文權(quán)衡平均交并比與錨點(diǎn)框的數(shù)量關(guān)系如圖5所示,取9 個(gè)錨點(diǎn)框,使用k -means 聚類方法處理數(shù)據(jù)集標(biāo)簽信息。聚類是將數(shù)據(jù)集中的道路車輛目標(biāo)位置信息劃分為9 個(gè)簇,讓簇內(nèi)的點(diǎn)之間距離盡量小,而讓簇間的距離盡量大。聚類操作后9 個(gè)簇的位置就是錨點(diǎn)框的位置,這樣選取的9個(gè)錨點(diǎn)框可以更加有效地檢測(cè)目標(biāo),本文實(shí)驗(yàn)中有52 000 個(gè)二維的數(shù)據(jù)點(diǎn),作圖點(diǎn)與點(diǎn)之間的距離太近,不易觀察算法的執(zhí)行過(guò)程,圖6(a)、(b)、(c)示意性實(shí)驗(yàn)采取了100個(gè)二維的數(shù)據(jù)點(diǎn)進(jìn)行,k 值取3,每個(gè)數(shù)據(jù)點(diǎn)的橫縱坐標(biāo)為在圖片中的位置信息,為方便計(jì)算將其進(jìn)行歸一化處理。
圖5 錨點(diǎn)框數(shù)量與平均交并比的關(guān)系
圖6 k-means實(shí)驗(yàn)示意圖
k-means算法的執(zhí)行過(guò)程可以分以下步驟:
(1)隨機(jī)選擇3個(gè)位置,作為初始聚類中心,本實(shí)驗(yàn)選取的3 個(gè)初始聚類中心位置如圖6(a)中黑色叉線表示。隨后計(jì)算圖中所有點(diǎn)到這3 個(gè)初始聚類中心的歐式距離,將每一個(gè)點(diǎn)劃入到距離其最近的初始聚類中心。如圖6(a)中不同顏色的點(diǎn)表示劃分到不同的簇中。
(2)將每一簇的中心位置更新為聚類中心位置。重復(fù)計(jì)算步驟(1),直到每個(gè)種子點(diǎn)的前后兩次的更新值之間滿足預(yù)設(shè)的閾值或迭代次數(shù)。
圖6(b)是聚類迭代4次后的結(jié)果,原本屬于紅色簇的右上角紅色的點(diǎn)群隨著迭代的進(jìn)行,距離藍(lán)色簇聚類中心的距離變?yōu)樽钚?,故將其重新劃分到藍(lán)色點(diǎn)群中,顏色由紅色變?yōu)樗{(lán)色;圖6(c)是聚類8 次以后的結(jié)果。第9 次聚類結(jié)果與第8 次相同,故第8 次迭代的結(jié)果就是最終聚類結(jié)果。
本文中錨點(diǎn)框的選取為圖6(d)中的實(shí)驗(yàn)結(jié)果,分別是(8,66),(8,205),(79,198),(137,195),(183,190),(224,186),(279,185),(282,17),(353,178)。在每個(gè)尺度上的每一個(gè)單元格借助3個(gè)錨點(diǎn)框預(yù)測(cè)3個(gè)邊界框。
表2 顯示了使用錨點(diǎn)機(jī)制預(yù)測(cè)道路車輛邊界框在KITTI 數(shù)據(jù)集上的檢測(cè)結(jié)果。本實(shí)驗(yàn)中使用的算法使用了錨點(diǎn)機(jī)制,所以命名為YOLOv3-anchors,改方法在檢測(cè)速度上比傳統(tǒng)的YOLOv3提高了19.77 f/s。同時(shí)獲得90.05%的mAP,比傳統(tǒng)的YOLOv3提高了0.44%??梢钥闯鍪褂缅^點(diǎn)機(jī)制對(duì)檢測(cè)速度有顯著的提升效果。
道路車輛檢測(cè)的損失函數(shù)包括坐標(biāo)誤差,置信度誤差與分類誤差。
中心坐標(biāo)誤差為:
寬高坐標(biāo)誤差為:
置信度誤差為:
分類誤差為:
其中,λ 為損失權(quán)重,λcoord取5,λnoobj取0.5;K×K 為網(wǎng)格大小,取值分別為52×52,26×26,13×13;M 為每個(gè)網(wǎng)格中候選框個(gè)數(shù),取值為3;xi、yi、wi、hi、Ci、pi為橫坐標(biāo)、縱坐標(biāo)、高度、寬度、置信度、類別預(yù)測(cè)值,為其對(duì)應(yīng)的真實(shí)值,其中橫坐標(biāo)、縱坐標(biāo)、高度、寬度的最大值為圖片的大小416。置信度與類別預(yù)測(cè)值的取值范圍為0到1。
本文在公開數(shù)據(jù)集KITTI[13]與車輛行駛動(dòng)態(tài)數(shù)據(jù)集上進(jìn)行訓(xùn)練和測(cè)試。實(shí)驗(yàn)基于Darknet神經(jīng)網(wǎng)絡(luò)框架[14]實(shí)現(xiàn),在配置有Intel Xeon Silver 4110 CPU和RTX2080Ti GPU的PC機(jī)上運(yùn)行。程序設(shè)計(jì)語(yǔ)言為Python語(yǔ)言。本文使用均值平均精度(mAP)與檢測(cè)速度兩項(xiàng)指標(biāo)對(duì)模型進(jìn)行評(píng)價(jià)。mAP計(jì)算公式如下:
其中,Nclasses為類別個(gè)數(shù),PclassAve為不同類別的平均精度,計(jì)算方法如式(7),其中,Pclass為每幅圖像中的類別檢測(cè)精度,Ntotal為該類別的物體在測(cè)試集中的照片數(shù)目。
檢測(cè)速度計(jì)算公式如下:
車輛檢測(cè)標(biāo)準(zhǔn)數(shù)據(jù)集KITTI,KITTI 數(shù)據(jù)集由德國(guó)卡爾斯魯厄理工學(xué)院和豐田美國(guó)技術(shù)研究院聯(lián)合創(chuàng)辦,是目前國(guó)際上最大的自動(dòng)駕駛場(chǎng)景下的計(jì)算機(jī)視覺算法評(píng)測(cè)數(shù)據(jù)集。KITTI還提取了用于2D、3D目標(biāo)檢測(cè)、目標(biāo)跟蹤和姿態(tài)預(yù)估數(shù)據(jù)集。本次實(shí)驗(yàn)使用2D目標(biāo)檢測(cè)數(shù)據(jù)集,并對(duì)數(shù)據(jù)集原有的標(biāo)簽信息進(jìn)行處理,保留實(shí)驗(yàn)需要的3 個(gè)類別的標(biāo)簽,即:Car,Van,Truck。選取該數(shù)據(jù)集中7 481張圖像作為實(shí)驗(yàn)數(shù)據(jù),并分成兩部分:5 000張圖像用于訓(xùn)練驗(yàn)證數(shù)據(jù)集,2 481張圖像用于測(cè)試數(shù)據(jù)集。
車輛行駛動(dòng)態(tài)數(shù)據(jù)集取材于日常車輛行駛中拍攝的視頻,視頻格式為AVI,包括不同天氣情況、不同道路的視頻數(shù)據(jù),總大小為2.68 GB。使用Labellmg 對(duì)視頻序列中的每一幀圖像進(jìn)行標(biāo)注用于測(cè)試。從視頻序列中選取的道路車輛圖像如圖7所示,其中包括了復(fù)雜環(huán)境、車輛遮擋、夜晚低亮度等情況。
本文在訓(xùn)練階段,進(jìn)行50 200 次迭代,動(dòng)量配置為0.9,權(quán)重衰減配置為0.000 5,批量大小設(shè)置為16,學(xué)習(xí)率初始為10-3,并在網(wǎng)絡(luò)迭代40 000次時(shí)學(xué)習(xí)率降低為10-4。在網(wǎng)絡(luò)迭代45 000 次時(shí)學(xué)習(xí)率降低10-5。圖8 為訓(xùn)練過(guò)程中的損失函數(shù)收斂曲線,從圖中可以看出,在訓(xùn)練次數(shù)達(dá)到5 000次時(shí)損失函數(shù)收斂曲線趨于平緩。
表2 使用錨點(diǎn)機(jī)制在KITTI測(cè)試集上的檢測(cè)結(jié)果
圖7 車輛行駛動(dòng)態(tài)數(shù)據(jù)集實(shí)例
圖8 收斂曲線
圖9 顯示了本文提出的方法與YOLO 系列算法在KITTI 數(shù)據(jù)集上的比較,其中本文提出的方法獲得76.04 f/s 的檢測(cè)速度,相比于YOLO 與YOLOv3 方法,本文提出的方法在檢測(cè)速度上有顯著的提高。同時(shí),本文所使用的方法在測(cè)試集上獲得90.08%的mAP,比傳統(tǒng)的YOLOv3提高了0.47%,相比于YOLOv2與YOLO,本文提出的方法在檢測(cè)精度上有大幅度提高。
圖9 YOLO系列算法性能對(duì)比
本文使用均值平均精度(mAP)與檢測(cè)速率兩項(xiàng)指標(biāo)對(duì)改進(jìn)的YOLOv3模型進(jìn)行評(píng)價(jià)。表3顯示了本文方法與傳統(tǒng)的YOLOv3 在車輛行駛動(dòng)態(tài)數(shù)據(jù)集上檢測(cè)的效果。其中YOLOv3-anchors采用了錨點(diǎn)機(jī)制預(yù)測(cè)道路車輛邊界框,YOLOv3-anchors-30 采用了錨點(diǎn)機(jī)制預(yù)測(cè)道路車輛邊界框的同時(shí)更改骨架網(wǎng)絡(luò)為Darknet30。可以看出在同時(shí)采用錨點(diǎn)機(jī)制預(yù)測(cè)邊界框和Darknet30網(wǎng)絡(luò)時(shí),檢測(cè)效果更佳。
表3 不同方法在車輛行駛動(dòng)態(tài)數(shù)據(jù)集上的檢測(cè)結(jié)果
表4 顯示了Fast R-CNN、Faster R-CNN、YOLO、YOLOv2、YOLOv3 與本文提出的改進(jìn)的YOLOv3 方法的實(shí)驗(yàn)結(jié)果。從表中可以看到,本文提出的YOLOv3-anchors-30獲得了90.08%的mAP,在精度方面優(yōu)于所有其他方法,并且以76.04 f/s的速度實(shí)現(xiàn)了實(shí)時(shí)檢測(cè)??梢钥闯霰疚奶岢龅姆椒ㄔ诰C合考慮檢測(cè)精度與檢測(cè)速度之后取得了更好的效果。
圖10顯示了本文方法在車輛行駛動(dòng)態(tài)數(shù)據(jù)集上檢測(cè)的效果。圖11 顯示了本文方法在KITTI 數(shù)據(jù)集上檢測(cè)的效果。圖10(a)、圖10(b)、圖11(b)、圖11(c)、圖11(d)顯示了本文提出的方法在復(fù)雜環(huán)境下的檢測(cè)效果。圖11(a)顯示了在強(qiáng)光照環(huán)境下的檢測(cè)效果。圖10(b)、圖11(b)顯示了在遮擋情況下的檢測(cè)效果??梢钥闯霰疚奶岢龅哪P蛯?duì)城市交通監(jiān)控車輛的檢測(cè)具有良好的魯棒性。
圖10 本文方法在車輛行駛動(dòng)態(tài)數(shù)據(jù)集上檢測(cè)的效果
表5 顯示了本文方法與其他文獻(xiàn)中方法的對(duì)比結(jié)果。從表中可以看到,本文方法在檢測(cè)精度方面略有不足,但在檢測(cè)速度方面具有明顯優(yōu)勢(shì),可以得出本文方法在檢測(cè)精度與檢測(cè)速度的綜合考慮中檢測(cè)效果更好的結(jié)論。
表4 不同方法在KITTI測(cè)試集上的檢測(cè)結(jié)果
表5 不同文獻(xiàn)方法檢測(cè)結(jié)果對(duì)比
圖11 本文方法在KITTI數(shù)據(jù)集上檢測(cè)的效果
車輛實(shí)時(shí)檢測(cè)在很多領(lǐng)域里具有重要作用,例如無(wú)人駕駛、智能交通、交通安全、停車場(chǎng)管理等。目前的車輛實(shí)時(shí)檢測(cè)算法還存在一定的局限性,比如受光照變化、車輛遮擋、目標(biāo)的快速運(yùn)動(dòng)等因素的影響,常常不能達(dá)到很好的檢測(cè)效果,該研究依然具有一定的挑戰(zhàn)性。本文提出的改進(jìn)的YOLOv3 算法在檢測(cè)速度方面有了顯著的提示,并且在檢測(cè)精度方面優(yōu)于現(xiàn)有的目標(biāo)檢測(cè)方法。在后續(xù)工作中,如何在保證實(shí)時(shí)性的基礎(chǔ)上增加車輛檢測(cè)精度可以作為主要的突破方向。