許小偉,陳乾坤,錢 楓,李浩東,唐志鵬
(武漢科技大學 汽車與交通工程學院,湖北 武漢 430081)
隨著汽車保有量的快速增長,大量學者對高級輔助駕駛系統(tǒng)(Advanced Driver Assistance Systems,ADAS)展開了深入研究,車輛檢測已經(jīng)成為了ADAS研究中的一個重點[1-2],對前方道路車輛的有效檢測及跟蹤,是安全輔助駕駛系統(tǒng)做出判斷和預警的重要組成部分,而對檢測算法模型的小型化成為車載嵌入式設(shè)備快速、實時運行的前提與手段。
基于傳統(tǒng)方法的目標檢測算法中,通過人工設(shè)計梯度直方圖(Histogram of gradient,HOG)[3]、尺度不變特征變換(Scale-invariant feature transform,SIFT)[4]、哈爾特征Haar-like[5]等特征提取器來提取目標特征,再輸入到支持向量機(Support vector machine,SVM)[6-7],迭代器AdaBoost[8-9]、隨機森林(Random Forest,RF)[10]等分類器中進行分類識別。但是傳統(tǒng)人工設(shè)計的特征泛化性差,不同場景需要設(shè)計選擇不同的特征,提取出合理特征難度較大,運算復雜度高,限制了實際應(yīng)用[11]。
基于深度學習的檢測算法可以分為基于區(qū)域法和基于回歸法兩種?;趨^(qū)域的方法通過選擇性搜索(selective search)算法來生成候選區(qū)域,再使用卷積神經(jīng)網(wǎng)絡(luò)進行分類處理,主要方法有R-CNN[12],F(xiàn)ast R-CNN[13],F(xiàn)aster R-CNN[14-15],Massk R-CNN[16],SPP-Net[17]等。此種基于區(qū)域的方法分兩步進行檢測,檢測精度高,但存在網(wǎng)絡(luò)復雜,檢測速度慢的缺點?;诨貧w法的方法如SSD[18]、YOLO[19]把目標檢測問題當成回歸問題,可直接回歸出物體類別概率及坐標位置。采用基于回歸的YOLO系列算法處理速度快,正確率高,在實際工業(yè)部署中得到了廣泛應(yīng)用[20]。YOLOv2[11,21],YOLOv3[22]在YOLO算法的基礎(chǔ)上進一步改進,使得檢測效果進一步加強。但速度較快的基于回歸的檢測算法網(wǎng)絡(luò)結(jié)構(gòu)仍然較大,移植部署到實車嵌入式設(shè)備的運行速度較慢,實際部署成本高。
針對以上目標檢測網(wǎng)絡(luò)檢測精度與檢測速度相矛盾問題,本研究提出一種改進的YOLOv3網(wǎng)絡(luò)采用K-means++算法聚類來提取先驗框,通過構(gòu)建殘差網(wǎng)絡(luò)層數(shù)更少、網(wǎng)絡(luò)深度更淺的基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)來將卷積模型小型化,同時利用不同的尺度卷積特征多層次提取車輛特征信息來保證精度,解決網(wǎng)絡(luò)模型大、精度不高的問題。通過卡爾曼跟蹤算法和匈牙利算法進行數(shù)據(jù)關(guān)聯(lián),實現(xiàn)對多個目標的精確定位與跟蹤。在保證準確性的前提下,小型化了網(wǎng)絡(luò)模型,提高了檢測速度,保證了車輛檢測時對準確性以及實時性的要求。
本研究設(shè)計的小型化網(wǎng)絡(luò)車輛檢測及測距流程如圖1所示。首先改進YOLOv3結(jié)構(gòu)的骨干Darknet-53網(wǎng)絡(luò),構(gòu)建了一種網(wǎng)絡(luò)層次較淺、速度較快的檢測網(wǎng)絡(luò)結(jié)構(gòu),并對此網(wǎng)絡(luò)進行訓練學習,用該網(wǎng)絡(luò)模型確定前方車輛在圖像中的位置信息,實現(xiàn)前方車輛的快速檢測。其次利用卡爾曼濾波對下一時刻的車輛位置進行預測,并采用匈牙利分配算法關(guān)聯(lián)視頻相鄰幀中的車輛,實現(xiàn)車輛的穩(wěn)定檢測。
圖1 車輛檢測及跟蹤流程圖Fig.1 Flowchart of vehicle detection and tracking
YOLOv3采用類特征金字塔網(wǎng)絡(luò)(Feature Pyramid Networks,F(xiàn)PN)[23]的多尺度變換和類ResNet的殘差網(wǎng)絡(luò),設(shè)計了分類網(wǎng)絡(luò)基礎(chǔ)模型Darknet-53[24]。此網(wǎng)絡(luò)同時具有較快的檢測速度以及較小的網(wǎng)絡(luò)復雜度,相比于常用的VGG-16基礎(chǔ)特征提取網(wǎng)絡(luò)降低了模型運算量[25]。
Darknet-53通過多層卷積核卷積形成深層次卷積層。在不同卷積層上分別采用1,2,8,8,4多個類ResNet的殘差網(wǎng)絡(luò)跳層連接,將殘差網(wǎng)絡(luò)經(jīng)過多次卷積后與原始殘差網(wǎng)絡(luò)進行疊加,保證了殘差網(wǎng)絡(luò)在較深的情況下,仍能較好收斂。同時采用類FPN的多尺度變化預測的方法,利用3個尺度進行檢測,最終網(wǎng)絡(luò)輸出3個不同尺度的特征圖,在不同尺度特征圖上分別使用3個不同的先驗框anchors進行預測識別,最終使得遠近大小目標均能得到較好的檢測。
圖2 小型化YOLOv3網(wǎng)絡(luò)模型結(jié)構(gòu)Fig.2 Miniaturized YOLOv3 network model structure
YOLOv3中有較多的殘差結(jié)構(gòu)以及1×1,3×3的卷積層,為了滿足ADAS系統(tǒng)的實時性需求,需進一步減小網(wǎng)絡(luò)層數(shù)、使網(wǎng)絡(luò)小型化,加快網(wǎng)絡(luò)運行速度。對YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)進行修改,不再采用Darknet-53為骨干網(wǎng)絡(luò),而是借鑒和darknet19類似的YOLOv3-tiny的結(jié)構(gòu),主干網(wǎng)絡(luò)采用一個7層的Conv卷積層,在每一Conv卷積層的殘差網(wǎng)絡(luò)結(jié)構(gòu)中,采用更少的重復殘差單元,通過減少卷積層,以降低網(wǎng)絡(luò)深度。
改進提出的小型化YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。網(wǎng)絡(luò)輸入尺寸為416×416×3,采用一個包含16個3×3卷積核的卷積層對輸入網(wǎng)絡(luò)進行初步特征提取。特征卷積提取公式為:
(1)
式中,ai,j為新生成特征提取層坐標為(i,j)的值;wd,m,n為第d層F×F卷積核的坐標為(m,n)的值;xd,i+m,j+n為輸入第d層坐標為(i+m,j+n)的值;wb表示卷積核的偏置項。
將上一層提取得到的特征層網(wǎng)絡(luò)輸出作為下一層的輸入,然后采用32個步長為2的3×3卷積核進行濾波,并且采用一個殘差塊來加強網(wǎng)絡(luò)特征提取,如圖3所示,該殘差塊由16個1×1的卷積核和32個3×3的卷積核連接構(gòu)成。殘差網(wǎng)絡(luò)公式為:
Outputlayer=H(Inputlayer)+Inputlayer,
(2)
式中,Inputlayer為類ResNet的殘差網(wǎng)絡(luò)的輸入層;H(Inputlayer)為將Inputlayer的輸入層進行多次卷積操作;Outputlayer為殘差網(wǎng)絡(luò)的輸出層。
圖3 殘差塊結(jié)構(gòu)Fig.3 Residual block structure
采用相同原理方法,對后續(xù)的網(wǎng)絡(luò)結(jié)構(gòu)分別依次采用64,128,256,512,1 024個步長為2的3×3卷積核進行濾波,使特征提取層長寬變小深度變深,能提取到更深層次特征。同時對后續(xù)的前4個不同卷積核分別依次采用2,2,4,4個殘差塊進行連接,加強特征提取,同時也因相較于YOLOv3減少了大量網(wǎng)絡(luò)層數(shù),小型化了網(wǎng)絡(luò)結(jié)構(gòu),可加快學習和網(wǎng)絡(luò)正向推理運行速度。
將大小為52×52,26×26,13×13的特征提取卷積層,共3層單獨提取出來,他們的深度分別為128,256,1 024。對13×13特征層依次采用512個1×1卷積核、1 024個3×3卷積核、18個1×1卷積核進行卷積,使特征層網(wǎng)絡(luò)輸入為13×13×18。多次采用1×1卷積核的可以對卷積層進行降維,減少卷積核通道數(shù),增加非線性激勵,提升網(wǎng)絡(luò)表達能力。13×13的特征提取層不僅單獨輸出給后續(xù)函數(shù)進行預測計算,同時將13×13的特征提取卷積層的信息通過上采樣的方式放大到26×26大小,并與原有的26×26特征層相連接,對26×26層進行卷積后同時進行輸出。原有的26×26層也采用相同方式與52×52相連接進行輸出,以此得到多尺度的特征提取。采用多尺度特征提取的方式,可在網(wǎng)絡(luò)小型化的基礎(chǔ)上,仍能提取到較多待檢目標卷積層信息,保證了小型化網(wǎng)絡(luò)目標檢測的精度。
每一個輸出尺度都采用3個不同的先驗框進行預測,先驗框尺寸是在數(shù)據(jù)集上通過聚類得到,由于K-means聚類算法對初始點選取較為敏感,需多次聚類得到較優(yōu)解。本研究提出采用K-means++算法[26]計算聚類,K-means++算法在初始點選擇進行改進,能使聚類中心之間距離盡可能的遠。K-menas++算法關(guān)鍵步驟如下:
(1)從數(shù)據(jù)集中隨機抽取一個樣本作為初始聚類中心u1。
(2)計算數(shù)據(jù)X每個樣本x1與最近聚類中心距離D(xi)。
D(xi)=argmin|xi-ur|2,
(3)
式中,r=1, 2,…,kselected。
(4)重復步驟(2)、(3)步直至選出k個聚類中心。
依據(jù)聚類中心得到9個先驗框后,其中較大的52×52特征提取卷積層上采用較小的3個先驗框,有最大的感受野,中等的26×26特征提取卷積層上采用中等的3個先驗框,較小的13×13特征提取卷積層上采用較大的3個先驗框,有最小的感受野,并使用logistic回歸函數(shù)對不同尺度上的每個先驗框進行置信度回歸,并預測出物體邊框值,根據(jù)置信度選出最合適的目標類別區(qū)域。logistic回歸函數(shù)預測公式為:
(4)
式中,cx,cy為網(wǎng)格的坐標偏移量;pw,ph為先驗框長寬的邊長;tx,ty,tw,th為深度網(wǎng)絡(luò)學習的目標值;bx,by,bw,bh為最終通過公式計算得到的預測邊框的坐標值。
在車輛行駛道路中由于攝像頭采集的前方路況信息會因其他車輛、物體的干擾遮擋和角度、光照、天氣等因素的影響而發(fā)生變化,從而導致深度學習檢測算法出現(xiàn)檢測不連續(xù)、漏檢的情況,繼而影響后續(xù)車輛測距,本研究對檢測到的車輛運動進行跟蹤處理。為解決遮擋、光照變化可能導致的跟蹤失蹤問題,提高多目標跟蹤的準確率,在采用卡爾曼濾波跟蹤框架的基礎(chǔ)上,考慮到同時跟蹤多個車輛目標、多個目標在圖像上的坐標位置靠近,加入匈牙利算法進行目標關(guān)聯(lián),能實現(xiàn)對多個目標的精確定位與跟蹤。跟蹤算法具體流程如下:
(1)卡爾曼預測,即卡爾曼濾波算法根據(jù)上一時刻檢測出的車輛坐標位置預測出目標在本時刻的坐標位置。首先根據(jù)深度學習檢測算法檢得到的車輛框坐標計算出被檢測物體質(zhì)心坐標(x,y),將此坐標表示為目標當前狀態(tài)Xt|t,Xt-1|t-1為上一時刻目標狀態(tài),Xt|t-1為上一時刻預測出當前時刻的目標狀態(tài),觀測狀態(tài)Zt為實際檢測到的物體質(zhì)心坐標,Pt|t為當前時刻估計誤差協(xié)方差,Pt-1|t-1為上一時刻估計誤差協(xié)方差,Pt|t-1標識上一時刻預測出當前時刻的估計誤差協(xié)方差。A為狀態(tài)轉(zhuǎn)移矩陣,H為觀測矩陣,Kt為卡爾曼濾波的增益矩陣,Wt-1|t-1為上一時刻的激勵噪聲,Q、R分別為激勵噪聲和觀測噪聲的協(xié)方差矩陣。卡爾曼濾波跟蹤具體公式為:
Xt|t-1=AXt-1|t-1+Wt-1|t-1,
(5)
Pt|t-1=APt-1|t-1AT+Wt-1|t-1,
(6)
Xt|t=Xt|t-1+Kt(Zt-Xt-1|t-1),
(7)
Pt|t=Pt|t-1-KtHPt|t-1,
(8)
Kt=Pt|t-1HT(HPt|t-1HT+R)-1。
(9)
利用公式(5),(6)來預測上一時刻檢測到的車輛在當前時刻的位置,利用公式(7),(8),(9)來跟新卡爾曼濾波器狀態(tài)。
圖4 實車檢測結(jié)果對比Fig.4 Comparison of real vehicle detection results
(2)匈牙利最優(yōu)匹配算法,進行關(guān)聯(lián)匹配時,采用計算兩不同集合坐標的歐幾里得距離作為費用矩陣,再采用匈牙利算法進行特征關(guān)聯(lián),即為求解不同上一時刻預測質(zhì)心坐標與本時刻檢測坐標的歐幾里得距離的最小值dmin,對上一時刻預測坐標和本時刻檢測坐標進行指派關(guān)聯(lián)。歐式距離計算具體公式為:
(10)
當本時刻的檢測值未被分配到任何上一時刻預測值時,即上一時刻預測坐標數(shù)量小于本時刻檢測坐標數(shù)量時,則將此檢測值作為新目標進行跟蹤。具體公式如下:
nt-1 (11) 式中,t-1時刻的預測坐標數(shù)量為nt-1,t時刻的實際檢測坐標數(shù)量為nt。 在實際跟蹤情況中,考慮到漏檢、跟蹤失效的情況,當計算的歐幾里得距離超過設(shè)置的閾值時或者多幀未成功檢測到該車輛物體,則判定為跟蹤丟失。具體公式如下: f>fmax∨d>dmax, (12) 式中,f為未連續(xù)檢測到目標幀數(shù);fmax為目標最大丟失幀數(shù);d為歐幾里得距離;dmax為最大距離閾值。 算法基于python編譯環(huán)境完成程序設(shè)計,運行環(huán)境為CPU:i5-8500,GPU:NVIDIA GTX 2080,8G內(nèi)存。本研究試驗分為檢測算法試驗與跟蹤算法試驗。 在自采集道路行車視頻以及公開的數(shù)據(jù)集KITTI上評估改進YOLOv3方法的性能。為驗證實際檢測效果,以某標志408車型在武漢多段道路采集的視頻對改進的小型化網(wǎng)絡(luò)檢測算法進行驗證。圖4為不同環(huán)境下檢測結(jié)果。 圖4中目標車輛上方顯示的為目標類別及置信度。可以看出,小型化改進的YOLOv3檢測模型檢測精度與原始YOLOv3算法相當,能檢測較遠目標;在某些情況下優(yōu)于原YOLOv3算法,能檢測原YOLOv3算法未檢出車輛,且檢測出的目標車輛置信度均高于原始算法。這說明小型化改進的YOLOv3算法在檢測精度控制上是有效的。 為進一步準確驗證小型化改進YOLOv3算法的先進性及性能,在公開數(shù)據(jù)集KITTI上進行評估驗證。KITTI包含市區(qū)、鄉(xiāng)村和高速公路等場景采集的真使數(shù)據(jù),是目前國際上最大的自動駕駛場景下的計算機視覺算法評測數(shù)據(jù)集[27]。對KITTI數(shù)據(jù)集原有的標簽信息進行整理,將KITTI的標注格式轉(zhuǎn)為便于改進YOLOv3算法訓練的VOC格式,選取該數(shù)據(jù)集7 481張圖像中的Car,Van,Truck和Tram4類車輛標簽圖片進行保留并合并為Car類標簽共4 980 張圖像,并把此數(shù)據(jù)集按照0.9,0.09,0.01的比例分為3部分如表1所示:訓練數(shù)據(jù)集4 482張,測試數(shù)據(jù)集448張,驗證數(shù)據(jù)集50張。 表1 數(shù)據(jù)樣本數(shù)量Tab.1 Number of data samples 對小型化YOLOv3算法進行58 000次訓練迭代,動量為0.9,權(quán)重衰減為0.000 5,初始學習率為0.001,學習率后期隨訓練次數(shù)而減小。K-means++算法在處理后的KITTI數(shù)據(jù)集上的聚類中心為:(28,21),(40,31),(55,45),(68,31),(80,62),(103,44),(137,73),(194,116),(311,180)。檢測結(jié)果如圖5所示。 圖5 在KITTI測試集不同場景上的檢測結(jié)果Fig.5 Detection result in different scenarios of KITTI test set 圖5為不同交通環(huán)境下的檢測結(jié)果。圖5(a)為道路有較多車輛及車輛遮擋場景的城市道路,此場景車輛種類數(shù)量多,干擾因素復雜,車輛距離涵蓋中近距離;圖5(b)為車輛距離較遠的高速道路場景,此場景車輛車速較快,車距較遠,車輛距離涵蓋中遠距離;圖5(c)為鄉(xiāng)村公路場景,此場景樹木較多,受光照影響強烈,圖像某一區(qū)域會過亮或過暗;圖5(d)為道路情況復雜的十字路口,含有較多指示桿,含有4個行駛方向車輛??梢钥闯鲂⌒突痀OLOv3算法能準確識別遠中近距離、遮擋、光照變化強烈、種類數(shù)量多等路況復雜場景下的車輛,有較高的檢測精度。 為準確評價此小型化網(wǎng)絡(luò)模型性能、檢測速度以及小型化效果,采用繪制此模型在KITTI測試集上的精確率-召回率曲線(Precision Recall,PR)曲線,計算平均準確率(Average Precision,AP)進行評價。PR曲線能同時包含待檢測車輛的精確率與召回率兩個指標,而AP則是一個能反映全局檢測模型性能的指標,通過計算PR曲線的包含面積得到AP,其中交并比iou值設(shè)為0.45。AP具體計算公式為: (13) (14) 圖6 PR曲線圖Fig.6 PR curve 圖6為在KITTI測試集上的PR曲線圖。通過計算如圖6的PR曲線可得到此改進模型對車輛檢測的AP為91.52%。為說明本研究檢測算法的先進性,與其他算法進行對比,這些算法均使用KITTI數(shù)據(jù)集進行檢測[28]。算法檢測結(jié)果如表2所示。 表2 不同檢測方法在KITTI數(shù)據(jù)集上的 檢測結(jié)果對比Tab.2 Comparison of detection results of different detection methods on KITTI data set 表2顯示了不同深度學習檢測算法在KITTI數(shù)據(jù)集上的檢測結(jié)果。經(jīng)典的基于區(qū)域式神經(jīng)網(wǎng)絡(luò)Faster R-CNN取得了62.73%的檢測AP,F(xiàn)aster R-CNN取得了76.90%的檢測AP,同時因基于區(qū)域式檢測框架將物體識別和定位分為兩個步驟完成,導致網(wǎng)絡(luò)模型較大,檢測速度極慢,不具有實時檢測能力。經(jīng)典的基于回歸式神經(jīng)網(wǎng)絡(luò)SSD300,YOLO,YOLOv2,YOLOv3分別取得了81.00%,58.54%,69.48%,91.58%的檢測AP,因為將物體識別和定位放在一個步驟中完成,檢測速度較快。雖然 YOLOv2有較快的檢測速度達到每秒114.26幀,但是只有69.47%的AP,檢測效果較差;YOLOv3的檢測精度高,為該YOLO系列最先進算法,有91.52%的AP,但是相應(yīng)檢測速度較低。小型化YOLOv3相較于上述算法,因仍有多層殘差網(wǎng)絡(luò)以及多尺度檢測,擁有較高的檢測精度,達到91.52%,基本與YOLOv3持平。同時因精簡了網(wǎng)絡(luò)結(jié)構(gòu),減少了網(wǎng)絡(luò)參數(shù),生成網(wǎng)絡(luò)大小從236 MB減小為57.2 MB,為原來1/4,檢測速度大大加快,達到每秒101.70幀,檢測速度為YOLOv3的兩倍以上??梢钥闯觯倪M模型檢測速度有明顯提升,證明改進的小型化網(wǎng)絡(luò)結(jié)構(gòu)是有效的,同時也達到了較高的檢測精度,本研究所提算法有較強先進性。 為驗證卡爾曼濾波和匈牙利匹配的多目標跟蹤算法的有效性,同以某標志408車型在武漢市區(qū)道路拍攝的視頻注入跟蹤算法進行驗證,視頻幀率為每秒30.00幀。跟蹤算法中按經(jīng)驗設(shè)置參數(shù)最優(yōu)值fmax=8,dmax=30。目標出現(xiàn)遮擋無法穩(wěn)定檢測情況下,實際多目標跟蹤效果如圖7、圖8所示。 圖8 多目標交叉時的多目標跟蹤效果Fig.8 Multi-target tracking effect when multiple targets crossing 圖7為連續(xù)視頻中的3幀圖像,從圖7(a)可以看出,第33幀時,3臺車輛同時被準確檢測,并被賦予物體標簽ID,在7圖(b)第34幀時,右側(cè)欄桿后的車輛因受欄桿遮擋,無法被穩(wěn)定連續(xù)檢測,但此時物體標簽仍然保留,并繼續(xù)預測跟蹤,直至如圖7(c)第37幀所示時,右側(cè)車輛被重新檢測,而此時,右側(cè)車輛的物體標簽仍然不變。表明本研究跟蹤算法能準確跟蹤多目標,具有一定的抗遮擋能力,能改善檢測算法不穩(wěn)定的情況。圖8為在連續(xù)視頻中取相同幀間隔截取3張圖像,車輛出現(xiàn)相互交叉遮擋,車輛檢測算法正確檢測,并為目標車輛分配ID值,從圖8中可以看出,連續(xù)視頻幀中目標ID值并未改變,說明本跟蹤算法在目標之間交叉干擾的情況下仍能準確跟蹤多目標。 為準確評價檢測跟蹤整體算法的檢測精度,借鑒論文[9]的方法,采用檢測率DR和誤檢率FPR來進行評價,檢測率的公式計算如下: (15) (16) 式中,TP為被正確檢測出的車輛數(shù)量;FN為漏檢的車輛數(shù)量;FP為錯誤檢測成車輛的數(shù)量。 選取實車視頻采集的圖片進行檢測率與誤檢率計算,其中普通道路環(huán)境與包含遮擋、陽光陰影等干擾道路環(huán)境的比例為4.67∶1,并與其他檢測算法進行比較,結(jié)果如表3所示。 表3 檢測跟蹤算法對比Tab.3 Comparison of detection and tracking algorithms 從表3可以看出,本研究檢測跟蹤算法相比于其他檢測算法保持了較高檢測率,達到97.50%,依據(jù)參考文獻[15, 29, 30]的標準,當檢測率達到95%以上,能滿足實車對檢測率的要求。同時,檢測速度大幅縮短,為11.3 ms/幀,遠低于其他檢測算法,并小于采集每秒30幀視頻幀率每一幀間隔時間33 ms,滿足實時性的要求。當本車行駛速速度為60 km/h時,車輛每行駛0.19 m更新一次前方車輛檢測信息;當本車行駛速度為120 km/h時,每0.38 m 更新一次。 基于小型化YOLOv3深度學習網(wǎng)絡(luò)的實時車輛檢測算法,在保證提取多層特征的前提下,采用K-means++算法聚類提取先驗框,通過減小殘差網(wǎng)絡(luò)層數(shù)、網(wǎng)絡(luò)深度,改變基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu),達到減少網(wǎng)絡(luò)參數(shù)數(shù)量、模型小型化的目的,能加快網(wǎng)絡(luò)訓練、正向推理速度,使深度網(wǎng)絡(luò)能快速檢測車輛位置。試驗表明,在復雜道路環(huán)境中有較強的魯棒性,檢測速度為每秒101.7幀,計算平均準確率AP為91.52,高于其他深度學習算法,相比與YOLOv3,在精度損失0.06%下,檢測速度提高一倍以上,且網(wǎng)絡(luò)生成模型大小為原來1/4。然后采用卡爾曼濾波進行車輛目標跟蹤,并利用匈牙利算法進行數(shù)據(jù)關(guān)聯(lián)。跟蹤算法能確定被檢測目標唯一標簽ID,能較好實現(xiàn)多目標穩(wěn)定跟蹤,可改善檢測不穩(wěn)定的情況。檢測跟蹤整體算法的檢測率達到97.50%,并且檢測速度大幅減小,為11.3 ms/幀。小型化網(wǎng)絡(luò)檢測跟蹤算法可以滿足實際智能駕駛過程中的車輛檢測及跟蹤需求。 在后續(xù)的研究中,將考慮側(cè)后方車輛檢測,彎道測距需求,并將人-車-路環(huán)境考慮其中,進行碰撞預警模型的搭建與研究,并形成一個考慮檢測幀率、AP、生成網(wǎng)絡(luò)大小3個參數(shù)的檢測算法總合評價指標。4 試驗設(shè)計與驗證
4.1 檢測算法試驗
4.2 跟蹤算法試驗
5 結(jié)論