• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于改進(jìn)YOLOv3模型的道路車輛多目標(biāo)檢測(cè)方法

      2021-11-16 01:53:06馬麗萍馬文哲張宏偉
      關(guān)鍵詞:先驗(yàn)遠(yuǎn)端尺度

      馬麗萍,贠 鑫,馬文哲,張宏偉

      (西安工程大學(xué) 電子信息學(xué)院,陜西 西安 710048)

      0 引 言

      道路車輛檢測(cè)[1]作為智能交通系統(tǒng)數(shù)據(jù)前端采集的重要環(huán)節(jié)[2],一直以來(lái)都是該領(lǐng)域的研究熱點(diǎn)。而車輛檢測(cè)算法對(duì)同視景中道路近、遠(yuǎn)端目標(biāo)車輛的檢測(cè)能力,將直接影響道路交通攝像頭的使用效率[3]。因此,提高同幀圖像內(nèi)近、遠(yuǎn)端目標(biāo)檢測(cè)精度是智能交通系統(tǒng)中基于機(jī)器學(xué)習(xí)的目標(biāo)檢測(cè)算法的重要研究課題之一[4-5]。

      基于機(jī)器學(xué)習(xí)的傳統(tǒng)目標(biāo)檢測(cè)算法中[6],文獻(xiàn)[7]使用梯度直方圖特征(histogram of oriented gradient, HOG)提取局部區(qū)域的邊緣和梯度特征,再結(jié)合支持向量機(jī)(support vector machine, SVM)進(jìn)行車輛檢測(cè);文獻(xiàn)[8]采用哈爾特征提取圖像的邊緣、線性、中心和對(duì)角線特征,再利用SVM進(jìn)行人臉檢測(cè);文獻(xiàn)[9]提出將類哈爾特征與Adaboost分類器融合的識(shí)別算法,實(shí)現(xiàn)了對(duì)前方車輛的準(zhǔn)確識(shí)別。但是,傳統(tǒng)的目標(biāo)檢測(cè)方法主要依賴于人工獲取有關(guān)的目標(biāo)特征信息,人工特征提取階段提取的特征優(yōu)劣將直接影響整個(gè)算法的檢測(cè)性能。而人工提取的特征只能描述目標(biāo)的表象和形狀,無(wú)法表達(dá)深層特征信息,且候選目標(biāo)框數(shù)量較多,導(dǎo)致模型的泛化能力差,普適性低,計(jì)算量大,且在復(fù)雜多變的背景下,模型的魯棒性較弱,限制了實(shí)際應(yīng)用[10]。

      基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法[11],最早是文獻(xiàn)[12]通過(guò)借鑒傳統(tǒng)目標(biāo)檢測(cè)中的滑動(dòng)窗口思想,提出的基于選擇搜索的R-CNN目標(biāo)檢測(cè)框架。早期的目標(biāo)檢測(cè)算法均為Tow-stage目標(biāo)檢測(cè)算法,都是將目標(biāo)檢測(cè)問(wèn)題分為候選區(qū)域提取和候選區(qū)域位置及類別預(yù)測(cè)2個(gè)階段。這類算法的典型代表是R-CNN系列算法,如:R-CNN、Fast R-CNN[13]、Faster R-CNN[14]等,此類方法雖然檢測(cè)精度高,但由于在提取候選網(wǎng)絡(luò)上耗費(fèi)的時(shí)間較長(zhǎng),因此在速度上并不能滿足實(shí)時(shí)檢測(cè)的要求。隨后出現(xiàn)的One-stage目標(biāo)檢測(cè)算法,主要有SSD[15]和YOLO[16-18]系列算法,此類算法不需要使用區(qū)域候選網(wǎng)絡(luò),直接通過(guò)卷積神經(jīng)網(wǎng)絡(luò)提取特征來(lái)產(chǎn)生目標(biāo)的位置和類別信息,是一種端到端的目標(biāo)檢測(cè)算法,具有更快的檢測(cè)速度。其中,YOLOv3因其良好的檢測(cè)精度和速度,在車輛檢測(cè)任務(wù)中得到了廣泛應(yīng)用[19-21]。

      綜上,本文引入YOLOv3模型進(jìn)行道路車輛的多目標(biāo)檢測(cè)方法研究。針對(duì)近、遠(yuǎn)端目標(biāo)車輛在交通視頻中不同特征、特點(diǎn)造成的檢測(cè)精度低,甚至漏檢等問(wèn)題,提出了YOLOv3-Y模型。YOLOv3-Y模型在YOLOv3采用的多尺度特征檢測(cè)思想的基礎(chǔ)上,增加一個(gè)檢測(cè)層,將檢測(cè)尺度擴(kuò)展到4種;再利用K-means算法在自制的車輛數(shù)據(jù)集上對(duì)先驗(yàn)框進(jìn)行重新聚類,得出適用于本文所用車輛數(shù)據(jù)集的先驗(yàn)框;最后用GIOU[22]代替IOU作為坐標(biāo)誤差損失函數(shù),增強(qiáng)對(duì)目標(biāo)物體尺寸的敏感度,加快模型擬合預(yù)測(cè)框與真實(shí)框的位置關(guān)系,提高模型的預(yù)測(cè)精度。

      1 基于YOLOv3的多目標(biāo)檢測(cè)模型

      1.1 YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)

      YOLOv3的核心思想是將整張圖片作為神經(jīng)網(wǎng)絡(luò)的輸入,并在最后輸出層直接輸出回歸的目標(biāo)框位置和類別信息[23]。YOLOv3的網(wǎng)絡(luò)結(jié)構(gòu)主要分為Darknet-53特征提取網(wǎng)絡(luò)和特征圖預(yù)測(cè)識(shí)別2部分:Darknet-53特征提取網(wǎng)絡(luò),共包含53個(gè)卷積層,交替使用1×1和3×3的濾波器進(jìn)行卷積;采用步長(zhǎng)為2的卷積核對(duì)輸入圖像進(jìn)行5次降采樣,在最后3次降采樣中對(duì)目標(biāo)進(jìn)行預(yù)測(cè)識(shí)別。同時(shí)YOLOv3借鑒了ResNet[24]網(wǎng)絡(luò)中的殘差塊結(jié)構(gòu)和跳躍連接機(jī)制,解決了由網(wǎng)絡(luò)加深導(dǎo)致的梯度彌散和梯度爆炸問(wèn)題。Darknet-53中包含了5個(gè)大殘差塊,這5個(gè)大殘差塊中分別包含1、2、8、8、4個(gè)小殘差單元。通過(guò)輸入與2個(gè)DBL單元進(jìn)行殘差操作,構(gòu)成殘差單元,其中,DBL單元包含卷積、批歸一化和leaky ReLU激活函數(shù)。

      檢測(cè)階段YOLOv3使用多尺度特征[25]進(jìn)行預(yù)測(cè),將Darknet-53網(wǎng)絡(luò)中后3次降采樣得到的52×52、26×26、13×13等3個(gè)尺度上的特征圖分別通過(guò)全卷積特征提取器(Convolutional Set)處理。獲得處理結(jié)果后,一部分根據(jù)置信度大小對(duì)結(jié)果進(jìn)行回歸,得到最終的預(yù)測(cè)結(jié)果;另一部分通過(guò)上采樣與對(duì)應(yīng)的上一特征層進(jìn)行融合,實(shí)現(xiàn)3個(gè)不同尺度的跨層檢測(cè)。

      1.2 網(wǎng)絡(luò)結(jié)構(gòu)的改進(jìn)

      由于道路中不同車輛與攝像頭之間的距離差異,在獲得的圖像中,遠(yuǎn)端車輛會(huì)呈現(xiàn)小目標(biāo)的特性[26],如在圖片中所占像素少、特征不明顯,與近端大目標(biāo)相比遠(yuǎn)端車輛在檢測(cè)中會(huì)存在檢測(cè)率低、虛警率高等問(wèn)題。因此,為了改善遠(yuǎn)端小目標(biāo)車輛的檢測(cè)效果,本文改進(jìn)模型在YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上增加了網(wǎng)絡(luò)的檢測(cè)尺度,改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

      圖1 改進(jìn)的YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Improved YOLOv3 network structure

      圖1在YOLOv3的3個(gè)檢測(cè)層基礎(chǔ)上增加了尺度為104×104的檢測(cè)層。對(duì)特征提取網(wǎng)絡(luò)輸出的52×52尺度的8倍降采樣特征圖進(jìn)行2倍上采樣,使其變?yōu)?04×104尺度的特征圖,再將得到的特征圖與網(wǎng)絡(luò)中第2個(gè)殘差塊輸出的104×104尺度的4倍降采樣特征圖進(jìn)行拼接,建立輸出為4倍降采樣的特征融合目標(biāo)檢測(cè)層。相較于其他尺度檢測(cè)層,104×104尺度的檢測(cè)層將圖像劃分成了更精細(xì)的單元格,提升了對(duì)小目標(biāo)的檢測(cè)效果。隨后對(duì)數(shù)據(jù)集真實(shí)框進(jìn)行聚類分析,將得到的候選框尺寸分別應(yīng)用到4個(gè)(104×104、52×52、26×26、13×13)不同尺度的檢測(cè)層上,并將該網(wǎng)絡(luò)模型稱為YOLOv3-DL4。

      1.3 基于K-means聚類的先驗(yàn)框重選取

      YOLOv3沿用YOLOv2中的先驗(yàn)框思想,使用9個(gè)不同先驗(yàn)框代替YOLOv2中的5個(gè)先驗(yàn)框。先驗(yàn)框是針對(duì)不同尺度網(wǎng)絡(luò)層確定的具有固定寬度和高度的初始候選框,用來(lái)邏輯回歸邊界框。故先驗(yàn)框選擇的優(yōu)劣會(huì)影響檢測(cè)器的性能,對(duì)最終的檢測(cè)結(jié)果有直接的影響。

      YOLOv3使用K-means算法對(duì)輸出的3個(gè)尺度特征圖在COCO數(shù)據(jù)集上聚類出9個(gè)不同尺寸的先驗(yàn)框,每個(gè)尺度根據(jù)感受野對(duì)應(yīng)3個(gè)固定尺寸的先驗(yàn)框。YOLOv3輸出的3個(gè)特征圖尺度分別為:52×52、26×26、13×13。其中,52×52尺度的特征圖感受野較小,對(duì)小目標(biāo)相對(duì)敏感,選用尺寸較小的先驗(yàn)框(10, 13)、(16, 30)和(33, 23)來(lái)檢測(cè)較小的目標(biāo);26×26尺度的特征圖具有中等感受野,選用尺寸中等的先驗(yàn)框(30, 61)、(62, 45)和(59, 119)來(lái)檢測(cè)中等大小的目標(biāo);而較小的13×13尺度的特征圖感受野較大,對(duì)大目標(biāo)相對(duì)敏感,選用尺寸較大的先驗(yàn)框(116, 90)、(156, 198)和(373, 326)來(lái)檢測(cè)大目標(biāo)。同時(shí),YOLOv3采用與標(biāo)簽尺寸大小無(wú)關(guān)的平均IOU作為度量標(biāo)簽相似性的指標(biāo),對(duì)訓(xùn)練集所有目標(biāo)使用K-means聚類獲得先驗(yàn)框的大小。

      在COCO數(shù)據(jù)集中有80類目標(biāo),這些目標(biāo)物體尺寸不一,大小差距較大,聚類出來(lái)的先驗(yàn)框形狀不一。由于本文的檢測(cè)目標(biāo)只是車輛,在車輛目標(biāo)數(shù)據(jù)集中,多數(shù)的先驗(yàn)框的形狀是寬大于高的,用于本文實(shí)際道路車輛數(shù)據(jù)集時(shí)部分先驗(yàn)框不合理。所以,對(duì)于本文數(shù)據(jù)集進(jìn)行重新聚類,獲得適合本文道路車輛數(shù)據(jù)集的先驗(yàn)框,提高近、遠(yuǎn)端車輛目標(biāo)的檢出率。

      YOLOv3-DL4模型的檢測(cè)網(wǎng)絡(luò)共包含4個(gè)不同尺度的檢測(cè)層,每個(gè)檢測(cè)尺度分配3組先驗(yàn)框,故共需12組先驗(yàn)框。因此采用K-means算法聚類出12組先驗(yàn)框,再根據(jù)檢測(cè)尺度大小的不同,將得到的先驗(yàn)框分別應(yīng)用到不同尺度的檢測(cè)層中,分配結(jié)果如表1所示。

      表1 不同尺度特征圖對(duì)應(yīng)的先驗(yàn)框尺寸Tab.1 The size of the anchor corresponding to the feature map of different scales

      1.4 邊界框檢測(cè)Loss的改進(jìn)

      IOU是目標(biāo)檢測(cè)中最常用的測(cè)量指標(biāo),可表示為

      (1)

      式中:A為預(yù)測(cè)框;B為真實(shí)框。

      IOU表示預(yù)測(cè)框與真實(shí)框交集與并集的比值,所以,常用的先驗(yàn)框回歸損失優(yōu)化和IOU優(yōu)化不完全等價(jià)。GIOU作為距離度量標(biāo)準(zhǔn),其滿足非負(fù)性、不可分的同一性、對(duì)稱性和三角不等性。GIOU值是比值,對(duì)目標(biāo)框尺度并不敏感,具有尺度不變性。由于GIOU引入了包含A和B最小凸集C,當(dāng)A、B2個(gè)框不重合時(shí),依然可以進(jìn)行梯度優(yōu)化,在保留了IOU原始性質(zhì)的同時(shí)弱化了它的缺點(diǎn)。所以本文在YOLOv3-DL4模型的基礎(chǔ)上,引入GIOU來(lái)解決IOU無(wú)法直接優(yōu)化非重疊部分的問(wèn)題,并將引入GIOU后的模型稱為YOLOv3-Y。

      2 實(shí)驗(yàn)結(jié)果及分析

      實(shí)驗(yàn)使用的工作站設(shè)備型號(hào)為容天SCW4750,顯卡為NVIDIA GTX 1080TI 11 GiB,8個(gè)16 GiB內(nèi)存,處理器為Intel i7-6800 CPU,操作系統(tǒng)為Ubuntu16.04,深度神經(jīng)網(wǎng)絡(luò)參數(shù)配置平臺(tái)為Darknet框架,并同時(shí)安裝了CUDA(compute unified device architecture) 9.0、CUDNN(CUDA deep neural network library) 7.0.4以支持GPU的使用。

      2.1 樣本數(shù)據(jù)

      為保證數(shù)據(jù)多樣性,分時(shí)段對(duì)同一目標(biāo)路段進(jìn)行圖像采集,保證不同時(shí)段的樣本數(shù)據(jù)中包含車型種類、顏色具有可比較性,采集時(shí)長(zhǎng)共560 min,有效實(shí)際道路圖像30 000幀,經(jīng)數(shù)據(jù)增強(qiáng)操作后獲得樣本圖像120 000幀,隨機(jī)選取部分?jǐn)?shù)據(jù)樣本,如圖2所示。使用LabelImg對(duì)采集到的數(shù)據(jù)集內(nèi)的車輛進(jìn)行標(biāo)注,對(duì)應(yīng)car、van、truck、bus 4種常見(jiàn)車型,標(biāo)注完成后生成對(duì)應(yīng)的XML文件。數(shù)據(jù)集中將訓(xùn)練樣本按70%和30%的比例隨機(jī)分開,用于模型的訓(xùn)練和模型性能的驗(yàn)證。

      圖2 部分?jǐn)?shù)據(jù)樣本Fig.2 Part of the data sample

      2.2 模型驗(yàn)證結(jié)果分析

      基于2.1節(jié)搭建的實(shí)驗(yàn)平臺(tái),對(duì)YOLOv3、YOLOv3-DL4和YOLOv3-Y模型分別進(jìn)行訓(xùn)練。初始訓(xùn)練階段的衰減系數(shù)、動(dòng)量參數(shù)和學(xué)習(xí)率分別設(shè)置為0.000 5、0.9和0.001,并選擇steps模式更新學(xué)習(xí)率,訓(xùn)練迭代次數(shù)達(dá)到16 000和18 000時(shí),學(xué)習(xí)率分別降低至初始學(xué)習(xí)率的10%和1%,使損失函數(shù)進(jìn)一步收斂,比較得到的車輛多目標(biāo)檢測(cè)結(jié)果。3種模型在實(shí)驗(yàn)室實(shí)際道路車輛數(shù)據(jù)集上的平均準(zhǔn)確度AP和平均精度均值mAP如表2所示,其中,“×”表示模型沒(méi)有加入該項(xiàng),“√”表示模型加入了該項(xiàng)。

      表2 不同網(wǎng)絡(luò)模型檢測(cè)結(jié)果比較Tab.2 Comparison of detection results of different network models

      從表2可以看出,YOLOv3在增加了檢測(cè)層并重新計(jì)算先驗(yàn)框尺寸后,模型中的先驗(yàn)框更適合于本文構(gòu)建的車輛數(shù)據(jù)集,且對(duì)近、遠(yuǎn)端車輛目標(biāo)更加敏感。因此YOLOv3-DL4模型相較于YOLOv3模型對(duì)4種車型的檢測(cè)效果均有小幅度提升,總體檢測(cè)平均準(zhǔn)確率提高了5.35%。使用GIOU損失提高檢測(cè)準(zhǔn)確率的效果明顯,相比YOLOv3網(wǎng)絡(luò)模型,平均準(zhǔn)確率提高了11.05%。以上3個(gè)模型的檢測(cè)對(duì)比結(jié)果如圖3所示。

      如圖3(a)、(b)、(c)分別是YOLOv3、YOLOv3-DL4及YOLOv3-Y迭代20 000 次得到的模型對(duì)實(shí)際道路交通場(chǎng)景下的車輛檢測(cè)結(jié)果,圖中粉色框表示該車輛識(shí)別為“car”類,紅色框表示識(shí)別為“van”類,綠色框表示識(shí)別為“bus”類,藍(lán)色框表示識(shí)別為“truck”類。從圖3(a)中可以發(fā)現(xiàn)a1、a2、a3均沒(méi)有檢測(cè)出左上角距離較遠(yuǎn)的小目標(biāo)車輛,a4中未檢測(cè)出左下角距離較近的“bus”類車輛,a5在右上角出現(xiàn)了將“truck”類錯(cuò)檢為“van”類、a6中左上角出現(xiàn)了將“van”類錯(cuò)檢為“car”類的情況。對(duì)比子圖(b),YOLOv3-DL4改善了a1、a3、a4的漏檢及a5、a6的錯(cuò)檢情況,但b2中右上角處仍存在漏檢情況。圖3(c)中,改進(jìn)的YOLOv3-Y模型消除了上述YOLOv3及YOLOv3-DL4模型檢測(cè)結(jié)果中的漏檢和錯(cuò)檢現(xiàn)象。通過(guò)實(shí)驗(yàn),可以發(fā)現(xiàn)YOLOv3-Y算法能夠精確檢測(cè)出更多的車輛,在一定程度上緩解了對(duì)小目標(biāo)的漏檢、錯(cuò)檢情況,對(duì)同幀圖像中近、遠(yuǎn)端目標(biāo)均具有較好的適應(yīng)性,能夠提高網(wǎng)絡(luò)模型的檢測(cè)效果。

      (a) YOLOv3模型

      2.3 YOLOv3-Y車型識(shí)別結(jié)果與分析

      在車型識(shí)別的實(shí)驗(yàn)中,將YOLOv3-Y模型與YOLOv2、YOLOv2-voc、YOLOv2-tiny、YOLOv3、YOLOv3-tiny 5種經(jīng)典模型進(jìn)行了對(duì)比,對(duì)比結(jié)果如表3所示。

      表3 不同模型檢測(cè)的平均精度均值及平均精度值Tab.3 mAP and AP values detected by different models 單位:%

      從表3可知,YOLOv3-Y模型的mAP較YOLOv3模型提高了11.05%,達(dá)到84.30%,其余4種模型的mAP值均低于80%。4種車型識(shí)別效果中:由于“van”類車輛的特征較難被識(shí)別,6種模型對(duì)“van”類車輛識(shí)別的平均準(zhǔn)確率均偏低,除YOLOv3-Y模型外,其余5種模型的AP值均低于60%,YOLOv3-Y模型將“van”類車輛的AP值提高到了62.23%。對(duì)于其他3種車型檢測(cè)的平均準(zhǔn)確率,除YOLOv3-Y外,YOLOv3-tiny獲得“car”和“bus”類車輛識(shí)別最優(yōu)AP值分別為88.82%和92.27%,YOLOv2獲得“truck”類的識(shí)別最優(yōu)AP值89.04%,本文模型對(duì)“car”“bus”“truck”類型車輛識(shí)別的平均準(zhǔn)確率在最高值的基礎(chǔ)上分別提高了3.04%,0.81%和1.01%。該網(wǎng)絡(luò)模型通過(guò)利用殘差思想和上采樣操作融合了多級(jí)特征圖,讓更細(xì)粒度的特征參與車輛檢測(cè),從而解決了該數(shù)據(jù)集中車輛目標(biāo)多尺度和遠(yuǎn)端小目標(biāo)的檢測(cè)問(wèn)題,提高了對(duì)近、遠(yuǎn)端車輛目標(biāo)的檢測(cè)效果。

      為了進(jìn)一步準(zhǔn)確的評(píng)估改進(jìn)模型的識(shí)別效果,計(jì)算6種模型被檢目標(biāo)的準(zhǔn)確率P、召回率R以及F1分?jǐn)?shù),其中F1分?jǐn)?shù)為精確率和召回率的調(diào)和平均數(shù),能同時(shí)兼顧模型的精確度和召回率,取值在0~1之間,F(xiàn)1越大,模型效果越好。識(shí)別結(jié)果如表4所示。

      表4 不同模型的識(shí)別結(jié)果Tab.4 Recognition results of different models

      (2)

      式中:NTP為模型正確檢測(cè)出來(lái)的目標(biāo)數(shù)量;NFP為模型誤檢的目標(biāo)數(shù)量;NFN為模型漏檢的目標(biāo)數(shù)量。

      從表4可知,在驗(yàn)證154個(gè)目標(biāo)時(shí),6個(gè)模型在精度方面均表現(xiàn)良好,在召回率方面YOLOv2-tiny、YOLOv3和YOLOv3-tiny模型的召回率均低于90%,與其余3個(gè)模型相比,正確率偏低,效果較差。對(duì)比6個(gè)模型的F1分?jǐn)?shù),除YOLOv3-Y模型外,YOLOv2模型獲得最高F1分?jǐn)?shù)95.27%,能準(zhǔn)確檢測(cè)出142個(gè)車輛目標(biāo),正確識(shí)別出141個(gè)車輛目標(biāo),準(zhǔn)確率達(dá)到了99.30%,召回率達(dá)到了91.56%。本文模型對(duì)4種類型車輛目標(biāo)識(shí)別的精確度與最高值齊平,召回率及F1分?jǐn)?shù)在最高值的基礎(chǔ)上分別提高了0.65%和0.35%,分別達(dá)到了99.30%、92.21%和95.62%。

      YOLOv2、YOLOv2-voc、YOLOv2-tiny、YOLOv3、YOLOv3-tiny和YOLOv3-Y模型的交并比、召回率及精確度曲線如圖4所示。

      (a) YOLOv2 (b) YOLOv2-voc

      圖4中,6個(gè)模型的召回率在初始時(shí)都出現(xiàn)了較大波動(dòng),隨著檢測(cè)的目標(biāo)數(shù)增加逐漸趨于穩(wěn)定,YOLOv2模型和YOLOv2-voc模型的召回率逐漸穩(wěn)定在91%,YOLOv2-tiny模型的召回率逐漸穩(wěn)定在75%,YOLOv3模型趨于87%,YOLOv3-tiny模型召回率逐漸趨于80%,YOLOv3-Y模型的召回率始終保持在90%以上,說(shuō)明在實(shí)際交通背景下YOLOv3-Y模型具有較高的正確率,而YOLOv2-tiny和YOLOv3-tiny的正確率較低;在精度方面,YOLOv2和YOLOv2-voc模型在開始階段,出現(xiàn)較大的跳變,但隨著目標(biāo)數(shù)的增加,模型的精度趨于穩(wěn)定。6個(gè)模型中,YOLOv2-voc和YOLOv2-tiny模型的精度相對(duì)較低,其他4種模型的精度均表現(xiàn)良好,其中YOLOv3-Y模型的精度達(dá)到了99.3%,為最優(yōu),表明改進(jìn)后的模型保持了很高的精確度和穩(wěn)定性;同時(shí)對(duì)比6種模型的交并比曲線可以看出,6種模型均出現(xiàn)了不同幅度的波動(dòng),YOLOv2模型的IOU在0.75左右波動(dòng),YOLOv2-voc模型的IOU較YOLOv2有所提高,維持在0.83左右。

      YOLOv2-tiny模型和YOLOv3模型的交并比值分別在0.5~0.6和0.65~0.73之間波動(dòng),波動(dòng)范圍相對(duì)較大,穩(wěn)定性低;而YOLOv3-tiny模型和YOLOv3-Y模型的交并比值分別在0.45~0.5和0.78~0.82之間波動(dòng),波動(dòng)范圍小,曲線較平滑,有較好的穩(wěn)定性,但YOLOv3-tiny模型交并比值較低。綜上,YOLOv3-Y模型在以上3方面均表現(xiàn)突出,具有較高的精確度和穩(wěn)定性。

      圖5為上述6種模型分別在訓(xùn)練集上訓(xùn)練20 000次獲得的權(quán)重模型,在驗(yàn)證集上得到的檢測(cè)結(jié)果。

      (a) YOLOv2模型 (b) YOLOv2-voc模型

      圖5(a)、(b)中YOLOv2模型和YOLOv2-voc模型對(duì)遠(yuǎn)端小目標(biāo)出現(xiàn)了嚴(yán)重的漏檢;圖5(c)中的漏檢情況有所改善,檢測(cè)出了1、2中的所有目標(biāo),但3、4中仍存在對(duì)小目標(biāo)的漏檢;圖5(d)中,1未檢測(cè)出左上角小目標(biāo),3中出現(xiàn)將“truck”誤檢為“van”類的情況,4中漏檢了距離較遠(yuǎn)的“car”類車輛及距離較近的“van”類車輛;圖5(e)中4張結(jié)果圖中均存在對(duì)小目標(biāo)的漏檢;在圖5(f)中,消除了上述的漏檢現(xiàn)象,并正確檢測(cè)出了3中的“truck”。綜上所述,YOLOv3-Y模型對(duì)實(shí)際交通道路下的車輛目標(biāo)檢測(cè)效果最好,并解決了其余模型對(duì)近、遠(yuǎn)端車輛檢測(cè)與識(shí)別結(jié)果中存在的漏檢、錯(cuò)檢問(wèn)題。

      3 結(jié) 語(yǔ)

      本文分析了現(xiàn)有YOLO深度學(xué)習(xí)方法在真實(shí)道路環(huán)境下車輛目標(biāo)檢測(cè)與識(shí)別中存在的問(wèn)題,即對(duì)于同一幀圖像近端和遠(yuǎn)端目標(biāo)車輛檢測(cè)不能同時(shí)獲得較好的檢測(cè)效率。為此,在YOLOv3模型的基礎(chǔ)上進(jìn)行了改進(jìn),首先,增加了輸出為4倍降采樣的特征融合目標(biāo)檢測(cè)層,通過(guò)提取4種不同尺度的特征圖,為目標(biāo)預(yù)測(cè)模塊提供更加豐富的細(xì)節(jié)信息,增強(qiáng)網(wǎng)絡(luò)對(duì)遠(yuǎn)、近端目標(biāo)車輛的檢測(cè)能力;其次,使用K-means聚類算法重新確定適合本文車輛數(shù)據(jù)集的先驗(yàn)框尺寸,使模型更符合車輛目標(biāo)的檢測(cè),提高模型預(yù)測(cè)目標(biāo)位置的能力;然后引入GIOU損失函數(shù)對(duì)IOU損失函數(shù)進(jìn)行了優(yōu)化,提高模型的定位能力;最后,將得到的YOLOv3-Y模型與YOLOv2、YOLOv2-voc、YOLOv2-tiny、YOLOv3及YOLOv3-tiny 5種經(jīng)典模型在實(shí)驗(yàn)室實(shí)際道路車輛數(shù)據(jù)集上進(jìn)行對(duì)比。實(shí)驗(yàn)結(jié)果表明,改進(jìn)的YOLOv3-Y模型在實(shí)際交通場(chǎng)景中車輛目標(biāo)檢測(cè)任務(wù)的平均精度均值達(dá)到了84.30%,相較于原始的YOLOv3算法提高了11.05%,對(duì)同幀圖像中近、遠(yuǎn)端車輛目標(biāo)均具有較好的檢測(cè)性能。

      猜你喜歡
      先驗(yàn)遠(yuǎn)端尺度
      內(nèi)側(cè)楔骨遠(yuǎn)端傾斜與拇外翻關(guān)系的相關(guān)性
      財(cái)產(chǎn)的五大尺度和五重應(yīng)對(duì)
      基于無(wú)噪圖像塊先驗(yàn)的MRI低秩分解去噪算法研究
      基于自適應(yīng)塊組割先驗(yàn)的噪聲圖像超分辨率重建
      宇宙的尺度
      太空探索(2016年5期)2016-07-12 15:17:55
      基于平滑先驗(yàn)法的被動(dòng)聲信號(hào)趨勢(shì)項(xiàng)消除
      遠(yuǎn)端蒂足內(nèi)側(cè)皮瓣修復(fù)(足母)趾皮膚軟組織缺損
      先驗(yàn)的廢話與功能的進(jìn)路
      胃小彎全切術(shù)治療遠(yuǎn)端胃癌的隨機(jī)對(duì)照研究
      9
      404 Not Found

      404 Not Found


      nginx
      马山县| 泰兴市| 大化| 松桃| 大连市| 洪湖市| 丰原市| 江都市| 民县| 永川市| 宁国市| 宜城市| 临武县| 叙永县| 新巴尔虎右旗| 岳池县| 静海县| 手游| 深水埗区| 固原市| 永和县| 杂多县| 攀枝花市| 兴海县| 兴宁市| 安岳县| 建水县| 陕西省| 桑日县| 温宿县| 枞阳县| 冀州市| 泾阳县| 白朗县| 嘉黎县| 布拖县| 清新县| 东乌珠穆沁旗| 忻城县| 喀喇沁旗| 叙永县|