• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      一種基于改進(jìn)YOLOv5s的車道線檢測方法

      2022-05-11 05:47:36舒小華楊明俊
      關(guān)鍵詞:錨框車道準(zhǔn)確率

      韓 逸,舒小華,楊明俊

      (湖南工業(yè)大學(xué) 軌道交通學(xué)院,湖南 株洲 412007)

      0 引言

      隨著城市交通的迅速發(fā)展以及圖像處理技術(shù)的逐漸成熟,應(yīng)用在車輛上的輔助視覺功能被越來越廣泛地應(yīng)用。智能駕駛逐漸成為當(dāng)下的熱門技術(shù)與話題,其中圖像與視頻處理是其主要的研究對象。而在車輛對道路信息的收集中,車道線的信息收集尤為重要。它不僅可以為車輛導(dǎo)航提供參考,而且可以被應(yīng)用于目標(biāo)檢測和汽車預(yù)警等方面。在傳統(tǒng)算法方面,車道線檢測主要是提取圖像的邊緣信息,一般先用Canny算子或者Sobel算子對圖像進(jìn)行邊緣檢測,然后用高斯算法或者最小二乘法進(jìn)行擬合。而隨著機器學(xué)習(xí)的不斷發(fā)展,深度學(xué)習(xí)的方法也被應(yīng)用到車道線檢測中。

      目前,基于目標(biāo)識別的深度學(xué)習(xí)方法主要分為兩種:一是two stage的R-CNN(region convolutional neural networks)系列,其框架精度較高,網(wǎng)絡(luò)結(jié)構(gòu)較深,訓(xùn)練時間較長;二是one stage的YOLO(you only look once)、SDD(system definition directive)系列[1],這種框架訓(xùn)練速度快、結(jié)構(gòu)簡單、檢測速度快,具有可實時檢測性[2]。YOLO系列至今已發(fā)展到Y(jié)OLOv5系列。相較于之前的YOLOv3和YOLOv4系列,YOLOv5系列具有體積小、檢測速度快、檢測精度高等特點[3]。王灃[4]對YOLOv5框架進(jìn)行了改進(jìn),增加了k-means++算法,對anchor先進(jìn)行聚類,以提升檢測框的檢測率,并將GIoU(generalized intersection-over-union)損失函數(shù)改成CIoU(complete intersection-over-union)函數(shù),改進(jìn)后的框架對于安全帽的檢測率有所提高。林清平等[5]對于YOLOv5框架的改進(jìn)方法體現(xiàn)在特征金字塔網(wǎng)絡(luò)(feature pyramid networkimage,F(xiàn)PN)結(jié)構(gòu)上,其在FPN中增加了一個平衡系數(shù),以增大小目標(biāo)在相鄰特征層融合過程中保留的比例。崔文靚等[6]在YOLOv3框架上增加了k-means++算法進(jìn)行先驗框計算,并用GPU(graphics processing unit)進(jìn)行訓(xùn)練和檢測,實驗結(jié)果表明該處理的檢測率提升了11%。楊曉玲等[7]在數(shù)據(jù)集方面進(jìn)行了Mosaic增強,隨機選取訓(xùn)練數(shù)據(jù)中的4張圖片,采用隨機縮放、隨機排布、隨機裁剪的方式進(jìn)行拼接以豐富圖像數(shù)據(jù),這種方法增加了數(shù)據(jù)的魯棒性,對于圖像中小物件對象的檢測率有所增加。Qu Z.等[8]將車道線的整體問題轉(zhuǎn)化成局部特征點與這個點關(guān)聯(lián)的特征點問題,并通過由粗到細(xì)的方法調(diào)整曲線,該方法可以嵌套到任意的深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)中。對車道線中心點進(jìn)行高斯編碼,再用偏移量進(jìn)行區(qū)域搜索,可擬合到其他特征點,連接這些特征點即可得到擬合曲線。周衛(wèi)林等[9]基于GoogLeNet建立了一種端到端的車道線檢測網(wǎng)絡(luò)模型,先用YOLOv3框架對車道前方的障礙物進(jìn)行識別檢測,再用長短期記憶網(wǎng)絡(luò)做決策,最后根據(jù)歷史編碼信息描繪車輛運動模式,結(jié)合當(dāng)前狀態(tài)得到駕駛參數(shù)。

      基于以上研究,為了提高車道線檢測的實時性與準(zhǔn)確性,本研究在機器學(xué)習(xí)的框架下,提出了一種基于改進(jìn)的YOLOv5s模型檢測算法。改進(jìn)算法中,對于車道線的檢測,因為YOLO系列在神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)方面具有檢測速率較快、網(wǎng)絡(luò)架構(gòu)較簡單、檢測精度較高等優(yōu)點,故采用該系列的神經(jīng)網(wǎng)絡(luò)進(jìn)行實驗。又因YOLOv5是該系列中的新產(chǎn)品,在網(wǎng)絡(luò)結(jié)構(gòu)上相較于前幾代具有創(chuàng)新性,檢測速率和準(zhǔn)確率又有所提升,所以采用one stage的YOLOv5模型進(jìn)行檢測。在回歸框損失函數(shù)方面,將其改進(jìn)為EIOU(efficient input/output unit)損失函數(shù);在數(shù)據(jù)處理方面,增加圖像預(yù)處理之后的二值化圖像參數(shù)進(jìn)行參考,并且采用anchor-free,以提高先驗框的準(zhǔn)確度。為了驗證改進(jìn)算法的有效性,通過實驗,將得到的檢測結(jié)果與YOLOv5的檢測結(jié)果進(jìn)行對比,發(fā)現(xiàn)改進(jìn)算法的平均精度均值(mean average precision,mAP)增加了約11%,能夠?qū)崿F(xiàn)較為準(zhǔn)確的車道線檢測,并具有良好的魯棒性。

      1 YOLOv5目標(biāo)檢測算法

      1.1 YOLOv5框架

      YOLOv5分為S、M、L、X 4種模型,其中S模型網(wǎng)絡(luò)結(jié)構(gòu)最為簡單,訓(xùn)練和檢測速率最快;X模型網(wǎng)絡(luò)結(jié)構(gòu)最為復(fù)雜,深度最深,但是檢測效果最佳。本研究采用L模型網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行訓(xùn)練和檢測,在訓(xùn)練速度和檢測效果兩者中折中取舍。相比于YOLOv3,YOLOv5的改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

      圖1 YOLOv5改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu)框圖Fig.1 YOLOv5 improved network architecture block diagram

      圖1中,每個結(jié)構(gòu)框?qū)雍竺娑歼B接著一個CBL(conv + BN + LeakyReLU)層,其作用是添加一個BN(batch normalization)層和一個激活函數(shù),具有神經(jīng)網(wǎng)絡(luò)的功能。 Backbone是YOLOv5的主體部分,其中Focus層是YOLOv3和YOLOv4兩者所不具備的,它的功能是進(jìn)行切片操作,即將圖像切片后進(jìn)行下采樣操作。雖然其步驟比其他下采樣算法復(fù)雜,但能保持信息較為完整。CSPNet(cross stage partial network)層進(jìn)行局部跨層融合,通過每層的特征信息來獲得更加豐富的特征圖[10];Neck部分采用FPN+PAN(perceptual adversarial network)結(jié)構(gòu),F(xiàn)PN是自頂向下的,將高層的特征信息通過上采樣的方式進(jìn)行傳遞融合,得到進(jìn)行預(yù)測的特征圖。FPN主要應(yīng)用了分治法(divide-and-conquer)解決目標(biāo)檢測問題[11]。PAN是自底向上,將底層的特征信息通過下采樣方式進(jìn)行傳遞融合。兩者相輔相成,從不同的主干層對不同的檢測層進(jìn)行特征聚合;在錨框擬合方面,YOLOv5采用GIoU損失函數(shù),現(xiàn)將其改為EIOU函數(shù),相較而言,EIOU將目標(biāo)框的寬和高分別進(jìn)行處理,回歸速度更快、效果更好。

      1.2 YOLOv5數(shù)據(jù)增強

      YOLOv5在數(shù)據(jù)增強方面采用的是Mosaic(馬賽克)增強,即將數(shù)據(jù)集中的3張或4張圖片通過旋轉(zhuǎn)、翻轉(zhuǎn)、平移等一系列圖像變換操作后,融合成一張新的圖像,新圖像中的目標(biāo)作為一副新的圖像數(shù)據(jù)與原數(shù)據(jù)集一起進(jìn)行訓(xùn)練,達(dá)到擴大數(shù)據(jù)集的效果,增強對目標(biāo)物體的識別能力。

      這種方法是由YOLOv4首先提出來的,現(xiàn)已被很好地運用于YOLOv5中。Mosaic算法將原數(shù)據(jù)集的圖片進(jìn)行融合,相當(dāng)于變相地增加了batch_size,這樣在訓(xùn)練過程中能減少顯存的消耗,讓顯存不是很大的GPU也能進(jìn)行訓(xùn)練。

      2 算法改進(jìn)

      2.1 圖像數(shù)據(jù)

      一般的車道線檢測數(shù)據(jù)集大多是對彩色圖像信息的采集,而在數(shù)據(jù)信息復(fù)雜度較高且對應(yīng)圖像數(shù)量較少的情況下,訓(xùn)練效果不明顯,會導(dǎo)致檢測時產(chǎn)生漏檢或者誤檢的現(xiàn)象。針對這一問題,本研究提出加入黑白圖像信息通道,將彩色圖像對應(yīng)的預(yù)處理后的二值化圖像一起加入數(shù)據(jù)集中進(jìn)行訓(xùn)練,以提高檢測準(zhǔn)確率。

      2.2 損失函數(shù)

      YOLOv5采用的損失函數(shù)為GIoU函數(shù),GIoU函數(shù)是交并比(intersection-over-union,IoU)函數(shù)[12]的改進(jìn)版。IoU函數(shù)用于計算預(yù)測檢測框和真實檢測框的相交占比,可以反映兩個框的檢測效果,其表達(dá)式為

      式中:A為預(yù)測檢測框;

      B為真實檢測框。

      IoU函數(shù)存在的問題是,當(dāng)A和B兩個框并沒有相交時,即A∩B=0時,則IoU不能體現(xiàn)兩者之間的距離,且loss=0無法回歸,無法進(jìn)行訓(xùn)練。為了解決這一問題,提出了GIoU函數(shù),其先計算兩個框的最小閉包區(qū)域面積Ac,再計算出IoU;然后計算閉包區(qū)域中不屬于兩個框的區(qū)域占閉包區(qū)域的比例;最后,用IoU減去計算所得比例值得到GIoU,具體的計算公式如下:

      式中U為兩個框的重疊區(qū)域。

      當(dāng)兩個框完全相交時,GIoU=1;而兩個框不相交時,距離越遠(yuǎn),GIoU越接近-1。它的缺點是在兩者出現(xiàn)圖2情況時,GIoU會退化成IoU,無法體現(xiàn)出兩者的相對位置。

      圖2 預(yù)測框與真實框位置關(guān)系示意圖Fig.2 Position relationship between prediction frame and real frame

      為了解決這個問題,提出了DIoU損失函數(shù),其表達(dá)式如下:

      式中:b、bgt分別為預(yù)測框和真實框的中心點位置;

      p為兩點之間的歐氏距離;

      c為能包含兩個框的最小閉包區(qū)域的對角線距離。

      引入損失函數(shù)后,不僅能反映兩者完全包含情況下的位置距離,并且DIoU可以直接最小化兩個框的距離,比GIoU的收斂速度更快。

      CIoU則是在DIoU的基礎(chǔ)上,考慮了Bounding box的縱橫比,因而進(jìn)一步提升了其回歸精度,CIoU的表達(dá)式如下:

      式中:α為trade-off參數(shù),其計算式為

      v是用來衡量長寬比一致的參數(shù),其計算式為

      其中,w和h分別為錨框的寬和高。

      CIoU loss的梯度在寬高比屬于[0, 1]區(qū)間內(nèi)時會爆炸,因為w2+h2的值會很小,所以令這個值等于1即可[13]。CIoU考慮的東西最全面,相較而言是目前比較好的一種損失函數(shù)[14]。

      而EIOU[15]則是在CIoU的基礎(chǔ)上,將縱橫比因子拆開分別計算目標(biāo)框的長和寬,其計算式如下:

      式中:Cw、Ch分別為覆蓋兩個BOX的最小外界框的寬度和高度。

      圖3是GIoU和EIOU在同一數(shù)據(jù)集訓(xùn)練下的收斂效果圖。

      圖3 GIoU與EIOU的收斂效果圖Fig.3 Convergence effect diagrams of GIoU and EIOU

      圖3中橫坐標(biāo)為訓(xùn)練輪數(shù),縱坐標(biāo)為損失(loss)。由圖可以得知,EIOU的收斂效果比GIoU的收斂效果更好。

      2.3 錨框機制

      在YOLOv5s中,對于anchor先驗框的計算,是通過k-means聚類方法進(jìn)行的。人工標(biāo)注之后的檢測框通過k-means聚類得到先驗框,將其與真實框進(jìn)行對比、更新等一系列操作后,得到新的數(shù)據(jù)框。這一操作太過復(fù)雜,計算量較大,在車道線的標(biāo)注上體現(xiàn)得不是很好。根據(jù)這一問題,提出anchor-free的錨框算法。

      現(xiàn)有錨框機制主要有anchor-based和anchor-free兩種。YOLOv3、YOLOv5系列都是用anchor-based直接在特征圖上對錨框進(jìn)行回歸和預(yù)測,這樣能避免重復(fù)的卷積運算,加快檢測速率。但是會降低檢測精確度,對于小物體目標(biāo)的檢測效果不顯著。

      anchor-free檢測器以兩種不同的方式檢測物體,一種是首先定位到多個預(yù)定義或自學(xué)習(xí)的關(guān)鍵點,然后約束物體的空間范圍,稱為Keypoint-based方法;另一種是利用中心點或中心目標(biāo)區(qū)域來定義正樣本,然后預(yù)測其到目標(biāo)4個邊的距離,稱為Center-based方法。這種方法能讓檢測流程進(jìn)一步精簡,減少許多超參數(shù)的存在,提高系統(tǒng)的泛化能力。

      根據(jù)車道線在目標(biāo)檢測中的錨框標(biāo)定,采用Center-based方法進(jìn)行檢測。將圖像分為S×S個網(wǎng)格,只要車道線的中心點落在網(wǎng)格內(nèi),則用這個網(wǎng)格負(fù)責(zé)本車道線的檢測。通過計算中心點到網(wǎng)格4個端點的距離來進(jìn)行檢測和錨定[16]。

      2.4 數(shù)據(jù)增強算法

      在1.2中介紹過Mosaic的數(shù)據(jù)增強算法,其優(yōu)點是能夠增強神經(jīng)網(wǎng)絡(luò)對目標(biāo)的學(xué)習(xí)能力,而且能讓機器不太依賴batch_size的大小,讓顯存小的GPU也能很好地進(jìn)行訓(xùn)練。該方法仍然是在數(shù)據(jù)集上進(jìn)行工作。

      而mixup數(shù)據(jù)增強,則是一種與數(shù)據(jù)無關(guān),更為簡單的數(shù)據(jù)增強算法[17],相較Mosaic算法而言,其計算量更小、操作更簡單。其操作如下:在樣本中隨機抽取兩個樣本,讀取它們的樣本標(biāo)簽數(shù)據(jù),進(jìn)行融合計算后得到一個新的樣本標(biāo)簽數(shù)據(jù),再將該數(shù)據(jù)加入樣本中進(jìn)行訓(xùn)練。mixup數(shù)據(jù)增強的計算公式如下:

      式中:λ為權(quán)重,根據(jù)α與β兩個超參數(shù)的貝塔分布計算獲得;

      x1、x2分別為兩個圖像樣本;

      y1、y2分別為對應(yīng)的兩個樣本標(biāo)簽。

      這樣,就獲得了一個新的圖像樣本和一個新的標(biāo)簽數(shù)據(jù)。根據(jù)文獻(xiàn)[17]中的實驗數(shù)據(jù),α和β的超參數(shù)無論怎么設(shè)置,其期望都不會超過0.5,這可能是因為權(quán)重在訓(xùn)練過程中期望近似0.5,所以將α和β都設(shè)置為0.5時,效果會比較好。

      為了能保證GPU訓(xùn)練最大化,并豐富數(shù)據(jù)特征,本研究采用Mosaic和mixup算法相結(jié)合的方式,一起進(jìn)行數(shù)據(jù)增強。

      3 實驗及結(jié)果分析

      3.1 實驗流程

      1)從Tusimple數(shù)據(jù)集中挑選3 000張公路圖像,這些圖像具有一定的標(biāo)志性(如不同的天氣狀況、不同的道路信息狀況等),然后用labelimg軟件進(jìn)行標(biāo)注,生成xml文件。

      2)將這3 000張公路圖像轉(zhuǎn)換為二值化圖像,并進(jìn)行標(biāo)注,生成label文件,然后與原圖像和原標(biāo)簽文件匯總成新的數(shù)據(jù)集。

      3)將YOLOv5s中的autoanchor改為center_based算法,將GIoU算法改為CIoU算法,并加入mixup算法,與Mosaic一起進(jìn)行數(shù)據(jù)增強。

      4)設(shè)置對應(yīng)的超參數(shù),以及訓(xùn)練代碼中的batch_ size大小,然后輸入圖像大小,進(jìn)行訓(xùn)練。

      5)保存訓(xùn)練后的結(jié)果權(quán)重文件,并進(jìn)行檢測實驗,得出結(jié)果。

      3.2 實驗數(shù)據(jù)準(zhǔn)備

      實驗的數(shù)據(jù)集采用Tusimple數(shù)據(jù)集中的3 000張隨機圖像,將其壓縮為320*180的圖像,這樣的圖像訓(xùn)練完成后,能在實際應(yīng)用中增加識別小目標(biāo)的準(zhǔn)確度。在labelimg軟件中對每一張圖像的車道線信息進(jìn)行標(biāo)注,然后將每張圖像進(jìn)行圖像預(yù)處理后的二值化圖像加入數(shù)據(jù)集中,增加參考量。

      Tusimple數(shù)據(jù)集如圖4所示,a圖為天氣良好的情況,b圖為光照條件不好的情況。由圖可知,不同場景結(jié)合下的訓(xùn)練效果魯棒性較好。

      圖4 Tusimple數(shù)據(jù)集Fig.4 Tusimple data set

      3.3 實驗平臺及參數(shù)設(shè)置

      實驗在CPU為Intel(R) Core(TM) i5-9300H CPU@ 2.40 GHz,GPU為NVIDIA GeForce GTX 1650,CUDA為11.0版,Cudnn為8.0版的配置上完成,并使用pytorch軟件,調(diào)用opencv庫,搭建TensorFlow框架,完成實驗。

      設(shè)置的訓(xùn)練參數(shù)如表1所示。

      表1 訓(xùn)練參數(shù)設(shè)置Table 1 Training parameter setting

      3.4 實驗結(jié)果分析

      下面主要對于上文論述的相關(guān)內(nèi)容進(jìn)行消融實驗,表2是加入二值化圖像前后的對比實驗結(jié)果。

      表2 不同圖像數(shù)據(jù)處理方式的實驗結(jié)果對比Table 2 Image data processing comparison %

      由表2中的數(shù)據(jù)可知,加入二值化圖像數(shù)據(jù)后,mAP數(shù)值上升了2.8%,但準(zhǔn)確率基本保持不變,說明加入二值化圖像對于車道線信息的識別準(zhǔn)確率具有一定的提升效果。

      表3是選用YOLOv5s時,采用不同損失函數(shù)的檢測結(jié)果。

      表3 不同損失函數(shù)下的檢測結(jié)果對比Table 3 Comparison of detection results under different loss functions

      由表3中的數(shù)據(jù)可以得知,EIOU的檢測效果更好,且收斂效果也比GIoU的效果更加顯著。

      表4為對YOLOv5s修改錨框機制前后的mAP與準(zhǔn)確率檢測結(jié)果對比。

      表4 不同神經(jīng)網(wǎng)絡(luò)下的檢測效果對比Table 4 Comparison of detection effects under different neural networks %

      由表4可知,將anchor-based改為anchor-free后,對車道線的檢測mAP與準(zhǔn)確率均約提高了1%,且不用進(jìn)行k-means聚類預(yù)選錨框,節(jié)省了實驗步驟。

      表5給出在YOLOv5s增加了mixup增強算法前后的mAP檢測結(jié)果。

      表5 增加混合增強算法前后的檢測結(jié)果對比表Table 5 Comparison table of hybrid enhancement algorithms %

      由表5 可知,當(dāng)在YOLOv5s中加入了mixup后,進(jìn)一步對數(shù)據(jù)集進(jìn)行了數(shù)據(jù)增強,因此數(shù)據(jù)集的mAP和準(zhǔn)確率都得到了提升。

      最終的實驗結(jié)果測試標(biāo)準(zhǔn)采用mAP因子,并參考召回率和準(zhǔn)確率,三者結(jié)合進(jìn)行分析。本實驗分別用YOLOv3[17]、YOLOv5s以及改進(jìn)方法進(jìn)行對比實驗。在實驗之前,由于YOLOv5s的深度和寬度是YOLOv3的1/3,所以,為了確保實驗的準(zhǔn)確性,將YOLOv3的深度和寬度修改為與YOLOv5s一樣。得到的訓(xùn)練效果圖見圖5,其中a圖為YOLOv3的訓(xùn)練結(jié)果,b圖為YOLOv5s的訓(xùn)練結(jié)果,c圖為改進(jìn)算法的訓(xùn)練結(jié)果。從圖5中可以看出,YOLOv3的整體檢測率較低,且存在較多的誤檢情況,改進(jìn)之后的方法相較于YOLOv5整體上的檢測率有所提高,錨框機制也有所改進(jìn)。

      圖5 不同算法的實驗效果對比圖Fig.5 Comparison of experimental results of different algorithms

      SSD(single shot detection)因其網(wǎng)絡(luò)結(jié)構(gòu)簡單,檢測速率快,也經(jīng)常被用來識別目標(biāo),故加入一組SSD+VGG(Visual Geometry Group)16的對照實驗,不同算法的實驗結(jié)果數(shù)據(jù)見表6。

      表6 不同算法的實驗結(jié)果數(shù)據(jù)對比表Table 6 Comparison table of experimental results %

      由表6中的數(shù)據(jù)可以得知,對比YOLOv3,YOLOv5s在速度和準(zhǔn)確率上均有大幅度提升;在改進(jìn)了損失函數(shù)以及加入了二值化通道后,相較而言,約增加了6%的準(zhǔn)確率。

      由表6還可以得出,相較其他方法,改進(jìn)方法在準(zhǔn)確率和mAP上都有明顯提升,召回率也有所提升,改進(jìn)之后的模型檢測效果明顯提升。且相較于SSD+VGG16的網(wǎng)絡(luò)結(jié)構(gòu),YOLO系列在檢測精度上都大大提升。

      表7給出了YOLOv3、YOLOv5s與改進(jìn)后的YOLOv5s訓(xùn)練后的模型大小,以及檢測速率的結(jié)果對比。

      表7 YOLOv系列網(wǎng)絡(luò)的模型性能對比Table 7 Model performance comparison of series YOLOv networks

      結(jié)合表6和表7可以得出,對YOLOv5s進(jìn)行改進(jìn)之后,訓(xùn)練后得到的模型大小與原來相比是一樣的,雖然檢測速率下降了一些,但仍在可接受范圍內(nèi)。在僅犧牲約0.05%的檢測速率后,得到了比較明顯的準(zhǔn)確率提升,并且mAP提高了近11%,準(zhǔn)確率提高了13%,可見改進(jìn)方法模型更加適用于車道線的檢測。

      4 結(jié)語

      在目前的深度學(xué)習(xí)算法中,YOLO系列由于其結(jié)構(gòu)簡單、訓(xùn)練速度快等特點,能夠?qū)崟r完成一些視頻流的檢測,具有較好的魯棒性與實時性。其最新的YOLOv5大大增加了檢測速率和準(zhǔn)確率,使用起來十分方便。通過對YOLOv5s和YOLOv3的比較,在車道線檢測方面,YOLOv5s的提升效果十分明顯,不僅訓(xùn)練速度約是YOLOv3的3倍,準(zhǔn)確度也得到了明顯的提升。目前傳統(tǒng)的模型縮放方法是改變模型深度,即增加更多的卷積層[19],所以在增加準(zhǔn)確度的同時,訓(xùn)練速度也會有所減緩。因此結(jié)合二者的特性進(jìn)行改進(jìn),并選擇了YOLOv5s模型進(jìn)行訓(xùn)練。同時采用了EIOU損失函數(shù),以加快其收斂速度,提高檢測準(zhǔn)確性。在數(shù)據(jù)準(zhǔn)備階段,采用了anchor-free,使錨框更加符合車道線的錨定框。增加了二值化通道,以提高道路信息不太明確時的檢測準(zhǔn)確度。改進(jìn)方法相比YOLOv5s原模型而言,其準(zhǔn)確率約提升了13%,mAP值提升了11%左右,且達(dá)到了80%以上的準(zhǔn)確率。

      由于本研究使用的是Tusimple數(shù)據(jù)集,道路信息大多十分明顯,所以在車道線信息冗雜、缺失的情況下,還需要進(jìn)一步研究改進(jìn)后的檢測效率。

      猜你喜歡
      錨框車道準(zhǔn)確率
      基于YOLOv3錨框優(yōu)化的側(cè)掃聲吶圖像目標(biāo)檢測
      信號處理(2022年11期)2022-12-26 13:22:06
      錨框策略匹配的SSD飛機遙感圖像目標(biāo)檢測
      基于SSD算法的輕量化儀器表盤檢測算法*
      基于GA-RoI Transformer的遙感圖像任意方向目標(biāo)檢測
      北斗+手機實現(xiàn)車道級導(dǎo)航應(yīng)用
      避免跟車闖紅燈的地面車道線
      乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
      健康之家(2021年19期)2021-05-23 11:17:39
      不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
      2015—2017 年寧夏各天氣預(yù)報參考產(chǎn)品質(zhì)量檢驗分析
      淺談MTC車道改造
      广昌县| 平安县| 卓尼县| 锦州市| 无为县| 太保市| 南投市| 金华市| 眉山市| 启东市| 烟台市| 虞城县| 安多县| 恩平市| 常熟市| 柳州市| 高淳县| 那曲县| 平顺县| 垦利县| 临桂县| 蕲春县| 宁德市| 微博| 宽甸| 宜宾县| 哈巴河县| 广丰县| 张家港市| 始兴县| 蓬溪县| 古浪县| 桂林市| 镇原县| 大理市| 峨眉山市| 石台县| 大邑县| 泰宁县| 乌兰浩特市| 吴川市|