• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于改進(jìn)YOLOv8s的交通標(biāo)志檢測算法

      2024-12-20 00:00:00張京淇李超李曉磊
      電腦知識與技術(shù) 2024年30期

      關(guān)鍵詞:交通標(biāo)志檢測;YOLOv8;感受野卷積;空間金字塔池化;Focal-EIOU

      0 引言

      隨著智能交通系統(tǒng)的快速發(fā)展,交通標(biāo)志檢測已成為其中不可或缺的一環(huán)。高效準(zhǔn)確的檢測算法對于提高道路安全、輔助自動駕駛以及優(yōu)化交通管理具有重要意義。傳統(tǒng)的交通標(biāo)志檢測方法往往依賴于手工設(shè)計(jì)的特征和復(fù)雜的分類器,其性能受到特征提取的準(zhǔn)確性和分類器泛化能力的限制。

      針對這一問題,眾多研究者提出了不同的實(shí)時交通標(biāo)志檢測方法。例如,Daniel Castriani Santos 等人使用更快的R-CNN,提出了一種基于神經(jīng)網(wǎng)絡(luò)的實(shí)時交通標(biāo)志檢測和識別算法[1];張建明等人提出了一種基于自適應(yīng)圖像增強(qiáng)和顯式客體分支的單級特征無錨交通標(biāo)志檢測器,以在野外環(huán)境中平衡魯棒性、實(shí)時性和準(zhǔn)確性的要求[2]。李旭東等人則針對智能駕駛過程中對交通標(biāo)志自動檢測的實(shí)時性和魯棒性要求,提出了一種基于YOLOv3-tiny的嵌套殘差結(jié)構(gòu)交通標(biāo)志快速檢測算法[3]。李大湘等人在YOLOv4算法基礎(chǔ)上引入注意力驅(qū)動的尺度感知特征提取模塊,以解決在復(fù)雜場景中交通標(biāo)志因尺度變化顯著而引發(fā)的識別精度下降問題[4]。此外,張榮云等人將卷積塊注意力模型與YOLOv5中的CSP1_3模型融合,增強(qiáng)了YOLOv5 的特征提取能力,提高了交通標(biāo)志的準(zhǔn)確性[5]。石鎮(zhèn)岳等人引入坐標(biāo)注意力機(jī)制和空洞空間金字塔池化技術(shù),優(yōu)化了YOLOv7算法對小目標(biāo)的檢測性能,顯著減少了誤檢和漏檢現(xiàn)象[6]。熊恩杰等人對YOLOv8n進(jìn)行改進(jìn),設(shè)計(jì)了全新的C2fGhost模塊,并添加了小目標(biāo)檢測層,從而在一定程度上解決了傳統(tǒng)網(wǎng)絡(luò)模型在交通標(biāo)志識別精度低和檢測不準(zhǔn)確的問題[7]。張建明等人則提出了一種新的中國交通標(biāo)志檢測基準(zhǔn)CCTSDB 2021,該基準(zhǔn)在CCTSDB 2017的基礎(chǔ)上進(jìn)行了改進(jìn),以適應(yīng)復(fù)雜多變的檢測環(huán)境[8]。

      近年來,YOLO系列算法因高效準(zhǔn)確而廣泛應(yīng)用于物體檢測領(lǐng)域。作為新一代YOLO算法,YOLOv8 優(yōu)化了模型架構(gòu)和訓(xùn)練過程,為提升檢測速度和準(zhǔn)確率提供了新的可能。然而,交通標(biāo)志檢測仍面臨多樣性、尺寸變化、遮擋及光照變化等挑戰(zhàn)。本文旨在深入研究YOLOv8算法在交通標(biāo)志檢測領(lǐng)域的應(yīng)用,從而為智能交通系統(tǒng)的進(jìn)一步發(fā)展和完善提供堅(jiān)實(shí)的技術(shù)支持。

      1 YOLOv8相關(guān)理論

      YOLOv8是Ultralytics公司推出的新一代目標(biāo)檢測算法,它在YOLO系列的基礎(chǔ)上進(jìn)行了全面的優(yōu)化與升級,在圖像分類、物體檢測和實(shí)例分割等任務(wù)中均展現(xiàn)出了卓越的性能。該算法提供了包括YOLOv8n、YOLOv8s、YOLOv8m、YOLOv8l 和YOLOv8x 在內(nèi)的五種不同大小的模型,以滿足不同場景和性能需求。

      YOLOv8的架構(gòu)采用了深度學(xué)習(xí)領(lǐng)域的最新研究成果,包括改進(jìn)的骨干網(wǎng)絡(luò)、特征融合策略以及損失函數(shù)優(yōu)化等。在Backbone部分,YOLOv8把YOLOv5 中使用的C3模塊替換為更為輕量級的C2f模塊,這一舉措有效提升了模型的效率。同時,YOLOv8繼承了YOLOv5等經(jīng)典架構(gòu)中廣泛應(yīng)用的SPPF模塊。

      在Head 部分,YOLOv8 摒棄了傳統(tǒng)的Anchor-Based方法,轉(zhuǎn)而采用Anchor-Free的思想。這一轉(zhuǎn)變使得模型在目標(biāo)檢測過程中不再依賴于預(yù)設(shè)的錨框,從而大大簡化了檢測流程,并提升了模型的靈活性和適應(yīng)性。

      在特征融合方面,YOLOv8充分利用了多尺度特征融合技術(shù)。通過有效整合不同層次的特征信息,模型能夠更好地捕捉目標(biāo)的局部細(xì)節(jié)和全局結(jié)構(gòu),從而顯著提高了對不同尺度目標(biāo)的檢測能力。

      YOLOv8 對損失函數(shù)進(jìn)行了深入的優(yōu)化,采用VFL Loss 作為分類損失,使用DFL Loss 結(jié)合CIOULoss作為回歸損失。在正負(fù)樣本匹配方面,YOLOv8 摒棄了傳統(tǒng)的IOU匹配或單邊比例分配方式,轉(zhuǎn)而采用Task-Aligned Assigner匹配方式[9]。

      2 改進(jìn)的YOLOv8網(wǎng)絡(luò)結(jié)構(gòu)

      基于改進(jìn)YOLOv8s的交通標(biāo)志檢測算法,算法引入了RFCAConv以替代部分卷積操作,通過賦予不同感受野以不同的注意力權(quán)重,使模型能夠更加專注于目標(biāo)區(qū)域的細(xì)節(jié)信息。同時,采用SPPFCSPC模塊替代了SPPF模塊,以提高特征融合的效率,使得模型能夠更準(zhǔn)確地捕獲不同尺度交通標(biāo)志的特征。在錨框回歸過程中,放棄了原有的CIOU損失函數(shù),采用了Focal-EIOU損失函數(shù),以更好地處理邊界框與真實(shí)框之間的不匹配問題。

      2.1 RFCAConv 感受野注意力卷積

      在傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)(CNN) 中,卷積核在處理不同區(qū)域的圖像時共享相同的參數(shù),這可能限制了模型對于復(fù)雜模式的學(xué)習(xí)能力。感受野注意力卷積通過引入注意力機(jī)制,能夠更靈活地調(diào)整卷積核的參數(shù),針對不同區(qū)域提供定制化的處理,從而解決卷積核參數(shù)共享的問題。一些具有空間注意力機(jī)制性質(zhì)的注意力模塊,如CA,已被前人設(shè)計(jì)為RFCA,并將其與卷積結(jié)合得到新的RFCAConv,如圖1所示。

      2.2 SPPFCSPC 空間金字塔池化

      空間金字塔池化(Spatial Pyramid Pooling,簡稱SPP) 是一種有效處理不同尺寸輸入圖像的技術(shù)。它通過將圖像劃分為不同層級、不同大小的空間金字塔區(qū)域并進(jìn)行池化操作,從而實(shí)現(xiàn)對任意大小圖像的固定長度特征表示,增強(qiáng)了模型的魯棒性和泛化能力,這對于交通標(biāo)志檢測等任務(wù)具有重要的應(yīng)用價值[10]。SPPFCSPC是結(jié)合了SPPCSPC和SPPF優(yōu)點(diǎn)的新模塊,如圖2所示。

      2.3 Focal-EIOU 損失函數(shù)

      YOLOv8中使用的CIoU損失函數(shù)雖然考慮了邊界框回歸的重疊面積、中心點(diǎn)距離及長寬比,但其僅反映了長寬比的差異,未能準(zhǔn)確體現(xiàn)寬高與其置信度之間的真實(shí)差異。為了克服CIoU的這一局限,采用Focal-EIOU 損失函數(shù)替代CIoU 損失函數(shù)。Focal-EIOU損失函數(shù)的公式如下:

      式中,Cw 和 Ch 分別是兩個矩形的寬和高,LIOU 為IOU損失,Ldis 為距離損失,Lasp 為邊長損失,γ 是一個用于控制曲線的超參數(shù)[11]。

      改進(jìn)后的YOLOv8算法結(jié)構(gòu)如圖3所示。

      3 實(shí)驗(yàn)與結(jié)果分析

      3.1 數(shù)據(jù)集

      CCTSDB,即中國交通標(biāo)志檢測數(shù)據(jù)集(CSUSTChinese Traffic Sign Detection Benchmark) ,是由長沙理工大學(xué)相關(guān)學(xué)者及團(tuán)隊(duì)制作而成的[8]。本次實(shí)驗(yàn)使用的是CCTSDB 2021 數(shù)據(jù)集,其中包含17 856 幅圖像,包括訓(xùn)練集和測試集。訓(xùn)練集圖像有16 356幅,測試集圖像有1 500幅,標(biāo)注了常見的指示標(biāo)志、禁令標(biāo)志及警告標(biāo)志等三大類交通標(biāo)志[8]。數(shù)據(jù)集中既有未經(jīng)任何修飾的原始圖片,也有通過橫向拉伸或縮小來改變尺寸的圖片,添加了椒鹽噪聲以模擬圖像傳輸中可能產(chǎn)生的失真效果的圖片,以及調(diào)整亮度以展示不同光照條件下圖像表現(xiàn)的圖片。此外,還對一段真實(shí)的行車視頻進(jìn)行了逐幀抽取,并將這些幀轉(zhuǎn)化為圖片,以此模擬實(shí)際駕駛環(huán)境中可能遭遇的各種挑戰(zhàn)。

      3.2 評價指標(biāo)與實(shí)驗(yàn)參數(shù)

      本文采用均值平均精度(mean Average Precision,mAP) 作為模型的評價指標(biāo),包括mAP@0.5與mAP@0.5:0.95。計(jì)算方式如下:

      其中,TP 為檢測正確的目標(biāo)數(shù)量,F(xiàn)P 為檢測錯誤的目標(biāo)數(shù)量,F(xiàn)N 表示漏檢數(shù)量。Precision衡量正確識別的比例(準(zhǔn)確率),Recall衡量找到所有正例的能力(召回率)。AP 是precision-recall曲線與X軸包絡(luò)的面積,衡量整體性能。K 代表類別數(shù)量。mAP@0.5是在IoU(Intersection over Union) 閾值為0.5時計(jì)算的平均精度,而mAP@0.5:0.95 則是在IoU 閾值從0.5 到0.95的范圍內(nèi),計(jì)算所有類別的平均精度均值。本次實(shí)驗(yàn)所使用的部分參數(shù)如表1所示。

      3.3 實(shí)驗(yàn)結(jié)果及分析

      在上述條件下,使用YOLOv8s模型進(jìn)行實(shí)驗(yàn),訓(xùn)練并測試模型性能。對YOLOv8n、YOLOv8s以及改進(jìn)的YOLOv8s算法進(jìn)行比較,結(jié)果如表2所示。

      通過對比試驗(yàn)可以得出,在CCTSDB 2021數(shù)據(jù)集上,mAP@0.5和mAP@0.5:0.95的數(shù)值相比于原模型均有所增長。從圖4中可以直觀且清晰地體現(xiàn)檢測效果,改進(jìn)后的模型在檢測準(zhǔn)確率方面相較于原模型有了顯著提升。

      4 結(jié)束語

      針對當(dāng)前道路交通標(biāo)志識別所面臨的難題,提出了一種基于改進(jìn)YOLOv8s的交通標(biāo)志識別算法。在Backbone網(wǎng)絡(luò)中,引入RFCAConv,有效提升了模型對交通標(biāo)志特征的提取能力;采用SPPFCSPC模塊替代傳統(tǒng)的SPPF模塊,進(jìn)一步提高了特征融合的效率;摒棄原有的回歸損失函數(shù),轉(zhuǎn)而采用Focal-EIOU損失函數(shù),從而提升了網(wǎng)絡(luò)的收斂速度和檢測精度。通過在CCTSDB 2021數(shù)據(jù)集上的實(shí)驗(yàn)驗(yàn)證,效果指標(biāo)均有所提高。然而,改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)在計(jì)算量和對計(jì)算機(jī)資源的占用上相較于原結(jié)構(gòu)略有增加,仍有進(jìn)一步優(yōu)化的空間。

      涿鹿县| 五指山市| 阿合奇县| 电白县| 万安县| 永吉县| 佛山市| 衡阳县| 房产| 黑山县| 鹤壁市| 长岭县| 含山县| 美姑县| 福海县| 丰镇市| 平湖市| 玉屏| 澄城县| 奈曼旗| 南丰县| 六盘水市| 英山县| 泾川县| 孝感市| 伊宁市| 安岳县| 衡阳县| 河池市| 沭阳县| 依兰县| 延庆县| 习水县| 安岳县| 东方市| 睢宁县| 泽州县| 道孚县| 慈利县| 论坛| 奉新县|