• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于改進(jìn)YOLOv8的交通標(biāo)志檢測(cè)與識(shí)別算法研究

      2024-12-20 00:00:00曾海峰
      電腦知識(shí)與技術(shù) 2024年30期

      關(guān)鍵詞:CBMA注意力機(jī)制;數(shù)據(jù)增強(qiáng);損失函數(shù)優(yōu)化;Swin-Transformer網(wǎng)絡(luò);交通標(biāo)志檢測(cè)與識(shí)別;YOLOv8

      0 引言

      交通標(biāo)志檢測(cè)與識(shí)別技術(shù)在智能交通系統(tǒng)(ITS) 和自動(dòng)駕駛領(lǐng)域發(fā)揮著至關(guān)重要的作用。這些技術(shù)不僅能夠提高道路安全,還能增強(qiáng)駕駛的便捷性和自主性。近年來,國(guó)內(nèi)學(xué)者在該領(lǐng)域進(jìn)行了廣泛研究,提出了一系列創(chuàng)新的方法和技術(shù),旨在提高交通標(biāo)志檢測(cè)與識(shí)別的準(zhǔn)確率和魯棒性。

      1) YOLO系列的改進(jìn)。文獻(xiàn)[1]通過增加上采樣和輸出層數(shù)、引入注意力機(jī)制以及使用懲罰函數(shù),提高了小目標(biāo)交通標(biāo)志的檢測(cè)精度和定位能力;文獻(xiàn)[2] 通過引入基于顏色衰減先驗(yàn)的自適應(yīng)伽馬變換圖像預(yù)處理算法和坐標(biāo)注意力機(jī)制,提高了霧霾環(huán)境下的檢測(cè)精度;文獻(xiàn)[3]通過重參數(shù)模塊、注意力機(jī)制以及IoU-Aware查詢選擇等改進(jìn),顯著提升了檢測(cè)精度和效率;文獻(xiàn)[4]通過引入Tiny Head檢測(cè)頭、C2f CA模塊以及SIoU損失函數(shù),增強(qiáng)了小目標(biāo)檢測(cè)能力和模型魯棒性。文獻(xiàn)[5]結(jié)合小目標(biāo)過采樣訓(xùn)練數(shù)據(jù)生成方法、圖像分塊和幾何透視檢測(cè)預(yù)處理,提高了全景圖像中交通標(biāo)志的檢測(cè)精度和速度。

      2) 多尺度特征融合。文獻(xiàn)[6]設(shè)計(jì)了基于空洞混合注意力機(jī)制的多尺度注意力特征融合模塊,增強(qiáng)了模型對(duì)小目標(biāo)的檢測(cè)能力;文獻(xiàn)[7]通過不同尺度圖像的特征提取,豐富了圖像特征,提高了識(shí)別率;文獻(xiàn)[8] 采用了Bi-FPN網(wǎng)絡(luò)進(jìn)行多尺度特征融合,從而提高了小目標(biāo)的檢測(cè)精度和效率;文獻(xiàn)[4]使用SPPCSPC替代SPPF模塊,進(jìn)一步增強(qiáng)了網(wǎng)絡(luò)對(duì)不同尺度特征信息的提取能力。

      本文旨在設(shè)計(jì)一種基于改進(jìn)YOLOv8的交通標(biāo)志檢測(cè)與識(shí)別算法,以提高算法在復(fù)雜場(chǎng)景下的識(shí)別精度、魯棒性和實(shí)時(shí)性,為智能交通系統(tǒng)和自動(dòng)駕駛技術(shù)的進(jìn)一步發(fā)展提供技術(shù)支持。

      1 交通標(biāo)志檢測(cè)基礎(chǔ)

      1.1 交通標(biāo)志的特征及檢測(cè)

      交通標(biāo)志作為道路安全設(shè)施的重要組成部分,具有統(tǒng)一性、規(guī)范性和多樣性等特征。統(tǒng)一性:全國(guó)實(shí)行統(tǒng)一的道路交通標(biāo)志,確保各地標(biāo)志的一致性,便于駕駛?cè)俗R(shí)別和遵守;規(guī)范性:交通標(biāo)志的設(shè)置需符合道路交通安全和暢通的要求及國(guó)家標(biāo)準(zhǔn),保持清晰、醒目、準(zhǔn)確和完好;多樣性:根據(jù)用途和需要,交通標(biāo)志分為指示標(biāo)志、警告標(biāo)志、禁令標(biāo)志、指路標(biāo)志、旅游區(qū)標(biāo)志、道路施工安全標(biāo)志以及輔助標(biāo)志等多種類型。

      隨著計(jì)算機(jī)視覺和圖像處理技術(shù)的發(fā)展,交通標(biāo)志的識(shí)別與檢測(cè)技術(shù)日益成熟。傳統(tǒng)的檢測(cè)方案包括:1) 基于顏色的檢測(cè)。不同類型的3e7dd422c0490b6a0c8b5e675eb42e44交通標(biāo)志通常采用特定的顏色組合,如警告標(biāo)志多為黃色背景加黑色圖案,禁令標(biāo)志多為紅色背景加白色圖案,可通過從圖像中提取出特定顏色組合的區(qū)域?qū)崿F(xiàn)識(shí)別。2) 基于形狀的檢測(cè)。交通標(biāo)志通常具有規(guī)則的幾何形狀,如圓形、三角形和矩形等。通過邊緣檢測(cè)、形態(tài)學(xué)處理等技術(shù),可從圖像中提取出具有特定形狀的區(qū)域。3) 基于多特征融合的檢測(cè)。由于單一特征可能受光照、遮擋等因素影響,因此多特征融合成為提高識(shí)別準(zhǔn)確率的重要手段,這種方法結(jié)合了顏色、形狀和紋理等多種特征,通過綜合評(píng)估實(shí)現(xiàn)對(duì)交通標(biāo)志的準(zhǔn)確識(shí)別。然而,傳統(tǒng)的識(shí)別與檢測(cè)技術(shù)往往存在識(shí)別準(zhǔn)確率低、易受環(huán)境因素影響和泛化能力弱等問題。

      1.2 卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

      卷積神經(jīng)網(wǎng)絡(luò)的核心在于卷積層的使用。卷積層通過局部連接和權(quán)值共享的方式,有效減少了網(wǎng)絡(luò)參數(shù)的數(shù)量,降低了計(jì)算復(fù)雜度,同時(shí)能夠自動(dòng)從輸入數(shù)據(jù)中提取出層次化的特征表示。卷積神經(jīng)網(wǎng)絡(luò)通常由卷積層、池化層和全連接層等組成,通過堆疊組合,可以構(gòu)建出具有強(qiáng)大學(xué)習(xí)能力的深度網(wǎng)絡(luò)模型。

      1.2.1 卷積神經(jīng)網(wǎng)絡(luò)在智慧交通領(lǐng)域的應(yīng)用

      1) 交通標(biāo)志檢測(cè)與識(shí)別。卷積神經(jīng)網(wǎng)絡(luò)通過對(duì)交通標(biāo)志圖像進(jìn)行預(yù)處理(如灰度化、歸一化等),并設(shè)計(jì)合適的網(wǎng)絡(luò)結(jié)構(gòu),能夠自動(dòng)從圖像中提取交通標(biāo)志的特征,實(shí)現(xiàn)快速準(zhǔn)確地識(shí)別。

      2) 車輛檢測(cè)與跟蹤。卷積神經(jīng)網(wǎng)絡(luò)通過自動(dòng)學(xué)習(xí)車輛的特征表示,能夠在復(fù)雜多變的交通場(chǎng)景中實(shí)現(xiàn)高效的車輛檢測(cè)。同時(shí),結(jié)合循環(huán)神經(jīng)網(wǎng)絡(luò)或長(zhǎng)短期記憶網(wǎng)絡(luò)等序列模型,能夠?qū)崿F(xiàn)車輛的連續(xù)跟蹤,為智能交通管理提供有力支持。

      3) 行為分析與異常檢測(cè)。卷積神經(jīng)網(wǎng)絡(luò)通過對(duì)監(jiān)控視頻進(jìn)行分析,可以自動(dòng)識(shí)別行人的行走軌跡、駕駛員的駕駛行為等關(guān)鍵信息,進(jìn)而判斷是否存在異常行為。例如,通過識(shí)別駕駛員的疲勞駕駛和分心駕駛等行為,及時(shí)發(fā)出警告,從而有效降低交通事故的風(fēng)險(xiǎn)。

      1.2.2 卷積神經(jīng)網(wǎng)絡(luò)在智慧交通領(lǐng)域的發(fā)展

      卷積神經(jīng)網(wǎng)絡(luò)在智慧交通領(lǐng)域的應(yīng)用不斷深化和拓展,其發(fā)展趨勢(shì)表現(xiàn)為:① 輕量化與高效化。針對(duì)實(shí)際應(yīng)用中的實(shí)時(shí)性要求,開發(fā)更加輕量化和高效的卷積神經(jīng)網(wǎng)絡(luò)模型,減少計(jì)算量和存儲(chǔ)需求,提高系統(tǒng)的響應(yīng)速度;② 多源信息融合。為了進(jìn)一步提高識(shí)別的準(zhǔn)確率和魯棒性,將更多地融合多源信息,實(shí)現(xiàn)多模態(tài)數(shù)據(jù)的協(xié)同處理;③ 跨場(chǎng)景適應(yīng)性。針對(duì)不同交通場(chǎng)景的特點(diǎn)和需求,開發(fā)具有更強(qiáng)跨場(chǎng)景適應(yīng)性的卷積神經(jīng)網(wǎng)絡(luò)模型,以應(yīng)對(duì)復(fù)雜多變的交通環(huán)境;④ 集成學(xué)習(xí)與知識(shí)蒸餾。通過將多個(gè)卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行集成學(xué)習(xí),或利用知識(shí)蒸餾技術(shù)將大模型的知識(shí)遷移到小模型中,可以進(jìn)一步提高模型的性能和泛化能力。

      1.3 目標(biāo)檢測(cè)算法

      目標(biāo)檢測(cè)旨在從圖像或視頻中準(zhǔn)確識(shí)別特定類別的目標(biāo),并確定其位置。其算法主要分為單階段檢測(cè)和兩階段檢測(cè)。

      1.3.1 單階段檢測(cè)算法

      單階段檢測(cè)算法直接從輸入圖像中預(yù)測(cè)目標(biāo)的類別和位置,省略了候選區(qū)域生成和特征提取的中間步驟,因此具有較高的計(jì)算效率和實(shí)時(shí)性。其代表算法包括YOLO系列和SSD。

      YOLO算法于2015年首次提出,其核心在于將目標(biāo)檢測(cè)任務(wù)視為一個(gè)單一的回歸問題。YOLO將輸入圖像劃分為S×S的網(wǎng)格,每個(gè)網(wǎng)格負(fù)責(zé)預(yù)測(cè)B個(gè)邊界框及其置信度和C個(gè)類別的概率。SSD算法于2016年提出,結(jié)合了YOLO的回歸思想和Faster R-CNN的錨點(diǎn)機(jī)制。SSD在不同尺度的特征圖上預(yù)測(cè)邊界框,并利用不同尺度的特征圖來檢測(cè)不同大小的目標(biāo)。此外,SSD還采用非極大值抑制來去除重復(fù)的邊界框,進(jìn)一步提高了檢測(cè)的準(zhǔn)確性。然而,與YOLO系列相比,SSD在特征提取和邊界框回歸方面可能稍顯復(fù)雜。

      1.3.2 兩階段檢測(cè)算法

      兩階段檢測(cè)算法首先將輸入圖像劃分為一系列候選區(qū)域,然后對(duì)這些候選區(qū)域進(jìn)行分類和定位,從而實(shí)現(xiàn)較高的檢測(cè)精度,但其計(jì)算效率相對(duì)較低。其代表算法包括R-CNN、Fast R-CNN和Faster RCNN等。

      R-CNN系列算法使用選擇性搜索算法生成候選區(qū)域,通過精細(xì)的候選區(qū)域生成和特征提取,能夠在復(fù)雜場(chǎng)景下實(shí)現(xiàn)較高的檢測(cè)精度。Fast R-CNN在RCNN的基礎(chǔ)上引入了ROI Pooling層,實(shí)現(xiàn)特征圖的共享,顯著提高了檢測(cè)速度。同時(shí),F(xiàn)ast R-CNN提出了區(qū)域候選網(wǎng)絡(luò),實(shí)現(xiàn)了候選區(qū)域的快速生成,進(jìn)一步提升了檢測(cè)速度和精度。然而,這類算法由于需要分兩步進(jìn)行檢測(cè),其計(jì)算效率相對(duì)較低,難以滿足實(shí)時(shí)性要求較高的應(yīng)用場(chǎng)景。

      2 改進(jìn)YOLOv8的交通標(biāo)志檢測(cè)識(shí)別模型設(shè)計(jì)

      2.1 YOLOv8檢測(cè)模型

      1) YOLOv8的網(wǎng)絡(luò)結(jié)構(gòu)主要由三部分組成:Back?bone、Neck和Head。

      Backbone 部分參考了CSPDarkNet 結(jié)構(gòu),采用了C2f模塊替代C3模塊。C2f模塊通過更有效的結(jié)構(gòu)設(shè)計(jì)減少了冗余參數(shù),提高了計(jì)算效率。首先,通過Conv1層對(duì)輸入tensor進(jìn)行拆分,將其分成兩部分:一部分直接通過Bottleneck 模塊,而另一部分則通過shortcut連接。每個(gè)Bottleneck的輸入Tensor的通道數(shù)僅為上一級(jí)的0.5倍,顯著降低了計(jì)算量。此外,第一個(gè)卷積層的核大小改為3×3,提升了特征提取能力。

      Neck部分采用了PANet結(jié)構(gòu),這是一個(gè)雙向通路網(wǎng)絡(luò),通過自底向上和自頂向下的路徑聚合增強(qiáng)了特征圖的表達(dá)能力。與FPN相比,PANet引入了自下向上的路徑,使得底層信息更容易傳遞到高層,從而提高了對(duì)不同尺寸目標(biāo)的檢測(cè)能力。YOLOv8還通過SPPF模塊進(jìn)行不同尺度的池化操作,進(jìn)一步提高了特征提取的魯棒性。

      Head部分負(fù)責(zé)最終的目標(biāo)檢測(cè)和分類任務(wù),并將回歸分支和預(yù)測(cè)分支分離。這種設(shè)計(jì)使得收斂速度更快,檢測(cè)效果更佳。針對(duì)回歸分支,YOLOv8使用了Distribution Focal Loss 策略,將坐標(biāo)預(yù)測(cè)從確定性單值轉(zhuǎn)變?yōu)榉植夹问剑鉀Q了邊界模糊的問題。此外,采用了Anchor-Free機(jī)制,減少了錨框的超參數(shù)設(shè)置,簡(jiǎn)化了訓(xùn)練過程。

      2) YOLOv8是一種SOTA模型,旨在快速、準(zhǔn)確且易于使用。YOLOv8優(yōu)異的檢測(cè)性能主要?dú)w功于其優(yōu)化的網(wǎng)絡(luò)結(jié)構(gòu)和創(chuàng)新的損失函數(shù)設(shè)計(jì)。通過引入新的骨干網(wǎng)絡(luò),YOLOv8能夠更有效地提取圖像特征,從而提高檢測(cè)精度。同時(shí),新的檢測(cè)頭和損失函數(shù)的設(shè)計(jì)也使得模型在訓(xùn)練過程中更加穩(wěn)定,收斂速度更快。

      此外,YOLOv8的檢測(cè)精度主要得益于其改進(jìn)的特征融合策略和更精細(xì)的錨框設(shè)計(jì)。采用PANet結(jié)構(gòu)進(jìn)行特征融合,通過自底向上和自頂向下的路徑聚合,增強(qiáng)了特征圖的表達(dá)能力,使得模型能夠更好地處理不同尺寸的目標(biāo)。同時(shí),采用Anchor-Free機(jī)制,減少錨框的超參數(shù)設(shè)置,簡(jiǎn)化訓(xùn)練過程,提高模型的泛化能力。

      再者,YOLOv8的推理速度主要體現(xiàn)在其輕量級(jí)的網(wǎng)絡(luò)設(shè)計(jì)和高效的計(jì)算策略上。通過減少網(wǎng)絡(luò)結(jié)構(gòu)中的冗余參數(shù)和計(jì)算量,提高了模型的推理速度,使其在實(shí)際應(yīng)用中能夠滿足實(shí)時(shí)檢測(cè)的需求。

      2.2 CBMA 注意力機(jī)制

      2.2.1 CBAM 注意力機(jī)制概述

      CBAM(Convolutional Block Attention Module) 注意力機(jī)制由通道注意力模塊(CAM) 和空間注意力模塊(SAM) 組成。

      1) 通道注意力模塊(CAM) 對(duì)每個(gè)通道進(jìn)行全局平均池化和全局最大池化,然后將這兩個(gè)池化結(jié)果輸入到一個(gè)共享的全連接層中,最后通過Sigmoid激活函數(shù)輸出一個(gè)通道注意力權(quán)重向量。這個(gè)權(quán)重向量用于加權(quán)輸入特征圖的每個(gè)通道,以強(qiáng)調(diào)重要特征并抑制不重要特征。

      2) 空間注意力模塊(SAM) 對(duì)每個(gè)通道進(jìn)行平均池化和最大池化,然后將這兩個(gè)池化結(jié)果拼接后通過一個(gè)卷積層,最后通過Sigmoid激活函數(shù)輸出一個(gè)空間注意力權(quán)重張量。這個(gè)張量用于加權(quán)輸入特征圖的每個(gè)像素,以強(qiáng)調(diào)重要區(qū)域并抑制不重要區(qū)域。

      2.2.2 融合CBMA 機(jī)制改進(jìn)YOLOv8

      1) 網(wǎng)絡(luò)結(jié)構(gòu)集成。CBAM模塊可以作為一個(gè)即插即用的組件,在YOLOv8的主干網(wǎng)絡(luò)、頸部網(wǎng)絡(luò)或檢測(cè)頭中的適當(dāng)位置插入。本文選擇將CBAM模塊插入到Y(jié)OLOv8頸部網(wǎng)絡(luò)的特征融合層之后,能夠在不同尺度的特征圖上同時(shí)應(yīng)用通道注意力和空間注意力,進(jìn)一步提升特征圖的表達(dá)能力。此外,可以在檢測(cè)頭之前插入CBAM模塊,以進(jìn)一步增強(qiáng)用于目標(biāo)檢測(cè)的特征圖。

      2) 參數(shù)與訓(xùn)練。由于CBAM模塊引入了額外的參數(shù)和計(jì)算量,需要對(duì)模型參數(shù)進(jìn)行相應(yīng)的調(diào)整,如增加訓(xùn)練過程中的迭代次數(shù)、調(diào)整學(xué)習(xí)率等超參數(shù),以確保模型能夠充分學(xué)習(xí)并收斂到最優(yōu)解。

      2.3 Swin-Transformer 網(wǎng)絡(luò)

      2.3.1 Swin-Transformer 網(wǎng)絡(luò)概述

      Swin-Transformer是一種基于Transformer架構(gòu)的圖像分類和目標(biāo)檢測(cè)模型,它通過引入分層的窗口機(jī)制來處理圖像,解決了傳統(tǒng)Transformer在處理大尺寸圖像時(shí)的計(jì)算和內(nèi)存開銷問題。Swin-Transformer網(wǎng)絡(luò)結(jié)構(gòu)包括Patch Embedding 層、多個(gè)Stage 和一個(gè)Head層。每個(gè)Stage由多個(gè)Swin Transformer Block組成,每個(gè)Block包含一個(gè)窗口化的Transformer模塊和一個(gè)跨窗口的注意力模塊,這種設(shè)計(jì)使其在保持高精度的同時(shí),具有更高的計(jì)算效率和可擴(kuò)展性。

      2.3.2 融合Swin-Transformer 網(wǎng)絡(luò)改進(jìn)YOLOv8

      1) 主干網(wǎng)絡(luò)替換。將YOLOv8的主干網(wǎng)絡(luò)替換為Swin-Transformer 網(wǎng)絡(luò)結(jié)構(gòu),充分利用Swin-Transformer在特征提取方面的優(yōu)勢(shì),提升模型對(duì)圖像細(xì)節(jié)和全局信息的捕捉能力。通過修改YOLOv8的配置文件(如YAML文件),將原有的主干網(wǎng)絡(luò)參數(shù)替換為Swin-Transformer的相關(guān)參數(shù),并相應(yīng)地調(diào)整網(wǎng)絡(luò)層的連接關(guān)系。

      2) 特征融合與增強(qiáng)。在YOLOv8的頸部網(wǎng)絡(luò)中融合Swin-Transformer提取的特征,通過特征金字塔網(wǎng)絡(luò)(FPN) 或路徑聚合網(wǎng)絡(luò)(PAN) 等結(jié)構(gòu)將不同尺度的特征圖進(jìn)行有效融合,以增強(qiáng)模型對(duì)多尺度目標(biāo)的檢測(cè)能力。此外,結(jié)合檢測(cè)頭部分引入的注意力機(jī)制,進(jìn)一步加強(qiáng)對(duì)關(guān)鍵特征的關(guān)注,提高檢測(cè)的準(zhǔn)確性和魯棒性。

      3) 訓(xùn)練與優(yōu)化。由于引入了更多的參數(shù)和計(jì)算量,需要對(duì)模型進(jìn)行重新訓(xùn)練和優(yōu)化,如調(diào)整訓(xùn)練過程中的學(xué)習(xí)率、批處理大小、迭代次數(shù)等超參數(shù),以確保模型能夠充分學(xué)習(xí)并收斂到最優(yōu)解。同時(shí),可以采用數(shù)據(jù)增強(qiáng)、正則化等策略來提高模型的泛化能力,減少過擬合現(xiàn)象的發(fā)生。

      2.4 YOLOv8損失函數(shù)的優(yōu)化

      2.4.1 YOLOv8損失函數(shù)概述

      YOLOv8的損失函數(shù)是一個(gè)多任務(wù)損失函數(shù),綜合考慮了目標(biāo)分類、定位和置信度預(yù)測(cè)等多個(gè)方面,確保模型在訓(xùn)練過程中能夠全面優(yōu)化這些關(guān)鍵任務(wù)。

      1) 分類損失:YOLOv8特別采用N個(gè)目標(biāo)的二元交叉熵?fù)p失求和再取平均的方式,更準(zhǔn)確地反映每個(gè)目標(biāo)的分類準(zhǔn)確性,適用于多類別分類場(chǎng)景。

      2) 定位損失:YOLOv8使用平方根誤差損失函數(shù)或平滑L1損失直接計(jì)算邊界框中心坐標(biāo)和尺寸的誤差。

      3) 置信度損失:YOLOv8使用二進(jìn)制交叉熵?fù)p失函數(shù)來計(jì)算置信度損失,通過比較模型預(yù)測(cè)的目標(biāo)存在概率與真實(shí)標(biāo)簽的差異來衡量模型的置信度準(zhǔn)確性。

      2.4.2 YOLOv8損失函數(shù)的優(yōu)化

      1) 引入先進(jìn)的損失函數(shù)變體。

      ① 定位損失優(yōu)化:引入如GIoU、DIoU、CIoU等變體,考慮邊界框的重疊比例、中心點(diǎn)距離、長(zhǎng)寬比等因素,使得定位更加全面和準(zhǔn)確。

      ② 分類損失優(yōu)化:采用Focal Loss等變體,通過降低易分類樣本的權(quán)重,使模型更加關(guān)注難分類樣本,從而提高分類的準(zhǔn)確性和魯棒性。

      ③ 置信度損失優(yōu)化:引入動(dòng)態(tài)權(quán)重調(diào)整機(jī)制,根據(jù)模型的預(yù)測(cè)置信度動(dòng)態(tài)調(diào)整損失權(quán)重,使得模型在訓(xùn)練過程中更加關(guān)注置信度預(yù)測(cè)不準(zhǔn)確的樣本。

      2) 結(jié)合多任務(wù)學(xué)習(xí)進(jìn)行聯(lián)合優(yōu)化。

      通過設(shè)計(jì)合適的損失函數(shù)組合來同時(shí)優(yōu)化多個(gè)任務(wù)的性能。例如,在關(guān)鍵點(diǎn)檢測(cè)任務(wù)中使用歐幾里得距離損失來評(píng)估預(yù)測(cè)關(guān)鍵點(diǎn)與實(shí)際關(guān)鍵點(diǎn)之間的相似性;在實(shí)例分割任務(wù)中則可以使用Dice損失或交叉熵?fù)p失來評(píng)估分割結(jié)果的準(zhǔn)確性。通過聯(lián)合優(yōu)化這些任務(wù)的損失函數(shù)組合,可以進(jìn)一步提升模型的整體性能。

      3) 利用梯度下降優(yōu)化算法進(jìn)行參數(shù)調(diào)優(yōu)。

      選擇合適的梯度下降優(yōu)化算法(如Adam、SGD 等)并進(jìn)行適當(dāng)?shù)膮?shù)調(diào)優(yōu),對(duì)于提高YOLOv8模型的收斂速度和最終性能至關(guān)重要。在實(shí)際應(yīng)用中,可以根據(jù)數(shù)據(jù)集規(guī)模、硬件設(shè)備以及訓(xùn)練目標(biāo)等因素選擇合適的優(yōu)化算法,并調(diào)整其學(xué)習(xí)率、動(dòng)量等參數(shù),以獲得最佳的訓(xùn)練效果。

      3 數(shù)據(jù)集的選擇與增強(qiáng)

      在選擇數(shù)據(jù)集時(shí),需要考慮數(shù)據(jù)集的規(guī)模、多樣性、圖像質(zhì)量等因素。對(duì)于交通標(biāo)志和交通信號(hào)燈目標(biāo)檢測(cè)任務(wù),數(shù)據(jù)集的規(guī)模越大,模型的泛化能力越強(qiáng)。此外,數(shù)據(jù)集的多樣性也非常重要,它能夠提升模型對(duì)不同場(chǎng)景的適應(yīng)能力。常用的交通標(biāo)志數(shù)據(jù)集有:

      1) GTSRB數(shù)據(jù)集(德國(guó)):包含43種交通信號(hào),共51 839張圖片,其中訓(xùn)練圖片39 209張,測(cè)試圖片12630張,圖片尺寸在15×15至250×250像素之間。

      2) LISA數(shù)據(jù)集(美國(guó)):包含交通標(biāo)志和交通信號(hào)燈。該數(shù)據(jù)集規(guī)模較大,標(biāo)注信息包括交通標(biāo)志和交通信號(hào)燈的類型、位置、尺寸等。

      3) TT100K數(shù)據(jù)集(清華大學(xué)與騰訊合作制作):包含約10萬張騰訊街景全景圖,其中約1萬張包含交通標(biāo)志。該數(shù)據(jù)集規(guī)模龐大,標(biāo)注詳細(xì),覆蓋了多種天氣和光照條件,適用于復(fù)雜場(chǎng)景下的交通標(biāo)志識(shí)別。

      4) CTSDB數(shù)據(jù)集:是國(guó)內(nèi)較受歡迎的交通標(biāo)志數(shù)據(jù)集之一,包含6 164個(gè)交通標(biāo)志圖像,分為58類。數(shù)據(jù)集分為訓(xùn)練數(shù)據(jù)庫(kù)(4 170 張圖像)和測(cè)試數(shù)據(jù)庫(kù)(1 994張圖像)。圖像采集于不同天氣和光照條件下,并包含部分遮擋情況,適用于國(guó)內(nèi)交通標(biāo)志識(shí)別的研究。

      5) CCTSDB 數(shù)據(jù)集:來自長(zhǎng)沙理工大學(xué),是在CTSDB數(shù)據(jù)集的基礎(chǔ)上擴(kuò)充而來。標(biāo)注數(shù)據(jù)分為指示標(biāo)志、禁止標(biāo)志和警告標(biāo)志三大類,適用于中國(guó)道路實(shí)際場(chǎng)景下的交通標(biāo)志識(shí)別研究。

      在實(shí)際應(yīng)用中,交通標(biāo)志檢測(cè)與識(shí)別面臨著光線變化、背景復(fù)雜、物體遮擋、尺寸不一等諸多挑戰(zhàn)。因此,數(shù)據(jù)增強(qiáng)成為提高模型訓(xùn)練效果的重要策略。數(shù)據(jù)預(yù)處理通過隨機(jī)調(diào)整圖像的亮度和對(duì)比度,可以模擬不同光照條件下的場(chǎng)景,使模型能夠適應(yīng)各種光線變化;通過調(diào)整圖像的色相、飽和度和明度,可以模擬不同光源下的色彩效果,提高模型對(duì)色彩變化的魯棒性;隨機(jī)縮放和裁剪圖像可生成不同大小的交通標(biāo)志樣本,從而提高模型對(duì)小目標(biāo)和遠(yuǎn)距離目標(biāo)的檢測(cè)精度;通過Mosaic增強(qiáng)可以顯著增加訓(xùn)練數(shù)據(jù)的多樣性和復(fù)雜性,使模型在訓(xùn)練階段能夠接觸到更多樣化的場(chǎng)景;通過CutMix增強(qiáng)可以模擬交通標(biāo)志被其他物體遮擋或重疊的場(chǎng)景,提高模型對(duì)遮擋和重疊目標(biāo)的檢測(cè)能力。

      4 結(jié)束語

      實(shí)驗(yàn)結(jié)果表明,改進(jìn)的YOLOv8在交通標(biāo)志的識(shí)別率、精確率、識(shí)別速度以及小目標(biāo)的識(shí)別率等方面表現(xiàn)良好。從識(shí)別率來看,改進(jìn)后的模型在復(fù)雜場(chǎng)景下顯示出較高的識(shí)別率,與原型算法相比,mAP和F1 分?jǐn)?shù)分別提升了5.4%和4.8%;在大、中、小目標(biāo)的準(zhǔn)確率方面,分別提升了5.8%、4.2%和6.4%。從識(shí)別速度來看,改進(jìn)后的模型在實(shí)際場(chǎng)景下的平均FPS達(dá)到93幀/秒,與原型算法相比略有下降。從模型魯棒性來看,改進(jìn)后的算法具有較強(qiáng)的適應(yīng)性和穩(wěn)定性,能夠在模糊失真、光線變化、目標(biāo)尺寸變化以及小目標(biāo)密集等復(fù)雜情況下進(jìn)行有效檢測(cè)。展望未來,本研究將圍繞在保證模型性能的同時(shí),致力于實(shí)現(xiàn)模型的輕量化與壓縮,以便于在智能終端上的部署與使用,進(jìn)一步降低設(shè)備的硬件成本和提升識(shí)別效率。

      泾川县| 洛阳市| 白水县| 沂南县| 武鸣县| 新泰市| 铜鼓县| 永善县| 鱼台县| 丰原市| 金山区| 河池市| 闻喜县| 鹤岗市| 墨脱县| 新巴尔虎右旗| 濮阳县| 陆川县| 桦甸市| 高青县| 启东市| 延庆县| 宁海县| 望江县| 衡东县| 萍乡市| 大城县| 台东县| 德惠市| 镇平县| 泉州市| 新竹县| 余姚市| 广元市| 邵阳市| 商南县| 奉化市| 石狮市| 白银市| 澄城县| 岳阳市|