• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于改進(jìn)YOLOv5的紅外目標(biāo)檢測(cè)

      2024-07-03 09:52:35陳超峰趙陽(yáng)朱盛滔
      無(wú)線互聯(lián)科技 2024年10期

      陳超峰 趙陽(yáng) 朱盛滔

      摘要:針對(duì)紅外成像特性及其應(yīng)用環(huán)境的差異導(dǎo)致的紅外目標(biāo)檢測(cè)準(zhǔn)確性不足等問(wèn)題,文章提出了一種基于改進(jìn)YOLOv5算法的紅外目標(biāo)檢測(cè)方法。該方法引入了SIoU損失函數(shù)和多尺度擴(kuò)張注意力機(jī)制,以增強(qiáng)模型對(duì)小尺寸目標(biāo)和復(fù)雜背景中目標(biāo)的檢測(cè)性能。實(shí)驗(yàn)結(jié)果表明,與未改進(jìn)的YOLOv5模型相比,改進(jìn)模型在精確率、召回率和平均精確率等關(guān)鍵性能指標(biāo)上均有顯著提升,證明了該改進(jìn)方法的有效性。

      關(guān)鍵詞:紅外目標(biāo)檢測(cè);SIoU損失函數(shù);多尺度擴(kuò)張注意力

      中圖分類號(hào):TP391文獻(xiàn)標(biāo)志碼:A

      0 引言

      在軍事和民用領(lǐng)域,紅外目標(biāo)檢測(cè)技術(shù)是夜間和低能見度環(huán)境中識(shí)別目標(biāo)的關(guān)鍵技術(shù)[1]。然而,傳統(tǒng)紅外目標(biāo)檢測(cè)方法依賴復(fù)雜的圖像處理技術(shù)和手動(dòng)特征提取,面臨計(jì)算成本高和環(huán)境適應(yīng)性差的挑戰(zhàn)。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)的算法,尤其是YOLO系列,為提高檢測(cè)速度和性能提供了新的可能[2]。但是,將YOLO算法直接用于紅外目標(biāo)檢測(cè),尤其是小目標(biāo)和復(fù)雜背景下的檢測(cè)存在局限性。

      為此,本文對(duì)YOLOv5網(wǎng)絡(luò)進(jìn)行了改進(jìn),引入SIoU損失函數(shù)以替換原有的GIoU損失函數(shù),并引入了多尺度擴(kuò)張注意力機(jī)制。這些改進(jìn)優(yōu)化了模型對(duì)細(xì)小物體和小目標(biāo)的檢測(cè)能力,顯著增強(qiáng)了模型在復(fù)雜背景下對(duì)目標(biāo)的感知能力。

      1 YOLOv5網(wǎng)絡(luò)介紹

      YOLOv5檢測(cè)算法是一個(gè)輕量級(jí)的檢測(cè)模型,其結(jié)構(gòu)如圖1所示,主要由4個(gè)部分組成:(1)多尺度輸入的輸入層;(2)用于特征提取的主干網(wǎng)絡(luò);(3)由特征金字塔網(wǎng)絡(luò)和路徑聚合網(wǎng)絡(luò)結(jié)合的頸部網(wǎng)絡(luò),這一設(shè)計(jì)加強(qiáng)了網(wǎng)絡(luò)特征融合的能力;(4)預(yù)測(cè)頭部分用于生成邊界框、置信度和類別概率,直接輸出檢測(cè)結(jié)果。這種結(jié)構(gòu)設(shè)計(jì)使YOLOv5成為一個(gè)既快速又高效的目標(biāo)檢測(cè)解決方案。

      2 YOLOv5網(wǎng)絡(luò)的改進(jìn)

      在紅外圖像的目標(biāo)檢測(cè)中,小目標(biāo)通常更難檢測(cè)。因此,在改進(jìn)的YOLOv5網(wǎng)絡(luò)中,使用SIoU損失替換原本的GIoU損失函數(shù)。與GIoU相比,SIoU損失函數(shù)在精細(xì)物體檢測(cè)和小目標(biāo)檢測(cè)方面表現(xiàn)得更為出色。其通過(guò)融入角度考慮和規(guī)模敏感性,引入了一種更為復(fù)雜的邊界框回歸方法,解決了以往損失函數(shù)的局限性。SIoU損失函數(shù)由4個(gè)成本函數(shù)組成,分別為角度成本、距離成本、形狀成本和IoU成本。通過(guò)整合以上方法,模型可以實(shí)現(xiàn)更好的訓(xùn)練速度和準(zhǔn)確性的預(yù)測(cè)性能。

      此外,在處理紅外圖像時(shí),目標(biāo)通常隱藏于復(fù)雜背景之中,系統(tǒng)難以識(shí)別目標(biāo)。而多尺度擴(kuò)張注意力機(jī)制[3]通過(guò)采用多尺度擴(kuò)張注意力以及滑動(dòng)窗口擴(kuò)張注意力的創(chuàng)新方法,有效地捕捉了圖像中局部和稀疏的補(bǔ)丁交互,顯著增強(qiáng)了模型對(duì)于目標(biāo)的感知能力。所增強(qiáng)的感知力也進(jìn)一步提高了YOLOv5在紅外圖像目標(biāo)檢測(cè)任務(wù)中的性能。

      2.1 SIoU損失函數(shù)

      其中,Λ為角度損失,表示預(yù)測(cè)框和真實(shí)框之間的角度差異,ch為真實(shí)框和預(yù)測(cè)框中心點(diǎn)在y 軸上的坐標(biāo)差,σ為真實(shí)框與預(yù)測(cè)框中心點(diǎn)在x 軸上的坐標(biāo)差,Δ為距離損失,重新定義距離成本并考慮了角度成本,γ=2-Λ,γ表示為時(shí)間優(yōu)先的距離值,ρ表示預(yù)測(cè)和真實(shí)框中心的歐式距離。

      其中,Ω為形狀損失,θ表示控制形狀成本的關(guān)注值,一般設(shè)置為2~6,ω表示目標(biāo)框與預(yù)測(cè)框之間形狀不匹配的度量。最終,SIoU損失函數(shù)定義如下:

      2.2 多尺度擴(kuò)張注意力機(jī)制

      多尺度擴(kuò)張注意力機(jī)制的工作原理如圖2所示。在多尺度擴(kuò)張注意力機(jī)制中,首先,將特征圖的通道分割成不同的頭部;然后,在每個(gè)頭部?jī)?nèi)部使用不同的擴(kuò)張率執(zhí)行滑動(dòng)窗口膨脹注意力,此操作使得每個(gè)頭部的自注意力操作對(duì)應(yīng)其擴(kuò)張率和感受野;最后,模型在不同的尺度上捕捉圖像特征,這些特征隨后被連接在一起,送入一個(gè)線性層進(jìn)行特征聚合。這種設(shè)計(jì)允許模型在不同的尺度上理解圖像,從而提高對(duì)圖像內(nèi)容的整體理解。通過(guò)這種方法,多尺度擴(kuò)張注意力機(jī)制不僅可以捕捉局部細(xì)節(jié),還能夠感知更廣泛區(qū)域的上下文信息,增強(qiáng)了模型的表現(xiàn)力。

      3 實(shí)驗(yàn)及結(jié)果分析

      3.1 數(shù)據(jù)集

      本文采用的數(shù)據(jù)集是FLIR_ADAS_v2熱成像數(shù)據(jù)集,該數(shù)據(jù)集由安裝在車輛上的攝像頭采集而得,包含9711張紅外圖像,15個(gè)不同的對(duì)象類別,如人、自行車、汽車、交通燈等。其中,訓(xùn)練集和驗(yàn)證集的比例分別為90%、10%。此外,該數(shù)據(jù)集的標(biāo)簽為JSON格式。因此,在使用之前,系統(tǒng)需要將其預(yù)處理為TXT文件,以便適應(yīng)YOLO所需的標(biāo)簽格式。

      3.2 評(píng)價(jià)指標(biāo)

      為了評(píng)估模型的性能,本文使用精確率、召回率和平均精確率均值作為評(píng)價(jià)指標(biāo)。

      精確率(Precision)表示在所有被模型預(yù)測(cè)為紅外目標(biāo)的樣本中,實(shí)際上為紅外目標(biāo)的樣本所占的比例。其計(jì)算公式為:

      召回率(Recall)表示在所有實(shí)際為紅外目標(biāo)的樣本中,被模型正確識(shí)別為紅外目標(biāo)的樣本所占的比例。其計(jì)算公式為:

      平均精確率(Mean Average Precision, mAP)表示在不同召回率水平下,精確率的平均值,以精確度和召回率為橫縱坐標(biāo)所圍成的面積,用于綜合評(píng)估模型在紅外目標(biāo)檢測(cè)任務(wù)上的整體表現(xiàn)。其計(jì)算公式為:

      3.3 實(shí)現(xiàn)細(xì)節(jié)

      本文使用YOLOv5s模型并對(duì)其進(jìn)行了改進(jìn),采用官方提供的預(yù)訓(xùn)練權(quán)重在FLIR_ADAS_v2熱成像數(shù)據(jù)集上進(jìn)行訓(xùn)練,總共訓(xùn)練300個(gè)Epoch,前50個(gè)Epoch采用凍結(jié)訓(xùn)練方式,Batch size設(shè)置為16,隨后進(jìn)行解凍訓(xùn)練,Batch size設(shè)置為8,優(yōu)化器選用SGD,初始學(xué)習(xí)率設(shè)定為0.01。所有實(shí)驗(yàn)均在NIVIDIA GeForce RTX 4060、32GB RAM的PyTorch2.1.0環(huán)境下完成。為了更好地觀察網(wǎng)絡(luò)的訓(xùn)練過(guò)程,將損失函數(shù)值和平均精確度進(jìn)行了可視化,如圖3所示。隨著訓(xùn)練的進(jìn)行,算法的損失曲線逐漸收斂,平均精確率均值逐漸升高。

      3.4 消融實(shí)驗(yàn)

      為了驗(yàn)證本文所提出各項(xiàng)改進(jìn)措施的有效性,通過(guò)進(jìn)行消融實(shí)驗(yàn),比較不同改進(jìn)模塊對(duì)算法性能的具體影響。實(shí)驗(yàn)對(duì)比結(jié)果如表1所示。

      可以看出,在改進(jìn)后的YOLOv5模型中,采用替換SIoU損失函數(shù)和加入多尺度擴(kuò)張注意力機(jī)制的方式,顯著提升了模型在精確率、召回率和平均精確率均值這3個(gè)關(guān)鍵性能指標(biāo)上的表現(xiàn)。與原始的YOLOv5s模型相比,改進(jìn)模型的精確度、召回率以及平均精確率均值分別提高了1.52%、1.39%、3.28%。這表明本文提出的改進(jìn)措施有效地增強(qiáng)了網(wǎng)絡(luò)對(duì)紅外目標(biāo)的檢測(cè)能力,滿足了高精度檢測(cè)的要求。

      4 結(jié)語(yǔ)

      針對(duì)紅外目標(biāo)檢測(cè)的挑戰(zhàn),本文提出了一種基于改進(jìn)YOLOv5算法的檢測(cè)模型。通過(guò)引入SIoU損失函數(shù)和MSDA機(jī)制,本文的模型在處理小目標(biāo)以及復(fù)雜背景中目標(biāo)的檢測(cè)方面表現(xiàn)優(yōu)異。實(shí)驗(yàn)結(jié)果表明,與傳統(tǒng)YOLOv5模型相比,改進(jìn)模型在精確度、召回率和平均精確率均值等關(guān)鍵性能指標(biāo)上有明顯提升,驗(yàn)證了本文所提改進(jìn)措施的有效性。

      參考文獻(xiàn)

      [1]侯旺,孫曉亮,尚洋,等.紅外弱小目標(biāo)檢測(cè)技術(shù)研究現(xiàn)狀與發(fā)展趨勢(shì)[J].紅外技術(shù),2015(1):1-10.

      [2]羅元,王薄宇,陳旭.基于深度學(xué)習(xí)的目標(biāo)檢測(cè)技術(shù)的研究綜述[J].半導(dǎo)體光電,2020(1):1-10.

      [3]JIAO J, TANG Y M, LIN K Y, et al. Dilateformer:multi-scale dilated transformer for visual recognition[J]. IEEE Transactions on Multimedia,2023(25):8906-8919.

      (編輯 王永超編輯)

      Infrared target detection based on improved YOLOv5

      Chen? Chaofeng, Zhao? Yang, Zhu? Shengtao

      (Xijing University, Xian 710123, China)

      Abstract: Aiming at the problems of insufficient accuracy of infrared target detection caused by differences in infrared imaging characteristics and their application environments, this paper proposes an infrared target detection method based on the improved YOLOv5 algorithm. The method introduces the SIoU loss function and the multi-scale expansion attention mechanism to enhance the models detection performance for small-size targets and targets in complex backgrounds. The experimental results show that compared with the unimproved YOLOv5 model, the improved model has significant improvement in key performance indicators such as precision rate, recall rate and average precision rate, which proves the effectiveness of the improved method.

      Key words: infrared target detection; SIoU loss function; multiscale dilated attention

      札达县| 东源县| 麟游县| 红安县| 卓尼县| 中江县| 黑河市| 镇江市| 白银市| 宜春市| 玛曲县| 井陉县| 中宁县| 朝阳市| 新干县| 离岛区| 滁州市| 新田县| 邵东县| 临武县| 胶州市| 南充市| 玉溪市| 黄山市| 永平县| 洛隆县| 榆社县| 上杭县| 宜宾县| 皮山县| 原阳县| 大兴区| 雅安市| 本溪| 上栗县| 门头沟区| 聂荣县| 玉林市| 宣汉县| 类乌齐县| 封丘县|