• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      一種基于YOLOv5s的改進裝甲目標檢測算法

      2023-06-22 08:46:35易圖明王先全袁威孔慶勇
      現(xiàn)代信息科技 2023年5期

      易圖明 王先全 袁威 孔慶勇

      摘? 要:針對裝甲目標圖像背景復雜、目標尺度小等問題,提出一種基于YOLOv5s的裝甲目標檢測算法。首先在FPN結構中增加一個淺層分支,增強對小目標特征的提取能力;其次通過Focal Loss損失函數來平衡正負樣本;再次將CIoU_loss用作邊框回歸損失函數,用以提升識別精度;最后將ECA注意力模塊引入算法中,加強重要特征的表達。實驗結果表明,改進算法在自制數據集上AP達到92.9%,相較于原始算法提高了4.2%,能夠很好地滿足裝甲目標檢測任務的精度與速度需求。

      關鍵詞:裝甲目標;YOLOv5s;特征金字塔;ECA注意力模塊;Focal_loss

      中圖分類號:TP391.4? ? 文獻標識碼:A? 文章編號:2096-4706(2023)05-0073-05

      An Improved Armored Target Detection Algorithm Based on YOLOv5s

      YI Tuming1, WANG Xianquan2, YUAN Wei1, KONG Qingyong1

      (1.Southwest Computer Co., Ltd., Chongqing? 400060, China; 2.Chongqing University of Technology, Chongqing? 400054, China)

      Abstract: Aiming at the problems of complex background and small target scale of armored target image, an armored target detection algorithm based on YOLOv5s is proposed. First, a shallow branch is added to the FPN structure to enhance the ability of extracting small target features; Secondly, the Focal Loss loss function is used to balance the positive and negative samples; CIoU_ Loss is used as the loss function of frame regression to improve the recognition accuracy; Finally, ECA attention module is introduced into the algorithm to enhance the expression of important features. The experimental results show that AP of the improved algorithm on the self-made data set achieves 92.9%, which is 4.2% higher than that of the original algorithm, and can well meet the accuracy and speed requirements of the armored target detection task.

      Keywords: armored target; YOLOv5s; characteristic pyramid; ECA attention module; Focal_loss

      0? 引? 言

      現(xiàn)代戰(zhàn)爭中,采集與處理戰(zhàn)場信息的能力對戰(zhàn)事成敗起決定性的作用。裝甲目標是地面戰(zhàn)事的重要組成部分,在相關人員對戰(zhàn)事的指揮判斷中,快速準確的自動檢測技術可發(fā)揮至關重要的作用。

      相對于普通的目標檢測任務,戰(zhàn)爭環(huán)境下對裝甲目標的檢測任務仍具有相當的挑戰(zhàn)性,主要表現(xiàn)在以下幾個方面:

      (1)環(huán)境干擾大。裝甲車輛作戰(zhàn)時出沒的環(huán)境往往十分復雜,且戰(zhàn)場中的光照條件、氣象條件差異大、變化快。裝甲目標的背景比一般目標的背景更為復雜。同時,裝甲目標往往涂有結合戰(zhàn)場環(huán)境設計的干擾涂裝,加大了目標與背景的區(qū)分難度。

      (2)目標尺度小。目標檢測系統(tǒng)需要識別更遠距離的敵人目標。預警距離范圍內采集的圖像中目標的成像比例較小,加大了目標檢測的難度。

      (3)檢測速度要求高。戰(zhàn)場態(tài)勢瞬息萬變,同時具備準確性與實時性的目標檢測算法才能夠滿足作戰(zhàn)需求。

      隨著人工智能與深度學習技術的發(fā)展,以卷積神經網絡為代表的深度學習算法能夠利用圖像的深層語義信息,大大提升了檢測能力。深度學習模型已逐漸取代傳統(tǒng)的人工模型,成為圖像檢測領域的主流算法,在裝甲目標的檢測與識別上實現(xiàn)了較大的突破。鄧磊提出一種基于多金字塔池化模型的整體嵌套卷積網絡,通過引入空洞卷積思想,在保證卷積特征分辨率不變的前提上提高弱小目標的檢測精度;同時在整體嵌套卷積的基礎上利用裝甲目標的形狀先驗找到感興趣的目標區(qū)域,有效地提升了目標的表征能力與抗干擾能力。孫皓澤以輕量級卷積神經網絡MobileNet作為骨架網絡,構建一個多尺度的單步檢測網絡,然后根據裝甲目標的尺寸分布情況使用分辨率更高的卷積特征圖,并引入Focal-Loss損失函數來代替?zhèn)鹘y(tǒng)的交叉熵損失函數,有效地克服了訓練過程中存在的正負樣本分布極度不平衡的問題。王全東在將Faster R-CNN算法與現(xiàn)有跟蹤算法相結合的基礎上提出復合式目標跟蹤算法,實現(xiàn)了對坦克裝甲目標的自動檢測與穩(wěn)定跟蹤。王曙光通過改進YOLOv2算法展示出YOLO系列算法在裝甲目標檢測任務中的速度優(yōu)勢。

      眾多研究人員采用深度學習模型研究裝甲目標檢測問題,并取得了突破性的進展。在此基礎上,針對裝甲目標圖像檢測的特點與要求,提出一種基于YOLOv5s的裝甲目標檢測方法。主要工作如下:

      (1)利用通道注意力對高價值特征選擇性加強的能力,將ECA注意力模塊添加到YOLOv5s網絡中的部分卷積模塊之后,降低融合卷積層中低利用率特征的影響。

      (2)改進損失函數,優(yōu)化邊框回歸與正負樣本分配。

      (3)改進YOLOv5的FPN結構,增加大尺寸特征層,更好地利用小目標淺層特征圖中的信息。

      1? YOLOv5目標檢測算法

      YOLOv5算法融合了眾多深度學習目標檢測框架的優(yōu)點,是實時性與準確性俱佳的One-Stage目標檢測算法,也是目前應用廣泛的目標檢測模型之一。YOLOv5s是YOLOv5系列中最輕量化的模型,其網絡結構如圖1所示,由輸入端、Backbone、Neck、輸出端四個部分構成。

      YOLOv5s目標檢測算法通過匯集各個算法的優(yōu)點,使得檢測速度和檢測精度都達到了較高的水平,能滿足戰(zhàn)場環(huán)境下的實時性要求。為此,本文以YOLOv5s為基礎算法研究適用于裝甲目標的檢測算法。由于YOLOv5s是以單階段內同時完成裝甲目標檢測與定位的方式來提升檢測速度,當裝甲目標的尺度較小時,YOLOv5s在精度上的劣勢也將被放大。

      我們往往采用高空偵察機對裝甲目標進行拍照,以高海拔觀測等方式從距離目標較遠處采集圖像,裝甲目標在圖像中的成像尺度較小,且裝甲目標往往結合周圍環(huán)境進行偽裝,與背景對比度較低,在特征提取環(huán)節(jié)易受干擾,使得目標定位精度較差。

      YOLOv5s算法通過FPN結構采集三個尺度的特征圖,其中淺層特征圖包含更多語義信息,更有利于對小尺度目標的檢測。然而,裝甲目標圖像中含有尺度更小的微小目標,YOLOv5s的淺層特征圖仍然不能滿足微小目標的檢測精度要求。

      2? 改進裝甲目標檢測算法

      針對上述YOLOv5s在裝甲目標檢測任務中存在的不足,本文從優(yōu)化損失函數,增強網絡感受野,提升網絡特征提取能力等方面對YOLOv5s算法進行改進,進而提升裝甲目標的檢測精度。同時對部分特征提取網絡進行輕量化處理,提升檢測速度。

      2.1? 改進的FPN結構

      YOLOv5s中FPN+PAN結構通過高中低三層特征層的疊加,在多尺度目標檢測場景中取得了較好的效果,但對于微小尺度的裝甲目標,仍無法達到良好的性能。原因在于FPN結構通過包含更多邊緣信息及幾何信息的高分辨率淺層特征進行小目標的檢測,但其淺層特征圖大小為原始輸入的1/8,微小目標的表達仍然受到較大干擾。因此,可利用更淺層的特征圖來提高對微小目標的檢測效果。本文對原始YOLOv5的特征金字塔結構進行改進,增加一個1/4原圖大小的特征層,從而獲取更多微小目標的特征信息。改進后的特征金字塔結構如圖2所示。

      2.2? 損失函數優(yōu)化

      YOLOv5算法的損失函數由邊框損失函數、分類損失函數及置信度損失函數組成。根據裝甲目標的特點對損失函數進行優(yōu)化,這對檢測效果的提升具有重要意義。

      2.2.1? CIoU_loss邊框回歸損失函數

      YOLOv5默認邊框損失函數為GIoU_loss。在裝甲目標檢測任務中,由于目標尺度較小,對位置的偏差更敏感,更有可能出現(xiàn)預測框完全包含或完全不包含真實框的情況。當預測框完全包含真實框時,無法確定目標相對位置關系,會對精度產生影響。

      為了解決GIoU_loss存在的問題,本文采用CIoU_loss來改進預測框的回歸精度。CIoU引入了預測框與真實框中心點之間的歐氏距離,為預測框回歸提供更好的精度。CIoU_loss計算公式為:

      (1)

      其中,b表示真實框的中心點;bgt表示預測框的中心點;ρ表示歐氏距離;c表示真實框與預測框的最小外接矩陣面積對角線長度;α表示正權衡參數,如式(2)所示;v表示衡量縱橫比一致性的參數,如式(3)所示;IoU則表示真實框與預測框的重疊面積。

      (2)

      (3)

      2.2.2? Focal Loss損失函數

      微小裝甲目標在整幅圖像中的占比較低,能夠匹配到的預測框(正樣本)較少,而沒有匹配到的預測框(負樣本)比例極高,在訓練過程中會出現(xiàn)負樣本淹沒正樣本的表達。原始YOLOv5并未增加小目標損失權重在損失函數中的占比,導致微小裝甲目標的檢測效果不夠理想。為了解決正負樣本不平衡的問題,本文引入Focal Loss損失函數來計算分類誤差。

      (4)

      (5)

      (6)

      其中,p表示樣本預測概率;α表示平衡參數,在正樣本數量較少時,通過減小α增大對錯誤樣本的懲罰來改善樣本的不平衡性;ζ表示聚焦參數,通過該調制因子聚焦難分樣本,增大小目標的損失比。根據其他研究人員的經驗,本文取α=0.25,ζ=3。

      2.3? 注意力機制

      2.3.1? ECA注意力模塊

      通道注意力機制在不改變網絡輸出的前提下為各通道賦予不同權重來加強關鍵通道的影響力。SENet模塊通過兩個全連接層來捕獲通道相關性。雖然該策略被廣泛應用于后續(xù)的通道注意模塊之中,但分析結果表明,降維會對渠道關注度的預測產生負面影響,同時,全連接層的較大計算量也會對性能產生影響。

      為了實現(xiàn)不降維通道間的交互,ECA注意力模塊通過一種一維卷積方法,回避了降維對學習通道注意力的負面影響,并且在不影響性能的前提下降低模型的復雜性。因而本文將ECA模塊引入YOLOv5s網絡中,讓網絡更加關注小尺度目標,提取出更多不同的特征,用以區(qū)分目標與背景。

      ECA模塊結構如圖3、圖4所示。

      各通道注意力權重用P表示:

      (7)

      Y為gap后各通道,如式(8)所示:

      (8)

      通過簡單的矩陣運算,在ECA模塊避免各通道注意力權重完全獨立的同時,降低了參數量。

      2.3.2? ECA-C3模塊

      添加注意力模塊的位置決定了其作用效果。隨著網絡的加深,通道包含的語義信息更加豐富,有利于小目標識別的紋理、輪廓等信息逐漸弱化。對于YOLOv5網絡,通過Backbone層中的C3模塊進行特征提取,Neck層和Head層主要負責分類。因此,本文將ECA注意力模塊嵌入Backbone層內的C3模塊中。

      3? 實驗驗證與分析

      3.1? 數據集構建

      公開的裝甲目標數據集較少,因此本文采用自制的裝甲目標數據集。一部分來自公開數據集,一部分來自網絡搜集。采用Mosaic對樣本進行隨機裁剪、縮放、拼接等操作,在豐富數據集的同時增加了小樣本目標,提升了網絡的訓練速度。數據集中部分圖片如圖5所示。

      3.2? 實驗環(huán)境

      實驗平臺硬件配置為:Intel Xeon Silver 4210R處理器,NVIDIA RTX 3060顯卡,操作系統(tǒng)為Windows 10專業(yè)版,開發(fā)環(huán)境為Python 3.9,PyTorch 1.6.0,CUDA 11.1。

      3.3? 參數設置

      訓練過程總共迭代350個epoch,Batch_size設置為16。每次訓練都進行參數更新,將初始學習率設置為1×10-3。在迭代150輪后,將學習率降為1×10-4。

      4? 結果分析

      4.1? 評價指標

      本文以平均精度(Average Precision, AP)和每秒幀數(Frame Per Second, FPS)作為主要評價指標。如式(9)所示,AP值越高,代表網絡檢測裝甲目標的性能越好。

      (9)

      其中,r表示某個召回率所對應查準率的值,查準率r和召回率p的計算公式為:

      (10)

      (11)

      其中,ITP表示正確檢測出的裝甲目標;IFP表示誤檢為裝甲目標的虛假目標數量;IFN表示未被檢測出的裝甲目標;FPS表示模型每秒可以處理的圖片數量,與算法的實時性成正比。

      4.2? 消融實驗

      為進一步分析各種改進內容在裝甲目標識別任務中的影響,本文對某一模塊單獨作用下的改進算法與完整改進算法在數據集上的效果進行對比,測試結果如表1所示,“√”表示引入該模塊。

      模型1為最原始的YOLOv5s模型。在模型1的基礎上,模型2在C3模塊中加入了ECA注意力機制。可以發(fā)現(xiàn),在目標與背景對比度低等特征提取困難的情況下,ECA注意力機制對提取特征有積極的影響。

      對比模型3、5、6、7可以發(fā)現(xiàn),多層特征金字塔對提升微小目標檢測效果的貢獻最為顯著。這說明淺層特征包含的輪廓、紋理等細節(jié)信息是解決微小目標檢測的重要基礎。淺層特征與深層特征的融合能有效降低冗余信息的負面影響。

      模型7主要是針對損失函數進行了優(yōu)化,引入了Focal Loss損失函數和CIoU_loss邊框回歸函數。提升了AP值,且無明顯的速度損失。證明兩者的結合能有效提升對微小目標的檢測精度。

      模型9為引入所有改進內容的算法。在不明顯犧牲速度的情況下,精度達到了最佳??梢缘贸?,相較于原始YOLOv5s算法,本文提出的改進內容有效改善了裝甲目標的檢測效果。

      4.3? 對比評價

      為了驗證本文所提算法的有效性及優(yōu)越性,將本文最終提出的算法模型與原始YOLOv5s算法、YOLOv5x算法、YOLOv5m算法、YOLOv4-tiny算法、SSD算法、Faster R-CNN算法在數據集上進行實驗對比,對比結果如表2所示。

      對比表2中不同算法模型的實驗結果,從中可以看出,相較于two-stage的Faster R-CNN算法,YOLO系列算法和SSD算法等one-stage算法在檢測速度上都有著壓倒性的優(yōu)勢。

      對比YOLOv5s與SSD算法,YOLOv5在檢測速度與精度上的表現(xiàn)更加突出,說明本文選取YOLOv5s作為裝甲目標檢測任務的基礎算法是合理的。

      相較于檢測精度最高的YOLOv5x算法,本文所提算法FPS提高了67%,運行速度優(yōu)勢明顯,更適合于對實時性要求較高的裝甲目標檢測場景。

      檢測速度最高的YOLOv4-tiny算法,雖然其檢測速度相較于其他算法有著顯著優(yōu)勢,但由于其大量使用輕量化卷積層并降低網絡深度,其在檢測精度上的表現(xiàn)最差,只有62.5%,未能在速度與精度指標之間取得平衡。

      綜上所述,本文所提算法擁有精度上的優(yōu)勢,與此同時并沒有過多地犧牲檢測速度,整體表現(xiàn)更加突出。改進算法的效果如圖6所示。

      5? 結? 論

      本文提出一種改進的YOLOv5s算法,主要針對裝甲目標圖像中的目標尺度較小、背景復雜、特征提取受限導致的無法同時滿足檢測速度及精度的問題,得出如下結論:

      (1)在特征金字塔結構中增加淺層特征層,能有效地提升對微小裝甲目標的特征表達,提升了檢測精度。

      (2)Focal loss通過為正負樣本賦予不同權重,降低正負樣本不均衡和難易樣本對檢測精度的影響。

      (3)在特征提取模塊后添加ECA模塊能有效地提升網絡中關鍵通道的表達能力,提升網絡的效率。

      實驗結果表明,改進算法在裝甲目標檢測常見場景中,能夠在滿足實時性要求的前提下有效地區(qū)分目標與背景,提高對小目標的識別效果。同時,相較于通用數據集的普通目標檢測任務,裝甲目標檢測精度仍有一定的提升空間。本文的數據集只是區(qū)分裝甲目標與背景,未對裝甲目標的種類做進一步的區(qū)分,后續(xù)研究應注重提升算法的泛化能力。

      參考文獻:

      [1] 鄧磊,李海芳.基于多尺度整體嵌套池化語義的裝甲目標檢測 [J].激光與紅外,2022,52(2):295-304.

      [2] 孫皓澤,常天慶,張雷,等.基于輕量級網絡的裝甲目標快速檢測 [J].計算機輔助設計與圖形學學報,2019,31(7):1110-1121.

      [3] 王全東,常天慶,張雷,等.基于深度學習算法的坦克裝甲目標自動檢測與跟蹤系統(tǒng) [J].系統(tǒng)工程與電子技術,2018,40(9):2143-2156.

      [4] 王曙光,呂攀飛.改進YOLOv2的裝甲車輛目標識別 [J].計算機與現(xiàn)化,2018(9):68-71+79.

      [5] HU J,SHEN L,SAMUEL A,et al. Squeeze-and-excitation networks [C]//Proceedings of IEEE conference on computer vision and? pattern recognition. Salt Lake City:IEEE,2018:7132-7141.

      [6] WANG Q,WU B,ZHU P,et al. ECA-Net: efficient channel attention for deep convolutional neural networks [C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle:IEEE,2020:11531-11539.

      [7] GIRSHICK R,DONAHUE J,DARRELL T,et al. Rich feature hierarchies for accurate object detection and semantic segmentation [C]//2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus:IEEE,2014:580-587.

      [8] REN S Q,HE K M,ROSS G,et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks [J].IEEE transactions on pattern analysis and machine intelligence,2017,39(6):1137-1149.

      [9] REDMON J,DIVVALA S K,GIRSHICK R B,et al. You Only Look Once: Unified, Real-Time Object Detection [EB/OL].[2022-09-25].https://blog.csdn.net/weixin_54546190/article/details/123028952.

      [10] LIU W,ANGUELOV D,ERHAN D,et al. Ssd: Single shot multibox detector [C]//European conference on computer vision. Amsterdam:Cham,2016:21-37.

      [11] HOWARD,ANDREW G. Mobilenets: Efficient convolutional neural networks for mobile vision applications [EB/OL].[2022-01-2].https://arxiv.org/pdf/1704.04861v1.pdf.

      [12] ZHANG X Y,ZHOU X Y,LIN M X,et al. ShuffleNet: An Extr-emely Efficient Convolutional Neural Network for Mobile Devices [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City:IEEE,2018:6848-6856.

      [13] 叢眸,張平,王寧.基于改進YOLOv3的裝甲車輛檢測方法 [J].兵器裝備工程學報,2021,42(4):258-262.

      [14] SANDLER M,HOWARD A G,ZHU M L,et al. Mobilenetv2: Inverted residuals and linear bottlenecks [C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City:IEEE,2018:4510-4520.

      [15] HOWARD A,SANDLER M,CHU G,et al. Searching for mobilenetv3 [C]//Proceedings of the IEEE International Conference on Computer Vision. Seoul:IEEE Computer Society,2019:1314-1324.

      [16] MA N N,ZHANG X Y,ZHENG H T,et al. Shufflenetv2: Practical guidelines for efficient CNN architecture design [C]//Proceedings of the European Conference on Computer Vision. Munich:Springer,2018:122-138.

      [17] 王燕妮,余麗仙.注意力與多尺度有效融合的SSD目標檢測算法 [J].計算機科學與探索,2022,16(2):438-447.

      作者簡介:易圖明(1969.10—),男,漢族,四川南充人,正高級工程師,國務院政府特殊津貼專家,本科,主要研究方向:通信技術;通訊作者:王先全(1968.09—),男,漢族,四川華鎣人,教授,碩士研究生,主要研究方向:計算機軟件技術和智能儀器。

      收稿日期:2022-08-03

      高青县| 老河口市| 华亭县| 依安县| 晋宁县| 井研县| 南康市| 龙山县| 若尔盖县| 乐亭县| 英超| 广西| 丽水市| 大安市| 西乌珠穆沁旗| 文成县| 宁波市| 大洼县| 连平县| 嵊泗县| 南郑县| 西昌市| 孝感市| 永登县| 三江| 霍林郭勒市| 门源| 峨眉山市| 郴州市| 黔南| 云梦县| 湘阴县| 孝感市| 衡南县| 石棉县| 五寨县| 太和县| 唐河县| 尤溪县| 永泰县| 定襄县|