• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于改進YOLOv7-tiny的坦克車輛檢測方法

      2024-01-04 04:31:38鄭陸石胡曉鋒于偉國趙東志張鴻濤
      兵器裝備工程學(xué)報 2023年12期
      關(guān)鍵詞:損失卷積特征

      鄭陸石,胡曉鋒,于偉國,趙東志,張鴻濤

      1.中北大學(xué) 機電工程學(xué)院, 太原 030051; 2.北方工程設(shè)計研究院有限公司, 石家莊 050011; 3.北方華安工業(yè)集團有限公司, 黑龍江 齊齊哈爾 161006)

      0 引言

      現(xiàn)代戰(zhàn)爭中對于戰(zhàn)場態(tài)勢的感知十分重要,無人機(UAV)是近年來廣泛應(yīng)用于戰(zhàn)場的裝備之一,其可以執(zhí)行戰(zhàn)場偵察、目標監(jiān)控、反偵察等多種感知任務(wù)。在偵察任務(wù)中,相比于遙感衛(wèi)星和偵察機等方式,利用無人機具有如下幾點優(yōu)勢[1]:① 飛行頻率高。相對于偵察機每次執(zhí)行任務(wù)前需要根據(jù)敵方雷達陣地和防空系統(tǒng)位置規(guī)劃偵察線路,無人機可以應(yīng)對掌握敵方陣地信息較少的情況,與偵察機等形成互補。② 飛行成本低。減少了對空勤人員訓(xùn)練和培養(yǎng)的昂貴費用,只需要操作員遠程發(fā)送指令給無人機就能完成一系列任務(wù)。因此,利用無人機對地面坦克車輛進行拍攝并檢測有著重要意義。

      但是,無人機航拍在發(fā)揮其重要作用的同時也面臨著目標隱蔽性大、目標尺度跨度大、與背景差別小和空中視角下目標特征不明顯等困難。

      隨著深度神經(jīng)網(wǎng)絡(luò)(deep neural networks,DNN)的發(fā)展,其在目標檢測領(lǐng)域的應(yīng)用范圍更加廣泛。在深度神經(jīng)網(wǎng)絡(luò)方法出現(xiàn)之前,傳統(tǒng)目標檢測任務(wù)流程分為3個階段[2]:首先采用大小不同的滑動窗口進行特征區(qū)域選擇,獲取可能的目標位置;其次通過方向梯度直方圖[3](histogram of oriented gradients,HOG)等方法對目標的特征進行提取;最后利用支持向量機[4](support vector machine,SVM)、Adaboost[5]等分類器分類,得到各類目標的位置和置信度。傳統(tǒng)方法對目標尺寸較為固定,窗口冗余,提取的特征魯棒性較差。深度學(xué)習(xí)方法出現(xiàn)后,目標檢測領(lǐng)域取得了重大的突破,主要有2個方向成為研究重點:① 基于回歸方法的單階段目標檢測算法,如YOLO系列、SSD[6]等;② 基于區(qū)域提議的雙階段目標檢測算法,如RCNN、Cascade R-CNN等。2022年WANG等[7]提出YOLOv7,其性能是目前單階段方法中較好的一種。在工業(yè)界也提出很多方法,以提升算法的魯棒性。劉軍黎等[8]提出一種融合淺層特征圖和超輕量級子空間注意模塊的YOLOX-IM算法,實現(xiàn)了無人機對交通情況的實時檢測,但無人機高度較為固定;白俊卿等[9]將MobileNetv3作為特征提取網(wǎng)絡(luò),實現(xiàn)了無人機障礙物檢測,但存在因為障礙物大小變化快所導(dǎo)致檢測精度下降的問題。錢坤等[10]對模型中多尺度特征融合層進行改進,達到對艦船目標及其關(guān)鍵部位的檢測。

      基于深度學(xué)習(xí)的目標檢測技術(shù)已較為成熟,但主要針對一些常見目標的檢測,對于無人機視角的坦克車輛檢測研究較為不足;并且機載計算機算力有限,在保證精度不變的同時能夠有更快的檢測速度已經(jīng)成為了當前研究的關(guān)鍵問題。為了解決上述問題,本文中提出了一種基于改進YOLOv7-tiny的坦克車輛檢測算法。

      1 YOLOv7-tiny網(wǎng)絡(luò)結(jié)構(gòu)

      近幾年神經(jīng)網(wǎng)絡(luò)廣泛應(yīng)用到圖像檢測領(lǐng)域,基于戰(zhàn)場作戰(zhàn)對目標檢測的時效性、準確性要求,需要神經(jīng)網(wǎng)絡(luò)模型具備檢測精度高、實時的特點。YOLOv7-tiny是目前較為先進的單階段目標檢測模型YOLOv7的輕量級模型,其模型大小只有12 MB左右,在保持了較高的精準度的同時進一步縮小模型大小。YOLOv7-tiny由特征提取網(wǎng)絡(luò)Backbone、特征融合網(wǎng)絡(luò)Neck和檢測頭Head構(gòu)成,Backbone 和 Neck將圖像分辨率減小、通道數(shù)增大,實現(xiàn)圖像語義層面的增強;Head主要為多個解耦頭,將特征信息進行解耦,得到目標在圖像中的位置與類別。YOLOv7-tiny的Backbone網(wǎng)絡(luò)由卷積層、池化層和高效長程聚合網(wǎng)絡(luò)[11](efficient layer aggregation networks, ELAN)組成,Neck繼承了YOLO系列的PA-Net(path aggregation networks)。

      2 改進的YOLOv7-tiny網(wǎng)絡(luò)

      2.1 AC-ELAN結(jié)構(gòu)

      為了更好地區(qū)分坦克車輛與背景信息,將YOLOv7-tiny特征提取網(wǎng)絡(luò)中的3個ELAN結(jié)構(gòu),替換為本文中提出的AC-ELAN(asymmetric convolutions-ELAN)結(jié)構(gòu),利用文獻[12]提出的非對稱卷積替換ELAN結(jié)構(gòu)路徑上的普通卷積,構(gòu)成改進的特征提取網(wǎng)絡(luò),非對稱卷積結(jié)構(gòu)如圖1所示。

      圖1 非對稱卷積結(jié)構(gòu)

      并列的3×1、1×3、3×3卷積核替代原本的3×3卷積核,構(gòu)成非對稱卷積塊。利用不同大小的卷積核對輸入特征圖進行計算,此過程可表示為:

      (1)

      式(1)中:O∈RR×T×D為輸出特征圖;M∈RU×V×C為輸入特征圖;F∈RH×W×E為卷積核;R、U、H為特征圖及卷積核寬度,T、V、W為高度,D、C、E為通道數(shù);*為二維卷積運算;j為第j個卷積核;k為第k層通道。

      對輸出O:,:, j進行批歸一化處理得到中間級輸出為:

      (2)

      式(2)中:μj、σj為批處理數(shù)據(jù)的均值、標準差;γj、βj為縮放系數(shù)和偏移量。

      最后,將中間級輸出對應(yīng)點位信息相加后得到最終的融合特征圖。相對于普通卷積,由于并列結(jié)構(gòu)的非對稱卷積塊增加了卷積計算次數(shù),推理過程所耗費的時間相應(yīng)增加。利用卷積的可加性,可以在不增加推理時間的前提下達到相同的效果,可加性表示為:

      I*K(1)+I*K(2)=I*(K(1)⊕K(2))

      (3)

      式(3)中:K(1)、K(2)為2個兼容尺寸的卷積核;I為輸入矩陣;⊕為按位置求和。

      由此,3個大小不同的卷積核轉(zhuǎn)換為一個等效卷積核,其十字中心位置權(quán)重增大,特征提取能力有所加強,并且受到圖像的水平、垂直翻轉(zhuǎn)影響減弱。

      將非對稱卷積融入ELAN結(jié)構(gòu),模型結(jié)構(gòu)圖如圖2所示。

      圖2 AC-ELAN結(jié)構(gòu)圖

      改進的YOLOv7-tiny網(wǎng)絡(luò)中AC-ELAN通過不同長度的分支結(jié)構(gòu)將輸入特征圖尺寸減小、通道數(shù)擴大,得到更高維和抽象的特征,并聚合淺層和深層網(wǎng)絡(luò)輸出以起到減少計算量和增強特征表達的作用。具體來說,AC-ELAN將輸入特征圖在通道維度等分成2個部分,下層通過1×1卷積調(diào)整通道數(shù)后直接與上層輸出拼接,上層調(diào)整通道數(shù)后利用2層非對稱卷積提取不同尺度的特征,每層非對稱卷積輸出的一部分直接進入聚合層,另一部分進入下一層提取更高維的特征信息,最后將輸出特征圖組合調(diào)整通道數(shù)輸入下一層網(wǎng)絡(luò)。引入了非對稱卷積的特征融合塊能夠根據(jù)特征的重要性重新分配它們的權(quán)重,加之分支結(jié)構(gòu)具有不同深度,對于不同維度的特征提取效果得到增強,同時不會增加網(wǎng)絡(luò)復(fù)雜度和計算量。

      2.2 融合跨階段局部網(wǎng)絡(luò)的空間金字塔池化結(jié)構(gòu)

      空間金字塔池化[13](spatial pyramid pooling,SPP)的提出是為了解決卷積神經(jīng)網(wǎng)絡(luò)(CNN)需要輸入一個固定大小圖像的問題。對此,利用SPP結(jié)構(gòu)對經(jīng)過卷積操作后的特征圖進行不同規(guī)格的池化。其原理為:輸入經(jīng)過卷積操作的特征圖,3種池化框通過滑動窗口的方式提取特征,利用最大池化提取一個最顯著特征。本文中,輸入SPP結(jié)構(gòu)的特征圖大小為20×20×1 024,其中20為特征圖的寬高、1 024為通道數(shù),經(jīng)過大小為5、9、13的池化框池化之后,得到大小為4×4、2×2、1×1的輸出特征圖。然后將其展開并進行拼接,最后得到大小為(16+4+1)×1 024的一維數(shù)組,與一個跳躍連接構(gòu)成4分支結(jié)構(gòu),如圖3所示。大尺寸特征圖具有較高水平的全局性,而小尺寸特征圖可以彌補大尺寸特征圖在細節(jié)方面的缺失,因此SPP結(jié)構(gòu)實現(xiàn)了全局特征和局部特征的有效融合,擴大了網(wǎng)絡(luò)對目標的感受野,增強了網(wǎng)絡(luò)的魯棒性。

      圖3 SPP結(jié)構(gòu)原理圖

      本文中,將YOLOv7-tiny傳統(tǒng)的特征提取網(wǎng)絡(luò)池化結(jié)構(gòu)替換為SPPCSPC結(jié)構(gòu),如圖4所示。SPPCSPC結(jié)構(gòu)將空間金字塔池化與跨階段局部網(wǎng)絡(luò)[14](cross stage partial,CSP)相結(jié)合,CSP的提出是為了減少計算量和增強梯度表現(xiàn)力。特征圖在通道維度分為2個部分:一部分通過卷積對梯度信息進行學(xué)習(xí),另一部分通過直連映射跨梯度與其融合,經(jīng)過并行分支結(jié)構(gòu)使梯度路徑數(shù)目翻倍,達到減少計算量的目的。其中Conv1_1將通道數(shù)進行調(diào)整,以便融合特征,Conv2_2、Conv2_5為3×3卷積層,提升感受野。Conv3_1、Conv2_5為過渡層,Conv3_1卷積層處在Concat操作后,其作用是使不同特征梯度信息得到重用,能夠增強網(wǎng)絡(luò)學(xué)習(xí)能力;Conv2_5處在Concat操作前,其輸入的維度小于Conv3_1,有效減少了計算復(fù)雜度。

      圖4 SPPCSPC結(jié)構(gòu)圖

      2.3 注意力機制

      計算機視覺中的注意力機制是從人類大腦處理外界輸入圖像的過程中獲取靈感。人類大腦會關(guān)注圖像中感興趣的區(qū)域而忽略重要性較低的背景區(qū)域。正因為有注意力機制,人腦可以獲取更多目標的細節(jié)信息而抑制干擾信息。傳統(tǒng)的注意力機制主要為通道注意力和空間注意力以及將兩者并行或串行。例如由Jie Hu等[15]提出的SENet(squeeze-and-excitation networks),通過擠壓、激勵操作對特征圖通道進行優(yōu)化來提高網(wǎng)絡(luò)的表示能力,因要為通道分配不同的權(quán)重,會帶來參數(shù)量的增加。

      通過SimAM[16](simple parameter-free attention module)能夠提高網(wǎng)絡(luò)性能,增強目標檢測精度。其是一種用于卷積神經(jīng)網(wǎng)絡(luò)的無參數(shù)注意力模塊,該模塊利用人腦神經(jīng)元的工作方式,通過推導(dǎo)能量函數(shù)確定不同神經(jīng)元的重要程度,對于能量大的神經(jīng)元賦予更高的權(quán)值。在訓(xùn)練過程中,SimAM模塊能夠?qū)μ卣鲌D中的關(guān) 鍵信息進行增強。

      最小能量計算公式為

      (4)

      SimAM模塊通過尋找擁有最小能量的神經(jīng)元確定重要性最高的目標,與SENet、CBAM等注意力機制相比,具有更好的可解釋性、更少的參數(shù)量。將SimAM模塊引入到改進YOLOv7-tiny網(wǎng)絡(luò)中的3個特征提取層之后,可以提高坦克車輛目標檢測精度,在訓(xùn)練過程中提高對目標的關(guān)注度。改進后的整體網(wǎng)絡(luò)框架如圖5所示。

      圖5 改進網(wǎng)絡(luò)整體框架

      2.4 邊界框損失函數(shù)

      邊界框損失函數(shù)作為目標檢測任務(wù)中損失函數(shù)的重要組成部分,優(yōu)良的邊界框損失函數(shù)會為目標檢測模型帶來顯著的性能提升,包括減小損失值、加快模型收斂速度等。YOLOv7-tiny的邊界框損失函數(shù)為CIoU,重點考慮了邊界框的幾何因素,即相交面積、中心點距離等。但是坦克車輛在無人機圖像中所占像素較少,在標注過程中難免出現(xiàn)虛標、漏標等狀況,由于CIoU損失函數(shù)中的幾何因素會加劇低質(zhì)量標注的懲罰,從而不利于模型從中學(xué)習(xí)到內(nèi)容,導(dǎo)致模型泛化能力降低。針對上述問題,將CIoU替換為WIoU[17],其提出了3種不同的方法來提升損失函數(shù)性能。WIoU v1同時考慮了幾何因素和邊界框質(zhì)量,通過對權(quán)重的調(diào)整使損失函數(shù)更加關(guān)注中低質(zhì)量邊界框,從而達到更好的訓(xùn)練效果,其計算公式為:

      LWIoUv1=RWIoULIoU

      (5)

      (6)

      式(5)、式(6)中:系數(shù)RWIoU∈[1,e),其用為放大較低質(zhì)量錨框的損失值;x、y為預(yù)測框坐標;xgt、ygt為目標框坐標;Wg、Hg為最小封閉框(見圖6);*為將帶梯度的變量轉(zhuǎn)變成常量。

      圖6 目標最小封閉框

      WIoU v2在此基礎(chǔ)上增加了離群度β,以描述錨框的質(zhì)量,離群度定義為

      (7)

      LWIoUv2=β0.5LWIoUv1

      (8)

      (9)

      式(9)中,α、δ為控制梯度增益的超參數(shù)。由此得到WIoU v3邊界框損失計算公式為

      (10)

      式(10)中,當β=δ時,使得r=1。

      3 實驗結(jié)果與分析

      3.1 實驗數(shù)據(jù)集及實驗環(huán)境

      由于各國軍隊對于航拍坦克車輛圖像數(shù)據(jù)較為敏感,目前針對無人機視角的地面可見光坦克車輛圖像暫無權(quán)威數(shù)據(jù)集,因此采用自建數(shù)據(jù)集的方式,數(shù)據(jù)集實例如圖7所示,圖7中圖像來源為2個部分:利用爬蟲技術(shù)爬取網(wǎng)絡(luò)中含有“坦克”、“裝甲車輛”等關(guān)鍵字的圖像418幅;利用四旋翼無人機進行人工實地數(shù)據(jù)采集的圖像150幅。在不同高度采集的圖像數(shù)據(jù)分布如圖8所示,分辨率設(shè)置為1 920×1 080。最終建立的數(shù)據(jù)集包含圖像568幅,圖像大小在1 920×1 080至600×600之間,經(jīng)自適應(yīng)模塊縮放后統(tǒng)一為640×640并送入網(wǎng)絡(luò)。將數(shù)據(jù)集中圖像隨機以7∶2∶1的比例劃分為訓(xùn)練集、驗證集和測試集。具體實驗環(huán)境和參數(shù)設(shè)置如表1所示。

      圖7 數(shù)據(jù)集實例

      圖8 圖像數(shù)據(jù)分布圖

      表1 實驗環(huán)境配置

      3.2 訓(xùn)練參數(shù)和評價方式

      本文中網(wǎng)絡(luò)訓(xùn)練優(yōu)化器為 Adam,初始學(xué)習(xí)率 0.01,動量為 0.907,權(quán)重衰減因子為0.005,Batchsize 為 2,采用mosaic數(shù)據(jù)增強方式。

      利用平均精度AP,準確率P評價網(wǎng)絡(luò)整體性能,計算公式如下:

      (11)

      (12)

      (13)

      式(11)—式(13)中:真陽性(ture positive,TP)為檢測正確的目標數(shù)量;假陽性(false positive,FP)為檢測錯誤的目標數(shù)量;假陰性(false negative,FN)為漏檢的目標數(shù)量。

      利用每秒傳輸幀數(shù)FPS評價網(wǎng)絡(luò)是否滿足實時檢測條件,一般認為FPS≥30即達到實時檢測要求;利用參數(shù)量評價模型大小,參數(shù)量由模型結(jié)構(gòu)確定,希望用更小的模型達到更高的檢測精度。利用Grad-cam[18]熱力圖評估注意力機制效果,利用損失函數(shù)曲線評估模型收斂速度和收斂穩(wěn)定狀態(tài)時邊界框損失值大小。

      3.3 對比實驗分析

      為了保證實驗的準確性和公平性,在pytorch框架下對不同的YOLOv7-tiny網(wǎng)絡(luò)損失函數(shù)進行驗證。分別采用CIoU、WIoU v2、WIoU v3作為損失函數(shù),邊界框損失隨輪次變化曲線如圖9所示。

      在模型訓(xùn)練初期采用WIoU v2訓(xùn)練效果最好,平均損失值為0.034 2,分別比CIoU、WIoU v3降低15.8%、11.5%,認為與其訓(xùn)練初期的單調(diào)聚焦機制使模型聚焦于困難示例有關(guān);在訓(xùn)練中期,CIoU、WIoU v3收斂速度明顯加快,WIoU v2收斂速度放緩并且出現(xiàn)損失值突然增大的情況;在訓(xùn)練200epochs后,各損失函數(shù)接近收斂,此時損失值由大到小為:WIoU v2、CIoU、WIoU v3,分別為0.022、0.020、0.019,認為WIoU v3在訓(xùn)練后期重點關(guān)注普通、較低質(zhì)量錨框,對于網(wǎng)絡(luò)的訓(xùn)練起到關(guān)鍵作用。實驗證明WIoU v3對于網(wǎng)絡(luò)模型具有更高的穩(wěn)定性及更小的損失值,對于模型訓(xùn)練和學(xué)習(xí)有提升效果,驗證了損失函數(shù)改進的有效性。

      圖9 邊界框損失值曲線

      實驗證明,加入simAM模塊制后平均精度有所提升,由89.8%提升到90.4%,但是增加了網(wǎng)絡(luò)復(fù)雜度,導(dǎo)致推理時間有所增加。為了進一步說明simAM模塊的有效性,利用Grad-cam對圖像進行可視化分析,提取正向傳播輸出的特征圖,再經(jīng)過反向傳播得到梯度,并在寬度和高度維度上進行全局平均池化,得到能夠表示特征重要性的權(quán)重,最后計算權(quán)重和梯度的加權(quán)值并經(jīng)過激活函數(shù)得到Grad-cam熱力圖。熱力圖中顏色越接近紅色表示加權(quán)值越大,模型對此區(qū)域的關(guān)注度越高。選取3張圖像作為輸入,分別提取了SimAM、SENet及傳統(tǒng)的YOLOv7-tiny網(wǎng)絡(luò)對應(yīng)層的熱力圖,如圖10所示。對比傳統(tǒng)網(wǎng)絡(luò)和加入注意力機制的熱力圖可以發(fā)現(xiàn),注意力機制能夠有效聚焦坦克車輛目標,降低對非目標區(qū)域的關(guān)注程度;由圖10(a)、圖10(b)可知,對比SENet和SimAM,SimAM模塊對確定的坦克車輛目標關(guān)注度較高,但對類似目標的關(guān)注度低。

      圖10 注意力機制熱力圖對比

      3.4 消融試驗

      本文中一共提出了4個模型改進點,為了驗證各改進點單獨及組合后算法整體的優(yōu)化提升性能,采用消融實驗進行分析,從網(wǎng)絡(luò)模型的AP、FPS進行對比,結(jié)果如表2所示。

      表2 消融實驗結(jié)果

      傳統(tǒng)的YOLOv7-tiny作為消融實驗的baseline,采用相同的預(yù)訓(xùn)練權(quán)重、超參數(shù)等訓(xùn)練條件,依次將simAM模塊和AC-ELAN結(jié)構(gòu)、SPPCSPC結(jié)構(gòu)和改進的損失函數(shù)加入baseline。分析表2數(shù)據(jù)發(fā)現(xiàn),各改進點均對算法AP有所提升。首先SimAM+AC-ELAN結(jié)構(gòu)提升效果最好,提升1.9個百分點,說明基于能量函數(shù)的SimAM模塊和基于非對稱卷積的AC-ELAN結(jié)構(gòu)共同提高了對坦克車輛目標的關(guān)注程度,并且沒有過多增加推理時間。其次為加入SPPCSPC結(jié)構(gòu),AP提升1.4個百分點,但是由于網(wǎng)絡(luò)結(jié)構(gòu)變復(fù)雜,導(dǎo)致FPS下降1.1幀/s。最后,將損失函數(shù)替換為WIoU對AP和FPS的影響較小。

      3.5 不同算法結(jié)果分析

      為了進一步客觀驗證改進算法的有效性,主要選取參數(shù)量在10 M以下輕量級算法Att-YOLOv4-tiny 、YOLOX-tiny 、YOLOv5s和YOLOv7-tiny和2種中量級算法SSD、SE-DenseSSD作為對比,利用訓(xùn)練好的模型權(quán)重對驗證集中圖像進行檢測,結(jié)果如表3所示。由于SSD算法對于小目標不敏感,改進算法對比以VGG-16為骨干網(wǎng)絡(luò)的SSD算法 AP提升9.2%,FPS提高39幀/s,在無人機計算平臺算力有限情況下,也能夠滿足實時檢測要求;對比幾種輕量級算法發(fā)現(xiàn),在沒有進一步擴大參數(shù)規(guī)模的情況下,改進算法平均精度為幾種算法中最高,達到94.3%,分別比Att-YOLOv4-tiny 、YOLOX-tiny 、YOLOv5s和YOLOv7-tiny提升3.2%、9.8%、6.6%、5.0%,且在GPU下檢測幀率達到71幀/s。

      為了展現(xiàn)改進算法訓(xùn)練過程的性能,將模型訓(xùn)練過程與傳統(tǒng)的YOLOv7-tiny對比,在分析結(jié)果時發(fā)現(xiàn)某些輪次的準確率突然下降,造成原因是數(shù)據(jù)集中低質(zhì)量圖像導(dǎo)致的噪聲,訓(xùn)練過程的準確率曲線如圖11所示。

      表3 不同算法性能對比結(jié)果

      圖11 準確率曲線

      在訓(xùn)練前期2種算法準確率差別較小,從第40輪次開始改進算法準確率上升明顯,且準確率曲線一直位于YOLOv-tiny算法之上。隨著學(xué)習(xí)率的不斷降低,準確率沒有發(fā)生較大波動,改進模型在訓(xùn)練過程中體現(xiàn)了較好的穩(wěn)定性和學(xué)習(xí)能力。

      4 結(jié)論

      針對基于深度學(xué)習(xí)的坦克車輛目標檢測算法實時性差、無人機飛行高度不統(tǒng)一、坦克車輛與背景難以區(qū)分等問題,構(gòu)建了具有針對性的數(shù)據(jù)集,并創(chuàng)新性地提出了基于YOLOv7-tiny的改進算法。

      1) 提出了AC-LEAN結(jié)構(gòu)并融合simAM模塊,使算法對目標的特征提取能力增強, 有效降低了圖像中復(fù)雜背景的干擾;

      2) 引入SPPCSPC結(jié)構(gòu),提升了算法感受野并減少改變結(jié)構(gòu)帶來的計算量增加;

      3) 優(yōu)化損失函數(shù),利用利群度對錨框質(zhì)量進行劃分,在訓(xùn)練不同時期關(guān)注不同質(zhì)量錨框,提升了模型收斂速度。

      實驗結(jié)果表明,提出的基于YOLOv7-tiny改進算法在自建數(shù)據(jù)集下平均精度達到94.3%,比傳統(tǒng)的YOLOv7-tiny提升5.0%,在GPU下檢測幀率達到每秒71幀。但是,由于數(shù)據(jù)集規(guī)模較小,實際應(yīng)用中還存在不確定性。未來將進一步擴大坦克車輛目標數(shù)據(jù)集,使改進深度學(xué)習(xí)網(wǎng)絡(luò)的學(xué)習(xí)能力、泛化能力得到提升,并將其部署到無人機機載計算機中進行性能檢測,完成實時坦克車輛目標檢測任務(wù)。

      猜你喜歡
      損失卷積特征
      少問一句,損失千金
      基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
      胖胖損失了多少元
      如何表達“特征”
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      不忠誠的四個特征
      當代陜西(2019年10期)2019-06-03 10:12:04
      玉米抽穗前倒伏怎么辦?怎么減少損失?
      基于傅里葉域卷積表示的目標跟蹤算法
      抓住特征巧觀察
      一般自由碰撞的最大動能損失
      杂多县| 天津市| 桦川县| 乳源| 忻州市| 渝中区| 大竹县| 启东市| 烟台市| 汽车| 宁晋县| 资兴市| 乌审旗| 彭州市| 寿光市| 余姚市| 正镶白旗| 同心县| 曲阳县| 聂拉木县| 雷波县| 平顺县| 拜城县| 精河县| 安塞县| 安义县| 沈丘县| 昌乐县| 京山县| 阳高县| 辉县市| 汶上县| 上虞市| 额敏县| 苏尼特右旗| 浏阳市| 石台县| 新巴尔虎右旗| 交城县| 土默特左旗| 三河市|