• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      改進的YOLOv3 算法及其在軍事目標檢測中的應用

      2022-05-22 09:34:00于博文呂明
      兵工學報 2022年2期
      關鍵詞:軍事卷積特征

      于博文,呂明

      (南京理工大學 自動化學院,江蘇 南京 210094)

      0 引言

      戰(zhàn)場態(tài)勢感知是對作戰(zhàn)部隊、支援部隊的部隊部署、武器裝備和戰(zhàn)場環(huán)境(地形、氣象、水文等)進行實時感知的過程,包括傳統的偵察、監(jiān)視、情報、航標指示、損傷評估、信息資源管理與控制等。在現階段多兵種聯合作戰(zhàn)中通過戰(zhàn)場態(tài)勢進行作戰(zhàn)形式解析和預判,進而控制整個作戰(zhàn)過程,最終獲得整場戰(zhàn)爭的作戰(zhàn)優(yōu)勢。在未來的信息化戰(zhàn)爭中,提高戰(zhàn)場態(tài)勢感知能力,可以有效提高戰(zhàn)爭全局掌控能力,各軍事大國都在加強相關技術的開發(fā)和研究。目前,軍事目標的識別與定位是影響戰(zhàn)場態(tài)勢感知的關鍵技術。因此,開展針對復雜環(huán)境下戰(zhàn)場軍事目標自動檢測技術的研究,對生成和分析戰(zhàn)場態(tài)勢具有重要意義。

      近年來,學者們陸續(xù)將基于深度學習的方法應用于戰(zhàn)場態(tài)勢感知,能夠較好地解決目前信息化戰(zhàn)場中復雜戰(zhàn)場態(tài)勢生成和解析問題。深度學習是一種具有多層感知的神經網絡模型,具有非線性表達、多層學習和自主提取特征的特點。將基于深度學習的目標檢測模型應用于戰(zhàn)場軍事目標識別和定位,可以為戰(zhàn)場態(tài)勢感知系統提供有效的技術支持。包壯壯等通過結合可形變卷積和反卷積的特性在單次多盒檢測器(SSD)的基礎上設計了一種小目標檢測模型,通過調整底層網絡結構增強了網絡對深層特征與淺層特征的融合能力,在進行小目標檢測任務時具有較高的精度。戴文君等提出的一種多尺度形變目標檢測方法,通過基于可形變卷積改進的ResNet101 殘差網絡和感興趣區(qū)域池化,提高了對形變和多尺度目標的檢測能力。杜澤星等采用稠密連接網絡結構,保證淺層網絡的特征有效性,通過具有大尺寸感受野的擴張塊和反卷積網絡結構對淺層特征和深層次特征進行融合,大大減少網絡推理時間和增強對多尺度目標的檢測能力。楊傳棟等針對彈載圖像目標檢測精度不佳的問題,通過數據增強、尺度變換等處理方法,解決了在惡劣天氣條件下目標形變、精度速度權衡等檢測難題。王志等針對復雜環(huán)境對靜態(tài)目標檢測有較大影響的問題,提出了一種區(qū)域合并的方法進行端到端的交替訓練,在對復雜環(huán)境背景下進行單、多目標檢測具有較高的精度和魯棒性。

      目前,基于深度學習的目標檢測主要有兩個研究方向:多階段目標檢測算法(區(qū)域卷積神經網絡系列),該類方法通過提取候選區(qū)域的特征信息,來對預定義的候選區(qū)域進行分類和位置回歸。該類檢測模型精度較高,但是其檢測速度較慢。單階段目標檢測算法(YOLO 系列算法),該類模型利用初始錨點對目標區(qū)域進行定位,直接預測目標類別,從而在不使用區(qū)域建議網絡的情況下完成整個檢測過程,實現端到端的目標檢測。該類檢測模型速度較快,但精度相對較低。

      由于戰(zhàn)場態(tài)勢具有高動態(tài)性,對軍事目標檢測的實時性具有較高的要求。此外,在對感知系統(武器火控、無人機偵察等)獲得的戰(zhàn)場圖像信息進行目標檢測時,該過程中軍事目標受到光照、成像視角、目標尺寸、偽裝、部分目標存在遮擋等情況的影響,使得上述方法在復雜環(huán)境下軍事目標檢測結果不佳?;诖?本文將從戰(zhàn)場態(tài)勢感知的基本問題軍事目標的識別和定位出發(fā),通過深度學習方式對軍事目標進行檢測。YOLOv3 算法相對于其他檢測算法具有較高的檢測性能,故本文選取單階段檢測算法YOLOv3 作為檢測算法的基礎結構,并對其進行改進,提出一種復雜環(huán)境下軍事目標檢測(YOLOv3-DAR) 算法:針對復雜背景下的軍事目標檢測任務,構建了一個包含多種陸地作戰(zhàn)中常見作戰(zhàn)單元的軍事目標數據集。使用性能更加優(yōu)異的可形變卷積(DCN)和ResNet50-d 殘差網絡相結合的網絡作為檢測算法的特征提取網絡,在一定程度上提升檢測精度和效率。在特征融合過程中引入雙注意力機制模塊和特征重構模塊,引導相鄰層次的特征進行自適應融合,使得各層級的特征信息可以相互增強、補充,增強各層級特征之間的信息交互。為了使檢測算法的檢測精度進一步提高,基于DIOU 損失函數和Focal 損失函數重新設計了目標檢測器的損失函數。最后在本文所構建的數據集和通用數據集PASCAL VOC上進行對比實驗,實驗結果表明本文提出的目標檢測算法YOLOv3-DAR 具有較好的檢測性能,可為戰(zhàn)場態(tài)勢生成、分析提供有效的輔助技術支持。

      1 構建軍事目標數據集

      根據陸地戰(zhàn)場作戰(zhàn)環(huán)境下常見的軍事行動單元構建軍事目標數據集,其中所包含的作戰(zhàn)單元大體可以分為:地面機動單元,坦克、步兵戰(zhàn)車、自行火炮等,其具有高機動性和高毀傷性,因此是地面戰(zhàn)場中的主要檢測目標;地面作戰(zhàn)人員,地面作戰(zhàn)部隊是陸戰(zhàn)場中不可忽略的一部分,其目標較小,發(fā)現概率較低;低空飛行單元,無人機、直升機等,其主要在戰(zhàn)場中起到低空偵查、作戰(zhàn)引導、直接攻擊等作用,是陸戰(zhàn)場中地面部隊的直接威脅;導彈部隊作戰(zhàn)單元,具有較大的殺傷力,但是機動性較差,主要用來攻擊重要軍事目標。在真實作戰(zhàn)環(huán)境中,軍事行動單元通常采用軍用迷彩或與復雜自然環(huán)境相近的偽裝物進行偽裝,從而大大提升軍事行動單元的戰(zhàn)場存活能力,有效降低了各類檢測手段的發(fā)現幾率?;诖?針對復雜環(huán)境下軍事目標檢測任務,從互聯網上下載了大量復雜背景下的軍事目標圖像構建軍事目標數據集。

      數據集中總共包含了4 種陸地作戰(zhàn)場景(沙漠、叢林、城市、雪地)和陸地作戰(zhàn)場景中常見的7 類軍事目標,同時考慮了影響目標檢測結果的因素,例如前景遮擋、煙霧、目標尺寸、成像視角等,其中部分圖像示例如圖1 所示。將數據集中各作戰(zhàn)場景下的軍事目標按照7∶2∶1的比例劃分到訓練集、測試集、驗證集。然后,利用圖像標記軟件LabelImg對數據集中的樣本數據進行標記,數據集標簽格式與PASCAL VOC 數據標簽格式一致。數據集中總計有17 700 幅圖像,包含有41 399 個目標標注框。各類軍事目標的詳細統計信息如表1 所示。

      圖1 數據集部分圖像示例Fig.1 Examples of partial images of dataset

      表1 軍事目標數據集信息明細Tab.1 Details of military target dataset information

      在目標檢測模型訓練、應用的過程中會調整圖像尺寸到某個固定的尺寸,通過計算目標標注框的寬度、高度與其所在圖像的寬度、高度比值的最大值可以有效評價數據集尺度分布的情況,因此本文選取其作為衡量數據集尺度分布的標準,其計算公式為

      式中:、分別表示目標標注框的寬度、高度;、分別表示目標框所在圖像的寬度、高度。

      圖2 為本文構建數據集中各目標類別的尺度分布情況。圖3 為本文構建數據集中的汽車、步兵戰(zhàn)車、坦克等主要目標與PASCAL VOC 2007、2012 數據集中交通工具類目標的尺度分布對比圖,可以看出本文構建的數據集相對于PASCAL VOC 數據集具有更多小尺寸目標。

      圖2 本文數據集中各類目標尺度分布圖Fig.2 Distribution chart of various target scales in the dataset in the present paper

      圖3 主要目標尺度分布對比圖Fig.3 Comparison chart of main target scale distribution

      2 基于改進的YOLOv3 軍事目標檢測算法

      圖4 為本文所提出的復雜環(huán)境下軍事目標檢測算法的整體結構,其整體結構以YOLOv3 檢測算法為基礎,由ResNet50-d-DCN 特征提取網絡、基于雙注意力機制的特征融合模塊、特征重構模塊和YOLOv3 目標檢測器4 部分所構成。圖4 中,~表示特征提取網絡各階段的卷積特征,~表示通過融合各層級特征得到的卷積特征,~表示通過特征重構生成的卷積特征。

      圖4 YOLOv3-DAR 檢測算法的整體結構Fig.4 Framework of YOLOv3-DAR target detection algorithm

      2.1 ResNet50-d-DCN 特征提取網絡

      在實際目標檢測任務中,受到成像視角、檢測距離、光照、目標尺度、偽裝等因素的影響,不可避免的使圖像信息存在一定程度的形變。在YOLOv3 算法中,首先通過DarkNet53 網絡來提取不同尺度的檢測特征。而傳統的卷積網絡由于卷積采樣方式的限制,處理幾何形變問題的能力相對有限,需要通過大量的圖像訓練來提高網絡的泛化能力。在實際使用過程中,如果遇到數據集中沒有的要素,極有可能出現漏檢、誤檢的情況,從而影響目標檢測的結果。

      針對上述問題,本文引入可形變卷積網絡和殘差網絡??尚巫兙矸e的效果已在許多檢測模型中得到了驗證,如圖5 所示,相對于傳統卷積,可形變卷積在采樣過程中通過添加偏移量使其可以動態(tài)改變感受野,并根據目標的形變情況調整采樣點的位置,有效提高網絡的泛化能力,從而提高檢測模型的檢測精度?,F階段殘差網絡具有較為廣泛的應用,其具有較多的變體可供選擇,同時具有較強的可擴展性。通過綜合考慮,本文應用可形變卷積對殘差網絡的變體ResNet50-d的部分卷積層進行改進得到ResNet50-d-DCN 網絡??尚巫兙矸e本身不會顯著的增加模型中參數的數量,但在實際應用中,過多的可形變卷積層會增加網絡的推理時間。因此,為了平衡效率和有效性本文僅將ResNet50-d 網絡中的第4 階段、第5 階段中的3 ×3 卷積替換為可形變卷積,其余層保持不變,選取第2 階段~第5 階段作為輸出,記為、、、。

      圖5 傳統卷積與可形變卷積對比示意圖Fig.5 Comparison diagram

      傳統的卷積過程可以表示為

      式中:為一個3 ×3 卷積層網格;、P分別為特征圖和中某個位置的坐標;(P)為卷積核中的權值;+P為采樣點的坐標,(+P)為輸入特征圖中對應的像素值。

      可形變卷積層的輸出可表示為

      偏移量添加到中,則采樣點的坐標變換為+PPP一般為分數。輸入特征圖中的樣本點會定位在一個分數的位置,通過雙線性插值獲取(+PP)的像素值,偏移量則通過額外的卷積層來學習。

      2.2 基于注意力機制的特征融合算法

      在YOLOv3 算法中相鄰的層級特征通過串聯方式進行特征融合,而不同層級的特征分布差異懸殊,簡單的特征融合方式會破壞原有的特征。低層次網絡特征具有較為豐富的細粒度特征信息,而高層次網絡特征具有較為豐富的語義信息,如何有效地將二者融合在一起是至關重要的。進行目標檢測時不僅需要目標本身的尺度信息和細粒度信息,還需要依賴于周圍的環(huán)境信息,基于此,本文基于壓縮激勵卷積網絡的思想,在特征融合階段引入雙注意力機制,使網絡可以自適應過濾特征信息,強調對檢測更為重要的特征信息,抑制干擾,加強檢測特征的表征能力,特征融合過程如圖6 所示。圖6 中,(·)、(·)、(·)分別表示壓縮操作、激勵操作、權值分配操作;、、分別表示卷積特征的高度、寬度、通道數。

      圖6 特征自適應融合過程Fig.6 Process of adaptive feature fusion

      如圖6 所示,在融合過程中引入雙向選擇機制,起到相互監(jiān)督的作用。根據圖4 中的特征金字塔,通過PC對特征融合過程進行說明。由于C分辨率是P的2 倍,通過尺度為2 的上采樣層對P進行上采樣,通過1 ×1 卷積對C進行降維操作,使得來自不同層級的特征圖具有相同的尺寸。利用全局平均池化對特征圖進行壓縮操作,獲得輸出維度為1 ×1 ×的特征圖z、z:

      式中:H、W表示第層級特征的高度、寬度。

      由于全局平均池是基于通道的,z、zP、C的通道數相同。然后利用Sigmoid 函數、Relu 函數對壓縮操作所獲得的特征圖z、z分別進行激勵操作,獲取特征通道間的非線性關系和特征通道的權值。權值s、s輸出維度為1 ×1 ×,如(8)式和(9)式所示:

      最后是權值分配操作,將激勵操作輸出的權重通過乘法逐通道加權到先前的特征上,在通道維度上完成對原始特征的重新標定,讓模型可以更加關注信息量最大的通道特征,抑制那些不重要的通道特征。本文在權值分配操作的基礎上加入交叉監(jiān)督機制,通過得到的特征通道權值s、s,生成特征P:

      經過上述特征融合過程,可以有效地將高層次特征的語義信息和低層次特征的細粒度信息融合在一起,得到的融合特征具有較強的表征能力。YOLOv3 檢測模型的訓練過程中,高層次特征用于檢測較大目標,低層次特征用于檢測較小目標,這樣就破壞了各個層級檢測特征之間的依賴關系。根據文獻[26]不同層級特征相互補充相互增強的思想,本文對檢測特征進行重構,特征重構過程如圖7所示。

      圖7 檢測特征重構過程Fig.7 Process of detection feature reconstruction

      首先將各層級檢測特征、、、進行切片,每個層級特征分成4 份。為了保證在接下來的重構過程中各層級特征維度是一致的,需要對檢測特征中的各尺度的切片進行調整。如果切片與目標特征的尺寸一致,則保持原切片大小不變;如果切片較目標特征的尺寸小,則采用上采樣層對切片特征進行上采樣;如果切片較目標特征的尺寸大,則采用最大池化對切片特征進行下采樣。然后將分辨率一致的切片通過串聯的方式合并成新的特征。通過尺度縮放、重新配置,將各層級的語義信息和細粒度信息重新組合在一起。最后,將重構后的檢測特征、、輸入到目標檢測器。

      2.3 損失函數

      損失函數由邊界框損失函數、置信度損失函數和類別損失函數組成,如(11)式所示:

      交并比(IOU)在進行邊界框的回歸預測時,如果預測框與標注框之間沒有重疊,會出現損失函數梯度為0 的問題,為了解決這個問題,本文引入DIOU損失函數進行邊界框的回歸預測,其可以有效解決回歸不準確和收斂慢的問題,其計算公式為

      式中:和分別為預測框=(,,,)和目標框=(,,,)的中心點;(·)表示與之間歐幾里得距離;為覆蓋目標框和預測框最小矩形的對角線長度。

      在訓練數據集中存在一部分較為容易分類的樣本數據,因此會使得模型的優(yōu)化方向與所預期的方向相反,為了降低負樣本對模型優(yōu)化的影響,本文引入Focal 損失函數來降低負樣本對模型優(yōu)化影響的權重,使其更專注于更難更復雜的分類樣本,其計算公式為

      式中:和分別為檢測目標置信度的預測值和真實值。

      分類損失通過交叉熵損失函數來計算,將輸入圖像劃分成×個網格,每個網格對應3 個目標預測框,分類損失只對有識別對象的網格有效,其計算公式為

      式中:表示檢測特征的尺度。

      3 實驗結果分析

      3.1 實驗參數配置與檢測結果

      1)實驗條件

      本文所有的實驗均在操作系統為Ubuntu18.04的服務器上進行,中央處理器為至強銀牌4114 處理器@ 10C*2.2 GHz,圖形處理器為GeForce RTX 2080ti×4,內存為128 GB。采用TensorFlow2.0.0 為基礎框架搭建神經網絡,使用Python 語言進行編程。訓練、測試數據集為本文構建的軍事目標數據集。

      2)模型訓練細節(jié)

      在訓練過程中使用隨機梯度下降(SGD)法進行檢測模型訓練,批處理大小設置為64,最大迭代次數設置為100 k,初始學習率、權重衰減系數、動量因子分別設置為0.001、0.000 5、0.9。當迭代次數到達60 000 和85 000 時,學習率分別除以10。同時結合多尺度訓練策略,每隔10 次迭代隨機從{320,352,384,416,448,480,512,544,576,608}中選取圖片的輸入尺寸。通過圖像旋轉圖像、縮放、調整對比度、調整飽和度等方法生成更多可供網絡訓練的軍事目標樣本,增強網絡的泛化性,提高對軍事目標檢測的精準度及穩(wěn)定性。根據訓練數據集中的圖像樣本通過K-means 算法對目標標注框進行聚類,得到9 個模板尺寸(模型輸入分辨率544 ×544),分別為(24,29)、(41,69)、(66,153)、(79,89)、(127,283)、(158,152)、(243,398)、(351,262)、(455,468),將運用這些先驗框來進行目標檢測實驗。此外,在預測框評估階段引入DIOU 非極大值抑制(DIOU-NMS)以提高模型的檢測性能。

      3)評價指標

      本文選取平均查準率(AP)用來評價檢測模型對單個目標類別的檢測準確性。AP 從準確率、召回率這兩個方面來評價檢測模型的精準性,可有效地評價模型對單個目標類別的檢測性能,AP 采用文獻[24]的計算方式,其中IOU 閾值、置信度閾值分別設置為0.5、0.001。AP 均值(mAP)用來評價檢測模型對多個目標類別的綜合檢測性能。通常AP 和mAP 數值越高,模型的檢測性能越好,反之亦然。通過每秒可處理的圖像數量(FPS)來測量檢測模型的檢測速度。

      應用YOLOv3-DAR 目標檢測模型對本文數據集中復雜環(huán)境下部分軍事目標進行目標檢測,其檢測效果如圖8 所示。

      圖8 YOLOv3-DAR 算法的檢測結果示例Fig.8 Test results of YOLOv3-DAR algorithm

      3.2 軍事目標檢測結果分析

      3.2.1 目標檢測性能分析

      通過YOLOv3、YOLOv3-DAR、R-FCN、Faster RCNN算法對本文構建的數據集進行目標檢測,其檢測性能比對結果如表2 所示。從表2 中可以看出,本文提出的YOLOv3-DAR 算法比YOLOv3 算法的平均精度均值高出了2.98%,FPS 提高了8.6 幀/s。YOLOv3-DAR 算法比Faster RCNN、R-FCN 算法的平均精度均值分別高出了1.70%、1.44%,同時YOLOv3-DAR 算法的檢測速度分別是Faster RCNN、R-FCN 算法的13.88 倍和5.51 倍。YOLOv3-DAR算法相對其他3 種檢測算法具有較高的檢測精度和處理速度。

      表2 YOLOv3-DAR 算法與其他3 種檢測算法的對比實驗結果Tab.2 Experimental results of YOLOv3-DAR and other three detection algorithms

      從數據集中選取若干幅圖片進行YOLOv3 算法與YOLOv3-DAR 算法檢測結果對比實驗,二者的IOU 閾值、置信度閾值分別設置為0.5、0.25,從中隨機選取5 幅圖片進行說明,誤檢、漏檢通過人工標注的方式對目標進行標注。YOLOv3-DAR 算法與YOLOv3 算法檢測效果對比如表3 所示。

      表3 YOLOv3 算法與YOLOv3-DAR 算法識別效果對比Tab.3 Recognition effects of YOLOv3 and YOLOv3-DAR algorithms

      測試圖片1 中一共有5 個目標,其中2 個目標在圖像中所占像素較少,YOLOv3 算法檢測出其中3 個目標,YOLOv3-DAR 算法檢測出全部5 個目標。測試圖片2~圖片4 為屬于遮擋、形變較為嚴重的情況,YOLOv3 算法存在漏檢、誤檢的情況,YOLOv3-DAR 算法可以檢測出全部目標,可在置信度較低的情況下有效標注出待檢測目標。測試圖片5 屬于目標過于密集、遮擋較為嚴重的情況,YOLOv3-DAR 算法出現一個漏檢目標,YOLOv3 算法出現兩個漏檢目標。綜上所述,可以看出YOLOv3-DAR 網絡整體性能優(yōu)于YOLOv3 網絡,可以有效降低目標受到光照、成像視角、目標尺寸、目標之間遮擋等對軍事目標檢測的影響。通過對特征提取網絡的改進、引入注意力機制和特征重構策略,增強了網絡的表示能力,使網絡具有自適應過濾干擾特征信息的能力,具有較強的魯棒性,同時減少了網絡參數,提高了復雜環(huán)境下軍事目標的檢測效率和精準度。

      3.2.2 模型分解實驗

      本文所提出的YOLOv3-DAR 網絡中應用通過可形變卷積改進的ResNet50-d 作為特征提取網絡,使用基于注意力機制的融合算法對各個尺度的檢測特征進行融合,對融合后的檢測特征進行重構,重新設計了多尺度目標檢測器的損失函數,在訓練過程中采用多尺度訓練,為了驗證各改進策略對檢測性能的貢獻度,在本文所構建的訓練數據集中進行分解實驗。當輸入分辨率為544 ×544 時,其檢測結果如表4 所示,可以看出本文對YOLOv3 中各模塊的改進策略對檢測性能的提升均有一定的幫助。

      表4 YOLOv3-DAR 模型分解實驗結果Tab.4 Experimental results of YOLOv3-DAR model decomposition

      如表4 所示,模型A 為原始的YOLOv3 模型,模型B 為引入ResNet50-d+DCN 特征提取網絡的YOLOv3 模型,模型C、D、E、F 分別是在模型B 的基礎上遞進增加雙注意力機制、特征重構模塊、改進后的損失函數、多尺度訓練。下面將對各改進策略逐一說明。

      采用SPSS17.0對所有數據進行統計學分析處理,各組計量資料結果用(± s)表示,兩兩比較采用t檢驗,以P<0.05為差異有統計學意義。

      同時,為了進一步驗證可形變卷積、基于雙向選擇注意力機制的特征融合算法對本文數據集檢測精度的影響,選取Faster RCNN 算法、R-FCN 算法和本文算法進行對比實驗,其中各算法均使用相同的特征提取網絡,檢測結果如表5 所示。

      從表5 中的檢測結果可以看出,單獨使用可形變卷積可以有效提高模型的檢測精度,而同時使用可形變卷積和基于雙向選擇注意力機制的特征融合則可以進一步提高檢測模型的檢測精度。實驗證明通過上述改進策略的結合,可以有效提高檢測模型的檢測能力。

      表5 改進策略對mAP 的影響Tab.5 Impact of improvement strategies on mAP

      3.3 PASCAL VOC 數據集上的實驗

      除了在本文收集的數據集上進行實驗外,還在通用數據集PASCAL VOC 2007、2012 上進行了算法對比實驗。為了公平起見,所有算法均使用Tensorflow2.0 為基礎構建模型,每個算法模型訓練100 個Epochs。在訓練過程中采用文獻[21]的訓練策略。各算法在PASCAL VOC2007 測試集上的檢測結果如表6 所示。

      表6 在PASCAL VOC 2007 測試集上的結果Tab.6 Experimental results of PASCAL VOC 2007 dataset

      從表6 的實驗數據可以看出,本文所提出的算法檢測性能整體上優(yōu)于其他檢測模型。當輸入分辨率為544 × 544 時,YOLOv3-DAR 算法相對于原YOLOv3 算法,mAP 提高了3.76%,FPS 提高了8.9,檢測精度和速度均有一定的優(yōu)勢。當YOLOv3-DAR、YOLOv3 算法的輸入分辨率分別為416 ×416、544 ×544 時,YOLOv3-DAR 算法相對于原YOLOv3算法,mAP 提高了3.02%,FPS 達到了43.5,可以看出YOLOv3-DAR 算法相對于YOLOv3 算法具有更為優(yōu)秀的檢測性能。綜上所述可以證明本文所提出的YOLOv3-DAR 檢測模型具有較好的檢測性能。

      4 結論

      1)ResNet50-d-DCN 特征提取網絡相對于Dark-Net53 在檢測形變目標時具有更好的檢測性能。

      2)在特征融合階段引入雙注意力機制和特征融合模塊,使網絡具有自適應過濾功能,各層級特征可以有效地融合在一起,增強了特征的表達能力,使得檢測模型的檢測性能得到提升。

      3)基于DIOU 損失函數和Focal 損失函數對YOLOv3 網絡的損失函數進行改進,結合DIOUNMS,進一步提高了復雜環(huán)境下軍事目標的檢測精度。

      4)YOLOv3-DAR 檢測模型具有較高的檢測精度、速度,可以滿足實際作戰(zhàn)需求,可以為戰(zhàn)場態(tài)勢生成、分析提供有效的輔助技術支持。

      本文提出的檢測方法的基礎是需要大量的實際樣本數據,按照標準對目標進行人工標注,供模型訓練使用。目前,本文針對復雜環(huán)境下軍事目標檢測任務構建的數據集樣本數據還不夠完善,將對其進行補充擴展,豐富樣本數據。此外,由于實際戰(zhàn)場應用中有可能出現未知類別目標,針對該問題,后期將對數據集添加語義標簽,通過修改模型結合零樣本分類器進行未知類別目標檢測,這將是本文進一步研究的重點。

      猜你喜歡
      軍事卷積特征
      基于時域全卷積網絡的語音增強
      基于3D-Winograd的快速卷積算法設計及FPGA實現
      如何表達“特征”
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      不忠誠的四個特征
      當代陜西(2019年10期)2019-06-03 10:12:04
      抓住特征巧觀察
      一種基于卷積神經網絡的性別識別方法
      電視技術(2014年19期)2014-03-11 15:38:20
      線性代數的應用特征
      河南科技(2014年23期)2014-02-27 14:19:15
      軍事幽默:局
      軍事文摘(2009年9期)2009-07-30 09:40:44
      軍事
      夏邑县| 永和县| 兴文县| 林甸县| 洛南县| 余干县| 利川市| 北流市| 鲁山县| 屏山县| 营口市| 乌鲁木齐县| 九寨沟县| 龙井市| 蒙城县| 贵州省| 柯坪县| 肥东县| 湟中县| 兴城市| 晋江市| 清水县| 龙海市| 临泉县| 鱼台县| 恩施市| 安义县| 广西| 包头市| 苏尼特左旗| 华阴市| 隆子县| 楚雄市| 清涧县| 丰台区| 伽师县| 邹平县| 海宁市| 镶黄旗| 马公市| 沂水县|