• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于F-CNN的雷達目標辨識算法

      2019-03-22 05:41:34,,
      雷達科學(xué)與技術(shù) 2019年1期
      關(guān)鍵詞:精簡識別率雷達

      , , ,

      (1.國防科技大學(xué)電子對抗學(xué)院, 安徽合肥 230031;2.空軍研究院戰(zhàn)略預(yù)警研究所, 北京 100089)

      0 引 言

      近年來,隨著電子戰(zhàn)的重要性日益凸顯,敵我雙方對電磁頻譜的爭奪逐漸加劇,雷達干擾技術(shù)迅速發(fā)展且相關(guān)新興技術(shù)被廣泛應(yīng)用[1]。同時,雷達抗干擾技術(shù)也獲得相應(yīng)的發(fā)展。但是,這些抗干擾措施[2-4]更多依賴人工判斷和設(shè)定,缺乏客觀性和精確性,這也成為制約雷達抗干擾技術(shù)發(fā)展的關(guān)鍵因素之一[5]。

      近些年,深度學(xué)習(xí)算法研究發(fā)展迅速,將相關(guān)算法應(yīng)用到電子戰(zhàn)中正逐漸成為雷達抗干擾研究的新趨勢[6]。姚毅等將卷積神經(jīng)網(wǎng)絡(luò)(Convolu-tional Neural Network, CNN)運用到雷達反欺騙干擾領(lǐng)域[7],不依賴設(shè)計者的經(jīng)驗,采用數(shù)據(jù)訓(xùn)練,取得了98.83%的識別率。但是,姚毅等搭建的卷積神經(jīng)網(wǎng)絡(luò)存在識別參數(shù)龐大的問題,不利于實時處理。

      本文提出了一種基于分解卷積神經(jīng)網(wǎng)絡(luò)(Factorized Convolutional Neural Network, F-CNN)的雷達目標辨識算法。以深度可分離卷積[7](Depthwise Separable Convolution, DSC)結(jié)構(gòu)為基礎(chǔ)搭建分解卷積神經(jīng)網(wǎng)絡(luò),以及對分解卷積神經(jīng)網(wǎng)絡(luò)進行精簡[8],使用實測數(shù)據(jù)對兩個網(wǎng)絡(luò)模型進行訓(xùn)練和測試,并對結(jié)果進行分析討論。

      1 分解卷積神經(jīng)網(wǎng)絡(luò)的模型結(jié)構(gòu)

      本節(jié)詳細介紹具體的卷積結(jié)構(gòu)(深度可分離卷積結(jié)構(gòu))及網(wǎng)絡(luò)模型(分解卷積神經(jīng)網(wǎng)絡(luò)模型)。

      1.1 深度可分離卷積的結(jié)構(gòu)

      假設(shè)輸入圖像矩陣I∈h×w×m,其中h表示圖像的高,w表示圖像的寬,m表示圖像通道數(shù);卷積核矩陣K∈k×k×m×n,其中k表示卷積核尺寸,n表示卷積核數(shù)。在標準卷積運算中,取步長為1,且對邊界不進行補零操作時,輸出圖像矩陣為O∈(h-k+1)×(w-k+1)×n。計算公式[7]為

      I(y+u-1,x+v-1,i)

      1≤y≤h-k+1,1≤x≤w-k+1,1≤j≤n

      (1)

      式中,O(y,x,j)表示標準卷積輸出圖像矩陣O的第(y,x,j)個元素。式(1)其他矩陣類似O(y,x,j)表述的含義與其含義相似。

      式(1)的計算量為

      C1=k2mnhw

      (2)

      標準卷積的卷積核模型如圖1所示。

      圖1 標準卷積核

      深度可分離卷積是將標準卷積運算分解為逐通道卷積(Depthwise Convolution,DC)和逐點卷積(Pointwise Convolution,PC)。逐通道卷積過濾輸入圖像,提取特征。逐點卷積則是將提取的特征進行加權(quán)合并。

      逐通道卷積的卷積核和逐點卷積的卷積核模型分別如圖2和圖3所示。

      圖2 逐通道卷積核

      圖3 逐點卷積核

      給定輸入圖像矩陣,逐通道卷積核P∈k×k×1×m,逐點卷積核Q∈1×1×m×n。在卷積運算步長為1,且對邊界不進行補零操作時,通過分解卷積運算,可以得到輸出圖像矩陣。計算過程如下:

      逐通道卷積公式[7]為

      I(y+u-1,x+v-1,j)

      1≤m≤h-k+1, 1≤n≤w-k+1, 1≤j≤m

      (3)

      式中,G(m,n,j)表示逐通道卷積后輸出矩陣G中的第(m,n,j)個元素。式(3)其他矩陣類似G(m,n,j)表述的含義與其含義相似。

      逐點卷積公式[7]為

      1≤y≤h-k+1, 1≤x≤w-k+1, 1≤l≤n

      (4)

      式(4)其他矩陣類似G(m,n,j)表述的含義與其含義相似。

      深度可分離卷積的計算量為

      C2=k2mhw+mnhw

      (5)

      深度可分離卷積的計算量與標準卷積的計算量之比,可以得到如下結(jié)果:

      (6)

      式中,當k=5,n=32時,η≈7%,即相同情況下深度可分離卷積運算的計算量僅有標準卷積運算的7%。

      1.2 模型搭建與訓(xùn)練

      參照卷積神經(jīng)網(wǎng)絡(luò)的經(jīng)典模型LeNet-5[9],并比照卷積神經(jīng)網(wǎng)絡(luò)模型[7],搭建分解卷積神經(jīng)網(wǎng)絡(luò)。其網(wǎng)絡(luò)框圖如圖4所示。

      圖4 分解卷積神經(jīng)網(wǎng)絡(luò)框圖

      分解卷積神經(jīng)網(wǎng)絡(luò)由1個輸入層、3個卷積層(1個標準卷積和2個分解卷積)、1個池化層、2個全連接層、1個輸出層組成。實際運算中,為了及時有效地調(diào)整數(shù)據(jù),需要引入塊歸一化(Batch Normalization)操作[10]、激活(Activation)操作[11]、平整(Flatten)操作、棄離(Dropout)操作。塊歸一化操作可使輸出服從均值為0、方差為1的標準正態(tài)分布。引入激活函數(shù)可以添加輸出的非線性因素。平整操作則是將矩陣拉伸成向量,便于全連接層進行特征提取。棄離操作是為了有效減少過擬合的情況。

      各個層級輸出樣本大小和參數(shù)數(shù)量如表1所示。

      表1 分解卷積神經(jīng)網(wǎng)絡(luò)輸出樣本大小和參數(shù)數(shù)量統(tǒng)計

      注:輸出大小中的“None”表示不限制輸出和輸入的數(shù)量。

      分解卷積神經(jīng)網(wǎng)絡(luò)模型中,6個層級共使用了5 929 283個參數(shù),是卷積神經(jīng)網(wǎng)絡(luò)參數(shù)數(shù)量的近3倍。同時全連接層參數(shù)數(shù)目占總參數(shù)數(shù)目的99.75%。

      參數(shù)數(shù)量過多將會嚴重影響識別的速率,為此對該網(wǎng)絡(luò)模型進行精簡,搭建精簡分解卷積神經(jīng)網(wǎng)絡(luò)。在原網(wǎng)絡(luò)層數(shù)不變的前提下減少卷積核數(shù)和第一個全連接層連接節(jié)點數(shù)。精簡分解卷積神經(jīng)網(wǎng)絡(luò)框圖如圖5所示。

      圖5 精簡分解卷積神經(jīng)網(wǎng)絡(luò)框圖

      精簡分解卷積神經(jīng)網(wǎng)絡(luò)與分解卷積神經(jīng)網(wǎng)絡(luò)相比較,各個層級的參數(shù)數(shù)量均減少,而全連接層參數(shù)數(shù)量減少得最多。各個層級輸出大小和參數(shù)數(shù)量統(tǒng)計如表2所示。

      表2 精簡分解卷積神經(jīng)網(wǎng)絡(luò)輸出樣本大小和參數(shù)數(shù)量統(tǒng)計

      注:“None”表示對輸出圖片的數(shù)量并沒有限制。

      精簡分解卷積神經(jīng)網(wǎng)絡(luò)中6個層級共使用186 371個參數(shù),全連接層參數(shù)依舊占到了全部參數(shù)的99%以上。

      2 網(wǎng)絡(luò)模型的訓(xùn)練與測試

      本節(jié)主要講述用實測數(shù)據(jù)樣本對兩個網(wǎng)絡(luò)模型進行訓(xùn)練和測試,并對測試結(jié)果進行比較分析。

      實驗數(shù)據(jù)均為實測數(shù)據(jù),數(shù)據(jù)包括真實目標樣本、地雜波樣本、密集假目標樣本。數(shù)據(jù)二維平面顯示如圖6所示。

      圖6 某型雷達實測數(shù)據(jù)不同樣本平面顯示

      對采集到的數(shù)據(jù)進行合理切塊和數(shù)據(jù)擴充。組建相應(yīng)的訓(xùn)練集和測試集,對搭建好的網(wǎng)絡(luò)模型進行訓(xùn)練和測試。數(shù)據(jù)擴充可以彌補數(shù)據(jù)量不足的缺點,增加訓(xùn)練集和測試集。擴充方式如圖7所示。

      圖7 數(shù)據(jù)擴充

      網(wǎng)絡(luò)模型的訓(xùn)練和測試均是基于Keras深度學(xué)習(xí)框架,采用Python語言編寫程序。實驗使用的具體硬件平臺為CPU:Inter Xeon E5-2620 v3 @2.4 GHz,GPU:GTX TITAN X。

      采用與卷積神經(jīng)網(wǎng)絡(luò)相同的數(shù)據(jù)對模型進行訓(xùn)練和測試,在每一輪迭代結(jié)束后統(tǒng)計識別率,可以得到如圖8所示的統(tǒng)計結(jié)果。

      圖8 3種模型識別率比較

      圖8表明,分解卷積神經(jīng)網(wǎng)絡(luò)和精簡分解卷積神經(jīng)網(wǎng)絡(luò)在經(jīng)過3次迭代之后,其識別率均比卷積神經(jīng)網(wǎng)絡(luò)更高。

      3種模型由于卷積結(jié)構(gòu)、卷積核尺寸和全連接層連接節(jié)點不同,使得其識別率和參數(shù)數(shù)量兩種性能均存在差異。對兩種性能進行統(tǒng)計,得到表3。

      表3 3種網(wǎng)絡(luò)模型綜合性能分析

      表3表明分解卷積神經(jīng)網(wǎng)絡(luò)的識別率最高,但是參數(shù)數(shù)量也是最多,是卷積神經(jīng)網(wǎng)絡(luò)的近3倍。精簡分解卷積神經(jīng)網(wǎng)絡(luò)識別率也較高,參數(shù)數(shù)量卻僅占卷積神經(jīng)網(wǎng)絡(luò)的8.56%。

      3 結(jié)束語

      雷達目標辨識是雷達抗干擾的基礎(chǔ)。本文提出了基于分解卷積神經(jīng)網(wǎng)絡(luò)的雷達目標辨識算法,實測雷達數(shù)據(jù)處理結(jié)果表明,分解卷積神經(jīng)網(wǎng)絡(luò)的識別率在卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上再提升近一個百分點,但是網(wǎng)絡(luò)參數(shù)量龐大,不利于實時高效處理。精簡分解卷積神經(jīng)網(wǎng)絡(luò)在卷積神經(jīng)網(wǎng)絡(luò)識別率的基礎(chǔ)上提升0.4個百分點,參數(shù)數(shù)量大幅度減少,僅占卷積神經(jīng)網(wǎng)絡(luò)參數(shù)數(shù)量的8.56%。與卷積神經(jīng)網(wǎng)絡(luò)相比較,本文所提的算法對真實目標樣本、地雜波樣本、密集假目標樣本均能提升辨識準確率。如何對真實目標進行詳細區(qū)分將是下一步的研究重點。

      猜你喜歡
      精簡識別率雷達
      有雷達
      大自然探索(2023年7期)2023-08-15 00:48:21
      基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測
      計算機工程(2020年3期)2020-03-19 12:24:50
      基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識別率的關(guān)系
      雷達
      時常精簡多余物品
      特別健康(2018年2期)2018-06-29 06:14:00
      提升高速公路MTC二次抓拍車牌識別率方案研究
      一種面向應(yīng)用的流量監(jiān)測精簡架構(gòu)設(shè)計
      電子制作(2017年17期)2017-12-18 06:40:47
      高速公路機電日常維護中車牌識別率分析系統(tǒng)的應(yīng)用
      基于空時二維隨機輻射場的彈載雷達前視成像
      現(xiàn)代“千里眼”——雷達
      穆棱市| 贵德县| 会昌县| 冀州市| 河东区| 永城市| 阜宁县| 简阳市| 雷州市| 东乡| 毕节市| 滦南县| 卢湾区| 内乡县| 宁晋县| 枣庄市| 博罗县| 曲水县| 云林县| 山西省| 烟台市| 定边县| 娱乐| 两当县| 都安| 仲巴县| 江口县| 北海市| 龙山县| 寿光市| 铅山县| 桐乡市| 岢岚县| 蒲城县| 德保县| 吉林市| 佛坪县| 大新县| 磐安县| 南和县| 夹江县|