• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      嵌入注意力機(jī)制的通信輻射源個(gè)體識(shí)別方法

      2022-02-16 07:21:34曲凌志楊俊安黃科舉
      關(guān)鍵詞:電臺(tái)殘差注意力

      曲凌志, 楊俊安, 劉 輝, 黃科舉

      (國防科技大學(xué)電子對(duì)抗學(xué)院, 安徽 合肥 230037)

      0 引 言

      輻射源個(gè)體識(shí)別(specific emitter identification, SEI)是指提取同型號(hào)、同批次通信輻射源信號(hào)中的個(gè)體特征來識(shí)別不同輻射源個(gè)體的過程。由生產(chǎn)和制造工藝決定的電子電路和射頻組件特性,使得通信設(shè)備的SEI是可以實(shí)現(xiàn)的。并且由于這種特性獨(dú)特且不易造假,在軍事通信、電子偵察、戰(zhàn)場(chǎng)網(wǎng)絡(luò)態(tài)勢(shì)感知等領(lǐng)域具有至關(guān)重要的作用。

      根據(jù)通信電臺(tái)的工作狀態(tài),可以將用于電臺(tái)識(shí)別的指紋特征分為暫態(tài)特征和穩(wěn)態(tài)特征?;跁簯B(tài)特征的個(gè)體識(shí)別方法提出較早,識(shí)別效果較好,但是暫態(tài)信號(hào)的持續(xù)時(shí)間短,捕獲難度大,難以得到有效利用?;诜€(wěn)態(tài)特征的個(gè)體識(shí)別方法近年來研究較為廣泛,有時(shí)頻分析、雙譜、調(diào)制分析等多種方法。文獻(xiàn)[9]結(jié)合希爾伯特-黃變換提取熵、峰度、偏度、均值作為特征。文獻(xiàn)[10]應(yīng)用固有時(shí)間尺度分解(intrinsic time-scale decomposition, ITD)方法得到信號(hào)的時(shí)頻分布。Satija等人提出的利用變分模態(tài)分解和譜特征(variational mode decomposition and spectral features, VMD-SF)的輻射源識(shí)別方法,在單跳和中繼情況下識(shí)別效果優(yōu)于基于變分模態(tài)分解提取熵、一階和二階矩方法和基于經(jīng)驗(yàn)?zāi)B(tài)分解提取熵、一階和二階矩方法。文獻(xiàn)[13]從輻射源信號(hào)中提取雙譜特征,再利用支持向量機(jī)進(jìn)行識(shí)別。文獻(xiàn)[15]提取信號(hào)的I/Q兩路的不平衡性作為特征進(jìn)行識(shí)別,在仿真信號(hào)上取得了較好的效果。文獻(xiàn)[17]利用聯(lián)合協(xié)作表示模型能夠識(shí)別無意幅度和相位調(diào)制特征。

      通過特征提取進(jìn)行分類的方法取決于信號(hào)特征的先驗(yàn)知識(shí)和現(xiàn)有的信號(hào)處理工具,并且其先驗(yàn)知識(shí)與接收信號(hào)的特定屬性有關(guān),提取的特征相對(duì)單一,對(duì)特征有效性要求較高,因而輻射源狀態(tài)變化導(dǎo)致其魯棒性不足。伴隨著深度學(xué)習(xí)的發(fā)展,近年來國內(nèi)外學(xué)者嘗試著將深度學(xué)習(xí)的思想應(yīng)用到SEI的研究。文獻(xiàn)[20]在無線電認(rèn)知任務(wù)中運(yùn)用了卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)。文獻(xiàn)[21]分析了深度神經(jīng)網(wǎng)絡(luò)在無線電調(diào)制識(shí)別任務(wù)的研究進(jìn)展情況。文獻(xiàn)[22]使用基于長(zhǎng)短時(shí)記憶的遞歸神經(jīng)網(wǎng)絡(luò)(recurrent neural network, RNN)進(jìn)行射頻指紋識(shí)別,即使在強(qiáng)噪聲存在的情況下也取得了較高的檢測(cè)精度。文獻(xiàn)[23]在雙譜上訓(xùn)練的CNN,比傳統(tǒng)方法具有更高的精度。周東青等提出的基于深度限制波爾茲曼機(jī)的識(shí)別方法,對(duì)8類不同的雷達(dá)信號(hào)的識(shí)別效果較好。劉高輝等分析了通信輻射源互調(diào)干擾產(chǎn)生機(jī)理,結(jié)合矩形積分雙譜和深度置信網(wǎng)絡(luò)對(duì)輻射源進(jìn)行識(shí)別。吳子龍等引入堆棧式長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)來解決SEI的問題,便于工程化和實(shí)用化。文獻(xiàn)[18]直接用小波變換處理信號(hào),結(jié)合深度殘差網(wǎng)絡(luò)(residual network,ResNet)取得了較好的效果。文獻(xiàn)[27]結(jié)合深度ResNet和深度適配網(wǎng)絡(luò),在半監(jiān)督的遷移學(xué)習(xí)場(chǎng)景下對(duì)頻率變化的電臺(tái)識(shí)別準(zhǔn)確率較高。文獻(xiàn)[28]比較了將信號(hào)轉(zhuǎn)換為圖像作為CNN輸入的各種方法,包括遞歸圖、連續(xù)小波變換和短時(shí)傅里葉變換,實(shí)驗(yàn)表明基于小波的方法優(yōu)于其他方法。

      為解決低信噪比環(huán)境下上述神經(jīng)網(wǎng)絡(luò)分類準(zhǔn)確率下降的不足,本文提出結(jié)合雙層注意力機(jī)制和ResNet(double-deck attention mechanism ResNet,DDAM-ResNet)的識(shí)別算法,將雙層注意力機(jī)制嵌入到殘差堆棧骨干網(wǎng)絡(luò)的前后,既保留殘差網(wǎng)絡(luò)的性能,又能檢測(cè)與識(shí)別任務(wù)關(guān)聯(lián)性更強(qiáng)的特征。實(shí)驗(yàn)證明,在低信噪比條件下,DDAM-ResNet識(shí)別算法表現(xiàn)出更好的性能,對(duì)比殘差神經(jīng)網(wǎng)絡(luò),將注意力單元作為獨(dú)立的網(wǎng)絡(luò)層增強(qiáng)了網(wǎng)絡(luò)的魯棒性,適用于復(fù)雜環(huán)境下的SEI。

      1 注意力機(jī)制

      卷積塊注意模塊(convolutional block attention module,CBAM) 模擬視覺感知,關(guān)注卷積運(yùn)算中重要的特征,抑制不必要的特征,提高信息在神經(jīng)網(wǎng)絡(luò)中的傳遞。其主要是由通道注意模塊和空間注意模塊組成,用通道注意模塊和空間注意模塊分別獲得特征的關(guān)鍵通道位置信息和關(guān)鍵空間位置信息,對(duì)每一個(gè)電臺(tái)樣本的數(shù)據(jù)特征進(jìn)行更好的自適應(yīng)細(xì)化處理。

      1.1 通道注意力機(jī)制

      通道注意模塊關(guān)注通道維度上的特征,利用特征間的通道關(guān)系生成通道注意圖。通道注意模塊的注意力聚焦在通道注意圖的“什么”是有意義的,將通道注意圖中的每個(gè)通道作為一個(gè)特征檢測(cè)器,根據(jù)每個(gè)通道的重要程度賦予不同的權(quán)重。對(duì)于電臺(tái)的信號(hào),I、Q兩路信號(hào)之間存在內(nèi)在聯(lián)系,不同通道的特征圖都能反應(yīng)電臺(tái)數(shù)據(jù)的一部分細(xì)微特征,利用通道注意力能夠抑制無用特征,提高分類識(shí)別效果。

      在通道注意模塊中,對(duì)于一維的電臺(tái)數(shù)據(jù),設(shè)輸入特征×,經(jīng)過平均池化層和最大池化層得到:

      (1)

      =MaxPool()=max((1≤≤,))

      (2)

      再將通過平均池化層和最大池化層聚合的特征輸入到由多層感知器(multi-layer perceptron,MLP)構(gòu)成的共享網(wǎng)絡(luò)中,共享網(wǎng)絡(luò)包含一個(gè)隱層,隱層的神經(jīng)元個(gè)數(shù)為。將經(jīng)過共享網(wǎng)絡(luò)后的兩個(gè)特征圖的對(duì)應(yīng)元素進(jìn)行求和來合并輸出特征向量,再利用Sigmoid函數(shù)對(duì)合并后的輸出特征進(jìn)行激活得到通道注意力權(quán)重系數(shù)()∈,將權(quán)重系數(shù)相乘得到經(jīng)過通道注意力細(xì)化的輸出特征′:

      ()=(MLP(Avgpool())+MLP(Maxpool()))=
      ((())+(()))

      (3)

      ′=()?=((())+(()))?

      (4)

      式中:表示Sigmoid函數(shù);××分別表示多層感知機(jī)隱層和輸出層權(quán)重。

      對(duì)于不同通道的特征向量,通道注意力權(quán)重系數(shù)可以看作是一個(gè)特征檢測(cè)器。利用通道注意力權(quán)重系數(shù)給特征圖中的每個(gè)通道都分配一個(gè)權(quán)值,哪個(gè)通道帶來的有用信息越多,相應(yīng)獲得的權(quán)重就越大。通道注意模塊和空間注意模塊示意圖分別如圖1和圖2所示。

      圖1 通道注意模塊Fig.1 Channel attention module

      圖2 空間注意模塊Fig.2 Spatial attention module

      1.2 空間注意力機(jī)制

      空間注意模塊關(guān)注空間維度上的特征,利用特征間的空間關(guān)系生成空間注意圖。與通道注意模塊不同,空間注意模塊將注意力聚焦在空間注意圖的“哪里”是有價(jià)值的信息部分,這與通道注意模塊互補(bǔ)。卷積運(yùn)算通過混合跨通道和空間信息來提取信息特征,特征圖的不同空間位置映射的特征信息不同,找到關(guān)鍵特征的空間位置信息對(duì)特征分類有重要作用。

      (5)

      (6)

      再將兩個(gè)一維通道特征圖拼接起來,利用7×7大小的卷積核對(duì)拼接起來的特征圖進(jìn)行通道維度壓縮,得到×1的特征圖。利用Sigmoid函數(shù)對(duì)特征圖進(jìn)行激活,得到通道注意力權(quán)重系數(shù)(′)∈×1:

      (7)

      式中:表示Sigmoid函數(shù);表示大小為7的卷積核。

      空間注意力權(quán)重系數(shù)反映了不同區(qū)域特征的重要性。特征圖中所有區(qū)域?qū)ψR(shí)別任務(wù)并不都是同等重要的,與識(shí)別任務(wù)相關(guān)的區(qū)域更值得關(guān)注,這部分區(qū)域應(yīng)該獲得更大的權(quán)值。

      1.3 注意力機(jī)制模塊

      文獻(xiàn)[29]把通道注意模塊和空間注意模塊的串行順序和并行進(jìn)行了實(shí)驗(yàn)對(duì)比,發(fā)現(xiàn)先通道注意模塊再空間注意模塊的串行效果最佳。本文使用的注意力單元的整體流程可以概括如下。

      首先,將特征×輸入到通道注意力機(jī)制中得到通道權(quán)重系數(shù),將其與輸入特征相乘得到更能體現(xiàn)特征關(guān)鍵通道信息的特征圖′。其次,將′作為空間注意模塊的輸入,得到空間權(quán)重系數(shù)。最后,將其與′相乘得到包含通道位置信息、空間位置信息的特征圖″。

      注意力機(jī)制模塊的整體流程如圖3所示,可以表示為

      圖3 注意力機(jī)制Fig.3 Attention mechanism

      ″=(′)?′=(()?)?(()?)

      (8)

      1.4 殘差神經(jīng)網(wǎng)絡(luò)

      深度神經(jīng)網(wǎng)絡(luò)因?yàn)閺?qiáng)大的信息表征能力使其成功的應(yīng)用到各個(gè)領(lǐng)域中,在數(shù)據(jù)充足的情況下,更深的網(wǎng)絡(luò)結(jié)構(gòu)可以獲得更好的結(jié)果,多層特征能夠通過網(wǎng)絡(luò)的深度來豐富其表達(dá)。但是網(wǎng)絡(luò)深度的增加會(huì)導(dǎo)致梯度消失和網(wǎng)絡(luò)誤差增大。

      深度ResNet是深度卷積網(wǎng)絡(luò)的經(jīng)典模型之一,較好地解決了模型的退化問題。ResNet模型的主要?jiǎng)?chuàng)新在于引入殘差結(jié)構(gòu),通過殘差塊將淺層結(jié)構(gòu)與映射増加層連接在一起,使得模型的訓(xùn)練誤差不會(huì)進(jìn)一步升高,兼顧了模型層數(shù)與精準(zhǔn)度的關(guān)系。ResNet的基本模塊是殘差單元,如圖4所示。

      圖4 殘差單元 Fig.4 Residual unit

      殘差單元由卷積層、批歸一化層和激活函數(shù)組成:

      ()=+()

      (9)

      式中:為殘差單元的輸入;()為殘差函數(shù)的輸出;()為殘差單元的輸出。

      2 基于DDAM-ResNet的SEI

      2.1 數(shù)據(jù)預(yù)處理

      數(shù)據(jù)預(yù)處理由數(shù)據(jù)分段、信號(hào)篩選和標(biāo)準(zhǔn)化3部分組成。

      (1) 由于采集到的信號(hào)存在傳輸靜默時(shí)間,而這部分樣本數(shù)據(jù)無法體現(xiàn)輻射源個(gè)體特征,因此設(shè)置一個(gè)合理的閾值,當(dāng)一段時(shí)間內(nèi)樣本信號(hào)值的方差小于規(guī)定的閾值時(shí),認(rèn)為這段時(shí)間信號(hào)樣本處于靜默狀態(tài)并予以舍棄。

      (2) 對(duì)處理過后的數(shù)據(jù)集按照固定長(zhǎng)度做切片化處理,將數(shù)據(jù)集Ⅰ和數(shù)據(jù)集Ⅱ分割為長(zhǎng)度為8 192個(gè)采樣點(diǎn)的若干樣本。

      (3) 用接收設(shè)備采集到的不同電臺(tái)的發(fā)射信號(hào)功率存在一定的差異,為了避免信號(hào)功率差異對(duì)識(shí)別效果造成的影響,需要對(duì)數(shù)據(jù)集進(jìn)行標(biāo)準(zhǔn)化處理。計(jì)算每個(gè)樣本中8 192個(gè)采樣點(diǎn)的平均值,將樣本數(shù)據(jù)減去均值后再除以標(biāo)準(zhǔn)差,使得所有樣本數(shù)據(jù)的均值為0,方差為1,圖5是處理后的信號(hào)數(shù)據(jù)。

      圖5 分段標(biāo)準(zhǔn)化信號(hào) Fig.5 Segmented normalized signal

      2.2 網(wǎng)絡(luò)模型設(shè)計(jì)

      以18層的ResNet網(wǎng)絡(luò)為骨干網(wǎng)絡(luò),在保留整體殘差結(jié)構(gòu)的基礎(chǔ)上嵌入雙層注意力機(jī)制,網(wǎng)絡(luò)模型如圖6所示。

      圖6 網(wǎng)絡(luò)模型Fig.6 Network model

      (1) 相比于其他連接方式,采用先通道模塊后空間模塊的串行注意力機(jī)制結(jié)構(gòu),對(duì)輻射源個(gè)體細(xì)微特征的識(shí)別效果更好。

      (2) 用一維ResNet提取一維信號(hào)序列的特征,縮小了運(yùn)算時(shí)間和存儲(chǔ)空間,降低了卷積計(jì)算的冗余,便于工程化實(shí)現(xiàn)。

      (3) 保留了殘差堆棧骨干網(wǎng)絡(luò)的完整性,使得算法更容易收斂,穩(wěn)定性更強(qiáng)。

      (4) 用兩層注意力單元檢測(cè)堆棧網(wǎng)絡(luò)的輸入輸出特征,根據(jù)其重要性進(jìn)行加權(quán),將與識(shí)別相關(guān)性更大的特征分配更大的權(quán)重,提高分類識(shí)別的效果。

      2.3 模型概述

      本文的對(duì)比算法都是基于一維卷積的ResNet,殘差結(jié)構(gòu)均采用一維卷積結(jié)構(gòu),卷積層均采用一維卷積核,網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)如表1所示。以數(shù)據(jù)集Ⅱ?yàn)槔?DDAM-ResNet的布局如圖4所示,其中一維殘差堆棧包含兩個(gè)相同殘差單元。

      表1 網(wǎng)絡(luò)布局

      2.4 網(wǎng)絡(luò)參數(shù)與對(duì)比實(shí)驗(yàn)設(shè)置

      (1) 設(shè)置參數(shù)和初始化

      模型的權(quán)重和偏置按照He initialization方式初始化,網(wǎng)絡(luò)模型的參數(shù)設(shè)置如表2所示。

      表2 模型主要參數(shù)設(shè)置

      (2) 對(duì)比實(shí)驗(yàn)設(shè)置

      采用基于本征模態(tài)分解(empirical mode decomposition,EMD)和固有時(shí)間尺度分解(intrinsic time-scale decomposition,ITD)的人工特征提取方法,以及ResNet算法、CBAMResBlock算法作為對(duì)比實(shí)驗(yàn)算法。其中,CBAMResBlock算法是指用ResBlock+CBAM模塊替換ResNet算法中的ResBlock模塊,其他網(wǎng)絡(luò)層不變的一種網(wǎng)絡(luò)模型,如圖7所示。由EMD和ITD算法提取出的特征都采用支持向量機(jī)作為特征分類器,而ResNet算法和CBAMResBlock算法的網(wǎng)絡(luò)參數(shù)設(shè)置和初始化與DDAM-ResNet算法設(shè)置相同。

      圖7 ResBlock+CBAM基礎(chǔ)模塊Fig.7 ResBlock+CBAM base module

      3 實(shí)驗(yàn)結(jié)果與分析

      3.1 實(shí)驗(yàn)數(shù)據(jù)

      本文中同一樣本集的實(shí)驗(yàn)數(shù)據(jù)由相同型號(hào)的輻射源電臺(tái)產(chǎn)生,經(jīng)過信道模擬器,最后由同一臺(tái)接收設(shè)備采集得到。信號(hào)分為Ⅰ路和Q路,數(shù)據(jù)集Ⅰ是采集得到的跳頻數(shù)據(jù)集,數(shù)據(jù)集Ⅱ是采集得到的定頻數(shù)據(jù)集。兩個(gè)數(shù)據(jù)集的采集時(shí)間、電臺(tái)型號(hào)均不相同,并且在樣本數(shù)據(jù)集中,所有電臺(tái)所發(fā)射的信號(hào)是隨機(jī)的,因此同一型號(hào)不同輻射源電臺(tái)的所發(fā)射的基帶信號(hào)也不相同。

      數(shù)據(jù)集Ⅰ:實(shí)驗(yàn)數(shù)據(jù)來自8個(gè)相同型號(hào)的輻射源電臺(tái),跳頻頻率為450~460 MHz,每隔1 MHz為一個(gè)頻點(diǎn),具體參數(shù)如表3所示。

      表3 數(shù)據(jù)集Ⅰ信號(hào)參數(shù)

      數(shù)據(jù)集Ⅱ:實(shí)驗(yàn)數(shù)據(jù)來自9個(gè)相同型號(hào)的輻射源電臺(tái),具體參數(shù)如表4所示。

      表4 數(shù)據(jù)集Ⅱ信號(hào)參數(shù)

      3.2 跳頻數(shù)據(jù)集識(shí)別結(jié)果

      數(shù)據(jù)集Ⅰ:從每個(gè)電臺(tái)經(jīng)過預(yù)處理的若干分段跳頻數(shù)據(jù)樣本集中隨機(jī)選擇500個(gè)樣本作為訓(xùn)練樣本集,1 500個(gè)樣本作為測(cè)試樣本集,按照訓(xùn)練樣本和測(cè)試樣本為1∶3的比例,構(gòu)建4 000個(gè)樣本的訓(xùn)練樣本集和12 000個(gè)樣本的測(cè)試樣本集。隨機(jī)選取樣本,每次選取的樣本不同,獨(dú)立重復(fù)實(shí)驗(yàn)5次取識(shí)別結(jié)果的平均準(zhǔn)確率,識(shí)別效果對(duì)比如表5所示。

      表5 數(shù)據(jù)集Ⅰ的識(shí)別準(zhǔn)確率

      其中,ResNet算法和DDAM-ResNet算法的混淆矩陣結(jié)果如圖8所示。從混淆矩陣可以看出,對(duì)于數(shù)據(jù)集Ⅰ中的8個(gè)電臺(tái),電臺(tái)1和電臺(tái)2的識(shí)別效果最好,電臺(tái)5和電臺(tái)8的錯(cuò)分概率較高。相比于ResNet算法,DDAM-ResNet識(shí)別算法的識(shí)別準(zhǔn)確率更高,對(duì)8個(gè)電臺(tái)的識(shí)別效果更好一些。

      圖8 數(shù)據(jù)集Ⅰ的混淆矩陣結(jié)果Fig.8 Confusion matrix results for dataset Ⅰ

      為了能夠獲得訓(xùn)練樣本數(shù)對(duì)于SEI的影響,在保持訓(xùn)練樣本和測(cè)試樣本為1∶3的比列不變的條件下,改變跳頻數(shù)據(jù)集每個(gè)電臺(tái)的訓(xùn)練樣本數(shù)目,得到的識(shí)別準(zhǔn)確率如表6所示。

      表6 不同訓(xùn)練樣本數(shù)目的識(shí)別準(zhǔn)確率

      隨著訓(xùn)練樣本數(shù)的增加,能夠從訓(xùn)練數(shù)據(jù)中得到的特征更多,識(shí)別準(zhǔn)確率也隨之上升。在訓(xùn)練樣本數(shù)為500時(shí),相比于CBAMResBlock算法,ResNet算法和DDAM-ResNet算法的識(shí)別效果更好。為了進(jìn)一步比較幾種識(shí)別算法的效果,在數(shù)據(jù)集Ⅱ中加入高斯白噪聲,改變樣本集的信噪比條件,模擬設(shè)置通信信道質(zhì)量不同的定頻數(shù)據(jù)集。

      3.3 不同信噪比條件的識(shí)別結(jié)果

      數(shù)據(jù)集Ⅱ:從每個(gè)電臺(tái)經(jīng)過預(yù)處理的若干分段數(shù)據(jù)樣本集中,隨機(jī)選擇500個(gè)樣本作為訓(xùn)練樣本集,1 500個(gè)樣本作為測(cè)試樣本集,通過添加高斯白噪聲改變信噪比條件(-10 dB,-9 dB,-8 dB,-1 dB),隨機(jī)選取樣本重復(fù)實(shí)驗(yàn)5次取識(shí)別結(jié)果的平均準(zhǔn)確率,識(shí)別效果對(duì)比如圖9所示。對(duì)于EMD和ITD進(jìn)行特征提取并用支持向量機(jī)進(jìn)行分類的識(shí)別方法,當(dāng)輸入經(jīng)過高斯噪聲處理的低信噪比電臺(tái)數(shù)據(jù)時(shí),EMD和ITD算法的識(shí)別準(zhǔn)確率不高,而基于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)識(shí)別算法的識(shí)別效果明顯優(yōu)于支持向量機(jī)分類器的傳統(tǒng)識(shí)別方法。根據(jù)獲得射頻指紋的不同,SEI方法可以分為兩大類:基于人為提取特征的和基于深度學(xué)習(xí)的。人為提取特征的識(shí)別算法需要專家知識(shí)支撐,對(duì)特征的有效性要求較高,而深度學(xué)習(xí)分類方法能夠避免人為提取特征的主觀性,直接輸入I、Q兩路數(shù)據(jù)又簡(jiǎn)化了數(shù)據(jù)預(yù)處理的流程,利于工程上的實(shí)踐應(yīng)用,在非協(xié)作通信領(lǐng)域具有較明顯的優(yōu)勢(shì)。

      圖9 數(shù)據(jù)集Ⅱ的識(shí)別準(zhǔn)確率Fig.9 Recognition accuracy of dataset Ⅱ

      相比于ResNet算法,將兩層注意力機(jī)制模塊嵌入殘差堆棧骨干網(wǎng)絡(luò)的前后,既保留了ResNet的收斂性,又在少量增加網(wǎng)絡(luò)參數(shù)的條件下,使得識(shí)別準(zhǔn)確率提升較多。在低信噪比的條件下,DDAM-ResNet算法的魯棒性更強(qiáng)的原因在于通過注意力機(jī)制能夠抑制噪聲帶來的無效特征,將網(wǎng)絡(luò)參數(shù)的權(quán)重聚焦在體現(xiàn)電臺(tái)指紋特征的部分,提高了分類識(shí)別的效果。

      3.4 消融性實(shí)驗(yàn)

      為了進(jìn)一步探求空間注意力機(jī)制模塊與通道注意力機(jī)制模塊對(duì)分類效果的影響,做了消融性實(shí)驗(yàn),結(jié)果如表7和表8所示。其中,ResNet+CA算法是在ResNet殘差堆棧模塊之后加上通道注意模塊,ResNet+SA算法是在ResNet網(wǎng)絡(luò)殘差堆棧模塊之后加上空間注意模塊,ResNet+AM算法是在ResNet網(wǎng)絡(luò)殘差堆棧模塊之后加上一層注意力單元。AM+ResNet算法是在ResNet骨干網(wǎng)絡(luò)殘差堆棧模塊之前加上一層注意力單元。

      表7 數(shù)據(jù)集Ⅱ 450 MHz消融性實(shí)驗(yàn)的識(shí)別準(zhǔn)確率

      表8 數(shù)據(jù)集Ⅱ 512 MHz消融性實(shí)驗(yàn)的識(shí)別準(zhǔn)確率

      4 結(jié) 論

      針對(duì)復(fù)雜信道環(huán)境下的SEI問題,本文提出了一種結(jié)合雙層注意力機(jī)制和ResNet的DDAM-ResNet識(shí)別算法,將注意力機(jī)制構(gòu)建成獨(dú)立的網(wǎng)絡(luò)層,獲取殘差單元的輸入、輸出特征,并能根據(jù)其重要性對(duì)特征進(jìn)行加權(quán)處理。實(shí)驗(yàn)證明,低信噪比環(huán)境對(duì)SEI結(jié)果的影響較大,但相比于其他對(duì)照算法,本文方法數(shù)據(jù)利用率高、抗噪性能好,有效提升了低信噪比場(chǎng)景下對(duì)通信輻射源個(gè)體的識(shí)別能力。

      猜你喜歡
      電臺(tái)殘差注意力
      一種改進(jìn)的殘差χ2故障檢測(cè)算法
      讓注意力“飛”回來
      基于殘差學(xué)習(xí)的自適應(yīng)無人機(jī)目標(biāo)跟蹤算法
      基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
      鹿先生的年味電臺(tái)
      “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
      A Beautiful Way Of Looking At Things
      老年聽眾需要電臺(tái)長(zhǎng)篇連播
      新聞傳播(2015年8期)2015-07-18 11:08:25
      做好電臺(tái)新聞的采訪之我見
      新聞傳播(2015年12期)2015-07-18 11:02:40
      平穩(wěn)自相關(guān)過程的殘差累積和控制圖
      河南科技(2015年8期)2015-03-11 16:23:52
      镇江市| 元阳县| 宜昌市| 天津市| 拉萨市| 永春县| 固镇县| 怀远县| 天全县| 逊克县| 开平市| 凤冈县| 广丰县| 尼勒克县| 昂仁县| 汝城县| 元阳县| 雷州市| 寿阳县| 灵武市| 昭苏县| 石门县| 玉山县| 重庆市| 和田县| 包头市| 佛坪县| 红桥区| 惠水县| 西乡县| 石狮市| 宽城| 都安| 台东县| 荃湾区| 黔南| 麻栗坡县| 抚远县| 溆浦县| 兴隆县| 舟曲县|