李濛,吳呈瑜,占敖
(浙江理工大學(xué)信息科學(xué)與工程學(xué)院,浙江 杭州 310018)
自動(dòng)調(diào)制識(shí)別是目前非協(xié)作通信領(lǐng)域的關(guān)鍵技術(shù),廣泛應(yīng)用于電子對(duì)抗、國(guó)家頻譜管理中,隨著技術(shù)的發(fā)展,現(xiàn)在的調(diào)制方式、通信信道越來越復(fù)雜,對(duì)自動(dòng)調(diào)制識(shí)別的要求也越來越高,所以自動(dòng)調(diào)制識(shí)別技術(shù)仍是通信信號(hào)處理領(lǐng)域的一個(gè)研究重點(diǎn)技術(shù)。
傳統(tǒng)的AMR(Automatic Modulation Recognition,自動(dòng)調(diào)制識(shí)別)主要包括基于似然的假設(shè)檢驗(yàn)方法和基于機(jī)器學(xué)習(xí)的分類方法。基于似然的假設(shè)檢驗(yàn)方法是通過多重假設(shè)檢驗(yàn)的問題來進(jìn)行分類,通過設(shè)定門限進(jìn)行判決來實(shí)現(xiàn)調(diào)制識(shí)別[1-2],但該方法過于依賴先驗(yàn)的調(diào)制模型,并且由于復(fù)雜的似然函數(shù)導(dǎo)致計(jì)算量偏大,因此其使用受到一定的限制?;跈C(jī)器學(xué)習(xí)的分類方法是通過提取信號(hào)中的某些固定特征,再根據(jù)提取到的特征通過機(jī)器學(xué)習(xí)的分類算法進(jìn)行分類識(shí)別[3-5],通常用于識(shí)別的特征包括小波變換特征、瞬時(shí)頻率特征以及循環(huán)平穩(wěn)特征等。不同的調(diào)制方式的特征各不相同,因此通過機(jī)器學(xué)習(xí)算法可對(duì)信號(hào)不同調(diào)制方式的特征進(jìn)行分類。但是在實(shí)際信道中,由于噪聲、衰落等因素,導(dǎo)致信號(hào)的特征并不明顯,進(jìn)而使得分類的準(zhǔn)確率降低。
近年來,深度神經(jīng)網(wǎng)絡(luò)(DNN,Deep Neural Network)在許多領(lǐng)域取得了豐碩的成果,尤其是在計(jì)算機(jī)視覺和自然語言處理方面。深度學(xué)習(xí)(DL,Deep Learning)技術(shù)的網(wǎng)絡(luò)深度大大超過以往神經(jīng)網(wǎng)絡(luò)的深度,通過深度學(xué)習(xí)可以提取信號(hào)的淺層特征,并得到淺層特征的高維表征,并通過深度網(wǎng)絡(luò)的自學(xué)習(xí)構(gòu)建更好的分類判決模型,深度學(xué)習(xí)網(wǎng)絡(luò)在圖像領(lǐng)域,特別是圖像的識(shí)別領(lǐng)域有著較大的發(fā)展[6-7],同樣深度神經(jīng)網(wǎng)絡(luò)在自動(dòng)調(diào)制識(shí)別上也存在較大的應(yīng)用價(jià)值[8-9]。文獻(xiàn)[10]首次將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用與調(diào)制識(shí)別領(lǐng)域,并提出了公開調(diào)制信號(hào)數(shù)據(jù)集RadioML2016.10a。文獻(xiàn)[11]提出一種基于卷積神經(jīng)網(wǎng)絡(luò)(CNN,Convolutional Neural Networks)和長(zhǎng)短期記憶(LSTM,Long Short-Term Memory)的全連接深度神經(jīng)網(wǎng)絡(luò)(CLDNN,Convolutional Long short-term memory fully connected Deep Neural Networks)模型,實(shí)現(xiàn)了調(diào)制識(shí)別,但由于模型的深度較淺,分類效果并不理想。文獻(xiàn)[12]提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的調(diào)制識(shí)別方式,首先通過交叉殘差連接從星座圖像中學(xué)習(xí)最相關(guān)的調(diào)制信號(hào)特征,訓(xùn)練網(wǎng)絡(luò)完成后,可以通過模型對(duì)調(diào)制信號(hào)進(jìn)行識(shí)別,但分類的準(zhǔn)確率并不理想。文獻(xiàn)[13]提出了一種基于生成對(duì)抗網(wǎng)絡(luò)的通信信號(hào)調(diào)制識(shí)別方法。先利用輔助分類器生成對(duì)抗網(wǎng)絡(luò)對(duì)數(shù)據(jù)進(jìn)行擴(kuò)充,再將經(jīng)典模型AlexNet作為分類器實(shí)現(xiàn)了調(diào)制識(shí)別,但該方法稍顯繁瑣且分類準(zhǔn)確率不高。
針對(duì)以上問題,本文提出了一種自動(dòng)調(diào)制識(shí)別的特征融合(MFF,Multi-Feature Fusion)網(wǎng)絡(luò),首先提出兩種不同的神經(jīng)網(wǎng)絡(luò)對(duì)調(diào)制信號(hào)的深層特征進(jìn)行提取,通過將星座圖輸入到嵌入了注意力機(jī)制(CA,Coordinate Attention)[14]的VGG16網(wǎng)絡(luò)(CA-VGG)模塊中提取二維圖像特征,通過將I/Q和A/P數(shù)據(jù)輸入到CNN-GRU(Gate Recurrent Unit)模塊提取一維時(shí)間序列特征,然后充分利用不同特征輸入的互補(bǔ)性進(jìn)一步構(gòu)建融合模型,以達(dá)到有效提高信號(hào)分類準(zhǔn)確率的目的。最后,針對(duì)RadioML2016.10a數(shù)據(jù)集進(jìn)行了消融實(shí)驗(yàn)和對(duì)比實(shí)驗(yàn),結(jié)果表明本文提出的MFF模型能夠有效實(shí)現(xiàn)調(diào)制信號(hào)的分類任務(wù),并能有效提高調(diào)制識(shí)別的準(zhǔn)確率。
假設(shè)通過衰落信道和高斯白噪聲的不同調(diào)制信號(hào)模型為:
式中S(t)表示接收到的調(diào)制信號(hào);x(t)為發(fā)送端發(fā)送的信號(hào);h(t,τ)dτ表示萊斯和瑞利衰落通道;n(t)為加性高斯白噪聲。
首先將收到調(diào)制信號(hào)的瞬時(shí)幅度和瞬時(shí)相位值進(jìn)行提取,由于調(diào)制信號(hào)是由I/Q兩路信號(hào)構(gòu)成,可以將接收到的信號(hào)S(t)通過I通道信號(hào)SI(t)和Q通道信號(hào)SQ(t)表示為式(2),則信號(hào)的瞬時(shí)幅度A(t)和瞬時(shí)相位P(t)分別由式(3)和式(4)所得:
星座圖是一種常用于信號(hào)處理的可視化信號(hào)分析方法。通過將歸一化的I/Q數(shù)據(jù)映射到復(fù)平面上的散射點(diǎn),可以得到星座圖作為調(diào)制無線電信號(hào)的二維表示。但是復(fù)平面是無限延伸的,而圖像描述的區(qū)域是有限的,如果區(qū)域太大,星座圖上的點(diǎn)會(huì)聚集到一起導(dǎo)致互相重疊,如果區(qū)域太小,星座圖的部分信號(hào)特征會(huì)被忽略。考慮到算法的復(fù)雜度和性能,本文選擇3×3的復(fù)平面并將轉(zhuǎn)換為分辨率為224×224的星座圖如圖1所示。
圖1 11種調(diào)制方式星座圖
MFF網(wǎng)絡(luò)模型的結(jié)構(gòu)包括CA-VGG模塊和CNN-GRU兩個(gè)模塊。通過這兩種模型可以有效地提取調(diào)制信號(hào)中的重要特征。最后為了充分利用不同輸入類型數(shù)據(jù)特征的互補(bǔ)性,將兩個(gè)模塊的輸出進(jìn)行融合獲得信號(hào)調(diào)制方式的預(yù)測(cè)概率。
本文提出的MFF模型解決了缺少多維度特征輸入的問題,通過將CNN-GRU和CA-VGG兩個(gè)網(wǎng)絡(luò)模型進(jìn)行融合搭建起的MFF網(wǎng)絡(luò)模型,提高了網(wǎng)絡(luò)的泛化、感知能力,增強(qiáng)了特征提取能力。它可以將原始I/Q、A/P數(shù)據(jù)和星座圖的作為網(wǎng)絡(luò)的輸入,并將這兩種不同的輸入送到兩種模型中對(duì)進(jìn)行特征提取。首先通過CA-VGG網(wǎng)絡(luò)提取星座圖的深層特征數(shù)據(jù),再通過CA-VGG網(wǎng)絡(luò)提取I/Q、A/P數(shù)據(jù)的細(xì)節(jié)特征數(shù)據(jù),保證了對(duì)不同輸入數(shù)據(jù)的特征進(jìn)行高效提取,同時(shí)也兼顧全局及局部信息的作用,可以更有效地提取調(diào)制信號(hào)的特征數(shù)據(jù),MFF網(wǎng)絡(luò)的具體網(wǎng)絡(luò)框架如圖2所示:
圖2 MFF網(wǎng)絡(luò)結(jié)構(gòu)
VGG16因其具有較好的深度及寬度,在分類的應(yīng)用中具有一定的優(yōu)勢(shì)。VGG16網(wǎng)絡(luò)的深度為16層,這種較深的網(wǎng)絡(luò)通過逐層的抽象,能夠不斷學(xué)習(xí)由低到高各層的特征,在VGG16的基礎(chǔ)上引入CA注意力單元具體的網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,可以充分提取信號(hào)的深層特征,從而提高調(diào)制識(shí)別的準(zhǔn)確率。
圖3 CA-VGG網(wǎng)絡(luò)結(jié)構(gòu)
將I/Q數(shù)據(jù)轉(zhuǎn)換為224×224的星座圖像作為CA-VGG模塊的輸入,并對(duì)VGG16網(wǎng)絡(luò)做了如下改進(jìn):首先在每個(gè)卷積層中均加入CA注意力單元來學(xué)習(xí)各通道的重要程度,通過注意力機(jī)制來進(jìn)一步提高對(duì)調(diào)制識(shí)別有用的特征,同時(shí)抑制對(duì)調(diào)制識(shí)別無用的特征。為避免在訓(xùn)練中梯度爆炸及梯度消失的情況,本文在每個(gè)CA注意力單位后通過批標(biāo)準(zhǔn)層(BN,Batch Normalization)用于加快網(wǎng)絡(luò)的訓(xùn)練和收斂的速度。激活函數(shù)選用Selu來增強(qiáng)網(wǎng)絡(luò)的非線性、防止梯度消失、減少過擬合并提高網(wǎng)絡(luò)訓(xùn)練的速度??紤]到全連接層會(huì)產(chǎn)生大量的參數(shù),且對(duì)于分類沒有明顯幫助,去掉一層全連接層(FC,Fully Connected)來減少訓(xùn)練參數(shù),進(jìn)而提高了訓(xùn)練效率。本文增加了輸入特征的維度,為防止過擬合,在FC層后面加入dropout,最后通過Softmax層進(jìn)行最終的分類,由于本文采用的RadioML2016.10a數(shù)據(jù)集有11種調(diào)制信號(hào),因此最終的輸出是對(duì)應(yīng)于11類調(diào)制信號(hào)的概率。
(1)坐標(biāo)注意力機(jī)制
坐標(biāo)注意力模塊的本質(zhì)是采用通道注意力機(jī)制,通過深度學(xué)習(xí)的方式自動(dòng)獲取圖像各個(gè)特征通道的權(quán)重,來進(jìn)一步增強(qiáng)特征中有用的部分并抑制特征中無用部分。坐標(biāo)注意力機(jī)制靈活且輕量并有很強(qiáng)的通用性,可以方便地嵌入到其他常見的網(wǎng)絡(luò)模型中。
坐標(biāo)注意力作為一種高效的注意力機(jī)制,不僅可以對(duì)通道間的信息進(jìn)行了獲取,同時(shí)也考慮了方向相關(guān)的位置信息。具體的實(shí)現(xiàn)步驟如下:
第一步將坐標(biāo)信息嵌入到通道注意力中,對(duì)于一個(gè)維度為(C,H,W)的輸入,其中的C、H、W分別為輸入特征圖的通道數(shù)、高度和寬度,首先通過式(5)將輸入特征的一個(gè)通道分別沿著X和Y兩個(gè)方向進(jìn)行特征聚合,高效地將空間坐標(biāo)信息整合到注意力圖中。
高度為h的第c個(gè)通道的輸出如公式(6)所示:
同樣地,寬度為w的第c個(gè)通道的輸出如公式(7)所示:
第二步坐標(biāo)注意力的生成通過拼接兩個(gè)方向的坐標(biāo)信息,然后通過式(8)對(duì)拼接后的信息依次進(jìn)行卷積、正則化和非線性激活等操作。
其中,δ為非線性激活函數(shù),F(xiàn)1是卷積變換函數(shù)。再將得到的f沿水平方向和垂直方向分解為fh、fw,并對(duì)兩個(gè)張量分別進(jìn)行卷積變換和非線性激活,如式(9)和式(10)所示:
其中,F(xiàn)h和Fw分別為對(duì)fh和fw的卷積變換函數(shù),σ是Sigmoid激活函數(shù)。最后通過矩陣相乘的方法來求最終的注意力權(quán)重矩陣,經(jīng)過yc(i,j)坐標(biāo)注意力模塊的輸出如式(11)所示:
坐標(biāo)注意力模塊結(jié)構(gòu)如圖4所示:
圖4 坐標(biāo)注意力機(jī)制機(jī)制
CNN作為近年來最常用的人工神經(jīng)網(wǎng)絡(luò),由于其良好的特征提取特性,開始應(yīng)用于通信信號(hào)調(diào)制識(shí)別領(lǐng)域。2014年文獻(xiàn)[13]提出了一種全新的門控循環(huán)單元GRU,GRU網(wǎng)絡(luò)是LSTM網(wǎng)絡(luò)的一種變體,成功應(yīng)用在語音識(shí)別、自然語言處理等領(lǐng)域中。Chung等[14]對(duì)GRU和LSTM做了詳細(xì)比較,GRU網(wǎng)絡(luò)的作用與LSTM網(wǎng)絡(luò)的效果相似,都可以解決循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN,Recurrent Neural Network)中存在的梯度消失或梯度爆炸問題,但與LSTM相比GRU的網(wǎng)絡(luò)結(jié)構(gòu)更簡(jiǎn)單,有著更高的計(jì)算效率和處理速度。
一個(gè)調(diào)制信號(hào)的時(shí)間序列具有時(shí)序依賴關(guān)系,GRU能夠?qū)W習(xí)到這種依賴關(guān)系。通過建立多個(gè)GRU單元,使GRU網(wǎng)絡(luò)能夠?qū)W習(xí)到不同調(diào)制信號(hào)的變化趨勢(shì)。因此,本文將CNN神經(jīng)網(wǎng)絡(luò)與GRU神經(jīng)網(wǎng)絡(luò)相結(jié)合,建立的CNN-GRU網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示:
圖5 CNN-GRU網(wǎng)絡(luò)結(jié)構(gòu)
首先原始I/Q數(shù)據(jù)通過式(12)進(jìn)行歸一化操作,得到的矩陣中每個(gè)點(diǎn)的值都在0和1之間。然后,將I/Q數(shù)據(jù)轉(zhuǎn)換得到的A/P數(shù)據(jù)通過式(13)也進(jìn)行歸一化為操作,將得到弧度的相位歸一化到-1和+1之間,并將I/Q和A/P數(shù)據(jù)一并作為輸入送到CNN-GRU模塊中。
式中SI(t),SQ(t)分別為I/Q通道信號(hào),A(t)為瞬時(shí)幅度。
網(wǎng)絡(luò)結(jié)構(gòu)部分由2個(gè)一維卷積層、2個(gè)最大池化層和2個(gè)GRU層級(jí)聯(lián)構(gòu)成。首先通過卷積神經(jīng)網(wǎng)絡(luò)對(duì)信號(hào)的I/Q和A/P數(shù)據(jù)進(jìn)行卷積處理來初步提取特征,再進(jìn)行最大池化操作,以減少特征圖的尺寸。之后通過改變卷積核大小,再對(duì)信號(hào)進(jìn)行一次卷積和最大池化操作來完成對(duì)輸入數(shù)據(jù)的深層特征的提取,然后將特征輸入到兩層GRU網(wǎng)絡(luò)層中對(duì)時(shí)間序列具有的時(shí)序的依賴關(guān)系進(jìn)行提取,再把特征輸入到全連接層中并采用Softmax激活函數(shù)進(jìn)行歸一化操作,最后輸出11類調(diào)制信號(hào)的概率。
為了取得更好的分類效果,將多種模型合并形成集合,并研究融合模型對(duì)分類的影響。將每個(gè)模型得到的結(jié)果通過平均最終的分類概率來累積。這一階段的廣義詳細(xì)工作如下:設(shè)有n個(gè)模型{P1,P2,P3,...,Pn},每個(gè)模型對(duì)m個(gè)信號(hào)中的每個(gè)信號(hào)識(shí)別的最終概率如式(14)所示:
式中,cnm表示模型n中第m個(gè)信號(hào)的識(shí)別概率。融合模型的最終識(shí)別率Pfinal可由式(15)描述:
其中pn為模型n的權(quán)重,且p1+p2+,...,+pn=1。
本文的MFF網(wǎng)絡(luò)模型是基于CA-VGG模塊和CNNGRU模塊的融合模型。首先通過CA-VGG模型對(duì)星座圖數(shù)據(jù)進(jìn)行訓(xùn)練并預(yù)測(cè),在訓(xùn)練過程中通過優(yōu)化其學(xué)習(xí)率、激活函數(shù)等參數(shù)使得模型效果達(dá)到最優(yōu);然后構(gòu)建CNN-GRU模型,通過調(diào)整卷積核、步長(zhǎng)等參數(shù)優(yōu)化模型效果;再進(jìn)行模型融合。通過不同模型對(duì)星座圖數(shù)據(jù)和A/P、I/Q數(shù)據(jù)進(jìn)行訓(xùn)練,充分利用了不同類型數(shù)據(jù)的互補(bǔ)性,最后將兩個(gè)模型信號(hào)調(diào)制識(shí)別的概率值進(jìn)行加權(quán)求和獲得融合模型的預(yù)測(cè)概率。
式中,pm為融合模型的預(yù)測(cè)概率,pc和pv表示分別使用CNN-GRU和CA-VGG的預(yù)測(cè)概率。
為了驗(yàn)證本文算法的性能,這里選用RadioML2016.10a[8]數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),該數(shù)據(jù)集中共有220 000個(gè)信號(hào)樣本,一共包括以下11種常見的調(diào)制信號(hào)(AM-DSB、AMSSB、WBFM、8PSK、CPFSK、GFSK、PAM4、QAM16、QAM64、QPSK)。其中的每個(gè)信號(hào)樣本由128×2的IQ兩路信號(hào)構(gòu)成,信噪比從-20 dB到18 dB以每2 dB遞進(jìn),數(shù)據(jù)集的數(shù)據(jù)形式為220 000×2×128。最后把訓(xùn)練集、測(cè)試集和驗(yàn)證集按照6:2:2的比例進(jìn)行訓(xùn)練、測(cè)試和驗(yàn)證。
實(shí)驗(yàn)使用了Python3.7 作為編程語言,以及Tensorflow2.2的Keras庫來搭建神經(jīng)網(wǎng)絡(luò)訓(xùn)練,使用NVIDIA GeForce GTX 3060設(shè)備進(jìn)行訓(xùn)練和測(cè)試。本文具體的軟件及參數(shù)設(shè)置如表1所示:
表1 實(shí)驗(yàn)參數(shù)詳細(xì)信息
為驗(yàn)證MFF網(wǎng)絡(luò)中各模塊對(duì)網(wǎng)絡(luò)模型的影響,本節(jié)在RadioML2016.10a數(shù)據(jù)集上,使用4種模型進(jìn)行消融實(shí)驗(yàn)。這里選用分類準(zhǔn)確率作為評(píng)價(jià)指標(biāo),結(jié)果如表2所示。圖6展示了不同信噪比下各網(wǎng)絡(luò)模型識(shí)別準(zhǔn)確率。首先使用CNN-GRU+VGG網(wǎng)絡(luò)模型做基礎(chǔ)網(wǎng)絡(luò)架構(gòu)并采用I/Q數(shù)據(jù)和星座圖作為輸入,識(shí)別率為60.9%。保持輸入一致的情況下,在VGG的基礎(chǔ)上加入CA注意力機(jī)制模塊,得到的CNN-GRU+CA-VGG模型準(zhǔn)確率較CNNGRU+VGG模型提升1.2%。保持CNN-GRU+VGG的網(wǎng)絡(luò)架構(gòu)不變并增加A/P數(shù)據(jù)作為CNN-GRU-1的輸入,識(shí)別準(zhǔn)確率較CNN-GRU+VGG模型提升0.9%。最后使用CNN-GRU-1+CA-VGG的網(wǎng)絡(luò)結(jié)構(gòu),并將A/P、I/Q與星座圖數(shù)據(jù)作為輸入數(shù)據(jù),使得本文的MFF模型識(shí)別準(zhǔn)確率達(dá)到63.2%。
表2 消融實(shí)驗(yàn)的識(shí)別準(zhǔn)確率
圖6 消融實(shí)驗(yàn)識(shí)別準(zhǔn)確率曲線
從上面四種模型的仿真結(jié)果可以看出,在VGG16的網(wǎng)絡(luò)結(jié)構(gòu)中加入CA注意力機(jī)制對(duì)分類準(zhǔn)確率的提升最為顯著,達(dá)到1.2%,這是因?yàn)镃A注意力機(jī)制的引入使得模型在更低的計(jì)算復(fù)雜度下收斂更快,通過在CNN-GRU模型中加入A/P數(shù)據(jù)的輸入來增加輸入數(shù)據(jù)特征帶來了0.9%的分類準(zhǔn)確率提升,最后本文的MFF模型識(shí)別準(zhǔn)確率較CNN-GRU+VGG模型提升2.3%。
為進(jìn)一步驗(yàn)證本文提出的MFF模型的性能,選取了文獻(xiàn)[17]的CLDNN、文獻(xiàn)[18]的ResNet和DenseNet、文獻(xiàn)[19]的PET-CGDNN、文獻(xiàn)[20]的MCLDNN和本文的MFF模型進(jìn)行對(duì)比實(shí)驗(yàn)。
表3和圖7展示了六種模型在RadioML2016.10a上的實(shí)驗(yàn)結(jié)果和識(shí)別曲線。在RadioML2016.10a數(shù)據(jù)集上,CLDNN、ResNet和DenseNet模型識(shí)別率較低,識(shí)別率比其他模型低5%以上,僅為55.8%、55.3%和55.5%;PETCGDNN模型識(shí)別率為60.4%,效果較好;MCLDNN模型識(shí)別準(zhǔn)確率61.3%,比PET-CGDNN模型高0.9%;本文的MFF模型識(shí)別準(zhǔn)確率為63.2%,優(yōu)于參考文獻(xiàn)[15-18]提出的模型。
表3 對(duì)比模型實(shí)驗(yàn)結(jié)果
圖7 對(duì)比模型識(shí)別準(zhǔn)確率曲線
圖7所示為六種模型在不同信噪比情況下的調(diào)制識(shí)別準(zhǔn)確率。其中CLDNN[14]模型的網(wǎng)絡(luò)結(jié)構(gòu)過于簡(jiǎn)單,只通過一層CNN+LSTM對(duì)信號(hào)進(jìn)行特征提取,算法復(fù)雜度較低,不能很好地學(xué)習(xí)數(shù)據(jù)的一般特征。ResNet和DenseNet[15]模型都有著大量的內(nèi)部參數(shù),但缺失了細(xì)節(jié)的特征,同時(shí)輸入的數(shù)據(jù)量不大,導(dǎo)致分類效果較差。PET-CGDNN[16]模型算法復(fù)雜度較低,但損失了一部分精度。MCLDNN[17]模型采用多路通道對(duì)特征進(jìn)行提取,通過增加輸入數(shù)據(jù)種類和網(wǎng)絡(luò)模型數(shù)量取得較好的分類性能,但同時(shí)也成倍地增加了整個(gè)模型的計(jì)算復(fù)雜度。本文提出的MFF網(wǎng)絡(luò)模型的網(wǎng)絡(luò)更深,可以提取更高層次的特征,并且CNN-GRU模塊和CA-VGG模塊的判別能力是互補(bǔ)的,因此能夠高效地識(shí)別信號(hào)的調(diào)制方式。
這里選取了學(xué)習(xí)參數(shù)、訓(xùn)練時(shí)間、訓(xùn)練周期、最小驗(yàn)證損失等5個(gè)關(guān)鍵指標(biāo)來衡量6個(gè)模型的復(fù)雜度,并對(duì)訓(xùn)練過程進(jìn)行評(píng)價(jià)如表4所示。模型的復(fù)雜性主要由學(xué)習(xí)參數(shù)反映、訓(xùn)練速度由訓(xùn)練時(shí)間和訓(xùn)練周期表示,而驗(yàn)證損耗最小則表現(xiàn)出收斂趨勢(shì)。
表4 復(fù)雜度分析
從表4 可以看出,MFF的復(fù)雜度優(yōu)于ResNet和DenseNet,但比其他模型的復(fù)雜度更高,這是由于本文的MFF模型通過多模型進(jìn)行融合,導(dǎo)致學(xué)習(xí)參數(shù)較多,但MFF模型在數(shù)據(jù)集上的驗(yàn)證損失最小,進(jìn)而提高了識(shí)別精度。對(duì)比表4中不同網(wǎng)絡(luò)模型的訓(xùn)練時(shí)間和訓(xùn)練周期不難看出,本文提出的MFF網(wǎng)絡(luò)的運(yùn)行速度優(yōu)于ResNet、DenseNet和MCLDNN。CLDNN和PET-CGDNN網(wǎng)絡(luò)算法運(yùn)行速度較快,但識(shí)別準(zhǔn)確率低于本文模型。實(shí)驗(yàn)表明,MFF在識(shí)別精度方面優(yōu)于其他網(wǎng)絡(luò)模型,但是在訓(xùn)練時(shí)間和學(xué)習(xí)參數(shù)上仍有待提高。
MFF模型對(duì)RadioML2016.10a中各類信號(hào)識(shí)別準(zhǔn)確率如圖8所示。由圖8(a)可以看出MFF模型對(duì)CPFSK的識(shí)別率最好;其中AM-SSB、BPSK、CPFSK、GFSK、PAM4、QAM16、QPSK調(diào)制信號(hào)在0 dB以上的信噪比環(huán)境下都有90%以上的識(shí)別率;AM-DSB、QAM64調(diào)制信號(hào)在0 dB以上的信噪比環(huán)境下都有80%左右的識(shí)別率;集成模型對(duì)WBFM信號(hào)的識(shí)別率最差,在0 dB以上的信噪比環(huán)境下僅有55%以上的識(shí)別率。可以看出[WBFM,AMDSB]兩組調(diào)制信號(hào)容易分類誤判,使得最終這2種調(diào)制信號(hào)識(shí)別率下降。
當(dāng)信噪比升高到6dB時(shí),由圖8(b)可以看出[WBFM,AM-DSB]2種調(diào)制方式仍然存在著分類誤判;AM-DSB調(diào)制方式的識(shí)別率達(dá)到了91%能夠有效被識(shí)別,但是WBFM調(diào)制方式仍然容易被誤判為AM-DSB調(diào)制方式。從整體上看集成模型對(duì)11種調(diào)制方式分類識(shí)別有較好的效果。
圖8 MFF混淆矩陣
為進(jìn)行模型效果對(duì)比,選取效果較好的MCLDNN模型對(duì)RadioML2016.10a中各類信號(hào)進(jìn)行識(shí)別,準(zhǔn)確率如圖9所示。從圖8和圖9中可以看出兩個(gè)模型無論信噪比是0 dB還是6 dB都對(duì)WBFM調(diào)制方式不能進(jìn)行有效的識(shí)別,其中的MFF網(wǎng)絡(luò)模型通過兩種不同的神經(jīng)網(wǎng)絡(luò)對(duì)信號(hào)特征提取并融合的方式,提升了對(duì)WBFM調(diào)制方式的識(shí)別率。但WBFM和AM-DSB這兩種調(diào)制方式仍存在一定程度混淆,這也是以后需要改進(jìn)的方向。
圖9 MCLDNN混淆矩陣
本文提出一種MFF網(wǎng)絡(luò)模型,通過CNN-GRU模塊和CA-VGG兩模塊分別提取調(diào)制信號(hào)的一維時(shí)間特征和二維圖像特征,進(jìn)一步構(gòu)建融合模型以有效提高調(diào)制識(shí)別性能。MFF模型較好地結(jié)合了CNN-GRU和CA-VGG網(wǎng)絡(luò)的優(yōu)點(diǎn),其中CNNs用于提取多種輸入特征的變化,GRU層用于處理時(shí)間序列模型,CA注意力機(jī)制用于提高對(duì)信號(hào)特征處理的效率與準(zhǔn)確性。通過信號(hào)的多個(gè)特征輸入,豐富了每一種調(diào)制方式的數(shù)據(jù)表示形式,實(shí)現(xiàn)了不同類型數(shù)據(jù)特征之間的互補(bǔ),能夠較好地解決信號(hào)調(diào)制識(shí)別問題。同時(shí)多特征提取的思想能夠更好地提取并融合信號(hào)的內(nèi)在特征,進(jìn)而提高調(diào)制信號(hào)的識(shí)別準(zhǔn)確率。實(shí)驗(yàn)結(jié)果表明,本文提出的MFF模型在一定程度上結(jié)合了不同維度的數(shù)據(jù)特征,性能上較其他基于深度學(xué)習(xí)的模型有進(jìn)一步提高,能夠有效提高調(diào)制識(shí)別準(zhǔn)確率??紤]到還可以將信號(hào)眼圖、信號(hào)頻率圖等數(shù)據(jù)作為輸入,在未來的工作中,本文的模型可以進(jìn)一步拓展來增加更多的輸入特征,進(jìn)而提高識(shí)別準(zhǔn)確率。