• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于堆疊雙向LSTM的雷達(dá)目標(biāo)識別方法

      2021-12-22 13:18:38曹展家師本慧
      計(jì)算機(jī)測量與控制 2021年12期
      關(guān)鍵詞:雷達(dá)卷積神經(jīng)網(wǎng)絡(luò)

      曹展家,師本慧

      (中國電子科技集團(tuán)公司 第五十四研究所,石家莊 050081)

      0 引言

      雷達(dá)作為一種預(yù)警探測手段,利用電磁波來獲取目標(biāo)的距離、方位、速度等信息,在戰(zhàn)場偵察、航空管制、敵我目標(biāo)識別等方面發(fā)揮著不可替代的作用[1-2]?,F(xiàn)階段主流的雷達(dá)目標(biāo)檢測技術(shù)多采用能量檢測的方式,即統(tǒng)計(jì)雜波和回波噪聲的能量來確定出一個門限值從而檢測出雷達(dá)回波中的目標(biāo)[3-6]。但在城市等復(fù)雜環(huán)境下,以無人機(jī)為例,這種低可觀測性目標(biāo)的回波通常會淹沒在強(qiáng)噪聲背景中,由于目標(biāo)回波信噪比較低,即便采用恒虛警檢測(CFAR, constant false alarm rate)技術(shù)依然會有較強(qiáng)的噪聲干擾,從而影響對目標(biāo)的檢測率[7-8]。支持向量機(jī)[9](SVM, support vector machine)是一種經(jīng)典的機(jī)器學(xué)習(xí)算法,近年來也被應(yīng)用到雷達(dá)目標(biāo)識別中,可以實(shí)現(xiàn)高緯度特征空間的分類,難點(diǎn)在于人工提取特征的復(fù)雜度以及對特征的選擇難度。

      深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個分支領(lǐng)域,以神經(jīng)網(wǎng)絡(luò)為主要模型,通過構(gòu)建一系列連續(xù)的表示層從訓(xùn)練數(shù)據(jù)中自動學(xué)習(xí)到特征表示,實(shí)現(xiàn)從輸入到目標(biāo)的映射[10-11]。鑒于目前深度學(xué)習(xí)在計(jì)算機(jī)視覺、機(jī)器翻譯等方向獲得了突出的成就,研究人員們也開始在雷達(dá)目標(biāo)檢測識別中嘗試引入深度學(xué)習(xí)[12-15]。文獻(xiàn)[12]利用卷積神經(jīng)網(wǎng)絡(luò)(CNN,convolutional neural network)設(shè)計(jì)了一種CNN檢測器,以距離-多普勒圖像切片作為網(wǎng)絡(luò)的輸入,確定頻譜中是否包含目標(biāo)回波或僅噪聲,可以替代CFAR檢測器。文獻(xiàn)[13]采用一種多尺度卷積模塊增加了卷積神經(jīng)網(wǎng)絡(luò)的深度,在SAR圖像集上實(shí)現(xiàn)了高準(zhǔn)確度的目標(biāo)分類。文獻(xiàn)[14]采用通過添加噪聲等方式增強(qiáng)數(shù)據(jù)集后的樣本來訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò),增強(qiáng)了網(wǎng)絡(luò)模型的抗干擾性。文獻(xiàn)[15]采用卷積神經(jīng)網(wǎng)絡(luò)對雷達(dá)一維序列信號進(jìn)行處理說明CNN-LeNet網(wǎng)絡(luò)對雷達(dá)雜波和噪聲的一維序列數(shù)據(jù)進(jìn)行分類的可行性。

      上述的方法中所使用的卷積神經(jīng)網(wǎng)絡(luò)提取到的數(shù)據(jù)的特征表示具有平移不變性,可以提取出不同位置的目標(biāo)的特征,但是卷積神經(jīng)網(wǎng)絡(luò)對時間步的順序不敏感,忽略了數(shù)據(jù)之間的相關(guān)性,網(wǎng)絡(luò)模型的輸出僅與該時刻模型的輸入有關(guān)[16]。考慮到雷達(dá)的回波數(shù)據(jù)是時間序列,具有時序相關(guān)性,為了處理時序數(shù)據(jù),建立長時間的時序依賴關(guān)系,本文提出一種基于堆疊雙向LSTM模型來進(jìn)行雷達(dá)目標(biāo)識別。

      1 LSTM模型

      1.1 循環(huán)神經(jīng)網(wǎng)絡(luò)

      在深層前饋神經(jīng)網(wǎng)絡(luò)中,比如常見的卷積神經(jīng)網(wǎng)絡(luò),只在相鄰的層與層之間建立了連接,每一層神經(jīng)元節(jié)點(diǎn)的輸入只和上一層與該節(jié)點(diǎn)局部連接的神經(jīng)元的輸出有關(guān),信息的傳遞只能是單向無循環(huán)的。卷積神經(jīng)網(wǎng)絡(luò)只能孤立的處理當(dāng)前的數(shù)據(jù),無法將上一時刻輸入數(shù)據(jù)的信息傳遞給下一時刻,整個網(wǎng)絡(luò)無反饋信息。另外,卷積神經(jīng)網(wǎng)絡(luò)只能處理固定長度的數(shù)據(jù),即輸入和輸出的維度都是固定長度。

      對于一些場景下的任務(wù),比如給出一段文字描述,讓神經(jīng)網(wǎng)絡(luò)對這段話去做定性的情感分類。因?yàn)橐欢挝淖质切蛄谢臄?shù)據(jù),從人類的角度分析,一段文字是從前往后的逐詞閱讀,并能記憶之前的詞的信息,這樣可以動態(tài)的理解上下文的含義。針對這樣的任務(wù),建立的模型需要能夠接收過去的輸入信息,使得網(wǎng)絡(luò)下一個時刻的輸出可以基于當(dāng)前輸入和上一時刻的輸入做計(jì)算??梢钥闯?,卷積神經(jīng)網(wǎng)絡(luò)很難應(yīng)對序列化的數(shù)據(jù),無法提取到輸入數(shù)據(jù)之間的時序關(guān)聯(lián)信息[17-18]。

      循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是一類具有保存過去的信息的能力的網(wǎng)絡(luò)模型,可以處理序列數(shù)據(jù)[19]。RNN的隱藏層的狀態(tài)ht增加了一個自反饋回路,其輸出由當(dāng)前的輸入和上一時刻的隱藏層狀態(tài)ht-1計(jì)算得出。RNN的基本結(jié)構(gòu)如圖1所示。

      圖1 RNN單元結(jié)構(gòu)圖

      RNN在t時刻的隱藏層狀態(tài)ht的計(jì)算公式為:

      ht= tanh(b+Wht-1+Uxt)

      (1)

      其中:U為輸入層到隱藏層的權(quán)重矩陣,W為上一時刻隱藏層的狀態(tài)ht-1作為本次輸入的權(quán)重矩陣,b為偏置向量,x為輸入。Tanh為非線性激活函數(shù),其定義為:

      (2)

      由式(1)可以看出,隱藏層的狀態(tài)ht不僅與包含了輸入x的信息,還包含了前一時刻的ht-1的信息,而ht-1又和ht-2有關(guān),以此遞推,每個時刻的隱藏層狀態(tài)ht代表了輸入序列中0~t時間步的輸入信息。這是循環(huán)神經(jīng)網(wǎng)絡(luò)與靜態(tài)的卷積神經(jīng)網(wǎng)絡(luò)的主要不同,通過具有循環(huán)連接的自反饋回路,使得循環(huán)神經(jīng)網(wǎng)絡(luò)能夠利用其過去輸入的信息來處理時間序列的數(shù)據(jù),相比于卷積神經(jīng)網(wǎng)絡(luò)表示能力更強(qiáng)。

      循環(huán)神經(jīng)網(wǎng)絡(luò)的參數(shù)迭代更新由隨時間反向傳播的鏈?zhǔn)椒▌t來計(jì)算梯度,即通過偏導(dǎo)數(shù)遞歸自上而下的計(jì)算每層的誤差。給定一個數(shù)據(jù)集(x,y),其中x=(x1,…,xN)為輸入數(shù)據(jù),長度為N,如文本序列。y=(y1,…,yN)為期望輸出的真實(shí)標(biāo)簽,長度為N。在時間步t,定義神經(jīng)網(wǎng)絡(luò)的損失函數(shù)為:

      Lt=L(yt,f(ht))

      (3)

      其中:f(ht)為t時刻網(wǎng)絡(luò)的輸出,f(·)為Sigmoid型非線性函數(shù)[20]。損失函數(shù)L是可微的。則遍歷整個序列數(shù)據(jù)的損失函數(shù)之和對參數(shù)W的梯度為:

      (4)

      因?yàn)橐话悴捎肧igmoid型非線性函數(shù)作為網(wǎng)絡(luò)模型的激活函數(shù)來增強(qiáng)循環(huán)神經(jīng)網(wǎng)絡(luò)的表示能力,其導(dǎo)數(shù)值都小于1,因此如果輸入序列比較長,長距離間隔的隱藏層狀態(tài)hk的梯度會趨向于0,也稱為長程依賴問題,參數(shù)更新實(shí)際上只依賴相鄰的幾個隱藏層狀態(tài)hk,難以學(xué)習(xí)到長時間間隔狀態(tài)的信息。

      1.2 長短期記憶網(wǎng)絡(luò)

      長短期記憶網(wǎng)絡(luò)是循環(huán)神經(jīng)網(wǎng)絡(luò)的一種改進(jìn)模型,引入了門控機(jī)制,避免了當(dāng)輸入序列較長時,網(wǎng)絡(luò)模型存在的梯度消失問題[21-22]。LSTM結(jié)構(gòu)單元如圖2所示,這些內(nèi)部的門控單元是LSTM的重要組成部分。

      圖2 LSTM單元結(jié)構(gòu)圖

      LSTM增加了一種新的內(nèi)部狀態(tài)st,攜帶著之前時間步的歷史信息,可以跨越多個時間步將信息傳送到后面的時刻,同時非線性的更新外部的隱藏層狀態(tài)ht。

      (5)

      式中,xt為輸入值,ht為隱藏層的值,bf、Uf和Wf分別為偏置向量、輸入權(quán)值矩陣和遺忘門循環(huán)權(quán)值矩陣。

      (6)

      (7)

      (8)

      (9)

      其中:bo、Uo和Wo分別為偏置向量、輸入權(quán)值矩陣和輸出門循環(huán)權(quán)值矩陣。

      遺忘門決定內(nèi)部狀態(tài)將前一時刻的不相關(guān)信息丟棄,輸入門決定當(dāng)前時刻保存多少新輸入的信息,輸出門決定內(nèi)部狀態(tài)有多少信息傳遞給隱藏層狀態(tài)。正因?yàn)殚T控機(jī)制的存在,LSTM能夠?qū)W習(xí)到跨越多個時間步的信息。

      1.3 堆疊雙向LSTM

      單層的神經(jīng)網(wǎng)絡(luò)提取數(shù)據(jù)特征的能力弱,表示能力不足。深度學(xué)習(xí)是指從連續(xù)的表示層中學(xué)習(xí)輸入數(shù)據(jù)的高級特征表示,讓輸出數(shù)據(jù)更加接近預(yù)期的結(jié)果。本文設(shè)計(jì)了堆疊LSTM,前一層網(wǎng)絡(luò)的輸出作為本層網(wǎng)絡(luò)的輸入數(shù)據(jù),增加了LSTM網(wǎng)絡(luò)的深度,從而增強(qiáng)了神經(jīng)網(wǎng)絡(luò)模型的特征表示能力,使網(wǎng)絡(luò)的預(yù)測更為準(zhǔn)確。

      循環(huán)神經(jīng)網(wǎng)絡(luò)按順序處理輸入數(shù)據(jù)的時間序列,單向的LSTM只輸入了數(shù)據(jù)的正序,輸出只取決于之前時刻的時序信息。然而,在某些場景下,當(dāng)前時刻的輸出不僅取決于之前時刻的信息,還和后續(xù)時刻的信息有關(guān),比如一個詞匯的意思需要根據(jù)其上下文的信息來判斷。雙向的LSTM包含兩個LSTM網(wǎng)絡(luò)層,分別按照時間順序和逆序提取數(shù)據(jù)特征,然后將兩個LSTM網(wǎng)絡(luò)層的輸出拼接起來,雙向的LSTM能夠提取到被單向LSTM忽略的特征??紤]到雷達(dá)回波的相鄰數(shù)據(jù)具有一定的相關(guān)性,目標(biāo)回波的特征包含了前后數(shù)據(jù)的信息,本文采用雙向LSTM對數(shù)據(jù)進(jìn)行建模,增強(qiáng)網(wǎng)絡(luò)的能力,得到更加豐富的特征表示。

      現(xiàn)有的深度學(xué)習(xí)框架可以搭建任意的神經(jīng)網(wǎng)絡(luò)模型,將上述的兩種LSTM網(wǎng)絡(luò)模型相結(jié)合,在第一層雙向LSTM上堆疊搭建第二層雙向LSTM,得到本文的堆疊雙向LSTM網(wǎng)絡(luò)模型,綜合提高網(wǎng)絡(luò)的表示能力。

      1.4 序列到類別的學(xué)習(xí)模式

      有一個長度為N的數(shù)據(jù)集x=(x1,…,xN)。將輸入數(shù)據(jù)x按照時間順序輸入到LSTM網(wǎng)絡(luò)中,可以得到N個時刻的隱藏層輸出ht。對于多層堆疊的LSTM,要求中間層返回每個時間步的輸出傳遞給下一層計(jì)算,最后一層LSTM只取最后一個時間步的輸出hN作為最終整個序列的特征表示,因?yàn)閔t包含之前所有時間步的信息。最后將hN輸入給分類模型f(·)預(yù)測樣本類別。

      (10)

      其中:f(·)在二分類問題常用Logistic回歸。

      本文的網(wǎng)絡(luò)模型輸入的數(shù)據(jù)為雷達(dá)目標(biāo)回波序列,輸出為無人機(jī)和噪聲的二分類,即設(shè)計(jì)的LSTM的輸入輸出結(jié)構(gòu)為N→1。

      2 模型與方法

      2.1 模型結(jié)構(gòu)

      本文搭建的模型為堆疊雙向LSTM網(wǎng)絡(luò)。模型結(jié)構(gòu)如圖3所示。網(wǎng)絡(luò)使用Python編程,在TensorFlow框架下搭建模型。

      圖3 模型結(jié)構(gòu)

      在TensorFlow中使用Bidirectional層將一個雙向LSTM實(shí)例化,創(chuàng)建了兩個LSTM層實(shí)例,然后使用其中一個LSTM層按正向序列處理輸入數(shù)據(jù),另一個LSTM層按逆向序列處理輸入數(shù)據(jù)。

      網(wǎng)絡(luò)共三層,包含兩層LSTM層和一層Dense層,第一層的LSTM分為前向LSTM和后向LSTM,每個LSTM隱藏單元的個數(shù)為32,將輸入的二維數(shù)據(jù)映射到32維的表示空間中,使神經(jīng)網(wǎng)絡(luò)能夠提取到更為深層的特征,然后將每個時間步的前向和后向LSTM隱藏層輸出拼接起來,得到長度為64的特征序列輸入下一個LSTM層。第二層的LSTM隱藏單元的個數(shù)為16,接收前一個LSTM層每個時間步的輸出,最后一層的Dense層只接收前一個LSTM層最后一個時間步的輸出,即接收到的序列長度為32。Dense層,即全連接層,對應(yīng)的運(yùn)算為:

      (11)

      其中:wT為N維的權(quán)重向量,x為神經(jīng)元的輸入序列,b是偏置向量。

      Dense層的激活函數(shù)選取非線性函數(shù)Logistic,最終得到一個[0,1]之間的概率輸出。函數(shù)定義為:

      (12)

      目標(biāo)分類的判斷原則為:如果輸出概率小于0.5,則認(rèn)為當(dāng)前樣本為無人機(jī);如果輸出概率大于0.5,則認(rèn)為當(dāng)前樣本為噪聲。

      2.2 損失函數(shù)與優(yōu)化器

      損失函數(shù)是度量網(wǎng)絡(luò)模型輸出的預(yù)測結(jié)果與樣本類別標(biāo)簽的誤差的一種映射,損失函數(shù)的值越小,說明網(wǎng)絡(luò)模型對數(shù)據(jù)擬合度越好。訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中通過優(yōu)化網(wǎng)絡(luò)參數(shù)使損失函數(shù)盡可能最小化。對于本文中的二分類問題,選用交叉熵?fù)p失函數(shù):

      L=-[yilogfi(x)+(1-yi)log(1-fi(x))]

      (13)

      其中:yi表示樣本的標(biāo)簽,無人機(jī)的樣本標(biāo)簽為“0”,接收機(jī)噪聲的樣本標(biāo)簽為“1”。fi(x)表示模型對樣本的預(yù)測值。

      優(yōu)化器是根據(jù)損失函數(shù)的值對網(wǎng)絡(luò)參數(shù)進(jìn)行梯度下降更新的具體方式,實(shí)現(xiàn)了反向傳播算法。當(dāng)使用梯度下降法時,所有權(quán)重參數(shù)的學(xué)習(xí)率是固定的??紤]到每個參數(shù)的損失函數(shù)偏導(dǎo)值都不相同,本文選用RMSprop優(yōu)化器,每次迭代基于網(wǎng)絡(luò)模型在該批量數(shù)據(jù)上的損失值自適應(yīng)地更新每個網(wǎng)絡(luò)參數(shù)的學(xué)習(xí)率,RMSprop算法設(shè)置了一個衰減率β來計(jì)算每次迭代梯度平方的指數(shù)移動平均。

      Gt=βGt-1+(1-β)gt⊙gt

      (14)

      其中:gt為迭代梯度,β的值一般取0.9。

      RMSprop算法的參數(shù)更新公式為:

      (15)

      其中:α為全局學(xué)習(xí)率,本文默認(rèn)為0.001。ε為很小的正數(shù),取值為10-6,用來保持計(jì)算公式的數(shù)值穩(wěn)定。從上式可以看出,RMSprop算法中學(xué)習(xí)率與參數(shù)的偏導(dǎo)數(shù)累積量成反比,可以減緩梯度下降中的震蕩,加快網(wǎng)絡(luò)收斂速度。

      2.3 參數(shù)初始化與網(wǎng)絡(luò)正則化

      神經(jīng)網(wǎng)絡(luò)的損失函數(shù)為非凸函數(shù),并且模型的結(jié)構(gòu)龐大,參數(shù)量多,導(dǎo)致深度神經(jīng)網(wǎng)絡(luò)在訓(xùn)練大批量的數(shù)據(jù)集時,較難收斂到一個全局最優(yōu)解。

      當(dāng)使用梯度下降法更新神經(jīng)網(wǎng)絡(luò)各個節(jié)點(diǎn)的權(quán)重參數(shù)時,參數(shù)的初始化方案影響著網(wǎng)絡(luò)的收斂速度。

      訓(xùn)練神經(jīng)網(wǎng)絡(luò)時,為了避免過擬合問題,增強(qiáng)模型的泛化能力,本文采用隨機(jī)丟棄每一層神經(jīng)元的連接的方式來限制模型復(fù)雜度。對于LSTM網(wǎng)絡(luò)而言,為了保證LSTM在時間序列上的記憶能力,只針對輸入層的神經(jīng)元連接進(jìn)行丟棄,并且為了使輸入變化波動不會太大,神經(jīng)元連接的保留率設(shè)定為0.9。

      3 實(shí)驗(yàn)結(jié)果與分析

      本文搭建的網(wǎng)絡(luò)模型訓(xùn)練所采用的數(shù)據(jù)集來自于線性調(diào)頻連續(xù)波雷達(dá)的實(shí)測數(shù)據(jù),典型的線性調(diào)頻連續(xù)波雷達(dá)對目標(biāo)回波和發(fā)射信號的差拍信號進(jìn)行快速傅里葉變換(FFT),即可得到目標(biāo)的距離信息。這里選擇將雷達(dá)信號處理流程中的距離向加窗FFT后的距離維解調(diào)數(shù)據(jù),以距離門為單個樣本單元并標(biāo)注信號類別標(biāo)簽構(gòu)建數(shù)據(jù)集。本文采集了無人機(jī)和接收機(jī)噪聲兩種類型的數(shù)據(jù)共13 000個,兩類樣本各占6 500個,其中,無人機(jī)的樣本標(biāo)簽記為“0”,接收機(jī)噪聲的樣本標(biāo)簽記為“1”。樣本樣例如圖4、圖5所示。

      圖4 無人機(jī)雷達(dá)回波樣本樣例

      圖5 接收機(jī)噪聲樣本樣例

      為了便于評估模型性能,將數(shù)據(jù)集劃分為訓(xùn)練集、驗(yàn)證集和測試集,相互之間無重復(fù)。在訓(xùn)練集上調(diào)用模型進(jìn)行訓(xùn)練,在驗(yàn)證集上評估模型的性能并優(yōu)化超參數(shù)。一旦模型的參數(shù)調(diào)到最優(yōu),則用測試集數(shù)據(jù)測試一下模型的最終效果。留出一定比例的數(shù)據(jù)作為測試集是為了防止信息泄露,測試模型的泛化能力。劃分后的樣本數(shù)據(jù)量如表1所示。

      表1 數(shù)據(jù)集劃分

      本文采集的樣本數(shù)據(jù)來自雷達(dá)接收機(jī)的正交IQ信號,輸入單個樣本的尺寸為(290,2),特征為2維,樣本總數(shù)為13 000。

      神經(jīng)網(wǎng)絡(luò)的參數(shù)初始化權(quán)重一般較小,若輸入數(shù)據(jù)不同維度的取值波動較大,不利于神經(jīng)網(wǎng)絡(luò)的迭代訓(xùn)練。首先需要對輸入神經(jīng)網(wǎng)絡(luò)的樣本數(shù)據(jù)的2個維度的特征分別做標(biāo)準(zhǔn)化,使其滿足均值為0,方差為1,取值范圍保持在(0,1)之間。這樣可以讓不同維度的特征分布接近,避免極端異常值干擾模型訓(xùn)練,提升模型的收斂速度和精度。計(jì)算公式如下:

      (16)

      調(diào)用模型在訓(xùn)練數(shù)據(jù)上進(jìn)行迭代時,批量大小設(shè)定為64,即每次迭代是用64個樣本計(jì)算批量損失對參數(shù)進(jìn)行更新,增加訓(xùn)練的穩(wěn)定性,加快收斂。訓(xùn)練樣本總量為9 600個,每一輪訓(xùn)練進(jìn)行150次梯度更新,將模型在訓(xùn)練數(shù)據(jù)上迭代50個輪次。

      設(shè)置訓(xùn)練過程中模型性能的評價指標(biāo)為精度,即樣本識別的正確率。記錄每次迭代之后訓(xùn)練集和驗(yàn)證集的損失函數(shù)值和精度。網(wǎng)絡(luò)訓(xùn)練結(jié)果如圖6和圖7所示。

      圖6 訓(xùn)練精度和驗(yàn)證精度

      圖7 訓(xùn)練損失和驗(yàn)證損失

      如圖所示,訓(xùn)練精度和驗(yàn)證精度在50輪次訓(xùn)練后趨于穩(wěn)定,達(dá)到收斂。該模型的性能幾乎達(dá)到最優(yōu),同時在驗(yàn)證集也沒有產(chǎn)生過擬合,泛化能力良好。

      使用訓(xùn)練好的網(wǎng)絡(luò)模型在測試集上評估模型性能。測試集共包括1 000個樣本,無人機(jī)和噪聲的樣本各500個,使用混淆矩陣來展示預(yù)測準(zhǔn)確率。其中橫軸代表預(yù)測類別,縱軸表示真實(shí)類別,如圖8所示。

      圖8 測試集結(jié)果的混淆矩陣

      由圖8可以看出,無人機(jī)樣本全部被正確識別為無人機(jī),98%的噪聲樣本被正確識別為噪聲。

      本文所搭建的堆疊雙向LSTM網(wǎng)絡(luò)與傳統(tǒng)SVM分類方法和卷積神經(jīng)網(wǎng)絡(luò)識別方法的識別精度對比如表2所示。

      表2 識別算法結(jié)果對比 %

      通過對比可以得出,基于堆疊雙向LSTM的雷達(dá)目標(biāo)識別方法相比傳統(tǒng)的SVM分類算法和基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)識別方法,在識別精度上有所提升,說明本文構(gòu)建的堆疊雙向LSTM網(wǎng)絡(luò)在節(jié)省了人工提取目標(biāo)特征的同時,還充分利用了雷達(dá)回波時序數(shù)據(jù)的前后相關(guān)性,使得模型提高了識別精度。

      4 結(jié)束語

      傳統(tǒng)的恒虛警檢測算法和基于SVM的目標(biāo)分類技術(shù)存在自適應(yīng)能力差,人工量大的問題。本文提出的基于堆疊雙向LSTM的雷達(dá)目標(biāo)識別方法,采用了雙向LSTM提取雷達(dá)回波數(shù)據(jù)的時序特征,同時通過堆疊多層LSTM增強(qiáng)了網(wǎng)絡(luò)的表示能力。實(shí)驗(yàn)表明,對于無人機(jī)目標(biāo)的識別分類,基于堆疊雙向LSTM的雷達(dá)目標(biāo)識別方法優(yōu)于傳統(tǒng)的SVM分類算法和基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)識別方法。但該網(wǎng)絡(luò)模型若要應(yīng)用到實(shí)際場景中,需要采集更多的數(shù)據(jù)集來訓(xùn)練網(wǎng)絡(luò)模型,并通過模型壓縮等方式提高神經(jīng)網(wǎng)絡(luò)的實(shí)時性。另外,錄取貼合實(shí)際應(yīng)用需求的復(fù)雜場景下的雷達(dá)回波數(shù)據(jù),通過后續(xù)的研究驗(yàn)證神經(jīng)網(wǎng)絡(luò)模型對動態(tài)變化的強(qiáng)雜波的處理的穩(wěn)定性。

      猜你喜歡
      雷達(dá)卷積神經(jīng)網(wǎng)絡(luò)
      有雷達(dá)
      大自然探索(2023年7期)2023-08-15 00:48:21
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
      電子制作(2019年19期)2019-11-23 08:42:00
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      雷達(dá)
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
      基于空時二維隨機(jī)輻射場的彈載雷達(dá)前視成像
      復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
      現(xiàn)代“千里眼”——雷達(dá)
      哈巴河县| 孝感市| 泽州县| 禄丰县| 米泉市| 大渡口区| 浦东新区| 司法| 甘德县| 五莲县| 阿拉善左旗| 竹溪县| 吉水县| 油尖旺区| 临夏县| 富蕴县| 龙胜| 饶阳县| 图片| 呼和浩特市| 古浪县| 方山县| 宁武县| 兰溪市| 丁青县| 巴楚县| 新泰市| 五指山市| 和林格尔县| 黄梅县| 轮台县| 云阳县| 灌南县| 乐清市| 香格里拉县| 邯郸市| 新宾| 周至县| 桦甸市| 屏东市| 炎陵县|