• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于仿真SAR圖像深度遷移學(xué)習(xí)的自動目標識別*

      2020-07-13 07:13:18王澤隆徐向輝張雷
      關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)圖像

      王澤隆,徐向輝,張雷

      (1 中國科學(xué)院電子學(xué)研究所, 北京 100190; 2 中國科學(xué)院大學(xué), 北京 100049; 3 中國人民解放軍95899部隊, 北京 100076)(2019年1月29日收稿; 2019年3月20日收修改稿)

      合成孔徑雷達(synthetic aperture radar, SAR)與可見光、紅外等光學(xué)成像方式相比,具有全天候、全天時、作用距離遠等顯著優(yōu)勢。自提出以來,已經(jīng)被廣泛運用在軍事探測、民用測繪、災(zāi)害監(jiān)測、地球遙感和太空等諸多領(lǐng)域,并持續(xù)成為美、歐、俄等西方軍事強國的優(yōu)先發(fā)展方向[1-2]。合成孔徑雷達主要通過發(fā)射微波,獲取目標的微波反射數(shù)據(jù)來成像。由于其獨特的成像方式,使得SAR圖像的解譯和目標的自動識別(automatic target recognition, ATR)十分困難。在現(xiàn)代戰(zhàn)爭尤其是執(zhí)行空對地打擊作戰(zhàn)時,戰(zhàn)場態(tài)勢瞬息萬變,目標類型眾多,戰(zhàn)場環(huán)境復(fù)雜,如何快速發(fā)現(xiàn)、識別并定位目標至關(guān)重要。自動目標識別成為發(fā)現(xiàn)、識別定位、跟蹤、目標分配、打擊、評估(find, fix, track, target, engage, and assess, F2T2EA)殺傷鏈的核心節(jié)點。

      在SAR圖像的自動目標識別分類上,已經(jīng)有很多國內(nèi)外學(xué)者提出不同方法對其進行研究[3-6]。傳統(tǒng)的機器學(xué)習(xí)方法基于提取特征后使用分類器分類,有基于像素或是圖像特征的相似性準則的模板匹配法[3]和支持向量機(support vector machine, SVM)[4]等傳統(tǒng)機器學(xué)習(xí)方法,基于字典學(xué)習(xí)和稀疏表示[5]的方法研究,以及改進后的徑向積分特征分類器方法[6]等。近年來,深度學(xué)習(xí)逐漸興起,掀起一陣研究熱潮。卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks, CNNs)在訓(xùn)練的過程中能夠?qū)崿F(xiàn)對圖像特征的自動提取,在光學(xué)圖像的模式識別領(lǐng)域取得巨大的成就。各種深度模型網(wǎng)絡(luò),如AlexNet[7]、VGG[8]、GoogleNet[9]、ResNet[10]等網(wǎng)絡(luò)結(jié)構(gòu)自2012年以來,在ImageNet比賽上取得顯著性的識別效果,甚至高于人眼的識別率?,F(xiàn)在正被逐漸運用到SAR圖像自動目標識別與檢測上,并在美國國防部和空軍實驗室公開的MSTAR數(shù)據(jù)集上取得了一些不錯的研究結(jié)果。

      深度卷積神經(jīng)網(wǎng)絡(luò)是一種隸屬數(shù)據(jù)驅(qū)動的算法,往往需要大量的數(shù)據(jù)來訓(xùn)練網(wǎng)絡(luò)從而提取有效特征,然而由于SAR圖像數(shù)據(jù)的寶貴與稀缺,現(xiàn)實中缺少有效尺寸的標注實測SAR圖像數(shù)據(jù)。在以往的研究中,Hansen等[11]在CNNs模型的訓(xùn)練過程中加入基于仿真SAR圖像的預(yù)訓(xùn)練,但其最終識別率不高。Morgan[12]構(gòu)建深度卷積網(wǎng)絡(luò)對MSTAR進行分類,最后只取得92.30%的效果,并且模型訓(xùn)練參數(shù)多。文獻[13]使用基于其他種類與角度的實測SAR圖像的遷移學(xué)習(xí)(transfer learning,TL)方法。SAR實測圖像數(shù)據(jù)的不足容易造成CNNs模型的過擬合,降低模型的泛化能力。對此,文獻[14]中也使用遷移學(xué)習(xí),首先利用剪切后的大量SAR場景無標簽圖像預(yù)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò),但具有不確定性,而且使用編碼和解碼兩部分網(wǎng)絡(luò),最后去掉解碼的網(wǎng)絡(luò),前期增加了訓(xùn)練復(fù)雜度。而在文獻[15]中則是分別使用卷積層的隨機失活(drop-out)方法和數(shù)據(jù)增廣的方法來防止過擬合,最后達到99.13%的識別準確率。

      近年來,SAR圖像仿真技術(shù)的研究使得SAR圖像數(shù)據(jù)得到進一步的補充,它是利用計算機圖形學(xué)方法結(jié)合電磁波散射原理模擬SAR的成像過程,由物體3D模型得到相應(yīng)的SAR仿真圖像。有效的仿真SAR圖像能夠解決SAR圖像不足的現(xiàn)狀,為SAR 圖像目標識別的研究提供了必要的數(shù)據(jù)支持與補充,在SAR圖像的自動識別中有著重要的作用。本研究使用的仿真SAR圖像主要是基于SAR圖像的回波仿真方法[16-17]得到的坦克等軍事車輛的仿真SAR圖像數(shù)據(jù)。其中T72型號坦克的光學(xué)圖像、3D模型、部分不同角度的實測X波段SAR圖像和仿真SAR圖像如圖1所示。

      為提升SAR圖像稀缺情況下的自動目標識別效果,本文在已有的SAR圖像仿真數(shù)據(jù)基礎(chǔ)上,提出一種在基于CReLU(concatenated rectified linear units)激活函數(shù)與批歸一化改進后的卷積神經(jīng)網(wǎng)絡(luò)模型上,結(jié)合仿真SAR圖像深度遷移學(xué)習(xí)的方法,先引進仿真SAR圖像預(yù)訓(xùn)練網(wǎng)絡(luò),再遷移到實測的SAR圖像數(shù)據(jù)繼續(xù)進行訓(xùn)練,結(jié)果表明可取得比以往的傳統(tǒng)機器學(xué)習(xí)方法和深度學(xué)習(xí)方法更好的識別準確率,并且在基于部分稀疏的MSTAR訓(xùn)練數(shù)據(jù)集上也取得了不錯的結(jié)果,驗證了本文基于仿真SAR圖像的深度遷移學(xué)習(xí)模型在SAR圖像稀缺情況的ATR研究的有效性。下文將依次介紹改進的CNNs模型、SAR圖像仿真模型、結(jié)合仿真SAR圖像的深度遷移學(xué)習(xí)模型以及最終實驗結(jié)果。

      1 基于卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像分類

      1.1 卷積神經(jīng)網(wǎng)絡(luò)

      卷積神經(jīng)網(wǎng)絡(luò)一般包括卷積層、激活層、池化層和全連接層。卷積層主要利用局部感受野和參數(shù)共享兩種策略減少模型的復(fù)雜度和參數(shù)量,利用多個卷積核對上一特征圖(feature map)進行特征提取,再采用激活層對其進行非線性激活,主要計算過程如下:

      (1)

      ReLU(x)=max(x,0).

      (2)

      池化層的操作主要是為了縮小特征圖,增加感受野,一般采取最大值池化的方法。卷積神經(jīng)網(wǎng)絡(luò)主要結(jié)構(gòu)和具體操作過程如圖2所示,圖中z表示經(jīng)過池化層縮小后的特征圖。

      圖2 CNNs結(jié)構(gòu)Fig.2 CNNs model

      全連接層的作用主要是將上一層的提取到高維的數(shù)據(jù)置為一維向量作為輸入,同時最終輸出的節(jié)點數(shù)量為分類目標的類別數(shù)。本研究使用由Softmax歸一化的結(jié)果作為10類軍事目標類別的概率輸出。

      1.2 用于目標識別的卷積神經(jīng)網(wǎng)絡(luò)模型

      由于實測SAR圖像數(shù)據(jù)量有限,更深層次和復(fù)雜的網(wǎng)絡(luò)較容易造成CNNs模型的過擬合,同時為研究使用基于仿真SAR圖像遷移學(xué)習(xí)帶來的提升效果,本文中的模型只使用簡易有效的3層卷積神經(jīng)網(wǎng)絡(luò)。具體的網(wǎng)絡(luò)結(jié)構(gòu)示意圖如圖3(a)所示。

      圖3 本文CNNs模型Fig.3 CNNs model in this work

      本文在構(gòu)建的網(wǎng)絡(luò)模型上,使用改進后的CReLU(concatenated ReLU)激活函數(shù)[18]代替常用的ReLU函數(shù),在激活層后能夠多保留負響應(yīng)部分的特征圖,與ReLU相比,多提取一倍的特征圖。若定義[·]+=max(·,0),則CReLU激活函數(shù)的定義為

      CReLU(x)=([x]+,[-x]+).

      (3)

      為了減少運算的復(fù)雜度和弱化背景雜波的影響,把SAR圖像中心剪切成80×80。在前兩層的網(wǎng)絡(luò)結(jié)構(gòu)中,使用5×5的卷積核增加感受野提取有效的特征,之后每個卷積層后均采用2×2大小的最大值池化層下采樣圖像,在得到更小的特征圖并將特征匯聚到更高維度空間后,使用VGG網(wǎng)絡(luò)的思想在最后一層用3×3的卷積核。

      此外,為了加速網(wǎng)絡(luò)的收斂,本文新加入批歸一化層(batch normalization,BN)[19]使得每一層數(shù)據(jù)歸一化到標準高斯分布,從而能夠使得梯度更好地反向傳播來優(yōu)化網(wǎng)絡(luò),加快模型的收斂速度。組合后的每一子卷積塊的內(nèi)部詳細結(jié)構(gòu)如圖3(b)所示。

      1.3 CNN的初始化,損失函數(shù)和優(yōu)化方法

      CNNs中一般使用常數(shù)值、Xavier[20]等方式初始化網(wǎng)絡(luò)參數(shù),但由于傳統(tǒng)的初始化方式在深層的網(wǎng)絡(luò)中收斂比較困難,Xavier初始化方式并不太適用于CReLU等激活函數(shù),故本文使用基于MSRA[21]初始化方式。其初始化方式表示如下

      (4)

      式中:weights表示卷積核的參數(shù)分布;N(0,2/nl)表示服從均值為0,方差為2/nl的高斯分布;其中nl=kl2dl-1,kl表示第l層卷積核尺寸大小,dl-1表示l-1層卷積核的層數(shù)。在損失函數(shù)的選擇上,本文使用交叉熵的損失函數(shù),Softmax函數(shù)和交叉熵如下所示:

      (5)

      式中:xi表示輸出層第i個節(jié)點的輸出,oi表示經(jīng)過概率歸一化后的概率值,N為類別數(shù),yi為對應(yīng)的樣本標簽,L為最后的交叉熵損失。對于優(yōu)化方法則采用結(jié)合動量(momentum)與RMSProp方法的Adam[22]算法優(yōu)化損失函數(shù),采取反向梯度傳播更新權(quán)重。Adam參數(shù)的學(xué)習(xí)率能夠根據(jù)梯度的一階矩和二階矩估計來自適應(yīng)改變,從而能更好地優(yōu)化深層網(wǎng)絡(luò)參數(shù),其定義為:

      (6)

      訓(xùn)練算法:基于Mini-Batch(小批次的)反向梯度下降算法來優(yōu)化改進的卷積神經(jīng)網(wǎng)絡(luò).1)輸入: SAR圖像的數(shù)據(jù)xi 和對應(yīng)的類別標簽yi,學(xué)習(xí)率和模型參數(shù)的初始化,最大迭代步數(shù)K和批尺寸(Batch size) n.2)輸出:測試SAR圖像類別的CNNs 模型.3)for step=1,2,…,K 從隨機打亂后的SAR數(shù)據(jù)集中依次取出n張圖片及其標簽{(x1,y1),(x2,y2),…,(xn,yn)} 使用Adam算法優(yōu)化參數(shù) ω←Adam(Δω1n∑ni=1Li(ω))循環(huán)迭代到結(jié)束.

      2 SAR圖像仿真模型

      SAR圖像回波仿真技術(shù)根據(jù)SAR的成像原理,由復(fù)雜目標的 3D 模型,采用電磁散射計算的方法得到掃頻數(shù)據(jù),再使用成像算法處理回波數(shù)據(jù)來實現(xiàn)SAR成像,使得成像結(jié)果更接近真實SAR圖像。常使用彈射線法(shooting and bouncing ray, SBR)結(jié)合幾何光學(xué)法(geometrical optics, GO)或者物理光學(xué)(physical optics, PO)等方法對目標模型面元的散射截面積(radar cross section, RCS)進行計算。運用電磁仿真軟件CST[17]或者FEKO可以用來生成三維目標的遠場復(fù)RCS數(shù)據(jù),之后通過坐標軸轉(zhuǎn)換、重采樣、加窗、補零后再做逆傅里葉變換得到SAR圖像。其掃頻的頻率間隔和角度間隔可根據(jù)實測SAR圖像的方位向和距離向分辨率得到。各參數(shù)的定義如下:

      (7)

      式中:Δρr為距離向分辨率;Δρx為方位向分辨率;f為中心頻率;B為帶寬;Δφ為角度區(qū)間;fH和fL分別為頻率區(qū)間的上界和下界,具體的成像處理步驟如圖4所示。

      圖4 SAR圖像仿真流程Fig.4 Flow chart of simulation of SAR images

      3 遷移學(xué)習(xí)模型

      現(xiàn)實中由于SAR圖像數(shù)據(jù)獲取成本高、數(shù)據(jù)稀缺,不易獲取足夠多的訓(xùn)練數(shù)據(jù)來訓(xùn)練網(wǎng)絡(luò)。同時因為仿真SAR圖像與實測SAR圖像可能存在類別不一樣和特征上的差別,無法將其直接作為訓(xùn)練數(shù)據(jù)。遷移學(xué)習(xí)[14]能有效解決訓(xùn)練數(shù)據(jù)不足的問題,遷移學(xué)習(xí)主要從源數(shù)據(jù)域(source domain)學(xué)到有效的規(guī)則與知識(knowledge),通過將學(xué)到的隱知識運用在目標域(target domain)上,提升分類器在目標域上的分類性能。遷移學(xué)習(xí)的示意圖如圖5所示。在本研究中,大量的仿真SAR圖像數(shù)據(jù)集作為源數(shù)據(jù)域,實測SAR數(shù)據(jù)為目標域。先在源數(shù)據(jù)域上讓卷積神經(jīng)網(wǎng)絡(luò)學(xué)到有用的知識與模型,再遷移到目標域上。由于本文的CNNs模型只有3層,層數(shù)比較少,故在遷移學(xué)習(xí)過程中采用微調(diào)(fine-tuning)所有參數(shù)的方法,先在源域即仿真SAR圖像上訓(xùn)練分類網(wǎng)絡(luò),再在學(xué)到的參數(shù)基礎(chǔ)上繼續(xù)使用實測SAR圖像數(shù)據(jù)訓(xùn)練網(wǎng)絡(luò),更新全部參數(shù),從而得到最終的模型。

      圖5 基于仿真圖像的遷移學(xué)習(xí)過程Fig.5 Transfer learning based on simulated images

      4 實驗結(jié)果與分析

      4.1 實驗數(shù)據(jù)

      為了驗證基于仿真SAR圖像深度遷移學(xué)習(xí)算法的有效性,本文使用的實測數(shù)據(jù)為MSTAR實測的X波段10類軍事目標(裝甲車,坦克,軍用卡車等)的SAR圖像,其在方位向和距離向的分辨率都是0.3 m。具體軍事目標SAR圖像數(shù)據(jù)與類別數(shù)據(jù)如表1所示,10類軍事目標的光學(xué)圖像與SAR圖像如圖6所示。按照文獻[3,12]的標準劃分方法,訓(xùn)練和測試數(shù)據(jù)分別為俯仰角為17°和15°的數(shù)據(jù)。在仿真SAR圖像數(shù)據(jù)的使用上,則采用基于SARSIM仿真[17]得到的7大類車輛目標的仿真SAR圖像和基于快速回波仿真方法[16]得到的相似性高的T72,BMP和BTP 3種軍事目標的SAR圖像數(shù)據(jù)。前者基于SARSIM仿真算法的實現(xiàn)過程中使用電磁商用軟件CST先求得三維物體目標的RCS復(fù)數(shù)據(jù),之后使用逆FFT得到時域圖像同時結(jié)合GPU并行的方法以縮短計算時間,其公開的仿真數(shù)據(jù)集[17]的具體的類別數(shù)如表2所示。在此研究基礎(chǔ)上,本文的最終模型新加入后者基于快速回波仿真方法得到的3類SAR仿真圖像數(shù)據(jù),每類360張,共有1 080張,其數(shù)據(jù)由文獻[16]作者提供。

      表1 MSTAR數(shù)據(jù)Table 1 MSTAR data

      圖6 10類軍事目標光學(xué)圖像與SAR圖像Fig.6 Optical images and SAR images for ten types of military targets

      表2 SARSIM數(shù)據(jù)Table 2 SARSIM data

      4.2 實驗結(jié)果

      4.2.1 從零基礎(chǔ)開始訓(xùn)練CNNs模型

      本文研究的實驗環(huán)境為ubuntu16.04+tensorflow1.6+GTX1050Ti。實驗過程中采用的批尺寸為n=256,并且在全連接層使用隨機失活(drop-out)策略減緩模型的過擬合。為了驗證本文構(gòu)建的CNNs模型的有效性,本研究先分別在作為基準的ReLU與改進后的CReLU激活函數(shù)的網(wǎng)絡(luò)上只使用實測SAR圖像數(shù)據(jù)進行實驗,采取全部的俯仰角為17°的SAR數(shù)據(jù)作為訓(xùn)練數(shù)據(jù),使用MSRA方法初始化卷積核與全連接層權(quán)重從零基礎(chǔ)開始訓(xùn)練模型至收斂,在15°的測試數(shù)據(jù)上分別取得98.78%(3 164/3 203)與99.53%(3 188/3 203)的識別結(jié)果,表明本文使用CReLU后對CNNs模型結(jié)果有一定的提升效果。

      為了研究在同種類別上直接將仿真SAR圖像作為訓(xùn)練數(shù)據(jù),實測SAR數(shù)據(jù)作為測試數(shù)據(jù)的結(jié)果,本研究先直接將T72,BMP和BTP 3種軍事目標的1 080張仿真SAR圖片作為訓(xùn)練集訓(xùn)練CNN分類網(wǎng)絡(luò),并在俯仰角為15°的實測T72,BMP和BTP 3種圖像上測試識別準確率,最終只取得36.53%的結(jié)果。其準確率不高,說明直接將仿真SAR圖像數(shù)據(jù)作為訓(xùn)練集并不能取得很好的識別結(jié)果。

      4.2.2 基于微調(diào)(fine-turning)遷移學(xué)習(xí)模型的結(jié)果

      接下來實驗研究使用基于仿真SAR圖像深度遷移學(xué)習(xí)的結(jié)果。在遷移學(xué)習(xí)過程中,分別實驗了把仿真SAR圖像劃分為7類(只使用SARSIM中的7大類)和8類(基于快速回波仿真方法得到的1 080張SAR圖像單獨歸為一類和SARSIM中的7大類)兩種情況。先把圖3的CNNs網(wǎng)絡(luò)最后輸出層的節(jié)點數(shù)分別替換為仿真SAR圖像類別數(shù),其他結(jié)構(gòu)模型保持不變。先使用仿真SAR圖像訓(xùn)練網(wǎng)絡(luò)至收斂,得到訓(xùn)練后的卷積核權(quán)重參數(shù)。在此基礎(chǔ)上把輸出層節(jié)點改為實測軍事目標種類,繼續(xù)使用實測SAR圖像訓(xùn)練網(wǎng)絡(luò),在圖像沒有其他預(yù)處理的情況下,最終能將識別率提升到99.60%(3 196/3 203)與99.78%(3 196/3 203),其中后者最終的10類軍事目標識別準確率的混淆矩陣如表3所示。

      表3 基于仿真SAR圖像遷移學(xué)習(xí)的CNN模型在MSTAR測試集分類結(jié)果的混淆矩陣Table 3 Confusion matrix of classification results based on transfer learning CNNs model in the MSTAR test set

      本文模型與其他模型如支持向量機[3]、稀疏編碼模型[4]、基于大場景圖像遷移學(xué)習(xí)模型[14]、同樣引進由SARSIM仿真SAR圖像數(shù)據(jù)預(yù)訓(xùn)練遷移學(xué)習(xí)的CNNs模型[11]和使用數(shù)據(jù)增廣的CNN分類方法[15]等方法的結(jié)果如表4所示。與同樣基于SIMSAR等7類數(shù)據(jù)預(yù)訓(xùn)練下的文獻[11]模型相比,本文的識別準確率提高到99.60%,表明本研究的深度學(xué)習(xí)模型的有效性。同時再加入文獻[15]的1 080張SAR仿真數(shù)據(jù)后,在此基礎(chǔ)上模型結(jié)果提升到99.78%。從表4可以看出,在分類任務(wù)上,在全部17° SAR圖像作為訓(xùn)練集時,本文基于CReLU改進的遷移學(xué)習(xí)模型相比其他模型的分類結(jié)果能取得更好的分類性能。

      表4 不同模型方法的比較Table 4 Comparison among different model methods

      為可視化CNNs模型內(nèi)部提取到的特征,實驗中以2S1型號的坦克車作為輸入圖像為例,基于8類仿真SAR圖像深度遷移學(xué)習(xí)模型的3層卷積層在經(jīng)過CReLU激活函數(shù)后分別提取到的特征圖如圖7所示。從圖7(a)~7(c)可以看出,不同尺度和層數(shù)的卷積核能提取到原圖像的背景、目標、輪廓等不同區(qū)域的整體特征。

      4.2.3 遷移學(xué)習(xí)模型在稀缺訓(xùn)練樣本下的結(jié)果

      為了研究在實測SAR圖像數(shù)據(jù)量比較稀缺的情況下,本文模型的提升結(jié)果。研究中在各個類別上抽取10%,20%,40%,60%,80%和全部的訓(xùn)練集圖像的情況下,分別使用基于ReLU的CNNs模型、基于CReLU的CNNs模型、以及基于CReLU的仿真SAR圖像遷移學(xué)習(xí)模型(CReLU+TL)測試最后的結(jié)果。在使用基于仿真SAR圖像的遷移學(xué)習(xí)時,也分別實驗了基于SIMSAR 7類數(shù)據(jù)的情況與加入文獻[16]仿真圖像后的共8類數(shù)據(jù)兩種情況。其中4種模型在全部15°測試集上的最終結(jié)果如圖8所示。可以看出在不同比例的訓(xùn)練數(shù)據(jù)上,使用CReLU比ReLU的CNNs模型的結(jié)果都有一定的提升;在結(jié)合使用仿真SAR圖像遷移學(xué)習(xí)后,識別準確率在原有的CReLU模型基礎(chǔ)上有更進一步的提高。特別是在數(shù)據(jù)比較稀少的情況下(如10%和20%),使用基于仿真SAR圖像深度遷移學(xué)習(xí)的方法后識別準確率會提升得更明顯,驗證了本文基于CReLU的CNNs模型的有效性。同時再加入文獻[16]的1 080張SAR仿真數(shù)據(jù)后,在此基礎(chǔ)上模型結(jié)果再有一定的提升。

      圖7 CNNs中3層激活層輸出的特征圖與輸入的SAR圖像(2S1)Fig.7 The feature images of the three-layer outputs in CNNs and the input SAR images (2S1)

      圖8 不同比例訓(xùn)練集的結(jié)果Fig.8 Results of different scale training sets

      5 結(jié)論

      本研究在針對運用深度學(xué)習(xí)方法研究SAR的自動目標識別時,實測SAR圖像數(shù)據(jù)不足的問題,使用一種基于仿真SAR圖像的深度遷移學(xué)習(xí)和基于CReLU改進的卷積神經(jīng)網(wǎng)絡(luò)的解決方案。先用大量的仿真SAR圖像預(yù)訓(xùn)練網(wǎng)絡(luò)模型,得到初步網(wǎng)絡(luò)參數(shù)后,再在預(yù)訓(xùn)練好的模型的基礎(chǔ)上繼續(xù)使用實測SAR圖像數(shù)據(jù)訓(xùn)練網(wǎng)絡(luò),最終能在不同比例的訓(xùn)練集上都取得一定的提升,并且在使用全部訓(xùn)練集時候取得99.78% (3 196/3 203)的識別準確率。該模型即便在只用20%的訓(xùn)練數(shù)據(jù)的情況依舊可以取得93.79%的識別率,從而驗證了模型同樣適用于數(shù)據(jù)稀缺的場景,并且在數(shù)據(jù)較稀缺的情況下對識別準確率的提升比較明顯。

      在此十分感謝電磁散射重點實驗室董純柱博士提供的回波仿真SAR圖像數(shù)據(jù)。

      猜你喜歡
      卷積神經(jīng)網(wǎng)絡(luò)圖像
      改進的LapSRN遙感圖像超分辨重建
      基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
      有趣的圖像詩
      神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
      電子制作(2019年19期)2019-11-23 08:42:00
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      基于傅里葉域卷積表示的目標跟蹤算法
      基于神經(jīng)網(wǎng)絡(luò)的拉矯機控制模型建立
      重型機械(2016年1期)2016-03-01 03:42:04
      復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
      基于支持向量機回歸和RBF神經(jīng)網(wǎng)絡(luò)的PID整定
      一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
      景德镇市| 万山特区| 南木林县| 灵山县| 南京市| 崇州市| 绥棱县| 台中县| 西和县| 丰原市| 张家港市| 扎赉特旗| 铁力市| 循化| 晋中市| 淄博市| 彰武县| 福州市| 昭觉县| 太湖县| 古交市| 安阳市| 黎平县| 壶关县| 新乡县| 太和县| 唐海县| 尤溪县| 台中市| 望都县| 兴城市| 呼伦贝尔市| 龙胜| 沂南县| 星座| 开江县| 仙桃市| 故城县| 南郑县| 阿巴嘎旗| 临沭县|