• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像目標(biāo)識(shí)別研究

      2016-10-09 11:03:40田壯壯占榮輝胡杰民
      雷達(dá)學(xué)報(bào) 2016年3期
      關(guān)鍵詞:識(shí)別率卷積神經(jīng)網(wǎng)絡(luò)

      田壯壯 占榮輝 胡杰民 張 軍

      (國(guó)防科學(xué)技術(shù)大學(xué)自動(dòng)目標(biāo)識(shí)別重點(diǎn)實(shí)驗(yàn)室 長(zhǎng)沙 410073)

      基于卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像目標(biāo)識(shí)別研究

      田壯壯*占榮輝胡杰民張軍

      (國(guó)防科學(xué)技術(shù)大學(xué)自動(dòng)目標(biāo)識(shí)別重點(diǎn)實(shí)驗(yàn)室長(zhǎng)沙410073)

      針對(duì)合成孔徑雷達(dá)(Synthetic Aperture Radar,SAR)的圖像目標(biāo)識(shí)別應(yīng)用,該文提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)的SAR圖像目標(biāo)識(shí)別方法。首先通過(guò)在誤差代價(jià)函數(shù)中引入類別可分性度量,提高了卷積神經(jīng)網(wǎng)絡(luò)的類別區(qū)分能力;然后利用改進(jìn)后的卷積神經(jīng)網(wǎng)絡(luò)對(duì)SAR圖像進(jìn)行特征提取;最后利用支持向量機(jī)(Support Vector Machine,SVM)對(duì)特征進(jìn)行分類。使用美國(guó)運(yùn)動(dòng)和靜止目標(biāo)獲取與識(shí)別(Moving and Stationary Target Acquisition and Recognition,MSTAR)SAR圖像數(shù)據(jù)進(jìn)行實(shí)驗(yàn),識(shí)別結(jié)果證明了所提方法的有效性。

      合成孔徑雷達(dá);自動(dòng)目標(biāo)識(shí)別;卷積神經(jīng)網(wǎng)絡(luò);支持向量機(jī);BP算法

      引用格式:田壯壯,占榮輝,胡杰民,等.基于卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像目標(biāo)識(shí)別研究[J].雷達(dá)學(xué)報(bào),2016,5(3):320-325.DOI:10.12000/JR16037.

      Reference format:Tian Zhuangzhuang,Zhan Ronghui,Hu Jiemin,et al..SAR ATR based on convolutional neural network[J].Journal of Radars,2016,5(3):320-325.DOI:10.12000/JR16037.

      1 引言

      合成孔徑雷達(dá)(Synthetic Aperture Radar,SAR)是當(dāng)前對(duì)地觀測(cè)的重要手段之一。由于具有全天候、全天時(shí)和一定的穿透成像能力,SAR已經(jīng)被廣泛應(yīng)用于戰(zhàn)場(chǎng)偵查和情報(bào)獲取等領(lǐng)域。SAR圖像自動(dòng)目標(biāo)識(shí)別(Automatic Target Recognition,ATR)技術(shù)可以有效獲取目標(biāo)信息,提高軍隊(duì)自動(dòng)化水平。目前識(shí)別技術(shù)上常用的方法包括模板匹配法[1],支持向量機(jī)(Support Vector Machine,SVM)法[2],文獻(xiàn)[3]中提出的基于Gabor濾波器和局部紋理特征提取的方法,文獻(xiàn)[4]中提出的多信息字典學(xué)習(xí)和稀疏表示相結(jié)合的方法等等。但是這些方法都需要人工憑借經(jīng)驗(yàn)進(jìn)行特征提取,具有一定的盲目性和不確定性。

      近年來(lái),深度學(xué)習(xí)(Deep Learning)理論在模式識(shí)別領(lǐng)域掀起了一股浪潮,相關(guān)的理論和實(shí)驗(yàn)成果不斷出現(xiàn)。2006年,Hinton等人[5]提出了非監(jiān)督的逐層貪婪訓(xùn)練方法,解決了深度增加所帶來(lái)的“梯度耗散”問(wèn)題,使神經(jīng)網(wǎng)絡(luò)能夠朝著更深的方向進(jìn)行發(fā)展。隨后許多學(xué)者根據(jù)不同的應(yīng)用背景提出了多種DL模型,如深度置信網(wǎng)絡(luò)(Deep Belief Network,DBN)[6]、棧式消噪自動(dòng)編碼機(jī)(Stacked Denoising Autoencoders,SDA)[7]和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[8]等。由于可以直接處理2維圖像,卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別領(lǐng)域取得了較多的應(yīng)用,如人臉識(shí)別[9],人體行為識(shí)別[10],醫(yī)學(xué)圖像識(shí)別[11]等。

      CNN主要有以下特點(diǎn):采用原始圖像作為網(wǎng)絡(luò)輸入,避免了復(fù)雜的特征提取過(guò)程;局部感受域獲取的特征與圖像的平移、縮放和旋轉(zhuǎn)無(wú)關(guān);權(quán)值共享結(jié)構(gòu)降低了網(wǎng)絡(luò)模型的復(fù)雜度;下采樣利用局部相關(guān)性原理,在有效減少數(shù)據(jù)處理量的同時(shí)保留了結(jié)構(gòu)信息[12]。CNN作為一種特征學(xué)習(xí)方法,通過(guò)非線性的簡(jiǎn)單模型將原始數(shù)據(jù)轉(zhuǎn)化為更為抽象的表達(dá),在特征學(xué)習(xí)過(guò)程中不需要過(guò)多的人工參與[13]。

      本文主要研究將CNN應(yīng)用于SAR圖像目標(biāo)識(shí)別領(lǐng)域,減少特征選取中的人工操作。為了進(jìn)一步增強(qiáng)CNN所提取特征的可分性,本文嘗試將類別可分性度量引入代價(jià)函數(shù)之中。為了提高CNN對(duì)特征的分類能力,利用支持向量機(jī)對(duì)CNN模型中的Softmax分類器進(jìn)行替換。實(shí)驗(yàn)結(jié)果表明,該方法具有良好的識(shí)別分類效果,證明了其有效性。

      2 卷積神經(jīng)網(wǎng)絡(luò)

      卷積神經(jīng)網(wǎng)絡(luò)是一種多層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),主要由輸入層、卷積層、下采樣層、輸出層等組成,其中卷積層和下采樣層為隱含層。在卷積神經(jīng)網(wǎng)絡(luò)中,輸入層用于接收原始圖像;卷積層用于提取圖像特征,并降低噪聲的影響;下采樣層利用圖像局部相關(guān)性原理,減少需要處理的數(shù)據(jù)量;輸出層將提取特征映射為最終所得到的標(biāo)簽。

      圖像在CNN中的映射過(guò)程是一個(gè)前向傳播過(guò)程,上一層的輸出作為當(dāng)前層的輸入。為了避免線性模型表達(dá)能力不夠的問(wèn)題,各層在傳遞時(shí)需要加入非線性的激活函數(shù)。第l層的輸出可以表示為:

      式中,l表示層數(shù),x為特征圖,W為當(dāng)前網(wǎng)絡(luò)層的映射權(quán)值矩陣,b為當(dāng)前網(wǎng)絡(luò)的加性偏置項(xiàng),f為激活函數(shù)。

      CNN模型常用后向傳播(Back Propagation,BP)算法[14]來(lái)對(duì)參數(shù)進(jìn)行迭代更新。BP算法是一種常見(jiàn)的監(jiān)督式學(xué)習(xí)方法。該算法首先利用樣本的實(shí)際輸出與期望輸出求得代價(jià)函數(shù),然后將代價(jià)函數(shù)反向傳播至各層,最后利用梯度下降法(Gradient Descent,GD)沿著代價(jià)函數(shù)的負(fù)梯度方向調(diào)整網(wǎng)絡(luò)中的權(quán)值和偏置等參數(shù)。

      首先假設(shè)輸出的目標(biāo)類別維數(shù)為B,即共有B類樣本,網(wǎng)絡(luò)以均方誤差作為代價(jià)函數(shù)。第n個(gè)樣本的代價(jià)函數(shù)E0為:

      在反向傳播過(guò)程中,可由第l+1層的靈敏度δl+1和式(1)得到第l層的靈敏度為:

      分別求E0對(duì)Wl和bl的偏導(dǎo),由式(1)可得:

      根據(jù)梯度下降法,可以得出第l層神經(jīng)元權(quán)值的更新變化量為:

      式中,η為學(xué)習(xí)率。

      3 卷積神經(jīng)網(wǎng)絡(luò)的改進(jìn)

      3.1引入類別可分性度量

      為了使CNN模型所提取的特征具有更好的類別可分性,代價(jià)函數(shù)在式(2)的基礎(chǔ)上,增加了樣本的類別可分性度量[15],即類內(nèi)距離與類間距離:

      式中,α與β為權(quán)值參數(shù)。

      對(duì)代價(jià)函數(shù)進(jìn)行修正的目的是在調(diào)整權(quán)值參數(shù)時(shí),使網(wǎng)絡(luò)向著有利于分類的方向進(jìn)行調(diào)整,提高最終訓(xùn)練結(jié)果的可分性。為了使代價(jià)函數(shù)能夠反向傳播,需要求得修正后代價(jià)函數(shù)的靈敏度。

      對(duì)于類內(nèi)距離函數(shù)E1,其輸出層的靈敏度為:

      式中,nc表示屬于c類的樣本個(gè)數(shù)。

      對(duì)于類間距離函數(shù)E2,其輸出層的靈敏度為:

      根據(jù)式(3)、式(9)、式(10)和式(11)可以得到修正后的輸出層靈敏度為:

      得到了輸出層的靈敏度之后,根據(jù)式(4)即可迭代得到各層的靈敏度,再根據(jù)式(5)和式(6),可以得到各層參數(shù)的更新量。

      3.2支持向量機(jī)的使用

      在CNN模型中,通常利用Softmax回歸模型作為分類器。該分類器通過(guò)全連接方式將CNN模型所提取特征映射為最終輸出標(biāo)簽。這種分類方法在訓(xùn)練時(shí)可以有效地與反向傳播過(guò)程結(jié)合,方便模型中參數(shù)的更新,但是Softmax單層全連接的方式并不能很好地解決非線性分類問(wèn)題。

      支持向量機(jī)[16]是Vapnik等人于1995年首先提出的,主要利用核函數(shù)將原始特征空間中的非線性分類界面隱式地映射到更高維的變換特征空間中產(chǎn)生線性分類界面,達(dá)到更好的分類效果[17]。SVM在解決非線性分類問(wèn)題上表現(xiàn)優(yōu)良。為解決Softmax對(duì)非線性樣本特征的支持問(wèn)題,本文利用SVM代替Softmax作為CNN模型的分類器,對(duì)樣本通過(guò)所有隱含層后所得特征進(jìn)行分類。

      4 實(shí)驗(yàn)結(jié)果

      4.1實(shí)驗(yàn)數(shù)據(jù)集

      為了驗(yàn)證本文方法的有效性,采用美國(guó)國(guó)防研究規(guī)劃局(DARPA)和空軍研究實(shí)驗(yàn)室(AFRL)聯(lián)合資助的運(yùn)動(dòng)和靜止目標(biāo)獲取與識(shí)別(Moving and Stationary Target Acquisition and Recognition,MSTAR)數(shù)據(jù)庫(kù)進(jìn)行實(shí)驗(yàn)。數(shù)據(jù)庫(kù)中的SAR圖像分辨率為0.3 m×0.3 m,目標(biāo)圖像大小為128×128像素。MSTAR數(shù)據(jù)庫(kù)中包含了BMP2、BRDM2、BTR60、BTR70、D7、T62、T72、ZIL131、ZSU234、2S1等10類目標(biāo)的SAR圖像數(shù)據(jù)。實(shí)驗(yàn)采用17°俯仰角下的圖像作為訓(xùn)練樣本,15°俯仰角下的圖像作為測(cè)試樣本。

      4.2實(shí)驗(yàn)?zāi)P?/p>

      圖1 本文卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)示意圖Fig.1 CNN structural plan of the method

      4.33 類目標(biāo)的識(shí)別結(jié)果與分析

      實(shí)驗(yàn)中,訓(xùn)練樣本為17°俯仰角下BMP2_SN 9563、BTR70_C71、T72_SN132的SAR圖像數(shù)據(jù),測(cè)試數(shù)據(jù)為15°俯仰角下BMP2_SNC21、BMP2_SN9563、BMP2_SN9566、BTR70、T72_SN132、T72_SN812和T72_SNS7的SAR圖像數(shù)據(jù)。3類目標(biāo)的識(shí)別結(jié)果如表1所示。

      表1 3類MSTAR目標(biāo)識(shí)別結(jié)果Tab.1 The recognition results of three types of MSTAR targets

      從表1可以看出,對(duì)于相同型號(hào)目標(biāo)的SAR圖像,本文方法的正確識(shí)別率達(dá)到了98.97%以上。對(duì)于相同類別不同型號(hào)的變體,正確識(shí)別率也都在91.62%以上。本文方法整體的平均識(shí)別率達(dá)到了95.90%。表2中可以看出本文方法識(shí)別率優(yōu)于SVM、ELM以及稀疏表示等方法。實(shí)驗(yàn)中,在相同條件下利用相同結(jié)構(gòu)但未經(jīng)改進(jìn)的CNN模型進(jìn)行了識(shí)別測(cè)試,得到的平均識(shí)別率為93.63%,說(shuō)明本方法相較于改進(jìn)前CNN模型也有一定提高。

      表2 與其他方法的效果對(duì)比Tab.2 The recognition performance compare with other methods

      4.410類目標(biāo)的識(shí)別結(jié)果與分析

      在10類目標(biāo)的識(shí)別實(shí)驗(yàn)中,目標(biāo)包括BRDM2、BMP2(BMP2_SNC21、BMP2_SN9563、BMP2_SN9566)、BTR60、BTR70、D7、ZIL131、ZSU234、T62、T72(T72_SN132、T72_SN812、T72_SNS7)、2S1等10類。訓(xùn)練樣本為17°俯仰角下不包括變體(即不包括BMP2_SNC21、BMP2_SN9566、T72_SN812、T72_SNS7等型號(hào))的SAR圖像數(shù)據(jù),測(cè)試樣本為15°俯仰角下的包含變體的各目標(biāo)SAR圖像數(shù)據(jù)。識(shí)別結(jié)果如表3。

      表3 10類MSTAR目標(biāo)識(shí)別結(jié)果Tab.3 The recognition results of ten types of MSTAR targets

      從表3的分類結(jié)果可以看出,本文方法10類目標(biāo)分類結(jié)果仍然較好,平均識(shí)別率仍能達(dá)到93.76%。

      5 結(jié)論

      針對(duì)SAR圖像目標(biāo)識(shí)別問(wèn)題,本文提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)識(shí)別方法。通過(guò)在代價(jià)函數(shù)中引入類別可分性度量以及使用支持向量機(jī)代替Softmax分類器,對(duì)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行了改進(jìn)。利用MSTAR圖像數(shù)據(jù)對(duì)該方法進(jìn)行驗(yàn)證。結(jié)果表明,在不需要人工進(jìn)行特征提取的情況下,該方法在3類目標(biāo)分類實(shí)驗(yàn)中,達(dá)到了95.90%的識(shí)別率,在10類目標(biāo)分類實(shí)驗(yàn)中,平均識(shí)別率仍然能達(dá)到93.76%。實(shí)驗(yàn)結(jié)果說(shuō)明本文方法的有效性以及卷積神經(jīng)網(wǎng)絡(luò)在SAR圖像目標(biāo)識(shí)別上具有一定的應(yīng)用潛力。

      [1]Ross T D,Worrell S W,Velten V J,et al..Standard SAR ATR evaluation experiments using the MSTAR public release data set[C].Aerospace/Defense Sensing and Controls,International Society for Optics and Photonics,1998:566-573.

      [2]Tao W,Xi C,Xiangwei R,et al..Study on SAR target recognition based on support vector machine[C].2009 2nd Asian-Pacific Conference on Synthetic Aperture Radar,2009:856-859.

      [3]王璐,張帆,李偉,等.基于 Gabor 濾波器和局部紋理特征提取的 SAR 目標(biāo)識(shí)別算法[J].雷達(dá)學(xué)報(bào),2015,4(6):658-665.DOI:10.12000/JR15076.Wang Lu,Zhang Fan,Li Wei,et al..A method of SAR target recognition based on Gabor filter and local texture feature extraction[J].Journal of Radars,2015,4(6);658-665.DOI:10.12000/JR15076.

      [4]齊會(huì)嬌,王英華,丁軍,等.基于多信息字典學(xué)習(xí)及稀疏表示的SAR目標(biāo)識(shí)別[J].系統(tǒng)工程與電子技術(shù),2015,37(6):1280-1287.Qi Huijiao,Wang Yinghua,Ding Jun,et al..SAR target recognition based on multi-information dictionary learning and sparse representation[J].Systems Engineering and Electronics,2015,37(6):1280-1287.

      [5]Hinton G E and Salakhutdinov R R.Reducing the dimensionality of data with neural networks[J].Science,2006,313(5786):504-507.

      [6]Hinton G E,Osindero S,and Teh Y W.A fast learning algorithm for deep belief nets[J].Neural Computation,2006,18(7):1527-1554.

      [7]Vincent P,Larochelle H,Lajoie I,et al..Stacked denoisingautoencoders:learning useful representations in a deep network with a local denoisingcriterion[J].The Journal of Machine Learning Research,2010,11:3371-3408.

      [8]Lecun Y,Bottou L,Bengio Y,et al..Gradient-based learning applied to document recognition[J].Proceedings of the IEEE,1998,86(11):2278-2324.

      [9]Ma Y,He J,Wu L,et al..An effective face verification algorithm to fuse complete features in convolutional neural network[C].MultiMedia Modeling.Springer International Publishing,2016:39-46.

      [10]Ijjina E P and Mohan C K.Human action recognition based on motion capture information using fuzzy convolution neural networks[C].2015 Eighth International Conference on Advances in Pattern Recognition(ICAPR),Kalkata,2015:1-6.

      [11]Ciompi F,de Hoop B,van Riel S J,et al..Automatic classification of pulmonary peri-fissural nodules in computed tomography using an ensemble of 2D views and a convolutional neural network out-of-the-box[J].Medical Image Analysis,2015,26(1):195-202.

      [12]尹寶才,王文通,王立春.深度學(xué)習(xí)研究綜述[J].北京工業(yè)大學(xué)學(xué)報(bào),2015,41(1):48-59.Yin Bao-cai,Wang Wen-tong,and Wang Li-chun.Review of deep learning[J].Journal of Beijing University of Technology,2015,41(1):48-59.

      [13]Lecun Y,Bengio Y,and Hinton G.Deep learning[J].Nature,2015,521(7553):436-444.

      [14]Rumelhart D E,Hinton G E,and Williams R J.Learning representations by back-propagating errors[J].Nature,1986,323(6088):533-536.

      [15]孫艷豐,齊光磊,胡永利,等.基于改進(jìn) Fisher 準(zhǔn)則的深度卷積神經(jīng)網(wǎng)絡(luò)識(shí)別算法[J].北京工業(yè)大學(xué)學(xué)報(bào),2015,41(6):835-841.Sun Yanfeng,Qi Guanglei,Hu Yongli,et al..Deep convolution neural network recognition algorithm based on improved fisher criterion[J].Journal of Beijing University of Technology,2015,41(6):835-841.

      [16]Cortes C and Vapnik V.Support-vector networks[J].Machine Learning,1995,20(3):273-297.

      [17]孫即祥,等.現(xiàn)代模式識(shí)別[M].北京:高等教育出版社,2008:624-625.Sun Jixiang,et al..Pattern Recognition[M].Beijing:Higher Education Press,2008:624-625.

      [18]Glorot X and Bengio Y.Understanding the difficulty of training deep feedforward neural networks[J].Journal of Machine Learning Research,2010,9:249-256.

      SAR ATR Based on Convolutional Neural Network

      Tian ZhuangzhuangZhan RonghuiHu JieminZhang Jun
      (ATR Key Laboratory,National University of Defense Technology,Changsha 410073,China)

      This study presents a new method of Synthetic Aperture Radar(SAR)image target recognition based on a convolutional neural network.First,we introduce a class separability measure into the cost function to improve this network's ability to distinguish between categories.Then,we extract SAR image features using the improved convolutional neural network and classify these features using a support vector machine.Experimental results using moving and stationary target acquisition and recognition SAR datasets prove the validity of this method.

      Synthetic Aperture Radar(SAR); Automatic Target Recognition(ATR); Convolutional Neural Network(CNN); Support Vector Machine(SVM); Back Propagation(BP)

      The National Natural Science Foundation of China(61471370)

      TN957.52

      A

      2095-283X(2016)03-0320-06

      10.12000/JR16037

      田壯壯(1993-),男,碩士生,研究方向?yàn)槔走_(dá)目標(biāo)識(shí)別。

      E-mail:tzz14@nudt.edu.cn

      占榮輝(1978-),男,講師,博士,研究方向?yàn)槔走_(dá)目標(biāo)識(shí)別、雷達(dá)信息處理。

      胡杰民(1983-),男,講師,博士,研究方向?yàn)榭臻g目標(biāo)識(shí)別、雷達(dá)成像。

      張 軍(1973-),男,研究員,博士,研究方向?yàn)槔走_(dá)智能信號(hào)處理、制導(dǎo)雷達(dá)應(yīng)用技術(shù)。

      2016-02-03;改回日期:2016-03-15;網(wǎng)絡(luò)出版:2016-05-09

      田壯壯 tzz14@nudt.edu.cn

      國(guó)家自然科學(xué)基金(61471370)

      猜你喜歡
      識(shí)別率卷積神經(jīng)網(wǎng)絡(luò)
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測(cè)
      神經(jīng)網(wǎng)絡(luò)抑制無(wú)線通信干擾探究
      電子制作(2019年19期)2019-11-23 08:42:00
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      基于真耳分析的助聽(tīng)器配戴者言語(yǔ)可懂度指數(shù)與言語(yǔ)識(shí)別率的關(guān)系
      提升高速公路MTC二次抓拍車牌識(shí)別率方案研究
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      高速公路機(jī)電日常維護(hù)中車牌識(shí)別率分析系統(tǒng)的應(yīng)用
      基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
      復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
      谢通门县| 资兴市| 陇西县| 波密县| 宝清县| 西乌珠穆沁旗| 景东| 龙胜| 盐池县| 清徐县| 宁安市| 阿尔山市| 怀来县| 饶阳县| 手机| 石嘴山市| 云浮市| 大渡口区| 巴中市| 桑植县| 十堰市| 德清县| 青田县| 桦甸市| 海淀区| 板桥市| 都江堰市| 南阳市| 响水县| 永寿县| 蕉岭县| 高淳县| 香河县| 海南省| 明水县| 文昌市| 岳池县| 山阴县| 武汉市| 夹江县| 曲沃县|