高 鑫,歐陽寧,袁 華
(桂林電子科技大學(xué) 信息與通信學(xué)院,廣西 桂林 541004)
基于快速去噪和深度信念網(wǎng)絡(luò)的高光譜圖像分類方法
高 鑫,歐陽寧,袁 華
(桂林電子科技大學(xué) 信息與通信學(xué)院,廣西 桂林 541004)
為了改善傳統(tǒng)分類方法在高光譜遙感圖像去噪和特征提取方面的不足,提出了一種基于快速去噪和深度信念網(wǎng)絡(luò)的高光譜圖像分類方法。該方法利用圖像的二階偏導(dǎo)數(shù)和梯度共同控制擴(kuò)散速度,采用改進(jìn)的自適應(yīng)擴(kuò)散系數(shù)對不同區(qū)域進(jìn)行擴(kuò)散,并利用深度信念網(wǎng)絡(luò)對去噪后的圖像進(jìn)行地物分類。實(shí)驗(yàn)結(jié)果表明,與傳統(tǒng)的分類方法相比,該方法提高了高光譜圖像地物分類的精度。
去噪;高光譜;深度信念網(wǎng)絡(luò);圖像分類
遙感技術(shù)[1]是一種利用安裝在衛(wèi)星等航空飛行器上的成像設(shè)備對地面物體進(jìn)行光譜信息收集的一門技術(shù)。在遙感技術(shù)蓬勃發(fā)展的今天,通過衛(wèi)星上的遙感儀器,人們可以對地球表面諸如森林、草地、農(nóng)作物、動(dòng)物、土壤、水和礦物等資源實(shí)施監(jiān)控[2]。
目前,主要使用人工神經(jīng)網(wǎng)絡(luò)ANN[3]、支持向量機(jī)SVM[4-5]等方法進(jìn)行高光譜圖像的分類工作。2006年,Hinton等[6]提出深度信念網(wǎng)絡(luò)DBN,使深度學(xué)習(xí)作為機(jī)器學(xué)習(xí)的一個(gè)新興研究方向。雖然DBN網(wǎng)絡(luò)模型在高光譜圖像的分類上取得了不錯(cuò)的效果,但該方法對高光譜數(shù)據(jù)的去噪處理還停留在簡單去除噪聲波段[7],未對去除噪聲波段后的數(shù)據(jù)進(jìn)一步去噪。針對這一問題,對傳統(tǒng)的擴(kuò)散平滑算法進(jìn)行了改進(jìn),提出一種自適應(yīng)擴(kuò)散系數(shù)和聯(lián)合邊緣檢測的算法,對高光譜圖像進(jìn)行去噪處理,再利用深度信念網(wǎng)絡(luò)對圖像進(jìn)行分類。
利用圖像的二階偏導(dǎo)數(shù)和梯度作為邊緣檢測,共同控制擴(kuò)散速度;引入自適應(yīng)擴(kuò)散系數(shù),對不同梯度區(qū)域利用對應(yīng)的擴(kuò)散系數(shù)進(jìn)行不同程度的平滑處理,在去除噪聲的同時(shí)最大程度保留圖像的細(xì)節(jié)和邊緣信息。
將經(jīng)過擴(kuò)散平滑處理得到的數(shù)據(jù)進(jìn)行重組和分批操作,輸入到多層限制玻爾茲曼機(jī)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,輸出的權(quán)值向量作為BP神經(jīng)網(wǎng)絡(luò)的輸入,最后實(shí)現(xiàn)地物分類。系統(tǒng)框圖如圖1所示。
圖1 系統(tǒng)框圖Fig.1 System diagram
高光譜遙感圖像在獲取和傳輸過程中容易受傳感器、外界環(huán)境等因素的影響,存在很多噪聲。為了減小噪聲對特征提取的影響,除了剔除噪聲波段和吸水波段,還需要對數(shù)據(jù)進(jìn)一步去噪。
對經(jīng)典的各向異性擴(kuò)散模型[7]進(jìn)行改進(jìn),將圖像的二階偏導(dǎo)數(shù)和梯度相結(jié)合作為新的邊緣檢測,并結(jié)合自適應(yīng)擴(kuò)散系數(shù),對高光譜遙感圖像進(jìn)行快速去噪。
2.1 PM模型
PM模型利用梯度算子判斷圖像的梯度變化是由噪聲引起的還是由邊緣引起的,然后利用鄰域加權(quán)平均的方法,將由噪聲造成的梯度變化消除,將由邊緣信息造成的梯度突變保留,如此重復(fù)迭代,直到將噪聲都消除為止。
熱傳導(dǎo)微分方程:
(1)
其中:||表示幅度;k為閾值,用來控制擴(kuò)散的尺度。
2.2 改進(jìn)的模型
雖然PM模型在平滑消除噪聲的同時(shí)盡量保留了特征,但實(shí)際應(yīng)用中仍存在諸多問題:首先,對于小范圍內(nèi)的噪聲和梯度變化很大的區(qū)域去噪效果不理想;其次,在強(qiáng)噪聲干擾情況下的去噪效果很差;另外,控制擴(kuò)散平滑的閾值k因?yàn)闆]有一個(gè)統(tǒng)一的標(biāo)準(zhǔn)和理論公式計(jì)算,所以很難選取。針對PM模型的不足,提出2點(diǎn)改進(jìn)方法:
1)引入圖像的二階偏導(dǎo)數(shù),利用二階導(dǎo)數(shù)和梯度共同控制擴(kuò)散速度。
2)針對梯度的閾值參數(shù),設(shè)計(jì)了3個(gè)不同的擴(kuò)散系數(shù),利用新的邊緣檢測選擇對應(yīng)的擴(kuò)散系數(shù),對不同的區(qū)域進(jìn)行不同程度的擴(kuò)散平滑,使得模型在整個(gè)圖片區(qū)域的擴(kuò)散效果都比較理想。
改進(jìn)后的擴(kuò)散系數(shù)為:
其中:*表示卷積;α、β為連貫系數(shù),滿足α+β=1,保證擴(kuò)散函數(shù)的連續(xù)性。
微分方程為:
2.3 實(shí)驗(yàn)結(jié)果及分析
為了驗(yàn)證模型改進(jìn)后的實(shí)際效果,從高光譜遙感圖像中選取一個(gè)波段的圖片,對其加入不同強(qiáng)度的隨機(jī)噪聲進(jìn)行實(shí)驗(yàn)。改進(jìn)后的模型去噪效果如圖2所示。
圖2 改進(jìn)后模型的去噪效果Fig.2 Denoising effect of the improved model
在主觀視覺上,從圖2(b)可看出,PM模型能夠?yàn)V除大部分的噪聲,特別在梯度值相近的區(qū)域,效果明顯。但是在一些邊緣信息并不明顯的區(qū)域,平滑的程度開始變得不穩(wěn)定,有些平滑效果太弱,使得去噪效果不明顯;另外,在一些地方出現(xiàn)了平滑幅度過大的情況,造成邊緣輪廓模糊的現(xiàn)象。從圖2(c)可看出,改進(jìn)模型利用自適應(yīng)擴(kuò)散系數(shù),結(jié)合新的邊緣檢測,使得模型能夠很好地將噪聲和邊緣區(qū)分開,在最大限度地濾除噪聲的同時(shí),盡可能多地保留邊緣信息??梢?,改進(jìn)模型是可行的。
深度信念網(wǎng)絡(luò)(deep belief networks,簡稱DBN)結(jié)合了監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí)的優(yōu)點(diǎn),使用多層限制玻爾茲曼機(jī)(restricted Boltzmann machine,簡稱RBM)訓(xùn)練樣本,利用BP算法實(shí)現(xiàn)對網(wǎng)絡(luò)的微調(diào),在挖掘抽象特征方面具有很強(qiáng)的能力,對于構(gòu)建逐層抽象網(wǎng)絡(luò)系統(tǒng)具有很大的優(yōu)勢。圖3所示為RBM的網(wǎng)絡(luò)結(jié)構(gòu)。
圖3 RBM網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 RBM network structure
圖3中,n為可見層神經(jīng)元的個(gè)數(shù),m為隱藏層神經(jīng)元的個(gè)數(shù),v=(v1,v2,…,vn)為可見層的狀態(tài)向量,h=(h1,h2,…,hm)為隱藏層的狀態(tài)向量,a=(a1,a2,…,an)為可見層的偏置向量,b=(b1,b2,…,bm)為隱藏層的偏置向量。
3.1 深度信念網(wǎng)絡(luò)
為了提取樣本抽象的特征規(guī)律,采用多層RBM構(gòu)建網(wǎng)絡(luò)。將RBM按層堆疊,下面的隱藏層作為上一層網(wǎng)絡(luò)的輸入端,以此類推,構(gòu)建DBN網(wǎng)絡(luò)模型。
圖4為三層RBM構(gòu)建的DBN網(wǎng)絡(luò)結(jié)構(gòu)。其中,最底層RBM的可見層作為輸入端接收樣本,每一層RBM的隱藏層同時(shí)也是下一層的可見層,最頂層RBM的輸出會連接一個(gè)邏輯回歸層,作為分類器的輸入。
圖4 三層RBM構(gòu)建的DBN網(wǎng)絡(luò)結(jié)構(gòu)Fig.4 DBN constructed by three layers of RBM
整個(gè)DBN網(wǎng)絡(luò)模型的訓(xùn)練過程有2個(gè)階段:無監(jiān)督訓(xùn)練和有監(jiān)督訓(xùn)練。無監(jiān)督訓(xùn)練要先初始化網(wǎng)絡(luò)的權(quán)值等參數(shù),將無標(biāo)簽的樣本輸入到可見層的各個(gè)節(jié)點(diǎn),然后用CD算法逐層訓(xùn)練,直到所有的RBM層都訓(xùn)練完畢。接著,在有監(jiān)督訓(xùn)練部分,底部的邏輯回歸層接收上一層輸出的數(shù)據(jù),并結(jié)合有標(biāo)簽的訓(xùn)練集,利用誤差反向傳播算法,有監(jiān)督地訓(xùn)練實(shí)體關(guān)系分類器。誤差反向傳播系統(tǒng)優(yōu)化了網(wǎng)絡(luò)的輸出權(quán)值,并改善了BP網(wǎng)絡(luò)因初始權(quán)值設(shè)置不合理易陷入局部最優(yōu)解的情況,提高了網(wǎng)絡(luò)的性能。
3.2 數(shù)據(jù)重組及分批
為了得到更好的分類效果并提高系統(tǒng)效率,將去噪后的數(shù)據(jù)進(jìn)行重組和分批:先將a幅m×m的圖片拉伸為a列m2×1的矩陣存儲,再將每一列平均分為c份,每份含有b個(gè)元素,這樣處理的數(shù)據(jù)便于批量訓(xùn)練和制作標(biāo)簽。數(shù)據(jù)重組和分批過程如圖5所示。
圖5 數(shù)據(jù)重組和分批Fig.5 Data reorganization and partial
3.3 方法流程
1)將經(jīng)過幾何校正和大氣校正的高光譜數(shù)據(jù)中的噪聲波段和吸水波段剔除,采用改進(jìn)的去噪模型進(jìn)行去噪。
2)將數(shù)據(jù)進(jìn)行重組并分批。
3)按批次將數(shù)據(jù)輸入第一層RBM,輸出的權(quán)值和偏置作為第二層RBM的輸入,以此類推,經(jīng)過N層訓(xùn)練,得到權(quán)值向量以及隱藏層和可見層的偏置向量。
4)將最后一層RBM網(wǎng)絡(luò)輸出的權(quán)值向量作為BP神經(jīng)網(wǎng)絡(luò)的輸入,最后進(jìn)行分類。
改進(jìn)的高光譜遙感圖像特征提取和分類方法流程如圖6所示。
圖6 特征提取和分類方法流程圖Fig.6 Flow chart of feature extraction and classification method
4.1 實(shí)驗(yàn)數(shù)據(jù)和評估指標(biāo)
實(shí)驗(yàn)環(huán)境:在CPU為Intel至強(qiáng)E3-1230 V3,內(nèi)存為DDR3 8 GB ,顯卡為GTX660 2GB的PC機(jī)上,利用Matlab R2012a進(jìn)行實(shí)驗(yàn)仿真。
實(shí)驗(yàn)采用的數(shù)據(jù)是美國國家航空航天局噴氣推進(jìn)實(shí)驗(yàn)室用AVIRIS系統(tǒng)在1992年拍攝的印第安納州西北部松樹場景高光譜遙感圖像。該數(shù)據(jù)光譜分辨率為10 nm,空間分辨率為20 m×20 m,包含224個(gè)波段的光譜信息,每個(gè)波段圖像的分辨率為144像素×144像素。圖7為某一單波段的地物場景。圖8為對應(yīng)的地物標(biāo)識。
圖7 單波段地物場景Fig.7 Single band scene
該高光譜數(shù)據(jù)對應(yīng)的地物有16種,分別為Corn-Notill、Grass/Pasture、Grass/Trees、Hay-Windrowed、Soybeans-Notill、Soybeans-Mintill、Soybeans-Clean、 Woods、 Alfalfa、 Corn-Mintill、Corn、
圖8 地物標(biāo)識Fig.8 Object identification
Grass/Pasture-moved、Oats、Wheat、Bldng-Trass-Trees、Stone-Steel-Tower。表1所示為16種地物的樣本數(shù)目。
表1 16種地物的樣本數(shù)目
選取16種地物中的Corn-Notill、Grass/Pasture、Grass/Trees、Hay-Windrowed、Soybeans-Notill、Soybeans-Mintill、Soybeans-Clean和Woods這8類地物,共計(jì)8511個(gè)樣本進(jìn)行分類實(shí)驗(yàn)。圖9為重新制作的8類地物標(biāo)識。
圖9 八類地物標(biāo)識Fig.9 Object identification of eight kinds of objects
利用混淆矩陣來反映分類結(jié)果與地物真實(shí)情況的相關(guān)信息,通過分析混淆矩陣,采用總體分類精度、平均分類精度和Kappa系數(shù)作為實(shí)驗(yàn)的參考參數(shù)判斷算法的性能?;煜仃囃ㄟ^將每個(gè)實(shí)測像元的位置和分類與分類圖像中的相應(yīng)位置和分類相比較計(jì)算。
對于混淆矩陣A,假設(shè)矩陣大小為m×m,樣本種類即為m。設(shè)aii為正確分類到第i類的樣本數(shù)目,aij為錯(cuò)分的樣本數(shù)目,測試樣本總數(shù)為:
;
(8)
第i行元素之和為:
;
(9)
第i列元素之和為:
(10)
Kappa系數(shù)使用一種多元離散分析技術(shù)表示分類效果與標(biāo)識數(shù)據(jù)間的吻合程度。Kappa系數(shù)為
;
(11)
總體分類精度為
;
(12)
平均分類精度為
(13)
4.2 參數(shù)設(shè)置實(shí)驗(yàn)
通過查閱相關(guān)文獻(xiàn)[9]并經(jīng)過多次試驗(yàn),將RBM的參數(shù)設(shè)置為:權(quán)重學(xué)習(xí)率為0.1,可見層偏置學(xué)習(xí)率為0.1,隱藏層偏置學(xué)習(xí)率為0.1,權(quán)重為0.000 2,初始動(dòng)量為0.5,最終動(dòng)量為0.9。
4.2.1 迭代次數(shù)實(shí)驗(yàn)
通過反復(fù)試驗(yàn)發(fā)現(xiàn),迭代的次數(shù)對分類結(jié)果有很大影響。若迭代次數(shù)過小,則數(shù)據(jù)不能很好地描述較抽象的特征;若迭代次數(shù)過大,則實(shí)驗(yàn)花費(fèi)在訓(xùn)練樣本上的時(shí)間將大大增加。
為了讓模型能夠充分提取高光譜圖像數(shù)據(jù)的特征,同時(shí)考慮到訓(xùn)練時(shí)間,設(shè)置不同的迭代次數(shù),對最后一層RBM結(jié)構(gòu)的權(quán)值進(jìn)行觀察。圖10為不同迭代次數(shù)下第三層RBM的權(quán)值。從圖10可看出,當(dāng)?shù)螖?shù)較小時(shí),顯示的特征雜亂無章。隨著迭代次數(shù)的增加,權(quán)值的特征趨于穩(wěn)定,在迭代次數(shù)達(dá)到80次以上,權(quán)值趨于穩(wěn)定。為了進(jìn)一步確認(rèn),在比較不同迭代次數(shù)下系統(tǒng)最終的分類精度后,同樣證實(shí)當(dāng)?shù)螖?shù)達(dá)到80次以上,分類效果最佳,此時(shí)繼續(xù)增加迭代次數(shù)分類效果提升也不明顯。
圖10 不同迭代次數(shù)下第三層RBM的權(quán)值Fig10 The weights of the third layer RBM with different iteration times
4.2.2 網(wǎng)絡(luò)模型深度實(shí)驗(yàn)
LE ROUX等[10]指出深層的網(wǎng)絡(luò)結(jié)構(gòu)對特征提取很有益,增加RBM的層數(shù)可提高網(wǎng)絡(luò)的特征提取能力,使得網(wǎng)絡(luò)能夠更深入地挖掘抽象特征。為此,將網(wǎng)絡(luò)設(shè)置為20層,發(fā)現(xiàn)效果并不理想。在查閱文獻(xiàn)[11]后發(fā)現(xiàn),實(shí)驗(yàn)采用的數(shù)據(jù)與手寫字體庫以及人臉識別庫相比數(shù)據(jù)量偏小,使得網(wǎng)絡(luò)在訓(xùn)練樣本時(shí)出現(xiàn)了過擬合的現(xiàn)象,降低了網(wǎng)絡(luò)的泛化性能。圖11為不同網(wǎng)絡(luò)深度下的輸出權(quán)值。經(jīng)過反復(fù)實(shí)驗(yàn)發(fā)現(xiàn),使用3層RBM進(jìn)行特征提取效果最佳。
圖11 不同網(wǎng)絡(luò)深度下的輸出權(quán)值Fig11 Output weights in different network depth
4.3 實(shí)驗(yàn)結(jié)果分析
實(shí)驗(yàn)采用改進(jìn)的擴(kuò)散平滑算法對高光譜圖像進(jìn)行去噪,然后利用DBN網(wǎng)絡(luò)實(shí)現(xiàn)對高光譜遙感圖像的分類。將該方法與SVM方法、RBM+SP方法以及未改進(jìn)的DBN方法進(jìn)行對比,幾種方法的分類效果如圖12所示,評估分類結(jié)果的參數(shù)如表2所示。
從圖12(a)可看出,SVM方法對Corn-Notill的分類效果很差,大部分都被錯(cuò)分為Soybeans-Mintill;Soybeans-Clean也有一部分被錯(cuò)分為Soybeans-Mintill。表2的實(shí)驗(yàn)數(shù)據(jù)反映該方法對地物Corn-Notill的分類精度只有58.67%。
圖12(b)和圖12(c)使用的2種方法均采用了多層RBM訓(xùn)練網(wǎng)絡(luò)對數(shù)據(jù)進(jìn)行處理,對比圖中標(biāo)注的區(qū)域可看出,這3種方法在一定程度上改善了漏分、誤分的現(xiàn)象,特別是采用DBN網(wǎng)絡(luò)的方法,由于BP神經(jīng)網(wǎng)絡(luò)的誤差反向傳播特性,能夠?qū)ο到y(tǒng)進(jìn)行微調(diào),使得圖12(c)和圖12(d)使用方法的分類效果比圖12(b)使用的方法更好。
圖12 4種方法的分類效果圖Fig.12 The classification effect of four methods
圖13為經(jīng)去噪處理的圖像和未經(jīng)去噪處理的圖像在DBN網(wǎng)絡(luò)下的分類結(jié)果對比。從圖13可看出,使用圖12(d)改進(jìn)的擴(kuò)散平滑算法進(jìn)行去噪處理后,
分類效果有一定提升。表2中的數(shù)據(jù)也顯示新方法對Corn-Notill、Grass/Trees、Grass/Pasture、Hay-Windrowed、Soybeans-Notill和Soybeans-Mintill這幾類地物的分類效果比未經(jīng)過改進(jìn)的DBN方法均有所提升。
圖13 去噪前后DBN分類結(jié)果對比Fig.13 Comparison of DBN classification results before and after denoising
實(shí)驗(yàn)表明,新方法在主觀視覺效果和客觀評價(jià)參數(shù)都優(yōu)于比較的幾種算法,改善了DBN系統(tǒng)在去噪方面的不足,對高光譜遙感圖像有很好的分類效果。
表2 各方法分類結(jié)果
針對DBN網(wǎng)絡(luò)在去噪方面的不足,提出了一種基于改進(jìn)的擴(kuò)散平滑和深度信念網(wǎng)絡(luò)的高光譜圖像分類方法。該方法利用圖像的二階偏導(dǎo)數(shù)和梯度共同控制擴(kuò)散速度,并針對不同區(qū)域使用自適應(yīng)擴(kuò)散系數(shù)對高光譜圖像進(jìn)行去噪,利用DBN網(wǎng)絡(luò)實(shí)現(xiàn)對高光譜遙感圖像的分類。實(shí)驗(yàn)結(jié)果表明,提出的算法在各類地物分類效果以及總體分類精度上相比其他算法都有所提高。新方法在去噪方面仍有改進(jìn)的空間,可以結(jié)合深度學(xué)習(xí)在數(shù)據(jù)挖掘方面的優(yōu)勢進(jìn)行更好的去噪處理。該方法優(yōu)化后將在城市規(guī)劃、農(nóng)業(yè)生產(chǎn)和森林植被調(diào)查等領(lǐng)域有很好的應(yīng)用前景。
[1] KWON H,HU Xiaofei,THEILER J,et al.Algorithms for multispectral and hyperspectral image analysis[J].Journal of Electrical and Computer Engineering,2013(2):1-16.
[2] AHMAD M,LEE S,HAQ I U,et al.Hyperspectral remote sensing:dimensional reduction and end member extraction[J].International Journal of Soft Computing and Engineering,2012,2(2):256-271.
[3] 都業(yè)軍,周肅,方吉宙.人工神經(jīng)網(wǎng)絡(luò)在遙感影像分類中的應(yīng)用與對比研究[J].測繪科學(xué),2015(增刊1):53-123.
[4] 譚琨,杜培軍.基于支持向量機(jī)的高光譜遙感圖像分類[J].紅外與毫米波學(xué)報(bào),2008,27(2):123-128.
[5] NIU X,BAN Y F.A novel contextual classification algorithm for multitemporal polarimetric SAR data[J].IEEE Geoscience and Remote Sensing Letters,2014,11(3):681-685.
[6] HINTON G E,SALAKHUTDINOV R R.Reducing the dimensionality of data with neural networks[J].Science,2006,313:504-507.
[7] 張芳,崔學(xué)英,張權(quán),等.基于變指數(shù)各向異性擴(kuò)散和非局部的最大似然期望最大低劑量CT重建算法[J].計(jì)算機(jī)應(yīng)用,2014,34(12):3605-3608.
[8] 張春霞,姬楠楠,王冠偉.受限波爾茲曼機(jī)[J].工程數(shù)學(xué)學(xué)報(bào),2015,32(2):159-173.
[9] LUO X,ZHAO C,PAN J,et al.Remote sensing image Intelligent classification and its application[J].Publishing House of Electronics Industry,2011,8(2):19-27.
[10] LE ROUX N,BENGIO Y.Representational power of restricted Boltzmann machines and deep belief networks[J].Neural Computation,2008,20(6):1631-1649.
[11] LAROCHELLE H,BENGIO Y,LOURADOUR J,et al.Exploring strategies for training deep neural networks[J].Journal of Machine Learning Research,2009,10(10):1-40.
編輯:翁史振
A hyperspectral image classification method based on fast denoising and deep belief network
GAO Xin, OUYANG Ning, YUAN Hua
(School of Information and Communication Engineering, Guilin University of Electronic Technology, Guilin 541004, China)
In order to improve the shortcomings of the traditional classification methods in hyperspectral remote sensing image denoising and feature extraction, a hyperspectral image classification method based on fast denoising and deep belief network is proposed. The method uses the second partial derivative of the image and the gradient to control the diffusion velocity, and uses an improved adaptive diffusion coefficient of diffusion in different regions. Finally the depth of belief network is used for denoising images to classify these terrain features. The experimental results show that compared with the traditional classification methods, the proposed method obviously improves the classification accuracy of the remote sensing image.
denoising; hyperspectral; deep belief network; image classification
2016-03-05
國家自然科學(xué)基金(61362021);廣西自然科學(xué)基金(2013GXNSFDA019030,2013GXNSFAA019331,2014GXNSFDA118035);廣西科學(xué)研究與技術(shù)開發(fā)計(jì)劃(桂科攻1348020-6,桂科能1298025-7);桂林電子科技大學(xué)研究生教學(xué)創(chuàng)新計(jì)劃(YJCXS201531)
歐陽寧(1972-),男,湖南遠(yuǎn)寧人,教授,研究方向?yàn)橹悄軋D像處理、智能信息處理、數(shù)據(jù)融合、計(jì)算機(jī)應(yīng)用等。E-mail:2930530@qq.com
高鑫,歐陽寧,袁華.基于快速去噪和深度信念網(wǎng)絡(luò)的高光譜圖像分類方法[J].桂林電子科技大學(xué)學(xué)報(bào),2016,36(6):469-476.
TN751.1
A
1673-808X(2016)06-0469-08