• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于多尺度卷積神經(jīng)網(wǎng)絡(luò)的高光譜圖像分類算法

      2020-09-30 03:31:50齊永鋒火元蓮李發(fā)勇
      紅外技術(shù) 2020年9期
      關(guān)鍵詞:集上尺度光譜

      齊永鋒,陳 靜,火元蓮,李發(fā)勇

      基于多尺度卷積神經(jīng)網(wǎng)絡(luò)的高光譜圖像分類算法

      齊永鋒1,陳 靜1,火元蓮2,李發(fā)勇1

      (1. 西北師范大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院,甘肅 蘭州 730070;2. 西北師范大學(xué) 物理與電子工程學(xué)院,甘肅 蘭州 730070)

      為了提高高光譜圖像的分類精度,提出了一種基于多尺度卷積神經(jīng)網(wǎng)絡(luò)的高光譜圖像分類算法。首先,利用等距特征映射算法處理高光譜數(shù)據(jù),以挖掘數(shù)據(jù)的非線性特性,保持?jǐn)?shù)據(jù)點(diǎn)的內(nèi)在幾何性質(zhì);然后,構(gòu)建以標(biāo)記像元為中心的訓(xùn)練圖像塊,訓(xùn)練多尺度卷積神經(jīng)網(wǎng)絡(luò);最后,利用softmax分類器預(yù)測測試像元的標(biāo)簽。提出的方法在Indian Pines、University of Pavia和Salinas scene高光譜遙感數(shù)據(jù)集上進(jìn)行分類實(shí)驗(yàn),并與CNN、R-PCA CNN、CNN-PPF、CD-CNN等算法進(jìn)行性能比較。實(shí)驗(yàn)結(jié)果表明,在3個(gè)數(shù)據(jù)集上提出的方法的總體識(shí)別精度分別達(dá)到98.51%、98.64%和99.39%,與CNN算法相比分別提高了約8.35%、6.37%和7.81%。本文提出的方法無論是在分類精度還是Kappa系數(shù)上都優(yōu)于另外4種方法,是一種較好的高光譜遙感數(shù)據(jù)分類方法。

      高光譜圖像;等距特征映射;多尺度卷積神經(jīng)網(wǎng)絡(luò);分類

      0 引言

      高光譜圖像具有較高的光譜分辨率和圖譜合一的特性,能夠較好地對(duì)地物進(jìn)行表達(dá)與分辨識(shí)別,是模式識(shí)別領(lǐng)域的研究熱點(diǎn)[1],并被廣泛地應(yīng)用于農(nóng)業(yè)[2]、林業(yè)[3]、礦業(yè)[4]等領(lǐng)域。高光譜圖像分類是高光譜遙感影像處理和應(yīng)用的基礎(chǔ),其最終目標(biāo)是給影像中的每個(gè)像元賦以唯一的類別標(biāo)識(shí)[5],從而實(shí)現(xiàn)地物類別的自動(dòng)識(shí)別。

      由于高光譜圖像具有高維、信息冗余、同物異譜及同譜異物等特性,如果直接對(duì)高光譜圖像進(jìn)行分類,容易產(chǎn)生Hughes現(xiàn)象[6],降低分類效果。針對(duì)上述問題,通常在分類之前要先對(duì)高光譜數(shù)據(jù)進(jìn)行降維處理。但是,高光譜數(shù)據(jù)具有非線性特性,用線性方法降維會(huì)導(dǎo)致一些重要信息的丟失。流形學(xué)習(xí)是一種非線性降維方法,可將高維數(shù)據(jù)轉(zhuǎn)換到低維流形上實(shí)現(xiàn)數(shù)據(jù)降維。流形學(xué)習(xí)分為全局算法和局部算法。全局算法能夠保持所有數(shù)據(jù)點(diǎn)之間的相似性關(guān)系,例如等距特征映射(Isometric Mapping,ISOMAP)[7]算法等。局部算法是在低維流形中保持?jǐn)?shù)據(jù)的局部幾何結(jié)構(gòu),例如局部線性嵌入(Locally Linear Embedding,LLE)[8],拉普拉斯特征映射(Laplacian Eigenmaps,LE)[9]等。

      深度學(xué)習(xí)改變了傳統(tǒng)手工設(shè)置空間特征的方式,可以自動(dòng)提取圖像的空間特征。近年來,深度學(xué)習(xí)在許多領(lǐng)域都取得了重大突破,例如圖像分類[10]、物體檢測[11]、自然語言處理[12]等。在這些成功應(yīng)用的推動(dòng)下,深度學(xué)習(xí)已被廣泛應(yīng)用于遙感圖像[13-15]領(lǐng)域。2014年,陳等人[16]提出了一個(gè)由多層堆疊自動(dòng)編碼器(Stacked Auto Encoder,SAE)組成的深層架構(gòu)來提取高光譜圖像的空譜特征,然后利用邏輯回歸處理以實(shí)現(xiàn)分類。2015年,文獻(xiàn)[17]提出了一種基于自動(dòng)編碼器的改進(jìn)的深度網(wǎng)絡(luò)用于高光譜圖像分類,主要是通過在能量函數(shù)中加入正則項(xiàng)來表示樣本之間的相似性[18],從而實(shí)現(xiàn)分類。此外,深度信念網(wǎng)絡(luò)(Deep Belief Networks,DBN)也被廣泛用于高光譜圖像分類[19-21]。盡管前面提到的模型可以有效地提取圖像的深層特征以區(qū)分不同的類別,但是一旦將輸入轉(zhuǎn)換為一維向量就會(huì)忽略高光譜圖像的空間信息,以至于得不到好的分類效果。為了解決上述問題,文獻(xiàn)[22]提出了一種利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)直接處理小立方體的高光譜圖像。文獻(xiàn)[23]通過組合中心像素和CNN提取深層像元及其周圍的像元,以擴(kuò)充訓(xùn)練樣本的數(shù)量。通過分塊可以充分利用像元的空間結(jié)構(gòu)信息,但是每個(gè)像元譜特征中依舊包含許多冗余信息,這些冗余信息往往會(huì)降低其鑒別性。除此之外,網(wǎng)絡(luò)的深度對(duì)于空譜特性復(fù)雜的高光譜圖像是至關(guān)重要的,但是過度增加網(wǎng)絡(luò)的深度將給傳統(tǒng)CNN帶來梯度消失、過度擬合、精度降低等問題。

      為了解決上述問題,本文結(jié)合高光譜數(shù)據(jù)和深度學(xué)習(xí)的特點(diǎn),提出了一種基于多尺度卷積神經(jīng)網(wǎng)絡(luò)的分類模型,用于充分提取高光譜圖像的空譜特征。一方面,本文首先采用ISOMAP算法對(duì)高光譜遙感數(shù)據(jù)進(jìn)行降維[24];另一方面,本文采用多尺度卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行空譜特征提取,通過引入殘差函數(shù)構(gòu)建了更深層次的網(wǎng)絡(luò),提取了更具表達(dá)能力的深層特征。另外,考慮到不同的層可以提取不同尺度的特征,可以提供互補(bǔ)而相關(guān)的分類信息,本文還采用了融合機(jī)制以充分利用多層功能。

      1 本文方法

      1.1 算法網(wǎng)絡(luò)結(jié)構(gòu)

      基于多尺度卷積神經(jīng)網(wǎng)絡(luò)的高光譜圖像分類算法,主要是利用等距特征映射算法保護(hù)數(shù)據(jù)點(diǎn)之間的內(nèi)在幾何特征和利用多尺度卷積神經(jīng)網(wǎng)絡(luò)提取更深層、更抽象和更穩(wěn)定的特征的方法。

      具體流程如下:

      1)對(duì)高光譜數(shù)據(jù)進(jìn)行ISOMAP降維,以降低計(jì)算成本;

      2)訓(xùn)練多尺度卷積神經(jīng)網(wǎng)絡(luò);

      3)利用softmax分類器預(yù)測測試像素的標(biāo)簽。

      圖1給出了基于多尺度卷積神經(jīng)網(wǎng)絡(luò)的高光譜圖像分類算法的網(wǎng)絡(luò)結(jié)構(gòu)圖。

      1.2 ISOMAP算法

      算法的基本思想是:假設(shè)高維空間的數(shù)據(jù)分布在一個(gè)低維嵌入的流形結(jié)構(gòu)中,那么數(shù)據(jù)間在鄰域關(guān)系圖中的最短距離就可以近似表示數(shù)據(jù)所含的幾何特性。

      圖1 多尺度卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖

      算法的具體步驟如下:

      1)構(gòu)建鄰接圖:解出數(shù)據(jù)集={1,2, …,x}(表示數(shù)據(jù)集中的樣本數(shù)量)中對(duì)應(yīng)的最近鄰,并以x為頂點(diǎn),求出xx間的歐式距離,從而建立鄰域關(guān)系圖。

      2)計(jì)算相似圖D:最短路徑利用Dijkstra方法求得[25]:

      式中:(ij)表示在鄰接圖中數(shù)據(jù)點(diǎn)和之間的測地線距離。

      3)降維:最小化代價(jià)函數(shù)通過多維尺度變換算法(Multidimensional Scaling,MDS)[26]求得:

      將測地線距離轉(zhuǎn)化為內(nèi)積形式:

      其中:

      (,)=((,))2(4)

      式中:為距離平方矩陣;為中心矩陣;為單位矩陣。

      ISOMAP算法是通過把測地線距離和代價(jià)函數(shù)最小化來獲取數(shù)據(jù)集的低維坐標(biāo)。算法對(duì)于具有非線性特征的高光譜遙感圖像數(shù)據(jù)有較好的適用性,能夠有效地提高分類精度。

      1.3 多尺度卷積神經(jīng)網(wǎng)絡(luò)

      高光譜圖像具有非常復(fù)雜的空譜特征。通常,只有幾個(gè)卷積層不能充分提取判別特征以進(jìn)行準(zhǔn)確分類。但過度增加網(wǎng)絡(luò)深度將會(huì)帶來過度擬合、梯度消失等問題。為了能夠充分利用圖像的細(xì)節(jié)信息和讓提取的特征更具判別性,本文提出了多尺度卷積神經(jīng)網(wǎng)絡(luò)。如圖1所示,多尺度卷積神經(jīng)網(wǎng)絡(luò)分為3層:卷積層C1采用8個(gè)大小為5×5的卷積核;C2層采用16個(gè)大小為3×3的卷積核;C3層采用32個(gè)大小為3×3的卷積核,步長均為1。在池化之前,先利用匹配尺寸函數(shù)進(jìn)行特征融合,之后進(jìn)行大小為2×2、步長為2的最大池化操作。最后經(jīng)由全連接層饋入到Softmax分類器中實(shí)現(xiàn)圖像的分類。

      1.3.1 卷積部分

      與傳統(tǒng)模式識(shí)別方法相比較,深層網(wǎng)絡(luò)具有更多的網(wǎng)絡(luò)層數(shù)和更為復(fù)雜的結(jié)構(gòu),因此能提取到更深層次的特征。也就是說網(wǎng)絡(luò)的深度決定了模型的性能,但是隨著網(wǎng)絡(luò)深度的加深,網(wǎng)絡(luò)將會(huì)退化,分類識(shí)別的準(zhǔn)確率將很快達(dá)到飽和,出現(xiàn)層次越深,錯(cuò)誤率反而越高的現(xiàn)象。為解決此類問題,本文在卷積過程中結(jié)合了深度殘差網(wǎng)絡(luò)[27]的思想來優(yōu)化網(wǎng)絡(luò)退化的問題,以便能夠成功訓(xùn)練更深層次的網(wǎng)絡(luò)。其示意圖如圖2所示。

      深度殘差網(wǎng)絡(luò)具體表示如下:

      ()=()+(6)

      其中,殘差函數(shù)()通過與的兩次卷積來計(jì)算,即:

      ()=((*1+1)*2+2) (7)

      式中:1、2是卷積核;1、2為偏置;為ReLU函數(shù)。

      深度殘差網(wǎng)絡(luò)有助于提取更深層次的光譜和空間特征,而且隨著網(wǎng)絡(luò)深度的增加,殘差網(wǎng)絡(luò)還可以有效減少梯度消失的問題,能夠更有效地利用特征并增強(qiáng)卷積層之間的特征傳遞。

      1.3.2 池化部分

      考慮到不同的層可能具有不同數(shù)量的特征圖,本文使用尺寸匹配函數(shù)來確保它們?cè)谔卣魅诤现熬哂邢嗤墓庾V維度。假設(shè)1、2、3分別代表C1層、C2層、C3層網(wǎng)絡(luò)的輸出,并且它們分別具有8、16、32個(gè)特征映射。為了讓其具有相同的特征映射數(shù)量,我們用大小為1×1的32個(gè)內(nèi)核來做卷積運(yùn)算。通過這種卷積運(yùn)算,1、2、3的特征映射的數(shù)量都變?yōu)?2個(gè)。接著通過元素求和的方式實(shí)現(xiàn)特征融合。池化大小為2×2,步長為2。整個(gè)過程如下表示:

      圖2 殘差示意圖

      =Pooling((1)+(2)+(3)) (8)

      式中;(*)為1×1的32個(gè)內(nèi)核尺寸匹配函數(shù);Pooling為最大池化。

      1.3.3 分類

      對(duì)于特征向量,概率分布可以表示為:

      那么,對(duì)于高光譜像元¢,可通過以下公式分類:

      2 實(shí)驗(yàn)結(jié)果與分析

      本文采用總體識(shí)別精度(Overall Accuracy,OA)、平均分類精度(Average Accuracy,AA)、Kappa系數(shù)作為性能評(píng)價(jià)指標(biāo)。為了驗(yàn)證本文方法對(duì)分類性能的有效性,將把本文方法與CNN[28]、R-PCA CNN(Randomized-Principle Component Analysis CNN)[29]、CNN-PPF(CNN-Pixel Pair Features)[30]、CD-CNN(Contextual Deep-CNN)[31]方法進(jìn)行比較,并分別在Indian Pines、University of Pavia、Salinas scene數(shù)據(jù)集上進(jìn)行對(duì)比驗(yàn)證。本文選取這3個(gè)數(shù)據(jù)集作為實(shí)驗(yàn)數(shù)據(jù)原因在于它們的光譜分辨率、空間分辨率、場景來源均不相同,便于驗(yàn)證本文方法的全面性。

      2.1 參數(shù)設(shè)置

      本文采用隨機(jī)梯度下降法(Stochastic Gradient Descent,SGD)作為優(yōu)化器,學(xué)習(xí)率、decay、momentum最優(yōu)值分別設(shè)置為0.04、0.0001、0.9。實(shí)驗(yàn)環(huán)境為Intel(R) core(TM) i5-2520M CPU@2.50 GHz,內(nèi)存8GB,Matlab R2018a。訓(xùn)練樣本與測試樣本的比例為9:1。為避免隨機(jī)偏差,每個(gè)實(shí)驗(yàn)結(jié)果都為重復(fù)多次實(shí)驗(yàn)并計(jì)算平均值所得。

      2.2 Indian Pines數(shù)據(jù)集上的實(shí)驗(yàn)

      Indian Pines圖像的截取尺寸大小為145×145,共有16種地物,通常用去除壞波段和水體吸收波段后剩余的200個(gè)波段作為研究對(duì)象。Indians Pines數(shù)據(jù)集具有植被多、分布復(fù)雜且數(shù)據(jù)集不平衡、易產(chǎn)生混合像元等特點(diǎn)。表1和圖3分別反映了在Indian Pines數(shù)據(jù)集上實(shí)驗(yàn)的分類結(jié)果。

      表1 Indian Pines數(shù)據(jù)集上的分類性能比較

      圖3 Indian Pines數(shù)據(jù)集分類效果

      在Indians Pines數(shù)據(jù)集上,本文算法的OA比其余4種方法高約4.27%~8.35%,AA高約4.27%~8.35%,Kappa系數(shù)高約0.0341~0.0845。特別是在少耕大豆、免耕玉米等類別上的效果明顯好于其他4種方法。如圖3所示,本文方法能夠有效地去除椒鹽現(xiàn)象,對(duì)高光譜圖像有較好的分類性能。

      2.3 University of Pavia數(shù)據(jù)集上的實(shí)驗(yàn)

      University of Pavia圖像的截取尺寸大小為610×340,共有9種地物。表2和圖4分別反映了在University of Pavia數(shù)據(jù)集上實(shí)驗(yàn)的分類結(jié)果。

      表2 University of Pavia數(shù)據(jù)集上的分類性能比較

      圖4 University of Pavia數(shù)據(jù)集分類效果

      如表2所示,本文算法在University of Pavia數(shù)據(jù)集上的OA比其余4種算法高約1.91%~6.37%,AA高約1.42%~3.83%,Kappa系數(shù)高約0.0196~0.0636。University of Pavia數(shù)據(jù)集中瀝青與柏油路的光譜特征極為相似,但從圖4可以看出,本文方法對(duì)于這種光譜曲線相似的圖像也有較好的效果,是一種較好的高光譜遙感數(shù)據(jù)分類方法。

      2.4 Salinas scene數(shù)據(jù)集上的實(shí)驗(yàn)

      Salinas scene圖像的截取尺寸大小為512×217,共有16種地物,通常用去掉20個(gè)水吸收波段后剩余的204個(gè)波段作為研究對(duì)象。表3和圖5分別反映了在Salinas scene數(shù)據(jù)集上實(shí)驗(yàn)的分類結(jié)果。

      如表3所示,在Salinas scene數(shù)據(jù)集上,本文算法的OA比其余4種算法高約3.97%~7.81%,AA高約0.94%~4.38%,Kappa系數(shù)高約0.0193~0.0770。Salinas scene數(shù)據(jù)集分布復(fù)雜且不平衡,尤其是長葉萵苣的分類有一定困難,從上面的分類效果圖可以看出,本文方法相對(duì)其他4種方法錯(cuò)分點(diǎn)少,分類效果較好,能夠有效地去除椒鹽現(xiàn)象[32]。

      表3 Salinas scene數(shù)據(jù)集上的分類性能比較

      2.5 計(jì)算時(shí)間的比較

      表4反映了本文算法和其它深度學(xué)習(xí)算法的訓(xùn)練和測試時(shí)間。可以看出,本文算法的執(zhí)行時(shí)間比CNN、R-PCA CNN方法要長,其原因可能是本文算法的卷積層多于這兩種方法;但與CNN-PPF、CD-CNN算法相比,本文算法的執(zhí)行時(shí)間要少得多,需要較少的訓(xùn)練時(shí)間即可達(dá)到最佳效果。

      3 結(jié)論

      本文首先采用ISOMAP算法對(duì)高光譜遙感數(shù)據(jù)進(jìn)行降維,在去除像元冗余的譜數(shù)據(jù)的同時(shí)保留數(shù)據(jù)的全局幾何分布結(jié)構(gòu),可在降低數(shù)據(jù)維數(shù)的同時(shí)提高了譜特征的鑒別性。然后將降維后的譜特征輸入到本文提出的多尺度卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征的提取與分類。本文在構(gòu)建網(wǎng)絡(luò)的過程中引用了殘差學(xué)習(xí)的思想,提高了深度卷積網(wǎng)絡(luò)對(duì)數(shù)據(jù)特征的學(xué)習(xí)能力,不僅提取到了高光譜圖像的空譜特征,而且改善了梯度消失等問題。本文提出的多尺度卷積神經(jīng)網(wǎng)絡(luò)既可以提取更深層次的特征、降低特征分辨率,又能使網(wǎng)絡(luò)在特征提取時(shí)體現(xiàn)出很好的魯棒性,獲得更好的分類性能。在Indian Pines數(shù)據(jù)集、Pavia數(shù)據(jù)集和Salinas scene數(shù)據(jù)集上實(shí)驗(yàn)結(jié)果也驗(yàn)證了本文方法有效性和魯棒性。

      表4 各算法測試和訓(xùn)練時(shí)間比較

      雖然與其他方法相比,本文方法的分類性能較好,但還存在許多不足之處。如在運(yùn)行性能上不及其他方法,這將成為下一步的研究重點(diǎn)。

      [1] LI Shutao, SONG Weiwei, FANG Leyuan, et al. Deep Learning for Hyperspectral Image Classification: An Overview[J]., 2019, 57(9): 6690-6709.

      [2] TAN Kun, MA Weibo, WU Fuyu, et al. Random forest-based estimation of heavy metal concentration in agricultural soils with hyperspectral sensor data[J]., 2019, 191(7): 1-14.

      [3] CAO Xianghai, WANG Xiaozhen, WANG Da, et al. Densely connected deep random forest for hyperspectral imagery classification[J]., 2018, 40(3): 1-16.

      [4] ZHANG Cuifen, YANG Xiaoxia, HAO Lina, et al. Lithological classification by synergizing hyperspectral Hyperion and high resolution WorldView-2 satellite images[J].: Science & Technology Edition, 2017, 44(5): 613-622.

      [5] 杜培軍, 夏俊士, 薛朝輝, 等. 高光譜遙感影像分類研究進(jìn)展[J].遙感學(xué)報(bào), 2016, 20(2): 236-256.

      DU Peijun, XIA Junshi, XUE Chaohui, et al. Research progress on classification of hyperspectral remote sensing images[J]., 2016, 20(2): 236-256.

      [6] 劉靖, 趙逢禹. 高維數(shù)據(jù)降維技術(shù)及研究進(jìn)展[J]. 電子科技, 2018, 31(3): 36-38.

      LIU Jing, ZHAO Fengqi. High-dimensional data dimension reduction technology and research progress[J]., 2018, 31(3): 36-38.

      [7] LIU Q, CAI Y, JIANG H, et al. Traffic state prediction using ISOMAP manifold learning[J].:, 2018, 506(15): 532-541.

      [8] 王程錦, 王秀友, 林玉娥. 基于內(nèi)類子空間學(xué)習(xí)的局部線性嵌入算法[J]. 阜陽師范學(xué)院學(xué)報(bào): 自然科學(xué)版, 2019, 36(2): 52-56.

      WANG Chengjin, WANG Xiuyou, LIN Yuxi. Local Linear Embedding Algorithm Based on Inner Class Subspace Learning[J].: Natural science, 2019, 36(2): 52-56.

      [9] LI S, WANG Z, LI Y. Using Laplacian Eigenmap as Heuristic Information to Solve Nonlinear Constraints Defined on a Graph and Its Application in Distributed Range-Free Localization of Wireless Sensor Networks[J]., 2013, 37(3): 411-424.

      [10] A Krizhevsky, I Sutskever, G E Hinton. Image Net classification with deep convolutional neural networks[C]//(NIPS), 2012, 25(2): 1097-1105.

      [11] 王博. 基于深度學(xué)習(xí)的低信息量圖片物體檢測算法研究[J].價(jià)值工程, 2019, 38(24): 256-259.

      WANG Bo. Research on Low-information Image Object Detection Algorithm Based on Deep Learning[J]., 2019, 38(24): 256-259.

      [12] 崔瑩. 深度學(xué)習(xí)在文本表示及分類中的應(yīng)用研究[J]. 電腦知識(shí)與技術(shù), 2019, 15(16): 174-177.

      CUI Ying. Application of Deep Learning in Text Representation and Classification[J]., 2019, 15(16): 174-177.

      [13] ZHANG L, ZHANG L, DU B. Deep learning for remote sensing data: A technical tutorial on the state of the art[J]., 2016, 4(2): 22-40.

      [14] CHENG G, ZHOU P, HAN J. Learning rotation-invariant convolutional neural networks for object detection in VHR optical remote sensing images[J]., 2016, 54(12): 7405-7415.

      [15] YAO X, HAN J, CHENG G, et al. Semantic annotation of high-resolution satellite images via weakly supervised learning[J]., 2015, 4(6): 3660-3671.

      [16] CHEN Y, LIN Z, ZHAO X, et al. Deep learning-based classification of hyperspectral data[J]., 2014, 7(6): 2094-2107.

      [17] LIU Y, CAO G, SUN Q, et al. Hyperspectral classification via deep networks and superpixel segmentation[J]., 2015, 36(13): 3459-3482.

      [18] MA X, WANG H, GENG J. Spectral-spatial classification of hyperspectral image based on deep auto-encoder[J]., 2016, 9(9): 4073-4085.

      [19] CHEN Y, ZHAO X, JIA X. Spectral-spatial classification of hyperspectral data based on deep belief network[J]., 2015, 8(6): 2381-2392.

      [20] ZHONG P, GONG Z, LI S, et al. Learning to diversify deep belief networks for hyperspectral image classification[J]., 2017, 55(6): 3516-3530.

      [21] 楊建功, 江西莉, 劉侍剛. 融合譜-空域信息的DBN高光譜圖像分類方法[J].西安電子科技大學(xué)學(xué)報(bào), 2019, 46(3): 109-115.

      YANG Jiangong, LI Jiangxi, LIU Shigang. DBN hyperspectral image classification method based on fusion spectrum-airspace information[J]., 2019, 46(3): 109-115.

      [22] CHEN Y, JIANG H, LI C, et al. Deep feature extraction and classification of hyperspectral images based on convolutional neural networks[J]., 2016, 54(10): 6232-6251.

      [23] LI W, WU G, ZHANG F, et al. Hyperspectral image classification using deep pixel-pair features[J]., 2017, 55(2): 844-853.

      [24] 丁玲, 唐娉, 李宏益. 基于ISOMAP的高光譜遙感數(shù)據(jù)的降維與分類[J]. 紅外與激光工程, 2013, 42(10): 2708-2711.

      DING Ling, TANG Wei, LI Hongyi. Dimensionality and classification of hyperspectral remote sensing data based on ISOMAP[J]., 2013, 42(10): 2708-2711.

      [25] Enayattabar M, Ebrahimnejad A, Motameni H. Dijkstra algorithm for shortest path problem under interval-valued Pythagorean fuzzy environment[J]., 2019, 5(2): 93-100.

      [26] 唐文俊. 基于流行學(xué)習(xí)的數(shù)據(jù)降維的研究[D]. 廣東: 廣東工業(yè)大學(xué), 2012.

      TANG Wenjun. Research on data dimensionality reduction based on popular learning[D]. Guangdong: Guangdong University of Technology, 2012.

      [27] 吳從中, 陳曦, 季棟, 等. 結(jié)合深度殘差學(xué)習(xí)和感知損失的圖像去噪[J]. 中國圖象圖形學(xué)報(bào), 2018, 23(10): 1483-1491.

      WU Congzhong, CHEN Wei, JI Dong, et al. Image Denoising Combined with Deep Residual Learning and Perceptual Loss[J]., 2018, 23(10): 1483-1491.

      [28] HU W, HUANG Y, LI W, et al. Deep convolutional neural networks for hyperspectral image classification[J]., 2015, 2015(2): 1-12.

      [29] K Makantasis, K Karantzalos, A Doulamis, et al. Deep supervised learning for hyperspectral data classification through convolutional neural networks[C]/, Milan, Italy, 2015: 4959-4962.

      [30] LI W, WU G, ZHANG F, et al. Hyperspectral image classification using deep pixel-pair features[J]., 2017, 55(2): 844-853.

      [31] LEE H, KWON H. Going deeper with contextual CNN for hyperspectral image classification[J]., 2017, 26(10): 4843-4855.

      [32] ZHONG M, LI W, DU Q. Diverse region-based CNN for hyperspectral image classification[J]., 2018, 27(6): 2623-2634.

      Hyperspectral Image Classification Algorithm Based on Multiscale Convolutional Neural Network

      QI Yongfeng1,CHEN Jing1,HUO Yuanlian2,LI Fayong1

      (1.,,730070,;2.,,730070,)

      To improve the classification accuracy of hyperspectral remote sensing images, a classification algorithm based on a multiscale convolutional neural network (CNN) is proposed. First, an isometric feature mapping algorithm was used to process hyperspectral data, to mine the nonlinear characteristics of the data and maintain the intrinsic geometric properties of data points. Second, training image blocks centered on labeled pixels were constructed, after which the multiscale CNNs were trained. Finally, the Softmax classifier was used to predict the label of the test pixel. The proposed method performed classification experiments on the Indian Pines, University of Pavia, and Salinas scene hyperspectral remote sensing datasets, and its performance was compared with a CNN, randomized principal component analysis (R-PCA CNN), a deep CNN with pixel-pair features (CNN-PPF), a cross-domain CNN (CD-CNN), and other algorithms. The experimental results showed that the overall recognition accuracy of the proposed method for the three datasets was 98.51%, 98.64%, and 99.39%, respectively, which was 8.35%, 6.37%, and 7.81% higher than that of the CNN algorithm, respectively. The proposed method performed better than the other four methods studied, in terms of both classification accuracy and Kappa coefficient, providing a superior method for hyperspectral remote sensing data classification.

      hyperspectral image, isometric feature mapping, multiscale convolutional neural network, classification

      TP391.9

      A

      1001-8891(2020)09-0855-08

      2019-11-28;

      2020-09-03.

      齊永鋒(1971-),男,教授,博士,主要研究方向:模式識(shí)別與數(shù)字圖像,E-mail: qiyf@nwnu.edu.cn。

      甘肅省高等學(xué)校科研項(xiàng)目(2016A-004);甘肅省科技計(jì)劃項(xiàng)目(18JR3RA097)。

      猜你喜歡
      集上尺度光譜
      基于三維Saab變換的高光譜圖像壓縮方法
      財(cái)產(chǎn)的五大尺度和五重應(yīng)對(duì)
      Cookie-Cutter集上的Gibbs測度
      鏈完備偏序集上廣義向量均衡問題解映射的保序性
      復(fù)扇形指標(biāo)集上的分布混沌
      宇宙的尺度
      太空探索(2016年5期)2016-07-12 15:17:55
      星載近紅外高光譜CO2遙感進(jìn)展
      9
      苦味酸與牛血清蛋白相互作用的光譜研究
      鋱(Ⅲ)與PvdA作用的光譜研究
      扎赉特旗| 双江| 汨罗市| 巴青县| 彰武县| 上饶市| 文安县| 霍山县| 蓬安县| 迁安市| 巩留县| 高陵县| 巫溪县| 嵊泗县| 城固县| 三穗县| 绥江县| 红桥区| 株洲市| 绥芬河市| 荣成市| 志丹县| 津市市| 陵川县| 邵东县| 象州县| 黄浦区| 沂南县| 阿拉善盟| 兰西县| 固原市| 抚远县| 孝昌县| 阳西县| 扶风县| 湾仔区| 确山县| 晋州市| 海安县| 宁津县| 石狮市|