• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于復(fù)雜度聚類的自適應(yīng)遙感場(chǎng)景分類

      2020-12-16 02:43:02梁文韜李晉源寧浩宇
      計(jì)算機(jī)工程 2020年12期
      關(guān)鍵詞:復(fù)雜度灰度準(zhǔn)確率

      梁文韜,康 雁,李 浩,李晉源,寧浩宇

      (云南大學(xué) 軟件學(xué)院,昆明 650500)

      0 概述

      隨著遙感圖像獲取技術(shù)的不斷發(fā)展,人們可從遙感圖像中獲取更多有用信息。遙感場(chǎng)景分類是根據(jù)遙感圖像中所提取的特征對(duì)遙感場(chǎng)景進(jìn)行分類和識(shí)別。由于提升場(chǎng)景分類準(zhǔn)確率可提高目標(biāo)檢測(cè)效果,更好地完成土地資源問(wèn)題的覆蓋率與利用率分析以及土地規(guī)劃建設(shè)等任務(wù)[1],因此遙感場(chǎng)景分類作為遙感圖像應(yīng)用過(guò)程不可或缺的一環(huán)非常重要。遙感場(chǎng)景圖像除了具有顏色、紋理、空間與光譜信息等特征以及包括多特征融合的描述子在內(nèi)的淺層次信息[2-4],還含有較多深層次信息,增加了提升其分類準(zhǔn)確率的難度。

      本文提出一種基于復(fù)雜度適配的自適應(yīng)遙感場(chǎng)景分類模型。充分利用遙感圖像各層特征,構(gòu)建具有多重特征的遙感圖像復(fù)雜度評(píng)價(jià)矩陣,對(duì)圖像復(fù)雜度進(jìn)行層次聚類劃分,并根據(jù)DenseNet、CapsNet和SENet神經(jīng)網(wǎng)絡(luò)對(duì)復(fù)雜度特征敏感度的不同,分別將其與不同復(fù)雜度圖像子集匹配,最終得到遙感圖像場(chǎng)景分類結(jié)果。

      1 相關(guān)工作

      1.1 基于模式識(shí)別的遙感場(chǎng)景分類

      在遙感場(chǎng)景分類任務(wù)中,最小距離法、平行六面體法、最大似然法、等混合距離法、循環(huán)集群法等監(jiān)督與非監(jiān)督的傳統(tǒng)識(shí)別分類方法應(yīng)用較多,但是這些方法魯棒性較弱且泛化能力不強(qiáng),難以廣泛應(yīng)用,且分類準(zhǔn)確率也很難提高。

      1.2 基于神經(jīng)網(wǎng)絡(luò)的遙感場(chǎng)景分類

      近年來(lái),隨著深度學(xué)習(xí)技術(shù)在計(jì)算機(jī)視覺(jué)領(lǐng)域的不斷發(fā)展,其在遙感場(chǎng)景分類任務(wù)上取得眾多成果,特別是卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)模型在遙感場(chǎng)景分類任務(wù)中取得比傳統(tǒng)方法更好的分類效果。在模型結(jié)構(gòu)方面,文獻(xiàn)[2]使用AlexNet、VGGNet-16和GoogLeNet網(wǎng)絡(luò)獲得遠(yuǎn)高于傳統(tǒng)低層特征提取方法的分類效果。文獻(xiàn)[5]利用PMS架構(gòu)的DCNN模型獲得比CNN模型更佳的分類效果。文獻(xiàn)[6]建立卷積神經(jīng)網(wǎng)絡(luò)模型,降低圖像變形引起的誤差,從而獲得優(yōu)于傳統(tǒng)方法的分類效果。在模型特征利用率方面,文獻(xiàn)[7]利用深度學(xué)習(xí)模型-堆棧自動(dòng)編碼機(jī)提高對(duì)圖像的特征利用。文獻(xiàn)[8]使用局部二值模式(Local Binary Pattern,LBP)提高對(duì)圖像的特征利用。文獻(xiàn)[9]使用視覺(jué)注意機(jī)制提高紋理特征利用率。與傳統(tǒng)分類方法相比,使用CNN進(jìn)行遙感分類不僅可大幅提升準(zhǔn)確性,還能獲得更強(qiáng)的泛化性能。但目前相關(guān)研究主要采用卷積和池化操作獲取圖像全局特征,對(duì)遙感圖像的特征利用率不高。

      2 自適應(yīng)網(wǎng)絡(luò)場(chǎng)景分類模型

      對(duì)于遙感場(chǎng)景分類任務(wù)而言,由于遙感場(chǎng)景圖像信息量通常與場(chǎng)景種類和特征分布緊密關(guān)聯(lián),例如,沙漠、草地的圖像信息量遠(yuǎn)少于商業(yè)區(qū)、港口的圖像信息量。在場(chǎng)景特征分布方面,信息量較少的圖像類別由淺層特征決定,信息量較大的圖像類別由深層特征決定。因此,本文提出一種1×15維的特征屬性描述矩陣劃分不同特征分布的遙感圖像,并對(duì)圖像的復(fù)雜度進(jìn)行描述。對(duì)遙感圖像劃分類別進(jìn)行分析發(fā)現(xiàn),圖像按照復(fù)雜度分為3類時(shí)各類別的平均相似性最大,因此根據(jù)復(fù)雜度聚類獲得低、中、高復(fù)雜度的3類圖像。文獻(xiàn)[10]指出不同結(jié)構(gòu)的CNN與不同特征分布的遙感圖像敏感度有差異,使用對(duì)應(yīng)的CNN結(jié)構(gòu)處理敏感度較高的遙感圖像可充分發(fā)揮CNN固有特性,從而提高分類精度。僅加深和加寬網(wǎng)絡(luò)模型雖然可提高圖像分類任務(wù)的正確率[11-12],但會(huì)給算法效率、硬件條件帶來(lái)更大壓力,造成神經(jīng)網(wǎng)絡(luò)梯度不穩(wěn)定與網(wǎng)絡(luò)退化等問(wèn)題,導(dǎo)致算法性能下降[13]。因此,針對(duì)不同特征分布的圖像改進(jìn)模型結(jié)構(gòu)可獲得更高的分類準(zhǔn)確率和算法效率,并能適應(yīng)更多的硬件條件[14-15]。各類神經(jīng)網(wǎng)絡(luò)中DenseNet、CapsNet和SENet結(jié)構(gòu)分別對(duì)低、中、高復(fù)雜度圖像敏感度最高。

      本文針對(duì)上述情況提出與遙感圖像特征復(fù)雜度分布相匹配的多維自適應(yīng)模型。在對(duì)遙感場(chǎng)景圖像進(jìn)行分類處理時(shí),先計(jì)算輸入圖像的復(fù)雜度描述矩陣(由顏色矩、灰度共生矩陣、信息熵、信息增益以及線占比等多重特征組成的1×15維矩陣),再根據(jù)上述特征采用層次聚類方式獲得3種復(fù)雜度子集,最后分別使用DenseNet、CapsNet、SENet訓(xùn)練與其相適應(yīng)的圖像,以獲得復(fù)雜度與神經(jīng)網(wǎng)絡(luò)自適應(yīng)的模型。

      2.1 圖像復(fù)雜度矩陣

      評(píng)價(jià)圖像復(fù)雜度的方法較多,包括基于圖像紋理、模糊數(shù)學(xué)理論、多特征集成的圖像復(fù)雜度評(píng)價(jià)方法,以及基于信息論衡量的圖像復(fù)雜度評(píng)價(jià)方法等[16-18]。由于遙感圖像的顏色特征、輪廓、紋理特征較突出,因此本文基于前人研究工作[19-21]提出一種1×15維的特征描述矩陣,其中包括顏色特征、紋理特征、空間特征、信息熵特征、拉普拉斯邊緣檢測(cè)線占比等特征。雖然同類別地表類型圖像在不同分辨率與成像方式下具有不同的深層次特征,但從中獲得復(fù)雜度評(píng)價(jià)矩陣特征分布的方法類似,因此不同類別遙感場(chǎng)景在復(fù)雜度評(píng)價(jià)矩陣中的區(qū)別較明顯。

      1)顏色矩

      顏色矩[21]是一種顏色特征評(píng)價(jià)方式,用矩表示圖像顏色分布情況,其計(jì)算參數(shù)較少。為獲得更佳的復(fù)雜度評(píng)價(jià)效果,通常采用一階矩、二階矩、三階矩表示圖像的顏色特征。顏色矩的計(jì)算公式如下:

      (1)

      (2)

      (3)

      其中,pi,j表示彩色圖像第j個(gè)像素的第i個(gè)顏色分量,ui表示所有像素第i個(gè)顏色分量的平均值,N表示像素個(gè)數(shù)。圖像的三階顏色矩組成1個(gè)9維向量表示顏色特征,表達(dá)式為:

      Fcolor=[μH,σH,sH,μs,σs,ss,μv,σv,sv]

      (4)

      2)灰度共生矩陣

      灰度共生矩陣[22]是當(dāng)圖像中灰度級(jí)值為m的像素以及與其距離為δ(Δx,Δy)且灰度級(jí)值為n的像素都出現(xiàn)時(shí),2個(gè)像素灰度級(jí)同時(shí)發(fā)生的概率將空間坐標(biāo)映射為灰度對(duì)所構(gòu)成灰度共生矩陣?;叶裙采仃囉胮(m,n,d,θ)(m,n=0,1,…,L-1)表示,其中m和n分別為2個(gè)像素點(diǎn)的灰度級(jí)值,L為圖像的灰度級(jí),d和θ分別為2個(gè)像素點(diǎn)的距離關(guān)系和方位關(guān)系。從灰度共生矩陣中可獲得包含圖像紋理信息的子特征,因此本文從灰度共生矩陣中提取能量、熵、對(duì)比度以及倒數(shù)差分矩作為圖像復(fù)雜度的評(píng)價(jià)子。

      定義1(能量) 能量是灰度共生矩陣各元素值的平方和,用于度量圖像紋理灰度變化穩(wěn)定程度,反映圖像灰度均勻程度和紋理粗細(xì)度特征,其計(jì)算公式為:

      (5)

      定義2(熵) 熵是圖像包含信息量的隨機(jī)性度量,即圖像中紋理的信息量,反映圖像的紋理特征,其計(jì)算公式為:

      (6)

      定義3(對(duì)比度) 對(duì)比度用于度量灰度共生矩陣值的分布和圖像局部變化程度,反映圖像中紋理清晰程度特征,其計(jì)算公式為:

      (7)

      定義4(倒數(shù)差分矩) 倒數(shù)差分矩反映圖像紋理的同質(zhì)性,即圖像紋理局部變化程度,其計(jì)算公式為:

      (8)

      上述灰度共生矩陣的4個(gè)特征描述子構(gòu)成4維向量特征,表達(dá)式為:

      FGray=[Eng,Ent,Con,Idm]

      (9)

      3)圖像信息熵

      圖像信息熵用于統(tǒng)計(jì)特征數(shù)量,可表示圖像灰度分布的聚集特征,其計(jì)算公式為:

      (10)

      其中,a表示像素的灰度值且0≤a≤255,b表示鄰域灰度均值且0≤b≤255,pa,b表示灰度值為a、鄰域灰度均值為b的像素所占比例。

      4)拉普拉斯邊緣檢測(cè)線占比

      圖像通過(guò)拉普拉斯邊緣檢測(cè)可獲得圖像輪廓線條灰度圖,計(jì)算輪廓線數(shù)值與整體像素比值所得圖像線占比L用來(lái)表示圖像輪廓特征,即L=Lap/Img,Lap表示經(jīng)拉普拉斯邊緣檢測(cè)后的像素矩陣,Img表示原像素矩陣。

      將上述特征分量組合后得到圖像復(fù)雜度評(píng)價(jià)矩陣,即描述圖像復(fù)雜度所需的15維向量矩陣Ffeature=FGray+Fcolor+E+L,其結(jié)構(gòu)如圖1所示。

      圖1 圖像復(fù)雜度評(píng)價(jià)矩陣的結(jié)構(gòu)Fig.1 Structure of image complexity evaluation matrix

      2.2 針對(duì)圖像復(fù)雜度的層次聚類劃分

      層次聚類是一種無(wú)監(jiān)督聚類,通過(guò)迭代計(jì)算各類別數(shù)據(jù)點(diǎn)相似度可構(gòu)建1棵有層次的嵌套聚類樹(shù)。本文采用自下而上的合并方法創(chuàng)建聚類樹(shù),層次聚類的合并過(guò)程為:計(jì)算2類數(shù)據(jù)點(diǎn)的相似性,再組合所有數(shù)據(jù)點(diǎn)中相似度最高的2個(gè)數(shù)據(jù)點(diǎn),然后反復(fù)迭代該過(guò)程。層次聚類使用歐式距離計(jì)算不同類別數(shù)據(jù)點(diǎn)的距離相似度(D),計(jì)算公式為:

      (11)

      采用圖像復(fù)雜度評(píng)價(jià)矩陣Ffeature計(jì)算各圖像之間的相似性得到不同復(fù)雜度[23],從而獲得不同復(fù)雜度的圖像子集并映射到原始圖像上,將原始圖像按此規(guī)律進(jìn)行劃分,從而獲得不同復(fù)雜度的圖像子集(NWPU-RESISC45、UC Mered、WHU-RS)。本文使用Calinski-Harabaz分?jǐn)?shù)評(píng)價(jià)類簇?cái)?shù)不同時(shí)的聚類效果。Calinski-Harabaz分?jǐn)?shù)是分離度與緊密度的比值,該值越大說(shuō)明類自身越緊密、類與類之間越分散,即聚類結(jié)果更優(yōu),反之說(shuō)明聚類效果不佳。Calinski-Harabaz分?jǐn)?shù)的計(jì)算公式如下:

      (12)

      其中,m為圖像數(shù)據(jù)總量,k為簇?cái)?shù),Bk為簇間協(xié)方差矩陣,Wk為簇內(nèi)協(xié)方差矩陣,tr為矩陣的跡(矩陣主對(duì)角線上元素總和)。

      對(duì)3類遙感圖像子集復(fù)雜度矩陣進(jìn)行簇?cái)?shù)為2~5的聚類分析,得到Calinski-Harabaz分?jǐn)?shù)如表1所示,可以看出當(dāng)簇?cái)?shù)為3時(shí)各類遙感圖像子集所得Calinski-Harabaz分?jǐn)?shù)最高,因此在中等類別數(shù)量規(guī)模的遙感場(chǎng)景圖像中聚類劃分簇?cái)?shù)為3較合適。

      表1 3類遙感圖像子集所得Calinski-Harabaz分?jǐn)?shù)Table 1 Calinski-Harabaz scores from three remotesensing image subsets

      圖2為3類圖像子集圖例??梢钥闯?第1類圖像子集為草地、沙漠等,信息量較少;第2類圖像子集為湖泊、運(yùn)動(dòng)場(chǎng)等,信息量適中;第3類圖像子集為商業(yè)區(qū)、港口等,信息量較大。因此,上述3類圖像子集分別標(biāo)定為低復(fù)雜度、中復(fù)雜度和高復(fù)雜度,各圖像子集在不同復(fù)雜度下的數(shù)據(jù)量如表2所示。

      圖2 3類圖像子集圖例Fig.2 Legend of three image subsets

      表2 3類圖像子集在不同復(fù)雜度下的數(shù)據(jù)量Table 2 Data quantity with different complexity ofthree image subsets

      2.3 自適應(yīng)復(fù)雜度子集的神經(jīng)網(wǎng)絡(luò)

      本文引入DenseNet、CapsNet、SENet 3種網(wǎng)絡(luò)作為自適應(yīng)復(fù)雜度子集的神經(jīng)網(wǎng)絡(luò)模型集成對(duì)象。

      2.3.1 DenseNet

      DenseNet[24]將卷積和池化層的輸出特征作為卷積層的特征輸入,其結(jié)構(gòu)如圖3所示。

      圖3 DenseNet結(jié)構(gòu)Fig.3 DenseNet structure

      在本文遙感場(chǎng)景分類任務(wù)的DenseNet中,每L層有L(L+1)/2個(gè)連接,即L層的輸出為xl,表示為:

      xl=F(xx-1)+xl-1+xl-2+Lx1

      (13)

      DenseNet能很好地保留與利用模型中卷積層所得的圖像低維特征[25],而沙漠、草地等低復(fù)雜度圖像的內(nèi)容和高維特征較少。DenseNet既可充分利用低維特征也能避免高維特征干擾,因此其對(duì)于復(fù)雜度較低圖像的敏感度較其他復(fù)雜度的圖像更強(qiáng),通常用DenseNet訓(xùn)練低復(fù)雜度遙感場(chǎng)景圖像。

      2.3.2 CapsNet

      與傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)相比,膠囊網(wǎng)絡(luò)(Capsule Network,CapsNet)[26]用向量信息取代標(biāo)量信息,即在傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的輸入線性求和階段增加耦合系數(shù)cij,其輸入Sj的計(jì)算公式為:

      (14)

      其中,μi為上一層CapsNet的輸出,Wij為每個(gè)輸出的權(quán)值,上一層每個(gè)膠囊神經(jīng)元以不同強(qiáng)弱的連接輸出到下一層某個(gè)神經(jīng)元。耦合系數(shù)cij的計(jì)算公式為:

      (15)

      其中,b初始值為0,由更新bij←bij+Wijμivj獲得。在前向傳播求Si的過(guò)程中,Wij為隨機(jī)值,b初始化為0可得到cij,μi為上一層CapsNet的輸出,通過(guò)Cij、Wij、μi的值可得到下一層輸入,CapsNet就能更好地保存圖像的位置與方向信息,CapsNet結(jié)構(gòu)如圖4所示。對(duì)于遙感圖像而言,拍攝角度變換、距離不同會(huì)造成神經(jīng)網(wǎng)絡(luò)的誤判,而CapsNet能很好地解決上述問(wèn)題,從而獲得更高的分類準(zhǔn)確率[27]。由于中復(fù)雜度圖像通常目標(biāo)較完整,比低復(fù)雜度圖像具有更多深層次特征,且不像高復(fù)雜度圖像分布復(fù)雜與特征繁多,因此對(duì)于中復(fù)雜度圖像,CapsNet不會(huì)遺漏其整體位置、方向等重要特征,也不會(huì)受更高維特征的干擾,較其他網(wǎng)絡(luò)敏感度更強(qiáng)。而低復(fù)雜度圖像具有的特征更少,其位置分布和輪廓特征不明顯,CapsNet分類效果不如DenseNet,因此通常用CapsNet訓(xùn)練中復(fù)雜度遙感場(chǎng)景圖像。

      圖4 CapsNet結(jié)構(gòu)Fig.4 CapsNet structure

      2.3.3 SENet

      SENet[28]采用特征重標(biāo)定策略,先通過(guò)Squeeze操作壓縮特征,用1個(gè)實(shí)數(shù)表示各二維特征通道,該實(shí)數(shù)有一定的全局感受野,輸出的維度和輸入的特征通道數(shù)相匹配,Squeeze操作的計(jì)算公式如下:

      (16)

      然后進(jìn)行Excitation操作,通過(guò)學(xué)習(xí)更新參數(shù)w進(jìn)行特征通道之間相關(guān)性建模,再進(jìn)行Reweight操作,即選擇Excitation輸出表示特征后,每個(gè)特征通道的重要性權(quán)重與原始特征矩陣進(jìn)行相乘加權(quán),從而完成在各通道上對(duì)原始特征的重標(biāo)定。SENet能對(duì)復(fù)雜圖像的多維特征進(jìn)行排序篩選,以避免冗余特征干擾,達(dá)到更好的分類效果[29],其結(jié)構(gòu)如圖5所示。高復(fù)雜度圖像通常包含龐大的信息量,在位置關(guān)系、輪廓特征、顏色特征等方面更復(fù)雜,從中提取的有用特征較其他復(fù)雜度圖像更多。如果不考慮上述特征則會(huì)降低最終的分類效果,而SENet能全面考慮與有效利用各特征,對(duì)高復(fù)雜度圖像而言,SENet較其他網(wǎng)絡(luò)敏感度更強(qiáng)。因此,通常用SENet訓(xùn)練高復(fù)雜度遙感場(chǎng)景圖像。

      圖5 SENet結(jié)構(gòu)Fig.5 SENet structure

      2.4 本文自適應(yīng)算法

      對(duì)于遙感場(chǎng)景分類任務(wù)中的遙感圖像,先使用復(fù)雜度評(píng)價(jià)矩陣抽取遙感圖像的復(fù)雜度特征,再使用2.2節(jié)中的聚類方式對(duì)該復(fù)雜度評(píng)價(jià)矩陣進(jìn)行聚類,從而獲得3種復(fù)雜度的圖像子集,分析其中的圖像并進(jìn)行高、中、低復(fù)雜度標(biāo)定,然后分別用2.3節(jié)中的3種神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,最終獲得復(fù)雜度聚類模型和與對(duì)應(yīng)復(fù)雜度敏感的神經(jīng)網(wǎng)絡(luò)模型。用復(fù)雜度聚類模型對(duì)測(cè)試數(shù)據(jù)進(jìn)行復(fù)雜度劃分,再將對(duì)應(yīng)的復(fù)雜度敏感模型進(jìn)行分類,從而獲得更精準(zhǔn)的分類結(jié)果。在對(duì)各復(fù)雜度敏感的神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練過(guò)程中,為獲得更全面的特征分布,對(duì)不同復(fù)雜度的圖像數(shù)據(jù)進(jìn)行增強(qiáng)[30]處理,使其擴(kuò)充為原來(lái)的5倍,算法的具體流程如圖6所示。

      圖6 本文自適應(yīng)算法流程Fig.6 Procedure of the proposed adaptive algorithm

      該算法具體步驟如下:

      輸入有標(biāo)簽的訓(xùn)練集train,無(wú)標(biāo)簽的測(cè)試集test

      輸出測(cè)試遙感圖像的類別

      1)對(duì)訓(xùn)練集train進(jìn)行多特征抽取,獲得包含顏色矩、灰度共生矩陣、信息熵、信息增益、線占比多重特征的1×15維復(fù)雜度描述矩陣。

      2)根據(jù)復(fù)雜度描述矩陣使用層次聚類方法將訓(xùn)練集train中圖像劃分低、中、高3個(gè)復(fù)雜度,獲得trainL(低復(fù)雜度)、trainM(中復(fù)雜度)、trainH(高復(fù)雜度)和復(fù)雜度聚類模型M0。

      3)采用數(shù)據(jù)增強(qiáng)方法將trainL、trainM、trainH分別擴(kuò)充為原來(lái)的5倍,再使用DenseNet、CapsNet、SENet分別訓(xùn)練復(fù)雜度低、中、高的數(shù)據(jù)集,獲得與對(duì)應(yīng)復(fù)雜度敏感的神經(jīng)網(wǎng)絡(luò)模型M1、M2、M3。

      4)測(cè)試集test通過(guò)復(fù)雜度聚類模型M0劃分屬于低、中、高3個(gè)復(fù)雜度的測(cè)試圖像testL、testM、testH,再將其分別通過(guò)對(duì)其復(fù)雜度敏感的模型M1、M2、M3,所得結(jié)果即為測(cè)試集圖像的類別。

      3 實(shí)驗(yàn)與結(jié)果分析

      本文分別在NWPU-RESISC45數(shù)據(jù)集、UC Mered數(shù)據(jù)集、WHU-RS數(shù)據(jù)集3個(gè)數(shù)據(jù)集上驗(yàn)證所提模型的有效性。NWPU-RESISC45數(shù)據(jù)集具有45個(gè)遙感場(chǎng)景類別,其中每類有700張尺寸為256像素×256像素的圖像。UC Merced數(shù)據(jù)集來(lái)自美國(guó)地質(zhì)勘探局國(guó)家城市地圖,共有21個(gè)遙感場(chǎng)景類別,其中每類有100張尺寸為256像素×256像素的圖像。WHU-RS數(shù)據(jù)集來(lái)自武漢大學(xué)由Google Earth截取的衛(wèi)星遙感圖像,共有19個(gè)遙感場(chǎng)景類別,其中每類有50張尺寸為600像素×600像素的圖像。為確保實(shí)驗(yàn)的有效性,對(duì)訓(xùn)練模型的數(shù)據(jù)集進(jìn)行旋轉(zhuǎn)、平移、縮放與對(duì)比度拉伸變換等數(shù)據(jù)增強(qiáng)[30]處理,將其擴(kuò)大5倍。

      3.1 實(shí)驗(yàn)設(shè)置

      本文實(shí)驗(yàn)環(huán)境為GTX 1080Ti 12核32 GB機(jī)器,采用GPU訓(xùn)練。訓(xùn)練階段,使用Shuffle方式訓(xùn)練,Batch設(shè)定為16。為保證訓(xùn)練效率,圖像尺寸統(tǒng)一縮放為64像素×64像素,網(wǎng)絡(luò)輸入是Batch_size為16×64×64×3的4維張量。為使各模型訓(xùn)練收斂后作為最終模型,各模型的epoch設(shè)置為100。在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過(guò)程中,DenseNet和SENet模型使用Binary_crossentropy作為損失函數(shù),CapsNet模型使用Margin_loss作為損失函數(shù),SENet模型使用SGD算法作為優(yōu)化器,DenseNet和CapsNet模型使用Adam算法作為優(yōu)化器。以準(zhǔn)確率(A)作為最終分類效果的評(píng)價(jià)指標(biāo)。

      (17)

      其中:TP表示實(shí)際與預(yù)測(cè)都為正的樣本數(shù);FN表示實(shí)際為正而預(yù)測(cè)為負(fù)的樣本數(shù);TN表示實(shí)際與預(yù)測(cè)都為負(fù)的樣本數(shù);FP表示實(shí)際為負(fù)而預(yù)測(cè)為正的樣本數(shù)。

      3.2 實(shí)驗(yàn)結(jié)果

      本文實(shí)驗(yàn)與近期遙感場(chǎng)景分類任務(wù)進(jìn)行對(duì)比分析,結(jié)果如表3所示[2,30-31]??梢钥闯?在NWPU-RESISC45、UC Mered、WHU-RS數(shù)據(jù)集上,基于LLC、BoVW的傳統(tǒng)模型準(zhǔn)確率較低,約為0.5;AlexNet、VGGNet等神經(jīng)網(wǎng)絡(luò)模型準(zhǔn)確率較高,在0.8以上;而本文所選DenseNet、CapsNet、SENet等單一模型的準(zhǔn)確率明顯優(yōu)于其他模型,表明該類模型對(duì)遙感場(chǎng)景數(shù)據(jù)有更好的適應(yīng)性;本文自適應(yīng)模型在3個(gè)數(shù)據(jù)集上的準(zhǔn)確率較單一模型平均提高3個(gè)百分點(diǎn),分類效果提升明顯。

      表3 不同模型在3種數(shù)據(jù)集上的準(zhǔn)確率Table 3 Accuracy of different models onthree datasets

      圖7~圖9分別為DenseNet、CapsNet、SENet和本文自適應(yīng)模型分別在NWPU-RESISC45數(shù)據(jù)集、UC Mered數(shù)據(jù)集、WHU-RS數(shù)據(jù)集上得到的各類別準(zhǔn)確率??梢钥闯?對(duì)低復(fù)雜度的草地、沙漠等類別,DenseNet準(zhǔn)確率較高;對(duì)高復(fù)雜度的商業(yè)區(qū)、港口等類別,SENet準(zhǔn)確率較高;對(duì)中復(fù)雜度的運(yùn)動(dòng)場(chǎng)、機(jī)場(chǎng)等類別,CapsNet準(zhǔn)確率較高。本文自適應(yīng)模型在3個(gè)數(shù)據(jù)集上的整體準(zhǔn)確率均高于其他模型。

      上述實(shí)驗(yàn)表明,本文提出的自適應(yīng)模型對(duì)遙感場(chǎng)景分類準(zhǔn)確率提升效果明顯,既可有針對(duì)性提取與利用不同復(fù)雜度遙感圖像的特征,又能綜合各神經(jīng)網(wǎng)絡(luò)模型優(yōu)勢(shì),實(shí)現(xiàn)遙感圖像分類的高準(zhǔn)確率。

      圖7 4種模型在NWPU-RESISC45數(shù)據(jù)集上各場(chǎng)景類別的準(zhǔn)確率Fig.7 Accuracy of each sence category of four models on NWPU-RESISC45 dataset

      圖8 4種模型在UC Mered數(shù)據(jù)集上各場(chǎng)景類別的準(zhǔn)確率Fig.8 Accuracy of each sence category of four models on UC Mered dataset

      圖9 4種模型在WHU-RS數(shù)據(jù)集上各場(chǎng)景類別的準(zhǔn)確率Fig.9 Accuracy of each sence category of four models on WHU-RS dataset

      4 結(jié)束語(yǔ)

      針對(duì)遙感圖像復(fù)雜度與神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)存在適應(yīng)性關(guān)系的情況,本文提出一種自適應(yīng)神經(jīng)網(wǎng)絡(luò)分類模型。建立遙感圖像復(fù)雜度評(píng)價(jià)矩陣,計(jì)算獲得不同復(fù)雜度的圖像子集,并對(duì)圖像復(fù)雜度進(jìn)行層次聚類分級(jí),得到與遙感圖像復(fù)雜度匹配的多維自適應(yīng)神經(jīng)網(wǎng)絡(luò)模型。實(shí)驗(yàn)結(jié)果表明,與DenseNet、CapsNet、SENet等模型相比,該模型具有更高的遙感場(chǎng)景分類準(zhǔn)確率。下一步將在評(píng)價(jià)矩陣中引入肯德?tīng)柕燃?jí)、可決系數(shù)等指標(biāo),使模型對(duì)大規(guī)模數(shù)據(jù)具有更好的普適性。

      猜你喜歡
      復(fù)雜度灰度準(zhǔn)確率
      采用改進(jìn)導(dǎo)重法的拓?fù)浣Y(jié)構(gòu)灰度單元過(guò)濾技術(shù)
      基于灰度拉伸的圖像水位識(shí)別方法研究
      乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
      健康之家(2021年19期)2021-05-23 11:17:39
      不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
      2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
      一種低復(fù)雜度的慣性/GNSS矢量深組合方法
      高速公路車(chē)牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
      求圖上廣探樹(shù)的時(shí)間復(fù)雜度
      基于最大加權(quán)投影求解的彩色圖像灰度化對(duì)比度保留算法
      基于灰度線性建模的亞像素圖像抖動(dòng)量計(jì)算
      武冈市| 罗山县| 中西区| 乌拉特中旗| 化德县| 泰兴市| 保亭| 库尔勒市| 阳泉市| 松溪县| 弋阳县| 凤庆县| 合川市| 通江县| 万州区| 南丹县| 资中县| 武胜县| 内乡县| 仙居县| 新乐市| 弥渡县| 武鸣县| 蒙城县| 保亭| 江都市| 昭苏县| 西林县| 无棣县| 饶阳县| 旬邑县| 东乡县| 奎屯市| 汕尾市| 高平市| 武隆县| 锡林郭勒盟| 米脂县| 蛟河市| 上栗县| 双桥区|