• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于改進編解碼網(wǎng)絡(luò)的極化SAR地物分類

      2021-10-08 04:52:12閆成杰劉秀清
      雷達科學與技術(shù) 2021年4期
      關(guān)鍵詞:編解碼復數(shù)卷積

      閆成杰, 王 沛, 劉秀清

      (1. 中國科學院空天信息創(chuàng)新研究院, 北京 100190; 2. 中國科學院大學, 北京 100049)

      0 引言

      PolSAR圖像地物分類是PolSAR圖像解譯中非常重要的一個分支。傳統(tǒng)的PolSAR圖像分類算法主要根據(jù)圖像的統(tǒng)計特性或散射特性,采用支持向量機、隨機森林和集成學習等分類器進行分類,然而由于圖像斑點噪聲和地物復雜性的存在,目前傳統(tǒng)的機器學習方法不能取得令人滿意的效果[1]。

      近年來深度學習(DL)發(fā)展迅猛,在諸多領(lǐng)域取得了一系列突破。目前已有不少國內(nèi)外學者將深度學習應用于PolSAR領(lǐng)域,Xu等[2]利用CNN實現(xiàn)了PolSAR圖像相干變化的檢測。Wang等[3]利用CNN模型對雙極化SAR圖像進行海冰分類,成功地實現(xiàn)了海冰密度的估計。

      然而,以上方法[2-3]都是將PolSAR數(shù)據(jù)映射到實數(shù)域,然后進行切片預測,切片分類結(jié)果為中心像素點類別,因此存在邊界不連續(xù)和計算冗余的問題,除此之外,映射過程也造成了一定的信息損失。近年來計算機視覺領(lǐng)域提出了語義分割技術(shù),實現(xiàn)了端到端的像素級圖像分類,例如FCN、SegNet、DeepLab和U-Net等。文獻[4]利用 FCN實現(xiàn)了道路檢測和中心線提取。文獻[5]提出基于H-A-α分解輸入的FCN,實現(xiàn)了快速PolSAR圖像分類。雖然文獻[4-5]中的模型解決了計算冗余問題,但是在解碼的過程中圖像位置信息丟失,邊界不連續(xù)問題依然存在。編解碼網(wǎng)絡(luò)需要全標注的輸入圖像,這對于PolSAR圖像來說很難獲取,文獻[6]使用帶標記訓練像素的零初始化地面真值圖訓練FCN模型,但是這種方法存在網(wǎng)絡(luò)收斂速度較慢和邊緣粗糙問題。

      針對以上問題并結(jié)合PolSAR圖像的特性,我們對經(jīng)典的編解碼網(wǎng)絡(luò)作了一些改進。為了解決相位信息丟失問題,引入復數(shù)域CNN;為了解決邊緣粗糙問題,引入輔助通道,采用反池化和特征圖兩種方式進行位置信息傳遞;為了提升對多尺度地物的分類能力,在編碼網(wǎng)絡(luò)的最后一層引入IASPP;針對地面真值未全部標記的問題,我們進行兩階段模型訓練并使用動態(tài)標注和動態(tài)權(quán)重。綜上,本文的結(jié)構(gòu)安排如下:第一節(jié)介紹復數(shù)域CNN、IASPP、輔助通道以及上采樣的兩種方式。第二節(jié)詳細介紹改進編解碼網(wǎng)絡(luò)及其訓練流程。第三節(jié)為實驗部分,在基于AIRSAR平臺的16類地物數(shù)據(jù)上進行實驗,驗證本文所提出的算法的準確性和高效性。

      1 關(guān)鍵改進

      1.1 復數(shù)域CNN

      目前在深度學習領(lǐng)域?qū)AR圖像的分類研究大都集中在實數(shù)CNN。建模過程中,輸入、網(wǎng)絡(luò)參數(shù)和輸出都是實數(shù),需要將復數(shù)域SAR數(shù)據(jù)投影到實數(shù)域。投影必然會帶來信息丟失,尤其是相位信息的丟失,然而PolSAR數(shù)據(jù)的相位信息對于PolSAR圖像分類十分重要,因此將CNN推廣到復數(shù)域,是十分必要的。

      在復數(shù)域卷積神經(jīng)網(wǎng)絡(luò)(Complex-Valued-CNN, CV-CNN)中輸入圖像由實部和虛部兩部分組成,表達式如下:

      (1)

      式中,c為X的通道數(shù),m,n為圖像尺寸。在編程實現(xiàn)時我們由兩組交互并行的實數(shù)卷積網(wǎng)絡(luò)來等效構(gòu)成復卷積神經(jīng)網(wǎng)絡(luò),Xr和Xi分別表示實部和虛部,相對應卷積核表達式如下:

      (2)

      式中,c,o分別為卷積層的輸入、輸出通道數(shù),s為卷積核尺寸,Kr,Ki分別為卷積核的實部和虛部。

      記Conv(·)為實數(shù)卷積,記Conv(·)為復數(shù)卷積,記KO為第o個卷積核,則復數(shù)卷積的具體計算表達式如下:

      I′O=Conv(X,Ko)=

      Conv(Xr+jXi,Ko,r+jKo,i)=

      Conv(Xr,Ko,r)-Conv(Xi,Ko,i)+

      j[Conv(Xi,Ko,r)+Conv(Xr,Ko,i)]

      (3)

      即復數(shù)卷積的輸出為

      (4)

      1.2 改進型ASPP

      和普通卷積相比,空洞卷積引入了擴張率參數(shù),該參數(shù)定義了卷積核相鄰點之間插入的零的個數(shù)(擴張率-1),如圖1所示,分別表示普通卷積和擴張率為2的空洞卷積。

      文獻[7]指出多尺度特征有助于分類精度的提升,DeepLab[8]中受到空間金字塔池化的啟發(fā),提出ASPP,該方法使用具有不同擴張率的多個并行的空洞卷積層進行多尺度特征提取,最后將多個分支提取的特征進行融合。然而當擴張率過大時只有部分像素點參與計算,大量的信息丟失,因此文獻[9]提出DenseASPP,DenseASPP其實是多個串行的空洞卷積層,感受野逐層遞增。

      由于訓練數(shù)據(jù)集較少,如果采用DenseASPP 結(jié)構(gòu),深層網(wǎng)絡(luò)模型訓練難度較大,所以本文將ASPP和DenseASPP進行結(jié)合,提出了改進型空洞空間金字塔池化(IASPP)。IASPP結(jié)構(gòu)如圖2所示,整體結(jié)構(gòu)類似DenseASPP,兩層ASPP級聯(lián),最后經(jīng)過3×3卷積融合特征和通道降維得到多尺度特征圖。

      圖2 IASPP結(jié)構(gòu)圖

      假如空洞卷積擴張率為d,卷積核大小為k,則其感受野大小為

      R=(d-1)×(k-1)+k

      (5)

      兩個感受野分別為R1、R2的卷積層,級聯(lián)后的感受野為

      R=R1+R2-1

      (6)

      IASPP實際擴張率組合如圖3所示,最大感受野為33,而后續(xù)編碼網(wǎng)絡(luò)最后一層的輸出尺寸為32×32,因此33的感受野足夠大且不會因為過大而引入背景噪聲,除此之外,多種感受野的組合能夠捕獲更多的多尺度特征。

      圖3 級聯(lián)ASPP擴張率組合

      1.3 輔助通道

      PolSAR圖像的特征可以分為以下4個類別[10]:

      1) 基于辛克萊(Sinclair)散射矩陣[S],比如交叉極化比和共極化比;

      2) 基于協(xié)方差矩陣[C]、相關(guān)矩陣[T]的極化目標分解特征;

      3) 紋理特征;

      4) 空間語義特征。

      卷積神經(jīng)網(wǎng)絡(luò)低層部分學習紋理等簡單信息,高層部分學習高級語義信息,所以CNN只是利用了3)、4)的特征來進行分類。1)中的特征在傳統(tǒng)的分類中也不常用,在此不予考慮。對于2)中的極化目標分解特征,文獻[11]中指出可以分為4種:基于K矩陣的二分量分解、基于散射模型的目標極化分解、基于特征矢量的目標極化分解和基于散射矩陣的相干分解。

      為了引入極化目標分解特征,我們增加了輔助通道,整個輔助通道只采用1×1的卷積。對應以上4種分解,我們分別選取了Huynen分解,F(xiàn)reeman-Durden三分量分解,Cloude分解和Krogager分解組成一個12維的分解特征,以此作為輔助通道的輸入。輔助通道本身作為一個獨立的模型,具有分類的功能,所以輔助通道除了將位置信息傳遞給解碼網(wǎng)絡(luò)進行特征融合,還將分類結(jié)果傳遞給主通道進行模型融合。

      1.4 雙通道上采樣

      編解碼網(wǎng)絡(luò)為了實現(xiàn)端到端的像素級圖像分類,需要在解碼網(wǎng)絡(luò)中使用上采樣。本文使用上池化[12](unpooling)和反卷積&特征圖兩種上采樣方法:上池化是指在編碼網(wǎng)絡(luò)中記錄最大池化索引,在解碼網(wǎng)絡(luò)中利用該索引進行上采樣得到稀疏的特征圖,然后進行卷積操作生成密集的特征圖,主通道編碼網(wǎng)絡(luò)的位置信息采用此種方式傳遞給解碼網(wǎng)絡(luò),具體過程如圖4所示;反卷積&特征圖指把編碼網(wǎng)絡(luò)中池化之前的特征圖存儲下來,在解碼網(wǎng)絡(luò)中和反卷積得到的特征圖進行融合,這樣既保留的位置信息,又獲取了高層的語義信息,輔助通道的細節(jié)信息通過這種方式傳遞給解碼網(wǎng)絡(luò)。

      圖4 上池化示意圖

      2 改進編解碼網(wǎng)絡(luò)

      本節(jié)將介紹所提出模型的具體結(jié)構(gòu)和訓練流程。

      2.1 改進編解碼網(wǎng)絡(luò)整體架構(gòu)

      整個網(wǎng)絡(luò)架構(gòu)如圖5所示,由主通道和輔助通道組成。主通道是常規(guī)的編解碼架構(gòu),輔助通道通過解碼網(wǎng)絡(luò)和主通道進行交互。主通道在復數(shù)域進行計算,輔助通道在實數(shù)域進行計算。

      圖5 模型結(jié)構(gòu)

      編碼網(wǎng)絡(luò)由3個卷積層構(gòu)成。對于模型輸入數(shù)據(jù)和每個卷積層的輸出數(shù)據(jù)進行歸一化處理,用以加快模型的收斂速度并緩解梯度彌散問題。歸一化處理之后,使用Relu函數(shù)激活,使用尺寸 2×2,步長為2的窗口池化。對每個卷積層的參數(shù)進行隨機失活(dropout),用于增加網(wǎng)絡(luò)的泛化性能。從結(jié)構(gòu)圖中我們可以看到解碼網(wǎng)絡(luò)還連接了多尺度層,多尺度層的作用以及實現(xiàn)方法我們在1.2節(jié)已經(jīng)進行了詳細闡述。最終編碼網(wǎng)絡(luò)的輸出作為解碼網(wǎng)絡(luò)的輸入。

      解碼網(wǎng)絡(luò)將輸入進行上采樣,最終實現(xiàn)像素級概率圖的生成,其中上采樣是實現(xiàn)精確的目標分割的關(guān)鍵步驟。主輔通道上采樣方式如1.4節(jié)所述。主輔通道組合得到的特征圖通過卷積進行融合,使得與目標密切相關(guān)的部分得到放大,同時有效抑制來自其他區(qū)域的噪聲,最終生成準確的分割圖。

      2.2 訓練流程

      模型訓練分為兩步,首先訓練復數(shù)域CNN模型,輸入為以樣本點為中心的10×10的切片,輸出為切片中心點屬于每個類別的概率。然后進行參數(shù)傳遞并訓練改進編解碼網(wǎng)絡(luò),具體訓練流程如下:

      算法1改進型編解碼網(wǎng)絡(luò)

      輸入:協(xié)方差矩陣[C],分解特征D,真值標簽G。

      1) 將真值標簽G未標記的區(qū)域記為其他類,對像素點權(quán)重W進行初始化;

      2) 以步長為64的128×128滑窗在[C]和D上進行切片,獲得訓練數(shù)據(jù);

      3) 讀取存儲的復數(shù)域CNN模型,將參數(shù)轉(zhuǎn)移到主編碼網(wǎng)絡(luò)并凍結(jié),只訓練解碼網(wǎng)絡(luò)和輔助通道部分;

      4) 每次迭代得到預測結(jié)果M,根據(jù)M更新W和G;

      5) 根據(jù)更新的G和W進行下一輪迭代訓練。

      輸出:像素級的分類結(jié)果。

      算法1詳細介紹了編解碼網(wǎng)絡(luò)的訓練流程。針對輸入數(shù)據(jù)只有部分標注的問題,我們將未標記區(qū)域初始化為其他區(qū)域,利用每一次訓練的結(jié)果對這些區(qū)域進行偽標注,并作為下一輪學習的目標。除此之外,我們還引入了權(quán)重矩陣W,權(quán)重矩陣W的取值可以分為welse和wtrain兩大部分:welse為偽標注區(qū)域權(quán)重,賦予較小的值(本文采用1)且是固定的,雖然偽標注區(qū)域的標簽不完全正確,但是給偽標注區(qū)域賦予較小的權(quán)重,實驗證明整個網(wǎng)絡(luò)也是迭代收斂的;wtrain為標注區(qū)域權(quán)重,取值相對welse較大且是動態(tài)變化的,每一輪訓練之后對wtrain進行更新,預測正確的像素點權(quán)重不變(本文采用10),預測錯誤的像素點賦予更大的權(quán)重werror(本文采用50),這種動態(tài)的權(quán)重使得模型更多的關(guān)注區(qū)分難度比較大的類別。

      3 實驗結(jié)果與分析

      在本結(jié)中,首先給出了實驗數(shù)據(jù)集的描述和實驗結(jié)果評價指標,然后在PolSAR數(shù)據(jù)集上進行7組實驗:實數(shù)域CNN、復數(shù)域CNN、原始U-net網(wǎng)絡(luò)、編解碼網(wǎng)絡(luò)(M1)、編解碼網(wǎng)絡(luò)+預訓練(M2)、編解碼網(wǎng)絡(luò)+預訓練+多尺度(M3)、編解碼網(wǎng)絡(luò)+預訓練+多尺度+輔助通道(M4),證明了本文采用的算法以及算法中所采用的策略的有效性,其中M1-M3采用反卷積&特征圖進行位置信息傳遞。后續(xù)統(tǒng)一以括號中的簡寫來指代網(wǎng)絡(luò)模型。實驗基于Tensorflow深度學習框架,運行環(huán)境為NVIDIA GeForce GTX 1050-ti GPU(4 GB內(nèi)存)、Intel(R) Core(TM) i5-8300H CPU@2.3 GHz(16 GB內(nèi)存)。

      3.1 數(shù)據(jù)集和評估指標

      本文使用基于AIRSAR平臺的荷蘭Flevo-land地區(qū)PolSAR數(shù)據(jù)進行實驗。圖6(a)為Flevo-land基準數(shù)據(jù)的Pauli圖像。地面真值標簽和顏色對應關(guān)系分別在圖6(b)和圖6(c)中示出,圖6(b)中的黑色區(qū)域為未標注區(qū)域。圖像中有14類農(nóng)作物和2類人造目標,包括土豆、水果、燕麥、甜菜、大麥、洋蔥、小麥、豆類、豌豆、玉米、亞麻、油菜、草和苜蓿以及道路和少量建筑。

      圖6 Flevoland地區(qū)PolSAR數(shù)據(jù)

      本實驗采用Kappa系數(shù)、總體精度(OA)和類特定精度(PA)對實驗結(jié)果進行評估。Pab表示真值為a預測值為b的點數(shù),則ta=∑bPab表示類別a的像素點總數(shù),則有以下定義:

      類特定精度PA表示每個類別的預測正確率:

      (7)

      總體精度OA表示整個圖像預測的正確率:

      (8)

      Kappa系數(shù)是一個統(tǒng)計量,表示預測和地面真值之間的一致性:

      (9)

      其中求和符號的取值范圍是預測的類別。

      3.2 實驗結(jié)果

      M1和M2模型的訓練集和驗證集收斂曲線分別如圖7和圖8所示,為了便于觀察,兩幅圖的收斂曲線都作了適當?shù)钠交幚砗涂s放。由圖可知,M1、M2在訓練集上的表現(xiàn)相差無幾,但是在驗證集上M2的整體OA更高,而且由于M2的編碼網(wǎng)絡(luò)經(jīng)過了預訓練,整個網(wǎng)絡(luò)的收斂速度明顯快于M1。圖8中損失曲線先下降再上升,這是典型的過擬合表現(xiàn),有趣的是在損失上升的過程中驗證集的OA依然在提升,文獻[13]對該現(xiàn)象進行了解釋。

      圖7 M1和M2模型訓練集收斂曲線

      圖8 M1和M2模型驗證集收斂曲線

      表1是7組對比實驗的分類結(jié)果,每種地物的采樣率不高于10%。切片預測時間約為130 s,而編解碼網(wǎng)絡(luò)預測時間約為3 s,速度提升了約44倍。除了預測時間,我們還從Kappa系數(shù)、OA、PA三個指標來綜合評估算法的性能。由表1可知復數(shù)域CNN相比實數(shù)域CNN,OA和 Kappa系數(shù)分別提升1.01%、1.90%。文獻[14]指出原始U-net模型不適合直接應用于遙感領(lǐng)域,本文M1模型和原始U-net模型相比,基本結(jié)構(gòu)一致,但是具有更少的網(wǎng)絡(luò)層數(shù)和通道數(shù),在保證訓練精度的情況下,增加了泛化能力,實驗結(jié)果表明M1表現(xiàn)更好。M2和M1的對比見上一段落。M3引入多尺度,在7組實驗中道路PA最高,達到了97.15%。M4相比M3引入了輔助通道,在草地、土豆等多個類別實現(xiàn)了最高PA,而且整體OA和Kappa分別為99.18%、98.90%,在7組實驗中最高。

      圖9為Flevoland地區(qū)PolSAR圖像分類結(jié)果圖。圖9(c1)~(c4)的圖像組成部分從左到右、從上到下分別對應圖9(b1)~(b4)中的A、B、C、D、E、F六個區(qū)域,黑色為未知區(qū)域,綠色為預測正確部分,紅色為預測錯誤部分。從標注區(qū)域來看,M2相比M1整體預測誤差明顯減少。M2編碼網(wǎng)絡(luò)參數(shù)由復數(shù)域CNN轉(zhuǎn)移得來,根據(jù)復數(shù)域CNN的訓練流程可知,M2編碼部分的感受野只有10,對于大尺度物體預測性能有待改進。M3和M2相比引入了IASPP,可以發(fā)現(xiàn)A和C區(qū)域的道路誤差幾乎消失不見,然而引入多尺度的同時也會引入一些背景噪聲,這也就造成了E、F區(qū)域的預測效果有所下降。M4通過輔助通道引入單點信息,弱化了紋理特征,強化了細節(jié),因此M4和M3相比,B、E、F區(qū)域的分類邊緣誤差降低,但是A區(qū)域中道路預測誤差增加。

      綜上,對比實數(shù)域CNN和復數(shù)域CNN,可知復數(shù)域的引入使預測性能有了較大的提升;對比編解碼網(wǎng)絡(luò)和復數(shù)域CNN,可知編解碼網(wǎng)絡(luò)的預測速度有了質(zhì)的飛躍,同時預測精度也有所提升;對比U-net模型和本文提出的M1-M4模型(M1和U-net、M2和M1、M3和M2、M4和M3為4組對照實驗),證明了算法各個改進部分的有效性。綜合對比7組實驗,本文提出的M4模型整體表現(xiàn)最優(yōu)。

      表1 荷蘭Flevoland地區(qū)PolSAR圖像分類結(jié)果

      圖9 Flevoland地區(qū)PolSAR圖像分類結(jié)果

      4 結(jié)束語

      為了充分利用PolSAR圖像的相位信息并提高分類速度,本文提出了改進編解碼網(wǎng)絡(luò),將PolSAR數(shù)據(jù)的實部和虛部進行并行交互處理,間接實現(xiàn)了復數(shù)域CNN, 并且引入IASPP和輔助通道來進一步提升算法性能,訓練過程中通過參數(shù)傳遞加速收斂。在荷蘭Flevoland地區(qū)PolSAR數(shù)據(jù)上進行7組實驗,實驗結(jié)果驗證了本文所提出算法的有效性。針對地面真值難以全部標注的問題,本文提出了動態(tài)標簽和動態(tài)權(quán)重的方法,雖然最后實驗證明能夠收斂,但欠缺嚴格的數(shù)學證明,尋找更加嚴謹有效的解決方案是接下來的重點研究方向。如何能夠更加準確地區(qū)分極化特性近似的地物,也是后續(xù)工作重點之一。

      猜你喜歡
      編解碼復數(shù)卷積
      評析復數(shù)創(chuàng)新題
      基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
      求解復數(shù)模及最值的多種方法
      數(shù)系的擴充和復數(shù)的引入
      1553B總線控制器編解碼設(shè)計
      復數(shù)
      大型民機試飛遙測視頻編解碼方法研究
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      基于H.265編解碼的高清視頻傳輸系統(tǒng)研究
      電子測試(2018年18期)2018-11-14 02:30:54
      基于傅里葉域卷積表示的目標跟蹤算法
      哈密市| 密山市| 天长市| 连城县| 太仆寺旗| 湖口县| 赞皇县| 札达县| 宿迁市| 北川| 梁山县| 拜城县| 琼海市| 岑溪市| 金寨县| 谢通门县| 滕州市| 彭阳县| 九江县| 米泉市| 法库县| 竹溪县| 额敏县| 宾川县| 乌兰察布市| 封开县| 依兰县| 江阴市| 河津市| 芦溪县| 古浪县| 顺昌县| 武陟县| 蓬溪县| 呈贡县| 东方市| 博白县| 武城县| 承德市| 丰台区| 彭水|