• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于結(jié)構(gòu)化特征的遙感影像道路智能提取方法

      2021-05-21 09:20:48王文慶胡若同賀浩楊東方馬曉華
      中國空間科學技術(shù) 2021年2期
      關(guān)鍵詞:結(jié)構(gòu)化算子損失

      王文慶,胡若同,賀浩,楊東方,* 馬曉華

      1. 西安郵電大學 自動化學院,西安 710121 2. 火箭軍工程大學 導彈工程學院,西安 710025 3. 火箭軍裝備部駐南京地區(qū)第二軍事代表室 南京 210023

      遙感圖像數(shù)據(jù)通常包含道路空間分布信息,建筑物和其他人工特征等信息,道路的提取在交通導航、城市規(guī)劃、農(nóng)林及飛行器自動駕駛等諸多領(lǐng)域發(fā)揮重要作用。人類觀測手段的更新和交通建設(shè)的日新月異對道路自動提取技術(shù)不斷提出更高的要求。在此情況下,如何利用海量的數(shù)據(jù),快速且完備地提取道路信息以更新地理信息系統(tǒng),成為該領(lǐng)域的研究熱點。

      針對遙感圖像道路智能提取問題,在深度學習之前,相關(guān)研究絕大多數(shù)都采用“特征匹配+道路連接”的思路[1-7]。2010年,Mnih等[8]首次提出使用深度人工神經(jīng)網(wǎng)絡(luò)從遙感影像中提取道路的方法,這也被認為是遙感圖像道路智能提取的開端。隨后,Wang等[9]訓練了一個深度卷積神經(jīng)網(wǎng)絡(luò),將道路類型分為直線,十字路口和街區(qū),用于地表交通信息的智能提取。Saito[10],Zhong[11]等將FCN等深度網(wǎng)絡(luò)對道路和建筑物進行同時提取,進一步豐富了遙感圖像智能分割的功能。Wei等[12]基于FCN架構(gòu),設(shè)計了基于交叉熵損失函數(shù)的道路提取網(wǎng)絡(luò)優(yōu)化指標。Panboonyuen[13]利用SegNet結(jié)構(gòu),并使用條件隨機場對提取結(jié)果進行后處理,提高了道路提取精度。Cheng[14],Zhang[15]等對道路提取網(wǎng)絡(luò)結(jié)構(gòu)進行了改進,分別提出了級聯(lián)Encoder-Decoder網(wǎng)絡(luò)以及深度殘差網(wǎng)絡(luò),得到了比典型分割網(wǎng)絡(luò)U-net更高的精度。除了對網(wǎng)絡(luò)模型的研究和應(yīng)用外,還有一些針對網(wǎng)絡(luò)內(nèi)部結(jié)構(gòu)和針對目標特征的后處理方法的創(chuàng)新研究。Mosinska[16]提出了一種基于U-Net作為損失函數(shù)評估的VGG網(wǎng)絡(luò)的預訓練模型,并將提取結(jié)果的優(yōu)化后處理集成到網(wǎng)絡(luò)的訓練過程中。Pan等[17]在同一層中考慮了線性目標的空間特征與空間卷積結(jié)構(gòu)之間的相關(guān)性,從而提高了網(wǎng)絡(luò)表示微小線狀目標的能力。

      事實上,道路通常是線狀的,有時具有網(wǎng)狀結(jié)構(gòu),細節(jié)信息豐富,但抽象語義信息則相對簡單,這些特征對網(wǎng)絡(luò)提取細節(jié)特征的能力提出了更高的要求?;谶b感圖像道路提取問題的實際特點,本文將淺層編解碼網(wǎng)絡(luò)和道路的結(jié)構(gòu)化特征相結(jié)合,提出了一種新的遙感圖像道路智能提取方法,文中稱其為結(jié)構(gòu)化特征輔助的道路智能提取方法。

      1 結(jié)構(gòu)化特征描述道路智能提取方法

      首先設(shè)計了一種適合于道路高分辨率提取任務(wù)的淺層編解碼分割網(wǎng)絡(luò)(shallow encoder-decoder,SED),同時在損失函數(shù)中引入結(jié)構(gòu)相似性(SSIM)損失,并提出道路結(jié)構(gòu)描述算子對道路提取進行優(yōu)化。通過對道路影像的多角度旋轉(zhuǎn)和鏡像映射來擴充訓練數(shù)據(jù)集,道路提取結(jié)果采用語義分割的評價方法,即準確率(accuracy)、召回率(recall)、F1-score。由于道路更加關(guān)注細節(jié)特征,而對感受野更大的高層抽象特征不敏感。因此,在課題組前期研究工作的基礎(chǔ)上[18],引入結(jié)構(gòu)相似性損失和結(jié)構(gòu)描述算子對道路提取結(jié)果進行優(yōu)化。

      1.1 SSIM損失函數(shù)

      通常道路目標呈現(xiàn)出高度結(jié)構(gòu)化,像素間表現(xiàn)出較強的依賴性,尤其是空間關(guān)系。但是,一般損失(例如交叉熵)為每個像素分配相等的權(quán)重,并在度量相似性時忽略兩圖空間信息。語義分割的交叉熵(BCE)損失函數(shù)如式(1),采用該損失函數(shù)作為基礎(chǔ)。

      (1)

      SSIM(x,y)=[l(x,y)α·c(x,y)β·

      s(x,y)γ]

      (2)

      式中:權(quán)重α>0,β>0,γ>0;l、c、s分別為亮度比較函數(shù)、對比度函數(shù)、相似度函數(shù)[18]。將該參數(shù)設(shè)置為α=β=γ=1,C3=C2/2,因此相似性度量又可被定義為:

      (3)

      對于道路分割問題,最好在局部而不是在全局應(yīng)用SSIM。這是因為圖像中的道路分布不均勻:某些區(qū)域包含很多局部細節(jié),而其他則是空白。全局SSIM可能忽略有效的本地信息,并且可能降低相似性估計的效率。此外,道路提取的預測結(jié)果通常針對局部,因此應(yīng)當首先使用局部結(jié)構(gòu)統(tǒng)計數(shù)據(jù)來衡量相似性。

      局部信息μx,σx和σxy可以通過滑動窗口進行計算,使用標準偏差為1.5的15×15單位圓對稱高斯加權(quán)矩陣ω,以使其表現(xiàn)出局部各向同性的特性。其中μx,σx和σxy定義為:

      (4)

      (5)

      (6)

      在訓練網(wǎng)絡(luò)時,有必要將度量標準壓縮為一個函數(shù)。因此,將平均SSIM(MSSIM)損耗用于評估整體圖像質(zhì)量:

      (7)

      式中:X和Y為真實圖和預測圖;xj,yj為第j個窗口的內(nèi)容;M為局部滑動窗口的總數(shù)量。要將SSIM損失與端到端的卷積網(wǎng)絡(luò)集成在一起,可以使用卷積層來計算所有局部統(tǒng)計信息:

      μx=Conv(X,ω)

      (8)

      最終的SSIM損失為:

      (9)

      其中

      (10)

      σxy=Conv(X⊙Y,ω)-μx⊙μy

      (11)

      式中:Conv(X,ω)表示X與ω的卷積核;⊙表示兩個張量之間的Hadamard積。

      顯然,SSIM損失函數(shù)中的所有數(shù)學運算都是可導的,所以可以直接應(yīng)用于端到端卷積網(wǎng)絡(luò),我們將SSIM損失與BCE損失相結(jié)合來訓練網(wǎng)絡(luò),最終損失為:

      Loss=LossBCE+LossSSIM

      (12)

      1.2 結(jié)構(gòu)優(yōu)化算子

      道路提取過程中,由于存在陰影、遮擋等原因,使得像素特征和其他道路區(qū)域差異很大。此時網(wǎng)絡(luò)對于該區(qū)域的表達能力受到了限制,調(diào)整超參數(shù)以使網(wǎng)絡(luò)對這些點的預測也和真實道路去接近會增加網(wǎng)絡(luò)訓練的收斂難度。在進行道路提取預測時,利用更多的是道路網(wǎng)絡(luò)的結(jié)構(gòu)特征,像素特征用于提取特別明確的道路區(qū)域,而被遮擋的區(qū)域可以通過結(jié)構(gòu)描述算子,實現(xiàn)結(jié)構(gòu)一致性,來彌補像素特征道路提取的缺陷。利用場景所描述的結(jié)構(gòu)特征,能夠更好地提升道路提取精度。道路語義信息較為簡單,網(wǎng)絡(luò)在得到語義分割圖時沒有考慮到道路的方向這一結(jié)構(gòu)信息,容易產(chǎn)生道路區(qū)域不連續(xù)、空洞和邊緣不平滑等問題。在道路二值分割圖的基礎(chǔ)上進行道路區(qū)域逐像素方向判斷,利用道路二值分割圖的方向信息對原圖進行修正以達到改善網(wǎng)絡(luò)輸出的目的。

      在圖像道路區(qū)域隨機生成初始點并生成所有的初始方向,以像素點為原點將2π分為2n份,則不同初始方向誤差為π/n。以像素點O(x,y)為原點在不同初始方向上分別進行延長操作,當延長到非道路目標區(qū)域時停止,此時停止點坐標為Ps(xs,ys)。記錄該方向的向量模長,則該像素點的主方向向量V(x,y)由該點出發(fā)的所有方向模長最大的方向確定:

      (13)

      (14)

      道路結(jié)構(gòu)化描述算子如圖1所示。

      圖1 結(jié)構(gòu)算子示意Fig.1 Structural operator

      在道路結(jié)構(gòu)化描述算子的基礎(chǔ)上,本文采用滑動窗口的方法對道路區(qū)域進行道路提取結(jié)果的優(yōu)化,其中滑動窗口所在區(qū)域的方向由所有像素最大模長的方向確定?;瑒哟翱诓僮鬟^程如圖2所示。

      圖2 滑動窗口道路提取結(jié)果的優(yōu)化過程Fig.2 Sliding optimization of road extraction results

      在一個窗口大小的范圍內(nèi)進行道路區(qū)域修正,在語義分割二值化后的圖像上使用滑動窗口。該窗口以圖像像素點為中心,采用一個大小與道路目標路寬呈正相關(guān)的滑動窗口對斷連部分進行修正。道路目標路寬由道路主方向的法線方向到達非目標區(qū)域的方向向量模長確定,記錄落入該窗口的像素方向向量,分別計算該中心點到該窗口內(nèi)所有像素方向向量的截斷距離。對每一個像素點與目標道路接近程度進行度量,f(i)描述第i個點(xi,yi)距離道路區(qū)域的接近程度:

      (15)

      (16)

      其中

      (17)

      若f(i)達到某一閾值,則認為該點為道路目標,將該點Pixeli填充為白色,實現(xiàn)斷連道路目標的修正,生成一幅修正后的分割圖。

      (18)

      式中:Pixeli為第i個像素點的灰度值;thresh為道路目標相似性度量的閾值。結(jié)構(gòu)描述算子優(yōu)化結(jié)果對比如圖3所示,從左到右分別為真值圖,預測圖和優(yōu)化圖,可以看到道路斷連問題得到了一定程度的解決與優(yōu)化。

      圖3 結(jié)構(gòu)化特征優(yōu)化對比示意Fig.3 Comparison between prediction and structural operator optimized image

      不同的圖像分割任務(wù),對特征的描述和提取過程存在較大的差異。針對道路目標結(jié)構(gòu)性強、細節(jié)特征不明顯的特點,提出網(wǎng)絡(luò)分割與結(jié)構(gòu)化特征優(yōu)化相結(jié)合的方法,使用結(jié)構(gòu)化特征描述子對道路提取的高分辨率細節(jié)圖像特征進行補充,對道路提取結(jié)果進行優(yōu)化。

      2 試驗驗證和性能分析

      試驗以最大的衛(wèi)星遙感影像道路數(shù)據(jù)集“馬薩諸塞州道路”作為數(shù)據(jù)集。該數(shù)據(jù)集覆蓋了美國馬薩諸塞州超過2 600 km2,每個都是1 500×1 500像素的RGB圖像,分辨率為1 m/像素。訓練集包含1 108幅衛(wèi)星圖像,測試集包含49幅,驗證集包含14幅。由于深度學習的訓練過程需要大量數(shù)據(jù),因此通過旋轉(zhuǎn)和翻轉(zhuǎn)(水平和垂直)來增加訓練數(shù)據(jù),最終共有6 648張圖像。

      圖4 訓練數(shù)據(jù)增廣過程示意Fig.4 Augmentation of training dataset

      試驗使用Adam優(yōu)化器來更新參數(shù),參數(shù)采用了默認設(shè)置。學習率設(shè)置為0.001,指數(shù)衰減率設(shè)置為β1=0.9和β2=0.999,ε=10-9。所有試驗均使用PyTorch框架進行。試驗的硬件環(huán)境配置為:Intel Xeon E5-2630 v4,64 GB內(nèi)存,NVIDIA GeForce RTX 1080Ti GPU。對于結(jié)構(gòu)算子優(yōu)化部分,使用了一個大小為5像素的滑動窗口,角度劃分為20,閾值設(shè)為0.01。

      在馬薩諸塞州道路數(shù)據(jù)集上,對FCN,ELU-SegNet,Encoder-Decoder和SED等方法進行了比較,對應(yīng)的預測可視化如圖5所示。

      圖5 四種模型預測結(jié)果的可視化Fig.5 Visualization of prediction of four models

      為了對試驗結(jié)果進行量化對比,試驗過程中根據(jù)該數(shù)據(jù)及上采用不同方法得到的實驗結(jié)果進行了指標量化,對應(yīng)的指標結(jié)果對比如表1所示。

      從表1可以看出,改進的淺層Encoder-Decoder方法(SSIM)將道路提取精度提高到了85.3%,F(xiàn)1-score為84.6%,經(jīng)過結(jié)構(gòu)算子優(yōu)化后,與改進前相比其精度提高了3.6%,F(xiàn)1-score提高了3.4%。結(jié)構(gòu)損失與結(jié)構(gòu)優(yōu)化操作使提取更加合理和完整,提出的方法不僅具有提取細節(jié)信息的能力,還具有對整個目標道路的結(jié)構(gòu)信息描述的能力,此外結(jié)構(gòu)優(yōu)化對精度又進一步提升,試驗數(shù)據(jù)證明了改進的有效性。

      表1 不同模型的量化指標

      3 結(jié)束語

      為了提高遙感圖像道路智能提取的精度,從結(jié)構(gòu)相似性損失和結(jié)構(gòu)化特征描述子兩個方面,在編解碼網(wǎng)絡(luò)中引入道路的結(jié)構(gòu)特征,以獲得分辨率更高、道路局部特征更完整的道路提取結(jié)果。試驗結(jié)果證明了所提方法的有效性?;谝陨涎芯浚梢缘玫揭韵陆Y(jié)論:

      1)采用圖像分割網(wǎng)絡(luò)對遙感圖像進行道路智能提取在多個道路數(shù)據(jù)集上都取得了明顯的效果,能夠很大程度上緩解測繪遙感領(lǐng)域的道路標注任務(wù)復雜度,具有廣闊的應(yīng)用前景。

      2)在圖像分割網(wǎng)絡(luò)的基礎(chǔ)上,引入結(jié)構(gòu)化特征描述子優(yōu)化方法后,能夠?qū)⒌缆诽崛【忍嵘s7%。此外,該方法不受遙感成像區(qū)域的限制,具有很強的泛化能力。

      3)遙感圖像道路提取任務(wù)相比于普通的圖像分割任務(wù)而言,對目標的結(jié)構(gòu)描述要求更高。本文提出的方法充分利用道路結(jié)構(gòu)化特征,實現(xiàn)了精度更高的道路提取。

      猜你喜歡
      結(jié)構(gòu)化算子損失
      少問一句,損失千金
      胖胖損失了多少元
      擬微分算子在Hp(ω)上的有界性
      促進知識結(jié)構(gòu)化的主題式復習初探
      結(jié)構(gòu)化面試方法在研究生復試中的應(yīng)用
      計算機教育(2020年5期)2020-07-24 08:53:00
      各向異性次Laplace算子和擬p-次Laplace算子的Picone恒等式及其應(yīng)用
      一類Markov模算子半群與相應(yīng)的算子值Dirichlet型刻畫
      玉米抽穗前倒伏怎么辦?怎么減少損失?
      Roper-Suffridge延拓算子與Loewner鏈
      一般自由碰撞的最大動能損失
      德清县| 葵青区| 辽阳县| 永善县| 定陶县| 加查县| 东辽县| 横山县| 枝江市| 玉龙| 辰溪县| 康保县| 旅游| 东源县| 定兴县| 乐山市| 武强县| 中江县| 香港| 鸡东县| 张家川| 文昌市| 子洲县| 屏边| 浦北县| 开封市| 桦川县| 黔江区| 张掖市| 依兰县| 清原| 崇文区| 华蓥市| 青冈县| 勐海县| 南部县| 上杭县| 巴林右旗| 宁强县| 阜宁县| 怀化市|