• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      多尺度空洞卷積金字塔網(wǎng)絡(luò)建筑物提取

      2021-08-06 02:20張春森劉恒恒葛英偉史書張覓

      張春森 劉恒恒 葛英偉 史書 張覓

      摘 要:為改善現(xiàn)有深度學(xué)習(xí)方法獲取圖像特征尺度單一、提取精度較低等問題,提出多尺度空洞卷積金字塔網(wǎng)絡(luò)建筑物提取方法。多尺度空洞卷積金字塔網(wǎng)絡(luò)以U-Net為基礎(chǔ)模型,編碼-解碼階段采用空洞卷積替換普通卷積擴大感受野,使得每個卷積層輸出包含比普通卷積更大范圍的特征信息,以利于獲取遙感影像中建筑物特征的全局信息,金字塔池化模塊結(jié)合U-Net跳躍連接結(jié)構(gòu)整合多尺度的特征,以獲取高分辨率全局整體信息及低分辨率局部細節(jié)信息。在WHU數(shù)據(jù)集上進行提取實驗,交并比達到了91.876%,相比其他語義分割網(wǎng)絡(luò)交并比提升4.547%~10.826%,在Inria數(shù)據(jù)集上進行泛化實驗,泛化精度高于其他網(wǎng)絡(luò)。結(jié)果表明所提出的空洞卷積金字塔網(wǎng)絡(luò)提取精度高,泛化能力強,且在不同尺度建筑物提取上具有良好的適應(yīng)性。

      關(guān)鍵詞:建筑物提取;多尺度;空洞卷積;金字塔池化

      中圖分類號:P 237

      文獻標(biāo)志碼:A

      文章編號:1672-9315(2021)03-0490-08

      DOI:10.13800/j.cnki.xakjdxxb.2021.0314

      Abstract:In order to improve the existing deep learning methods for acquiring image feature scales with single scale and low extraction accuracy,building extraction method from multi-scale dilated convolutional pyramid network is proposed based on U-Net.The dilated convolution was used in the en-decoding stage to replace ordinary convolution to expand the receptive field,resulting in the fact that the output of each convolution layer contains a larger range of feature information than ordinary convolution,which facilitates the acquisition of global information about the building features in remote sensing images.The pyramid pooling module is combined with the U-Net jump connection structure to integrate multi-scale features with high-resolution global overall information and low-resolution local detailed information obtained. The extraction experiment was conducted on the WHU dataset, and the intersection ratio reached 91.876%,an increase of 4.547%~10.826% compared to other semantic segmentation networks. The generalization experiment was performed on the Inria dataset, and the generalization accuracy was higher than that by other networks. The results show that the proposed dilated convolutional pyramid network has high extraction accuracy, high generalization ability, and strong adaptability in the extraction of buildings of different scales.

      Key words:building extraction;multiscale;dilated convolution;pyramid pooling

      0 引 言

      建筑物作為城市的主體之一,其空間分布可以有效幫助判斷該地區(qū)城鎮(zhèn)化水平,并且對于城市規(guī)劃、違章建筑監(jiān)測等方面具有重要的意義。隨著遙感影像技術(shù)的迅猛發(fā)展,高分辨率遙感影像數(shù)據(jù)不斷涌現(xiàn),基于高分辨率遙感影像的建筑物提取成為了學(xué)者們研究的熱點,并取得了大量的研究成果。

      遙感影像建筑物提取方法主要利用建筑物的光譜特征、形狀特征、紋理特征、上下文特征、陰影特征、局部特征(直線與邊緣角點)等[1]。游永發(fā)等利用建筑物光譜特征、形狀特征與上下文特征結(jié)合面向?qū)ο笈c形態(tài)學(xué)建筑物指數(shù)提取建筑物,但其受人工設(shè)計特征影響較大,與建筑物紋理、形狀接近的易錯分,亮度、對比度低的及稀疏、尺寸大的易漏分[2];冉樹浩等利用建筑物形狀特征與陰影特征提取建筑物,但陰影交錯重疊的區(qū)域會對結(jié)果產(chǎn)生影響[3];朱俊杰等利用建筑物幾何特征與光譜特征結(jié)合圖像分割提取建筑物,但目前已有的圖像分割算法本就面臨著過分割和欠分割的問題[4];賀曉璐等將引入紅色邊緣波段規(guī)則面向?qū)ο蠓椒ㄌ崛〗ㄖ镄畔⒌慕Y(jié)果與基于樣本面向?qū)ο蠓椒ㄌ崛〗ㄖ镄畔⒌慕Y(jié)果進行融合來提取建筑物[5];林祥國等將直角點和直角邊2種特征融合提取建筑物[6];呂鳳華等根據(jù)高分遙感影像不同尺度下特征表現(xiàn)不同提出了多層次特征建筑物提取方法[7]。

      近年來,深度學(xué)習(xí)技術(shù)飛速發(fā)展,相比傳統(tǒng)方法,深度學(xué)習(xí)方法可以自動提取影像目標(biāo)的特征,避免了人工設(shè)計特征的繁瑣,且傳統(tǒng)方法通過人工設(shè)計特征帶來的一些弊端也得以避免[8-9]。FCN作為深度學(xué)習(xí)中語義分割的經(jīng)典之作,盡管FCN存在著語義信息丟失、缺乏像素之間關(guān)聯(lián)性研究等問題,但其將編碼-解碼的結(jié)構(gòu)用于圖像語義分割,為后續(xù)圖像語義分割網(wǎng)絡(luò)的研究有著極大的貢獻[10]。SegNet采用了編碼-解碼的結(jié)構(gòu),相比FCN的改進之處有上采樣過程中用反池化替代反卷積,使得參數(shù)量下降,加快了模型的訓(xùn)練速度,且在反池化過程中使用下采樣最大池化過程的位置信息,保證了高頻信息的完整性,但是在對較低分辨率的特征圖進行反池化時,會忽略鄰近像素之間的信息[11-12]。U-Net網(wǎng)絡(luò)是基于FCN的一種語義分割網(wǎng)絡(luò),相比FCN的改進之處有,F(xiàn)CN通過特征逐點相加進行特征融合,只是單一尺度的特征融合,而U-Net是通過特征通道拼接進行特征融合,融合了不同尺度的特征,同時使用跳躍連接使得特征更加精細[13]。劉浩等選取U-Net為基礎(chǔ)模型,在編碼過程使用特征壓縮激活模塊使網(wǎng)絡(luò)學(xué)習(xí)特征的能力增強,解碼過程復(fù)用編碼過程相應(yīng)尺度的特征以恢復(fù)空間信息,實現(xiàn)特征壓縮建筑物的提取[14];王舒洋等使用深度編解碼網(wǎng)絡(luò)提取建筑物的低階語義特征,使用多項式核對深度網(wǎng)絡(luò)中間特征圖進行高階描述,將低階特征與高階描述級聯(lián)實現(xiàn)融合高階信息的建筑物提取[15];陳凱強等基于編解碼網(wǎng)絡(luò)CNN實現(xiàn)建筑物的提取,并使用FoVE方法減輕建筑物邊緣提取精度不高現(xiàn)象[16];惠健等將U-Net作為基礎(chǔ)模型,加入Xception模型并結(jié)合多任務(wù)學(xué)習(xí)方法來進行建筑物的實例分割[17];崔衛(wèi)紅等選取VGG16網(wǎng)絡(luò)作為基礎(chǔ)模型,對原始影像不同尺度下采樣,獲取不同尺度的特征,并將不同尺度的特征進行相加合并,同時上采樣過程用全卷積替換全連接層,實現(xiàn)多尺度全卷積網(wǎng)絡(luò)建筑物的提取[18]。

      在U-Net基礎(chǔ)上改進網(wǎng)絡(luò)模型,加入空洞卷積擴大感受野,使得每個卷積輸出包含比普通卷積更大范圍的特征信息,利于獲取遙感圖像中建筑物特征的全局信息。并加入金字塔池化層結(jié)合U-Net跳躍連接結(jié)構(gòu)來融入更多尺度的特征以獲取高分辨率全局整體信息及低分辨率局部細節(jié)信息,以實現(xiàn)建筑物的精提取。

      1 網(wǎng)絡(luò)及算法

      1.1 U-Net卷積神經(jīng)網(wǎng)絡(luò)

      U-Net是全卷積神經(jīng)網(wǎng)絡(luò)FCN的一種變體,最早應(yīng)用于醫(yī)學(xué)圖像細胞壁的分割。其網(wǎng)絡(luò)結(jié)構(gòu)對稱,形似字母“U”而得名U-Net。U-Net采用了編碼-解碼的結(jié)構(gòu),并在此基礎(chǔ)上加入了跳躍連接,編碼過程通過卷積池化提取圖像特征同時丟失了位置信息,而在解碼過程恢復(fù)位置信息,跳躍連接通過特征維度拼接進行特征融合可以獲取多尺度特征(圖1)。

      1.2 空洞卷積(dilated convolution)

      在將遙感圖像輸入卷積神經(jīng)網(wǎng)絡(luò)過程中,對圖像進行連續(xù)卷積和池化或者其他下采樣操作整合多尺度上下文信息,這樣在降低圖像尺寸的同時增大感受野,會損失一些分辨率,使得一些圖像細節(jié)信息無法重建。針對以上問題,在U-Net中利用空洞卷積增大感受野,每個卷積輸出包含比普通卷積更大范圍的特征信息,利于獲取遙感圖像中建筑物特征的全局信息[19]。

      空洞卷積向卷積層引入了一個“擴張率(dilation rate)”的新參數(shù),該參數(shù)定義了卷積核處理數(shù)據(jù)時各值的間距。設(shè)置不同擴張率時,感受野會不同,從而能夠獲取遙感影像多尺度特征信息。實驗中,根據(jù)遙感圖像的原始尺寸來設(shè)定相應(yīng)卷積神經(jīng)網(wǎng)絡(luò)中空洞卷積所提取的特征圖的大小,進而設(shè)定空洞卷積擴張率??斩淳矸e如圖2所示。

      1.3 金字塔池化模型(pyramid pooling model,PPM)

      由于U-Net獲取多尺度是通過特征維度拼接進行特征融合實現(xiàn)的,因此其尺度有一定的局限性,因此文中將金字塔池化與U-Net跳躍連接結(jié)合起來,實現(xiàn)更廣意義上的多尺度特征提取[20]。

      金字塔池化將輸入特征圖經(jīng)過多種不同尺度的池化得到不同尺度的特征圖,經(jīng)過1×1卷積后特征維度壓縮為原先的1/N(N表示金字塔的層級),然后上采樣之后恢復(fù)至輸入特征圖尺寸,在通道上與輸入特征圖拼接形成多尺度特征的融合。由于金字塔池化模塊由不同尺度的池化層組成,分辨率高的池化由于其感受野大,因此可以獲取全局整體信息,分辨率低的池化,由于其感受野小,感受野受到限制,無法獲取全局整體信息,但可以獲取局部細節(jié)信息,將其進行融合后,可以獲取影像的多尺度信息。金字塔模型如圖3所示。

      1.4 空洞卷積金字塔網(wǎng)絡(luò)結(jié)構(gòu)

      空洞卷積金字塔網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示,主要分為編碼(左)-解碼(右)以及中間的金字塔池化和跳躍連接。編碼是提取影像特征的過程,網(wǎng)絡(luò)輸入512×512 RGB影像,經(jīng)過4次下采樣,每次下采前經(jīng)過一個普通卷積層、一個擴張率為2的空洞卷積層,下采樣采用最大池化,每個卷積層后接BN層及RELU激活函數(shù),在第4次下采樣后添加Dropout正則化防止過擬合[21-22]。解碼過程對應(yīng)編碼過程進行4次上采樣,上采樣通過轉(zhuǎn)置卷積逐層恢復(fù)圖像至原圖像大小。金字塔池化將輸入特征圖經(jīng)過4種不同尺度的平均池化得到1×1,2×2,4×4,8×8等4種尺度的特征圖,經(jīng)過1×1卷積后特征維度壓縮為原先的1/4,然后上采樣恢復(fù)至輸入特征圖尺寸,在維度上與輸入特征圖拼接。跳躍連接結(jié)構(gòu)將金字塔池化拼接的特征圖與解碼階段的特征圖特征進行特征維度拼接結(jié)合實現(xiàn)多尺度特征融合,在對不同尺寸的建筑物提取上相比于單一尺度的網(wǎng)絡(luò)具有更好的效果。

      1.5 評價指標(biāo)

      文中選取語義分割常用的4個評價指標(biāo)(交并比IoU,準確率Precision,召回率Recall,F(xiàn)1分數(shù))來評價文中方法的精度,計算公式見式(1)~式(4)。

      式中 TP為真實值是正例,模型預(yù)測為正例的數(shù)量;TN為真實值是負例,模型預(yù)測為負例的數(shù)量;FP為真實值是負例,模型預(yù)測為正例的數(shù)量;FN為真實值是正例,模型預(yù)測為負例的數(shù)量。

      2 實驗與分析

      2.1 實驗數(shù)據(jù)

      文中實驗使用武漢大學(xué)季順平教授團隊提供的開源建筑物數(shù)據(jù)集—WHU建筑物數(shù)據(jù)集中的航空影像數(shù)據(jù)集,其覆蓋新西蘭Christchurch市450 km2,包含22萬棟形態(tài)不一的建筑物,空間分辨率為0.075 m[23],部分影像如圖5所示。

      將影像裁剪成適合網(wǎng)絡(luò)輸入的512×512子圖,并分為60%訓(xùn)練集、20%驗證集和20%測試集,得到1 096張訓(xùn)練影像,365張驗證影像,366張測試影像。為了增強網(wǎng)絡(luò)的魯棒性,降低模型對某些屬性的依賴,提升模型的泛化能力,因此需要對訓(xùn)練集進行數(shù)據(jù)增強。對訓(xùn)練集影像進行旋轉(zhuǎn)、翻轉(zhuǎn)、模糊處理、添加隨機噪聲和伽馬變換等數(shù)據(jù)增強操作,將訓(xùn)練集增加到了5 480張數(shù)據(jù)。數(shù)據(jù)增強后的結(jié)果如圖6所示。

      2.2 實驗結(jié)果與分析

      實驗均基于Windows下的Tensorflow框架,Python編程語言實現(xiàn),硬件環(huán)境CPU Intel(R)Xeon(R)E5-2630 v4,顯卡為NVIDIA Quadro M40008G內(nèi)存。采用Adam優(yōu)化器初始學(xué)習(xí)率為10-4,最低學(xué)習(xí)率不低于10-5,優(yōu)化超參數(shù)為β1=0.9,β2=0.999,δ=10-8,迭代次數(shù)設(shè)為10次,模型訓(xùn)練結(jié)果如圖7所示。

      為驗證空洞卷積金字塔網(wǎng)絡(luò)的有效性,與最大似然法、支持向量機法等傳統(tǒng)方法對比[24-25]。從圖8(c)、(d)可以看出,最大似然法和支持向量機法提取建筑物的邊界模糊,且存在“椒鹽”現(xiàn)象,明顯將路及其它與建筑物光譜相近的地物判別為建筑物,存在嚴重的錯誤。從圖8(j)可以看出,空洞卷積金字塔網(wǎng)絡(luò)提取建筑物的邊界清晰、完整,且未存在誤判現(xiàn)象。

      將空洞卷積金字塔網(wǎng)絡(luò)與經(jīng)典的深度學(xué)習(xí)方法對比,包括FCN-32s,F(xiàn)CN-16s,F(xiàn)CN-8s,SegNet,U-Net。從圖8(e)(f)(g)可以看出,F(xiàn)CN-32s,F(xiàn)CN-16s,F(xiàn)CN-8s算法提取的建筑物結(jié)果很粗糙。從圖8(h)可以看出,SegNet算法提取的建筑物邊界不清晰。從圖8(i)可以看出,U-Net算法提取建筑物邊界相比SegNet清晰,但存在少量“椒鹽”現(xiàn)象。從圖8(j)可以看出,空洞卷積金字塔網(wǎng)絡(luò)相比其它深度學(xué)習(xí)算法提取建筑物的邊界更加清晰、平滑、完整。且從圖8中可以看出,其他方法在小尺寸建筑物上容易出現(xiàn)漏檢,大尺寸建筑物提取不完整,而空洞卷積金字塔網(wǎng)絡(luò)對不同尺寸建筑物均可以完整的提取,說明空洞卷積金字塔網(wǎng)絡(luò)在對不同尺度建筑物的提取上具有更好的效果。

      為定量評價文中方法的有效性,統(tǒng)計深度學(xué)習(xí)方法方法的準確率、召回率、F1分數(shù)和交并比。

      從表1可以看出,空洞卷積金字塔網(wǎng)絡(luò)在交并比、準確率、召回率、F1分數(shù)與其它深度學(xué)習(xí)方法相比,空洞卷積金字塔網(wǎng)絡(luò)是最優(yōu)的。相比于FCN-32s,F(xiàn)CN-16s,F(xiàn)CN-8s,SegNet、U-Net,空洞卷積金字塔網(wǎng)絡(luò)交并比、準確率、召回率及F1分數(shù)都有很大的提升,證明了空洞卷積金字塔網(wǎng)絡(luò)的有效性。

      2.3 泛化能力驗證

      通過大量實驗對比發(fā)現(xiàn),空洞卷積金字塔網(wǎng)絡(luò)在WHU建筑物數(shù)據(jù)集上表現(xiàn)優(yōu)秀,為了充分驗證空洞卷積金字塔網(wǎng)絡(luò)的泛化能力,采用Inria數(shù)據(jù)集[26]進行驗證,其中訓(xùn)練集1 000張512×512影像,驗證集和測試集都為200張512×512影像。

      從提取結(jié)果可以看出,空洞卷積金字塔網(wǎng)絡(luò)的泛化能力優(yōu)秀,無論是大型建筑物還是小型建筑物都能被很好的提取。

      3 結(jié) 論

      1)加入空洞卷積擴大感受野,使得每個卷積輸出包含比普通卷積更大范圍的特征信息,利于獲取遙感圖像中建筑物特征的全局信息。并加入金字塔池化層結(jié)合U-Net跳躍連接結(jié)構(gòu)來融入更多尺度的特征以獲取高分辨率全局整體信息及低分辨率局部細節(jié)信息,以實現(xiàn)建筑物的精提取。在WHU建筑物數(shù)據(jù)集進行建筑物的提取,結(jié)果表明,空洞卷積金字塔網(wǎng)絡(luò)相比以往傳統(tǒng)方法和深度學(xué)習(xí)方法建筑物提取的精度有所上升,且在對不同尺度建筑物的提取上均具有更好的效果。

      2)通過Inria數(shù)據(jù)集一方面驗證了空洞卷積金字塔網(wǎng)絡(luò)的泛化能力,另一方面驗證了無論是大型建筑物還是小型建筑物文中方法均表現(xiàn)優(yōu)異。

      3)空洞卷積金字塔網(wǎng)絡(luò)在建筑物提取上表現(xiàn)優(yōu)異,但在其它經(jīng)典地物(道路、水體、耕地等)提取的表現(xiàn)上有待進一步探索。

      參考文獻(References):

      [1] 王俊,秦其明,葉昕,等.高分辨率光學(xué)遙感圖像建筑物提取研究進展[J].遙感技術(shù)與應(yīng)用,2016,31(4):653-662,701.WANG Jun,QIN Qiming,YE Xin,et al.A survey of building extraction methods from optical high resolution remote sensing imagery[J].Remote Sensing Technology and Application,2016,31(4):653-662,701.[2]游永發(fā),王思遠,王斌,等.高分辨率遙感影像建筑物分級提取[J].遙感學(xué)報,2019,23(1):125-136.YOU Yongfa,WANG Siyuan,WANG Bin,et al.Study on hierarchical building extraction from high resolution remote sensing imagery[J].Journal of Remote Sensing,2019,23(1):125-136.[3]冉樹浩,胡玉龍,楊元維,等.基于樣本形態(tài)變換的高分遙感影像建筑物提取[J].浙江大學(xué)學(xué)報(工學(xué)版),2020,54(5):996-1006.RAN Shuhao,HU Yulong,YANG Yuanwei,et al.Building extraction from high resolution remote sensing image based on samples morphological transformation[J].Journal of Zhejiang University(Engineering Science),2020,54(5):996-1006.[4]朱俊杰,范湘濤,杜小平.幾何特征表達及基于幾何特征的建筑物提取[J].應(yīng)用科學(xué)學(xué)報,2015,33(1):9-20.ZHU Junjie,F(xiàn)AN Xiangtao,DU Xiaoping.Geometric feature representation and building extraction based on geometric features[J].Journal of Applied Sciences Electronics and Information Engineering,2015,33(1):9-20.[5]賀曉璐,劉振華,胡月明.基于面向?qū)ο蟮慕ㄖ镄畔⑻崛》椒ㄑ芯縖J].河南理工大學(xué)學(xué)報(自然科學(xué)版),2020,39(2):53-61.HE Xiaolu,LIU Zhenhua,HU Yueming.Research on object-oriented building information extraction method[J].Journal of Henan Polytechnic University(Natural Science),2020,39(2):53-61.[6]林祥國,寧曉剛.融合直角點和直角邊特征的高分辨率遙感影像居民點提取方法[J].測繪學(xué)報,2017,46(1):83-89.LIN Xiangguo,NING Xiaogang.Extraction of human settlements from high resolution remote sensing imagery by fusing features of right angle corners and right angle sides[J].Acta Geodaetica et Cartographica Sinica,2017,46(1):83-89.[7]呂鳳華,舒寧,龔龑,等.利用多特征進行航空影像建筑物提取[J].武漢大學(xué)學(xué)報(信息科學(xué)版),2017,42(5):656-660.LV Fenghua,SHU Ning,GONG Yan,et al,Regular building extraction from high resolution image based on multilevel-features[J].Geomatics and Information Science of Wuhan University,2017,42(5):656-660.[8]仲志丹,樊浩杰,李鵬輝.基于稀疏自編碼神經(jīng)網(wǎng)絡(luò)的抽油機井故障診斷[J].西安科技大學(xué)學(xué)報,2018,38(4):669-675.ZHONG Zhidan,F(xiàn)AN Haojie,LI Penghui.Fault diagnosis of pumping well based on sparse auto-encoder neural network[J].Journal of Xian University of Science and Technology,2018,38(4):669-675.[9]范榮雙,陳洋,徐啟恒,等.基于深度學(xué)習(xí)的高分辨率遙感影像建筑物提取方法[J].測繪學(xué)報,2019,48(1):34-41.FAN Rongshuang,CHEN Yang,XU Qiheng,et al.A high-resolution remote sensing image building extraction method based on deep learning[J].Acta Geodaetica et Cartographica Sinica,2019,48(1):34-41.[10]LONG J,SHELHAMER E,DARRELL T.Fully convolutional networks for semantic segmentation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,39(4):640-651.[11]BADRINARAYANAN V,KENDALL A,CIPOLLA R.SegNet:A deep convolutional encoder-decoder architecture for image segmentation[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2017,39(12):2481-2495.[12]張春森,葛英偉,蔣蕭.基于稀疏約束SegNet的高分辨率遙感影像建筑物提取[J].西安科技大學(xué)學(xué)報,2020,40(3):441-448.ZHANG Chunsen,GE Yingwei,JIANG Xiao.High-resolution remote sensing image building extraction based on sparsely constrained SegNet[J].Journal of Xian University of Science and Technology,2020,40(3):441-448.[13]RONNEBERGER O,F(xiàn)ISCHER P,BROX T.U-Net:Convolutional networks for biomedical image segmentation[C]//International Conference on Medical Image Computing and Computer-Assisted Intervention.Springer,Cham,2015:234-241.[14]劉浩,駱劍承,黃波,等.基于特征壓縮激活Unet網(wǎng)絡(luò)的建筑物提取[J].地球信息科學(xué)學(xué)報,2019,21(11):1779-1789.LIU Hao,LUO Jiancheng,HUANG Bo,et al.Building extraction based on SE-Unet[J].Journal of Geo-information Science,2019,21(11):1779-1789.[15]王舒洋,慕曉冬,楊東方,等.融合高階信息的遙感影像建筑物自動提取[J].光學(xué)精密工程,2019,27(11):2474-2483.WANG Shuyang,MU Xiaodong,YANG Dongfang,et al.High-order statistics integration method for automatic building extraction of remote sensing images[J].Optics and Precision Engineering,2019,27(11):2474-2483.[16]陳凱強,高鑫,閆夢龍,等.基于編解碼網(wǎng)絡(luò)的航空影像像素級建筑物提取[J].遙感學(xué)報,2020,24(9):1134-1142.CHEN Kaiqiang,GAO Xin,YAN Menglong,et al.Building extraction in pixel level from aerial imagery with a deep encoder-decoder network[J].Journal of Remote Sensing(Chinese),2020,24(9):1134-1142.[17]惠健,秦其明,許偉,等.基于多任務(wù)學(xué)習(xí)的高分辨率遙感影像建筑實例分割[J].北京大學(xué)學(xué)報(自然科學(xué)版),2019,55(6):1067-1077.HUI Jian,QIN Qiming,XU Wei,et al.Instance segmentation of buildings from high-resolution remote sensing images with multitask learning[J].Acta Scientiarum Naturalium Universitatis Pekinensis,2019,55(6):1067-1077.[18]崔衛(wèi)紅,熊寶玉,張麗瑤.多尺度全卷積神經(jīng)網(wǎng)絡(luò)建筑物提取[J].測繪學(xué)報,2019,48(5):597-608.CUI Weihong,XIONG Baoyu,ZHANG Liyao.Multi-scale fully convolutional neural network for building extraction[J].Acta Geodaetica et Cartographica Sinica,2019,48(5):597-608.[19]季順平,田思琦,張馳.利用全空洞卷積神經(jīng)元網(wǎng)絡(luò)進行城市土地覆蓋分類與變化檢測[J].武漢大學(xué)學(xué)報(信息科學(xué)版),2020,45(2):233-241.JI Shunping,TIAN Siqi,ZHANG Chi.Urban land cover classification and change detection using fully atrous convolutional neural network[J].Geomatics and Information Science of Wuhan University,2020,45(2):233-241.[20]ZHAO H,SHI J,QI X,et al.Pyramid scene parsing network[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition(CVPR).IEEE,2017:2881-2890.

      [21]IOFFE S,SZEGEDY C.Batch normalization:Accelerating deep network training by reducing internal covariate Shift[C]//International conference on machine learning.PMLR,2015:448-456.[22]HINTON G E,SRIVASTAVA N,KRIZHEVSKY A,et al.Improving neural networks by preventing co-adaptation of feature detectors[J].Computer Ence,2012,3(4):212-223.[23]JI S P,SHI Q.Fully convolutional networks for multisource building extraction from an open aerial and satellite imagery data set[J].IEEE Transactions on Geoence and Remote Sensing,2019,57(1):574-586.[24]王旭東,段福洲,屈新原,等.面向?qū)ο蠛蚐VM結(jié)合的無人機數(shù)據(jù)建筑物提取[J].國土資源遙感,2017,29(1):97-103.WANG Xudong,DUAN Fuzhou,QU Xinyuan,et al.Building extraction based on UAV imagery data with the synergistic use of objected-based method and SVM classifier[J].Remote Sensing for Land and Resources,2017,29(1):97-103.[25]李遠成,劉斌.應(yīng)用主動學(xué)習(xí)SVM的網(wǎng)絡(luò)流量分類方法[J].西安科技大學(xué)學(xué)報,2017,37(5):742-749.LI Yuancheng,LIU Bin.Network traffic classification method based on active learning support vector machine[J].Journal of Xian University of Science and Technology,2017,37(5):742-749.[26]MAGGIORI E,TARABALKA Y,CHARPIAT G,et al.Can semantic labeling methods generalize to any city? The inria aerial image Labeling benchmark[C]//Igarss IEEE International Geoscience & Remote Sensing Symposium.IEEE,2017:3226-3229.

      称多县| 湖南省| 南汇区| 保靖县| 阿克| 云和县| 宝清县| 通州市| 安阳县| 麻栗坡县| 新丰县| 德庆县| 松阳县| 莱州市| 准格尔旗| 西宁市| 安龙县| 汶上县| 遵义市| 永嘉县| 合水县| 万年县| 博客| 玉林市| 昌图县| 雷州市| 东乡| 广元市| 肇东市| 陕西省| 溧阳市| 铜梁县| 都安| 清水河县| 连江县| 锦屏县| 耿马| 邵阳县| 双柏县| 德昌县| 临漳县|