彭道松 聶小飛 莫明浩 計(jì)勇
[關(guān)鍵詞]水土保持措施;遙感圖像解譯;卷積神經(jīng)網(wǎng)絡(luò);深度學(xué)習(xí)模型
[摘要]近年來計(jì)算機(jī)視覺圖像處理的發(fā)展與遙感影像分辨率的提高,使得遙感影像水土保持措施快速精準(zhǔn)提取成為可能。為有效推進(jìn)水土保持措施圖斑精準(zhǔn)快速提取的研發(fā)與應(yīng)用,在總結(jié)水土保持措施信息提取和衛(wèi)星遙感影像解譯常用方法的基礎(chǔ)上,系統(tǒng)分析深度學(xué)習(xí)方法在遙感解譯和遙感影像水土保持措施提取方面的改進(jìn)與運(yùn)用,對研究發(fā)展趨勢進(jìn)行了展望分析。
[中圖分類號]S157[文獻(xiàn)標(biāo)識碼]A[文章編號]1000-0941(2023)04-0045-05
水土保持措施是防治水土流失,保護(hù)、改良與合理利用水土資源,改善生態(tài)環(huán)境所采取的工程、植物和耕作措施[1]。準(zhǔn)確判別水土保持措施空間分布是深入研究區(qū)域水土流失規(guī)律、系統(tǒng)評價(jià)水土保持效益、科學(xué)開展水土流失動態(tài)監(jiān)測的關(guān)鍵。遙感影像是提取水土保持措施的重要依據(jù),但對于大范圍的水土保持信息,無論是野外人工走訪調(diào)查還是遙感目視解譯都不能滿足快速提取的要求。近年來隨著計(jì)算機(jī)硬件性能的快速提升及算法的優(yōu)化發(fā)展,以深度學(xué)習(xí)為代表的人工智能技術(shù)在遙感影像分類與地物提取中逐漸得以應(yīng)用,并顯現(xiàn)出快速、高效等特點(diǎn)。
1遙感解譯信息提取方法
總體上,水土保持措施信息提取經(jīng)歷了由目視解譯、計(jì)算機(jī)半自動化解譯到人工智能自動化遙感解譯的發(fā)展過程。
1.1目視解譯
目視解譯是早期水土保持措施信息提取的重要方法。一般是由專業(yè)人員對遙感影像進(jìn)行解譯分類,提取水土保持措施信息等。趙幫元等[2]運(yùn)用ArcGIS軟件,采用人機(jī)交互綜合解譯的方式進(jìn)行水土保持措施信息的提取和驗(yàn)證;趙興實(shí)等[3]使用目視解譯的方法進(jìn)行黑龍江省土壤侵蝕調(diào)查。由于解譯人員對遙感影像上的圖斑信息存在認(rèn)知差異、不同時(shí)相衛(wèi)片存在色差等,因此解譯結(jié)果受解譯人員主觀影響較大,需要多次交叉檢查和復(fù)核,導(dǎo)致解譯時(shí)間周期過長。目視解譯是遙感影像解譯最經(jīng)典的方法,且在使用監(jiān)督學(xué)習(xí)或半監(jiān)督學(xué)習(xí)開展影像分類時(shí)需要基于目視解譯結(jié)果進(jìn)行驗(yàn)證[4]。
1.2基于像元的提取方法
基于像元的提取方法主要有監(jiān)督分類和非監(jiān)督分類兩種。監(jiān)督分類方法又被稱為訓(xùn)練分類方法,此類方法在訓(xùn)練模型時(shí)需要收集一定量的樣本數(shù)據(jù)集,一般通過目視判讀或野外調(diào)查的方式進(jìn)行收集,存在一定的人為主觀性因素,其優(yōu)勢在于使用經(jīng)樣本數(shù)據(jù)集訓(xùn)練后的分類模型,通過有效的精度測試,可對其他遙感影像數(shù)據(jù)中的地物信息進(jìn)行分類。監(jiān)督分類中遙感影像的空間分辨率對分類結(jié)果的精度十分重要,但目前遙感影像主要通過衛(wèi)片獲取,存在著時(shí)間分辨率長、易受大氣環(huán)境影響等問題。為彌補(bǔ)這些問題,徐存東等[5]使用高像素的無人機(jī)設(shè)備收集遙感影像,并使用平行六面體、支持向量機(jī)等監(jiān)督分類方法對研究區(qū)域的鹽堿地信息進(jìn)行提取?;诒O(jiān)督分類的地物信息直接提取,分類精度往往受到所選分類樣本的影響,綜合利用多種地物分類方法可以有效減少錯(cuò)分,提高總體分類精度。比如,邵安冉等[6]基于歸一化植被指數(shù)和歸一化水體指數(shù),采用指數(shù)計(jì)算和監(jiān)督分類相結(jié)合的融合提取方法,能夠?qū)ΦV區(qū)土地利用信息進(jìn)行快速識別分類,但適用范圍有待驗(yàn)證且泛化能力不足。
非監(jiān)督分類方法又稱聚類分析或者點(diǎn)群分析,常用的有K-means法、ISODATA法等算法。其優(yōu)勢在于分類前不需要獲得任何的先驗(yàn)知識,而是通過遙感影像上不同地物的光譜實(shí)現(xiàn)特征信息提取,缺點(diǎn)是檢測效率較低?;谶@個(gè)問題,韓萍等[7]提出了一種圖像與非監(jiān)督分類結(jié)合的提取方法;王冬利等[8]提出了一種以非監(jiān)督分類為核心結(jié)合多尺度數(shù)據(jù)的地面信息提取模型,使模型能夠達(dá)到監(jiān)督分類的精度。半監(jiān)督分類方法是近年機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)新的研究方向,其優(yōu)勢在于可以使用少量的訓(xùn)練樣本對模型進(jìn)行訓(xùn)練,并對沒有標(biāo)簽的數(shù)據(jù)進(jìn)行標(biāo)簽預(yù)測。王立國等[9]提出了一種聯(lián)合多種空間信息的高光譜半監(jiān)督分類方法,對高光譜的影像進(jìn)行預(yù)處理并提取其空間特征信息,在訓(xùn)練樣本少時(shí)較經(jīng)典監(jiān)督分類方法能夠提高遙感影像的分類性能。在水土保持措施提取方面,ZHANGHYPERLINK"https://www.sciencedirect.com/science/article/pii/S2095633916301125"l"!"etal.[10]使用高分一號遙感數(shù)據(jù),采用邊緣特征統(tǒng)計(jì)算法、模板匹配算法和傅里葉變換算法等3種邊緣檢測算法自動識別提取梯田,結(jié)果表明上述方法對典型梯田的識別和提取非常有效,但只考慮了梯田紋理和灰度特征,對其他特征信息關(guān)注度不足。
1.3基于面向?qū)ο蟮奶崛》椒?/p>
面向?qū)ο蠓诸愂菍b感影像中地物的紋理、空間等信息進(jìn)行綜合判斷的一種方法,其對光譜分辨率和空間分辨率要求較高[11]。隨著遙感技術(shù)的高速發(fā)展,遙感影像的分辨率得到了極大提升,面向?qū)ο蠓诸惙椒ǖ男阅芤驳玫搅诉M(jìn)一步提高。無論是基于樣本還是基于規(guī)則的方法,在小區(qū)域內(nèi)的地物信息提取都能夠取得較好的效果,但是對于大區(qū)域的地物信息提取卻存在泛化能力不足的問題。張雨果等[12]使用面向?qū)ο笾谢谝?guī)則的提取方法對梯田進(jìn)行提取,并且將監(jiān)督和非監(jiān)督分類進(jìn)行對比,結(jié)果表明監(jiān)督分類的結(jié)果存在大量細(xì)碎斑塊,“椒鹽”現(xiàn)象嚴(yán)重;非監(jiān)督分類方法的目視效果差,地物錯(cuò)分、漏分嚴(yán)重。相對而言,面向?qū)ο蠓诸惙椒ň哂懈玫男阅?,能夠比較有效地去除“椒鹽”現(xiàn)象[13],獲得更好的分類精度。夏晨真等[14]基于厘米級無人機(jī)影像,采用面向?qū)ο蠓诸惙椒ǎx取光譜、地形和紋理等特征進(jìn)行影像分割,開展水土保持措施信息提取,結(jié)果表明橫坡改壟和生態(tài)恢復(fù)喬木林識別精度較高,分別達(dá)到了97.35%和96.61%,而非線型水土保持措施的分類精度遠(yuǎn)低于線型水土保持措施的。
2深度學(xué)習(xí)在遙感解譯中的應(yīng)用
2.1基于初級卷積神經(jīng)網(wǎng)絡(luò)的遙感解譯
在遙感影像分類解譯中,相較于傳統(tǒng)算法,卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)在于能夠獲取大量的表層特征信息及豐富的深層語義信息,具有較高的自動化程度和分類準(zhǔn)確度,但缺點(diǎn)是依賴于大量的標(biāo)簽數(shù)據(jù)集且模型訓(xùn)練周期較長。在當(dāng)前大數(shù)據(jù)的環(huán)境下,各種遙感數(shù)據(jù)集的豐富和遙感影像分辨率的提高,使得卷積神經(jīng)網(wǎng)絡(luò)遙感解譯相較于傳統(tǒng)的目視解譯,在分類效率、可行性和精度方面均具有較大優(yōu)勢[15]。將深度學(xué)習(xí)某單一模型或知識運(yùn)用于遙感影像分類提取,所取得的分類提取精度、效果往往存在著一定的欠缺,而深度學(xué)習(xí)知識與其他領(lǐng)域知識聯(lián)合構(gòu)成的系統(tǒng)性綜合卷積神經(jīng)網(wǎng)絡(luò)模型在遙感影像的分類提取中,無論是性能穩(wěn)定性還是分類提取精度都得到了進(jìn)一步提高。趙伍迪等[16]提出一種將卷積神經(jīng)網(wǎng)絡(luò)與空間紋理特征相結(jié)合的多源遙感數(shù)據(jù)特征融合的分類模型框架T-F-CNN方法,并與支持向量機(jī)分類方法進(jìn)行了對比,結(jié)果表明前者分類精度較高。李道紀(jì)等[17]采用VGG16與AlexNet分別提取局部和全局視覺特征,與性能優(yōu)異的U-Net進(jìn)行對比,在效果相當(dāng)?shù)那闆r下模型收斂時(shí)間僅為U-Net網(wǎng)絡(luò)的15.46%。AlexNet、VGG等基于初級卷積神經(jīng)網(wǎng)絡(luò)的圖像處理模型在遙感影像的提取分類中單獨(dú)運(yùn)用較少,主要用于輔助開展影圖整體分類,作為語義分割等高級模型的主要特征提取模塊,其原因主要是基于初級卷積神經(jīng)網(wǎng)絡(luò)的圖像處理模型僅對輸入影像進(jìn)行整體的類別判斷,沒有判別主要識別對象的位置及邊界情況。
2.2基于現(xiàn)階段卷積神經(jīng)網(wǎng)絡(luò)的遙感解譯
隨著卷積神經(jīng)網(wǎng)絡(luò)深度和廣度的不斷拓展,各種優(yōu)化方式、網(wǎng)絡(luò)模型結(jié)構(gòu)在初級網(wǎng)絡(luò)模型上發(fā)展運(yùn)用,以及高級卷積神經(jīng)網(wǎng)絡(luò)模型與遙感領(lǐng)域中的綜合知識聯(lián)合,使得遙感影像分類提取性能得到不斷提高。深度學(xué)習(xí)模型的深度增加,意味著模型能夠取得更多的深度語義特性,但模型訓(xùn)練的時(shí)間也隨之增加,導(dǎo)致訓(xùn)練中存在梯度彌散和梯度消失的情況[18]。DeepLab系列網(wǎng)絡(luò)模型在初級卷積神經(jīng)網(wǎng)絡(luò)模型的基礎(chǔ)上逐步引入了空洞卷積,加快了模型訓(xùn)練速度,減少了訓(xùn)練時(shí)間,并且將隨機(jī)條件場(CRF)引入了網(wǎng)絡(luò)模型,不僅提高了網(wǎng)絡(luò)模型的定位精度,而且使得遙感影像語義分割的邊界更加準(zhǔn)確[19]。羅李焱等[20]提出了一種基于DeepLabv3+語義分割模型的高分辨率遙感影像建筑物提取方法,收集了大量的樣本數(shù)據(jù)集,可有效提取各類建筑物。初級卷積神經(jīng)網(wǎng)絡(luò)(如AlexNet和VGG等)都可通過不斷增加網(wǎng)絡(luò)深度來獲取更高的層次遙感影像語義信息,但隨著網(wǎng)絡(luò)層數(shù)的增加,參數(shù)呈幾何級數(shù)增長,使得模型難以優(yōu)化。GoogLeNet系列網(wǎng)絡(luò)模型則是從另外一個(gè)角度思考和用密集成分來近似最優(yōu)的局部稀疏結(jié)構(gòu),通過不斷完善發(fā)展來保證模型既能夠保持網(wǎng)絡(luò)的稀疏性,又能利用密集矩陣的高計(jì)算性[21-22]。韓要昌等[23]在GoogLeNet模型基礎(chǔ)上進(jìn)行結(jié)構(gòu)改進(jìn),提出了GoogLeNet16模型,提高了遙感影像分類準(zhǔn)確度;Heetal.[24]提出的ResNet是在深層卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)之上,通過引入殘差單元,來解決由于神經(jīng)網(wǎng)絡(luò)模型過深引起的梯度消失問題,使得ResNet網(wǎng)絡(luò)模型的深度更深,從而提高網(wǎng)絡(luò)模型的識別準(zhǔn)確度;章晨等[25]提出一種基于改進(jìn)殘差網(wǎng)絡(luò)結(jié)構(gòu)的ResNet,以適應(yīng)背景復(fù)雜的遙感圖像數(shù)據(jù)集,與AlexNet、VGGNet-16等卷積神經(jīng)網(wǎng)絡(luò)模型相比,分類提取準(zhǔn)確度得到了小幅提升。
現(xiàn)階段遙感影像分類提取解譯中,運(yùn)用最廣泛的是各類卷積層深度較深的語義分割模型,此類模型的優(yōu)勢在于完成遙感影像地物提取特征分類后,通過反卷積解碼對原始遙感影像上的每一個(gè)像素進(jìn)行預(yù)測分類,提取地物信息邊界并且進(jìn)行標(biāo)識。由于遙感影像尺度較大、地物信息豐富復(fù)雜,且遙感影像與圖像級攝影機(jī)的分辨率仍然存在較大的差距,因此目前語義分割卷積神經(jīng)網(wǎng)絡(luò)模型在遙感影像提取應(yīng)用方面仍存在較大局限性。在分辨率較小時(shí),語義分割模型提取的各種光譜、紋理、空間等深層的語義信息較少,對提取分類精度的影響較大。因此,現(xiàn)階段的深度學(xué)習(xí)模型主要用于紋理、空間、光譜特征較為明顯的道路、水體、建筑物等地物提取。U-Net和DeepLab系列模型是運(yùn)用較為廣泛且效果得到很多研究者驗(yàn)證的兩種語義分割模型,它們能夠獲得比傳統(tǒng)遙感影像提取方法更好的提取精度,但訓(xùn)練模型的過程較長,需要人為調(diào)整訓(xùn)練參數(shù),特別是如果需要調(diào)整模型的內(nèi)部結(jié)構(gòu)則需要比較高的計(jì)算機(jī)編程能力,且擁有大量遙感領(lǐng)域的知識。
當(dāng)前階段,遙感數(shù)據(jù)集還未普遍開源共享,需要自主建立大批的數(shù)據(jù)標(biāo)簽集,費(fèi)時(shí)費(fèi)力,且精度受人為因素影響。
3深度學(xué)習(xí)在水土保持措施信息提取中的應(yīng)用
深度學(xué)習(xí)中卷積神經(jīng)網(wǎng)絡(luò)對于圖像分類任務(wù)性能優(yōu)異,能夠預(yù)測出整幅圖像的屬性,但無法預(yù)測出遙感影像中地類的邊界,并且對于空間大尺度的遙感影像目標(biāo)地類信息的提取任務(wù),卷積神經(jīng)網(wǎng)絡(luò)的分步、分割、分類提取在程序上復(fù)雜和冗余。而深度學(xué)習(xí)中全卷積神經(jīng)網(wǎng)絡(luò)語義分割模型分類預(yù)測的結(jié)果更加注重地物圖斑在待分類影像中的位置、邊界、面積等信息,因此深度學(xué)習(xí)語義分割模型更加適用于水土保持措施圖斑的提取。
目前主流的語義分割模型有DeepLab、FCN[26]、U-Net[27]、PSPNet[28]等。FCN模型和U-Net模型早期主要應(yīng)用于醫(yī)學(xué)影像領(lǐng)域,經(jīng)過遷移學(xué)習(xí)和模型適應(yīng)性場景調(diào)整能夠應(yīng)用于各種遙感地類識別提取。金飛等[29]將改進(jìn)雙U-Net模型用于道路提取,程銳等[30]將改進(jìn)多種語義分割模型用于耕地提取,可見通過改進(jìn)深度學(xué)習(xí)模型,適用于水土保持措施圖斑提取的方法已經(jīng)在其他地物深度學(xué)習(xí)模型分類中得到了成功驗(yàn)證。針對目前水土保持措施圖斑傳統(tǒng)提取方法費(fèi)時(shí)費(fèi)力等問題,研究如何改進(jìn)深度學(xué)習(xí)模型,實(shí)現(xiàn)水土保持措施圖斑的智能、高效、精確提取,具有廣闊的前景。
目前對于深度學(xué)習(xí)在水土保持措施圖斑提取方面的研究成果仍較少,與水土保持措施圖斑的公開數(shù)據(jù)集有限、圖斑在遙感影像中面積較小、部分措施目視解譯很難分辨有關(guān)。因此,現(xiàn)階段主要應(yīng)用于提取特征信息顯著的水土保持措施圖斑,如工程措施中二級分類梯田(因其形狀規(guī)則且與其他地類信息有較為顯著的差異)和生物措施中二級分類造林、種草等。例如,楊亞男等[31]采用以VGG19網(wǎng)絡(luò)模型為基礎(chǔ)構(gòu)建的FCN-8s模型,深度學(xué)習(xí)后可實(shí)現(xiàn)梯田精細(xì)化邊界預(yù)測和高精度面積提取;白翠[32]將基于MobileNet主干網(wǎng)絡(luò)和基于ResNet50主干網(wǎng)絡(luò)的深度學(xué)習(xí)PSPNet模型運(yùn)用于梯田提取,對比結(jié)果表明在驗(yàn)證精度最優(yōu)的網(wǎng)絡(luò)參數(shù)下,基于ResNet主干網(wǎng)絡(luò)模型的提取效果明顯優(yōu)于基于MobileNet主干網(wǎng)絡(luò)模型的。郭爭強(qiáng)[33]使用膠囊網(wǎng)絡(luò)對新疆唐布拉草地進(jìn)行分類,結(jié)果表明該矢量深度學(xué)習(xí)模型相較于支持向量機(jī)等傳統(tǒng)遙感解譯方法有更好的分類精度,但缺乏與主流的深層卷積模型的對比數(shù)據(jù)。唐川江等[34]利用DeepLabv3+模型對爐霍縣、丹巴縣、阿壩縣、金陽縣等地的草地進(jìn)行分類提取,結(jié)果表明DeepLabv3+模型與人工判讀的結(jié)果相近,比傳統(tǒng)監(jiān)督分類方法精度更高。劉春亭等[35]利用DeepLabv3+模型對城市的防塵綠網(wǎng)等進(jìn)行提取,與傳統(tǒng)NDVI方法和經(jīng)典語義分割模型對比,DeepLabv3+模型具有更高的提取精度,但DeepLabv3+模型對防塵綠網(wǎng)的提取精度略低于其他地物的。葛小三等[36]也得到結(jié)論,使用DeepLabv3+模型對道路提取的精確率等高于防塵綠網(wǎng)的。綜上,目前在應(yīng)用層面,深度學(xué)習(xí)的水土保持措施信息遙感智能解譯主要是有關(guān)面措施的提取,主要集中在梯田等工程措施提取方向,而對于其他的點(diǎn)、線型水土保持措施圖斑,受影像分辨率等因素限制,仍難以取得精準(zhǔn)的提取結(jié)果。
4結(jié)語
隨著無人機(jī)影像在小區(qū)域遙感分類中的運(yùn)用,遙感影像的分辨率大幅提高,無論是傳統(tǒng)分類還是深度學(xué)習(xí)分類的提取精度都得到極大提高。在遙感分類提取中運(yùn)用深度學(xué)習(xí)起步較晚,目前主要集中在特征顯著的地物提取上,主要采用卷積神經(jīng)網(wǎng)絡(luò)語義分割模型,相較于傳統(tǒng)的解譯方法提取精度有所提高,但依賴于高分辨率的遙感影像和大量有關(guān)地物的標(biāo)簽數(shù)據(jù)集,且主要集中于真彩色圖斑提取,對于多光譜信息尚有待發(fā)掘運(yùn)用。
水土保持措施遙感解譯經(jīng)歷了從傳統(tǒng)費(fèi)時(shí)費(fèi)力的人工解譯到面向?qū)ο蟮陌胱詣踊蛉詣佑?jì)算機(jī)解譯,逐漸步入到基于深度學(xué)習(xí)等人工智能技術(shù)的智能解譯階段,使水土保持措施信息的高效精準(zhǔn)提取逐步成為可能。目前深度學(xué)習(xí)在水土保持信息提取領(lǐng)域還存在一些有待深入研究的方向:注重遙感影像數(shù)據(jù)的多源融合,結(jié)合無人機(jī)等其他高分辨影像,增強(qiáng)各種水土保持圖斑的空間、紋理、顏色特征,進(jìn)一步提高中小圖斑水土保持措施的辨識率;應(yīng)用深度學(xué)習(xí)提取水土保持措施時(shí)要想獲得更高的精度,需要依靠海量的水土保持措施圖斑標(biāo)簽數(shù)據(jù)集,因此建立包含各種水土保持措施的大容量標(biāo)簽數(shù)據(jù)集至關(guān)重要;耦合計(jì)算機(jī)視覺算法及水土保持領(lǐng)域知識的判別方式有望進(jìn)一步提高水土保持措施提取精度。
[參考文獻(xiàn)]
[1]袁希平,雷廷武.水土保持措施及其減水減沙效益分析[J].農(nóng)業(yè)工程學(xué)報(bào),2004(2):296-300.
[2]趙幫元,馬寧,楊娟,等.基于不同分辨率遙感影像提取的水土保持措施精度分析[J].水土保持通報(bào),2012,32(4):154-157.
[3]趙興實(shí),田中雨,劉巖,等.衛(wèi)片目視解譯在土壤侵蝕現(xiàn)狀調(diào)查中的應(yīng)用[J].水土保持通報(bào),1996,16(1):149-152.
[4]陳斌,王宏志,徐新良,等.深度學(xué)習(xí)GoogleNet模型支持下的中分辨率遙感影像自動分類[J].測繪通報(bào),2019(6):29-33,40.
[5]徐存東,李洪飛,谷豐佑,等.基于無人機(jī)遙感影像的鹽堿地信息的精準(zhǔn)提取方法[J].中國農(nóng)村水利水電,2021(8):116-122.
[6]邵安冉,李新舉,周晶晶.基于Sentinel-2A影像的礦區(qū)土地利用信息提取方法[J].山東農(nóng)業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)版),2020,51(3):441-446.
[7]韓萍,劉亞芳,韓賓賓,等.圖像分割與分類相結(jié)合的PolSAR圖像機(jī)場跑道區(qū)域檢測[J].信號處理,2021,37(11):2084-2096.
[8]王冬利,張安兵,趙安周,等.非監(jiān)督分類的冬小麥種植信息提取模型[J].測繪通報(bào),2019(8):68-71,77.
[9]王立國,馬駿宇,李陽.聯(lián)合多種空間信息的高光譜半監(jiān)督分類方法[J].哈爾濱工程大學(xué)學(xué)報(bào),2021,42(2):280-285.
[10]ZHANGY,SHIMC,ZHAOX,etal.Methodsforautomaticidentificationandextractionofterracesfromhighspatialresolutionsatellitedata(China-GF-1)[J].InternationalSoil&WaterConservationResearch,2017,5(1):17-25.
[11]劉潔,賴格英,宋月君,等.水土保持措施圖斑遙感識別提取研究進(jìn)展[J].水土保持應(yīng)用技術(shù),2020(5):38-42.
[12]張雨果,王飛,孫文義,等.基于面向?qū)ο蟮腟POT衛(wèi)星影像梯田信息提取研究[J].水土保持研究,2016,23(6):345-351.
[13]常虹,詹福雷,楊國東,等.面向?qū)ο蟮母叻诌b感影像信息提取技術(shù)研究[J].測繪通報(bào),2015(1):99-101,130.
[14]夏晨真,張?jiān)?基于厘米級無人機(jī)影像的水土保持措施精準(zhǔn)識別[J].水土保持學(xué)報(bào),2020,34(5):111-118,130.
[15]曹林林,李海濤,韓顏順,等.卷積神經(jīng)網(wǎng)絡(luò)在高分遙感影像分類中的應(yīng)用[J].測繪科學(xué),2016,41(9):170-175.
[16]趙伍迪,李山山,李安,等.結(jié)合深度學(xué)習(xí)的高光譜與多源遙感數(shù)據(jù)融合分類[J].遙感學(xué)報(bào),2021,25(7):1489-1502.
[17]李道紀(jì),郭海濤,張保明,等.結(jié)合雙視覺全卷積網(wǎng)絡(luò)的遙感影像地物提取[J].中國圖象圖形學(xué)報(bào),2020,25(3):535-545.
[18]董蘊(yùn)雅,張倩.基于CNN的高分遙感影像深度語義特征提取研究綜述[J].遙感技術(shù)與應(yīng)用,2019,34(1):1-11.
[19]CHENLC,PAPANDREOUG,KOKKINOSI,etal.DeepLab:semanticimagesegmentationwithdeepconvolutionalnets,atrousconvolution,andfullyconnectedCRFs[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2018,40(4):834-848.
[20]羅李焱,朱婷萼,張桂銘,等.基于DeepLabv3+模型的高分辨率遙感影像建筑物提取[J].電子信息對抗技術(shù),2021,36(4):65-69,73.
[21]IOFFES,SZEGEDYC.Batchnormalization:acceleratingdeepnetworktrainingbyreducinginternalcovariateshift[C].France:JMLR.org,2015:448-456.
[22]SZEGEDYC,IOFFES,VANHOUCKEV,etal.Inception-v4,Inception-ResNetandtheimpactofresidualconnectionsonlearning[C].MenloPark:AAAIPress,2017:4278-4284.
[23]韓要昌,王潔,史通,等.基于改進(jìn)GoogLeNet的遙感圖像分類方法[J].彈箭與制導(dǎo)學(xué)報(bào),2019,39(5):139-142,153.
[24]HEKMHYPERLINK"https://ieeexplore.ieee.org/author/37085360867",ZHANGXYHYPERLINK"https://ieeexplore.ieee.org/author/37088458974",RENSHYPERLINK"https://ieeexplore.ieee.org/author/37085368998"Q,etal.Deepresiduallearningforimagerecognition[C].LasVegas:2016IEEEConferenceonComputerVisionandPatternRecognition(CVPR),2016:770-778.
[25]章晨,夏凱,楊垠暉,等.改進(jìn)殘差網(wǎng)絡(luò)的遙感圖像場景分類[J].測繪科學(xué),2020,45(8):151-156.
[26]SHELHAMERE,LONGJ,DARRELLT.Fullyconvolutionalnetworksforsemanticsegmentation[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2017,39(4):640-651.
[27]RONNEBERGERO,F(xiàn)ISCHERP,BROXT.U-Net:Convolutionalnetworksforbiomedicalimagesegmentation[C].Berlin:SpringerInternationalPublishing,2015,9351:234-241.
[28]ZHAOHS,SHIJP,QIXJ,etal.Pyramidsceneparsingnetwork[C].LosAlamitos:2017IEEEConferenceonComputerVisionandPatternRecognition(CVPR),2017:6230-6239.
[29]金飛,王龍飛,劉智,等.一種雙U-Net的遙感影像道路提取方法[J].測繪科學(xué)技術(shù)學(xué)報(bào),2019,36(4):377-381,387.
[30]程銳,魏妍冰,陸苗,等.基于集成深度學(xué)習(xí)模型的耕地地塊提取[J].中國農(nóng)業(yè)資源與區(qū)劃,2022,43(7):273-281.
[31]楊亞男,張宏鳴,李杭昊,等.結(jié)合FCN和DenseCRF模型的無人機(jī)梯田識別方法研究[J].計(jì)算機(jī)工程與應(yīng)用,2021,57(3):222-230.
[32]白翠.基于深度學(xué)習(xí)梯田信息提取及其對土壤侵蝕量估算的影響[D].西安:西安科技大學(xué),2021:25-26.
[33]郭爭強(qiáng).基于深度學(xué)習(xí)的草地變化監(jiān)測研究[D].成都:電子科技大學(xué),2020:38-40.
[34]唐川江,唐古拉,魯巖,等.基于深度學(xué)習(xí)方法的草地信息智能提取研究[J].中國草地學(xué)報(bào),2020,42(3):175-180.
[35]劉春亭,馮權(quán)瀧,劉建濤,等.DeepLabv3+語義分割模型的濟(jì)南市防塵綠網(wǎng)提取及時(shí)空變化分析[J].遙感學(xué)報(bào),2022,26(12):2518-2530.
[36]葛小三,曹偉.一種改進(jìn)DeepLabV3+網(wǎng)絡(luò)的高分辨率遙感影像道路提取方法[J].遙感信息,2022,37(1):40-46.
[作者簡介]彭道松(1997—),男,江西宜春人,碩士研究生,主要從事水土保持和水資源信息化技術(shù)研究;通信作者莫明浩(1981—),男,江西撫州人,博士,教授級高級工程師,主要從事水土保持與生態(tài)環(huán)境方面的研究。[收稿日期]2022-06-01
(責(zé)任編輯李楊楊)
[基金項(xiàng)目]國家自然科學(xué)基金項(xiàng)目(42067020);江西省水利廳科技項(xiàng)目(202123YBKT16,202325ZDKT02);江西省博士后科研擇優(yōu)資助項(xiàng)目(2019KY46);南昌工程學(xué)院校級研究生創(chuàng)新計(jì)劃項(xiàng)目(YJSCX202106)