摘 要:為提高對(duì)森林火燒跡地的檢測(cè)精度,文章利用火災(zāi)后Sentinel-2衛(wèi)星影像,提出一種基于改進(jìn)PSPNet的森林火燒跡地檢測(cè)模型。該模型以帶空洞卷積的ResNet34作為主干網(wǎng)絡(luò),并在主干網(wǎng)絡(luò)內(nèi)部融合RFB(Receptive Field Block)模塊和ULSAM(Ultra Lightweight Subspace Attention Module)模塊來(lái)增強(qiáng)其特征提取能力;最后利用跳躍連接使模型的解碼器部分充分利用主干網(wǎng)絡(luò)輸出的四個(gè)層級(jí)特征圖。實(shí)驗(yàn)結(jié)果表明改進(jìn)PSPNet模型的平均交并比和總體準(zhǔn)確率分別為91.86%和96.89%,相比PSPNet,分別提高1.52%和0.67%。與其他語(yǔ)義分割模型相比,改進(jìn)模型得到的分割結(jié)果細(xì)節(jié)更加豐富,且具有較好的泛化性能。
關(guān)鍵詞:森林火災(zāi);火燒跡地;多光譜衛(wèi)星影像;深度學(xué)習(xí);語(yǔ)義分割
中圖分類號(hào):TP391.4;S762.3;P237 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2096-4706(2024)17-0043-07
0 引 言
森林作為陸地生態(tài)系統(tǒng)的主體,在碳循環(huán)和氣候調(diào)節(jié)方面發(fā)揮著重要作用。林火對(duì)森林生態(tài)系統(tǒng)造成嚴(yán)重破環(huán),并帶來(lái)極大的經(jīng)濟(jì)損失。森林火燒跡地指的是森林經(jīng)過(guò)火災(zāi)燒毀后尚未恢復(fù)到原始森林狀態(tài)的土地,它提供了火災(zāi)發(fā)生的位置、面積等信息[1]。森林火燒跡地的準(zhǔn)確繪制對(duì)于燃燒生物量估計(jì)和災(zāi)后植被恢復(fù)研究具有重要意義[2-3]。傳統(tǒng)的火燒跡地信息主要來(lái)源于統(tǒng)計(jì)數(shù)據(jù),存在收集困難,難以覆蓋較大區(qū)域的缺點(diǎn),遙感技術(shù)具有監(jiān)測(cè)范圍廣、時(shí)效性強(qiáng)等優(yōu)勢(shì),成為檢測(cè)火燒跡地的重要手段[4]。
火災(zāi)發(fā)生前后的植被光譜特征會(huì)發(fā)生顯著變化,這些特征是遙感提取火燒跡地的基礎(chǔ)[5]。研究人員利用多光譜衛(wèi)星影像,通過(guò)計(jì)算植被指數(shù)再設(shè)定閾值的方式提取火燒跡地[6]。常用的植被指數(shù)有過(guò)火區(qū)識(shí)別指數(shù)(Burned Area Index)、增強(qiáng)型植被指數(shù)(Normalized Difference Vegetation Index)、歸一化植被指數(shù)(Normalized Difference Vegetation Index)、全球環(huán)境監(jiān)測(cè)指數(shù)(Global Environment Monitoring Index)等。但是在實(shí)際研究中,植被指數(shù)閾值的設(shè)定會(huì)對(duì)火燒跡地的提取精度產(chǎn)生一定的影響[7]。因此,研究人員進(jìn)一步使用機(jī)器學(xué)習(xí)算法如隨機(jī)森林、支持向量機(jī)來(lái)提高對(duì)火燒跡地的識(shí)別精度,但是機(jī)器學(xué)習(xí)算法的性能受限于輸入特征的選取[8]。
近年來(lái),研究人員利用多光譜衛(wèi)星影像,逐漸將深度學(xué)習(xí)方法應(yīng)用到火燒跡地檢測(cè)任務(wù)中。深度學(xué)習(xí)方法可以自動(dòng)從輸入的影像中提取特征,避免手動(dòng)設(shè)計(jì)特征,提高了火燒跡地檢測(cè)的準(zhǔn)確性。Maskouni等[9]利用火災(zāi)前后雙時(shí)相Sentinel-2影像,提出一種利用多尺度卷積的火燒跡地檢測(cè)模型,其利用1×1、3×3、5×5多尺度卷積提取圖像特征,提高了模型的魯棒性,實(shí)驗(yàn)結(jié)果優(yōu)于隨機(jī)森林和支持向量機(jī)方法。Seydi等[10]利用火災(zāi)后的Sentinel-2影像,提出一種基于二次形態(tài)學(xué)算子和標(biāo)準(zhǔn)卷積層的Burnt-Net網(wǎng)絡(luò),它將形態(tài)學(xué)可學(xué)習(xí)尺度空間算子與多尺度殘差塊相結(jié)合,以增強(qiáng)模型的特征提取能力。Knopp等[11]利用火災(zāi)后Sentinel-2影像,利用U-Net檢測(cè)火燒跡地,取得了較好的效果,但仍然存在背景像素(如海岸、農(nóng)田和火山巖等)與火燒跡地像素間的錯(cuò)誤分類問(wèn)題。
利用深度學(xué)習(xí)方法提高對(duì)火燒跡地的檢測(cè)精度是當(dāng)前研究的重要問(wèn)題。因此,本文以加拿大不列顛哥倫比亞?。˙ritish Columbia, BC)Bulkley-Nechako地區(qū)的森林火燒跡地為研究對(duì)象,利用火災(zāi)后Sentinel-2影像,提出一種改進(jìn)PSPNet的森林火燒跡地檢測(cè)模型。改進(jìn)的模型以帶空洞卷積的ResNet34作為主干網(wǎng)絡(luò),同時(shí)在主干網(wǎng)絡(luò)內(nèi)部融合了感受野模塊(Receptive Field Block, RFB)和超輕量級(jí)子空間注意力模塊(Ultra-Lightweight Subspace Attention Module, ULSAM),并使用跳躍連接使模型解碼端充分利用主干網(wǎng)絡(luò)的4個(gè)層級(jí)特征圖。
1 實(shí)驗(yàn)數(shù)據(jù)與方法
1.1 實(shí)驗(yàn)數(shù)據(jù)
1.1.1 研究區(qū)域概況
BC省位于加拿大西部,南與美國(guó)華盛頓州、愛達(dá)荷州及蒙大拿州接壤,北鄰育空地區(qū)、西北地區(qū)及美國(guó)阿拉斯加州。BC省的森林資源十分豐富,林業(yè)是該省的支柱產(chǎn)業(yè)。2018年,BC省發(fā)生了嚴(yán)重的森林火災(zāi)。本文以2018年BC省Bulkley-Nechako地區(qū)的森林火燒跡地為研究對(duì)象,其地理位置介于124°35′~126°55′W,52°23′~54°39′N之間。
1.1.2 Sentinel-2影像介紹
Sentinel-2是歐洲空間局哥白尼計(jì)劃中的一項(xiàng)地球觀測(cè)任務(wù),可以拍攝地球表面的中分辨率影像,可用于森林監(jiān)測(cè)、土地覆蓋變化偵測(cè)等領(lǐng)域。Sentinel-2影像覆蓋13個(gè)光譜波段,光譜范圍涵蓋可見光、近紅外與短波紅外,幅寬達(dá)290 km;具有不同的空間分辨率,分別為10 m、20 m和60 m;其分為2A和2B兩顆衛(wèi)星,一顆衛(wèi)星的重訪周期為10天,兩顆互補(bǔ),重訪周期為5天。Sentinel-2影像各波段信息如表1所示。Sentinel-2影像可通過(guò)歐空局官網(wǎng)下載。
1.1.3 森林火燒跡地矢量標(biāo)注介紹
林火是加拿大的主要自然干擾之一,對(duì)森林生態(tài)系統(tǒng)造成了重要影響。因此加拿大測(cè)繪和地球觀測(cè)中心以及加拿大自然資源部林務(wù)局聯(lián)合開發(fā)了加拿大國(guó)家燒毀面積綜合數(shù)據(jù)(National Burned Area Composite, NBAC),用于計(jì)算自1986年以來(lái)每年在加拿大全國(guó)范圍內(nèi)的燃燒的森林面積。NBAC數(shù)據(jù)是一個(gè)火災(zāi)周界地圖,準(zhǔn)確地給出了每一場(chǎng)森林火災(zāi)發(fā)生的地理位置和實(shí)際燒毀區(qū)域,并提供了火災(zāi)開始時(shí)間、結(jié)束時(shí)間等信息,其以Shapefile矢量文件發(fā)布[12]。
1.1.4 語(yǔ)義分割數(shù)據(jù)集制作
本文利用Sentinel-2影像和火燒跡地矢量標(biāo)注數(shù)據(jù)來(lái)制作深度學(xué)習(xí)語(yǔ)義分割數(shù)據(jù)集,具體步驟如下:
1)首先下載接近火災(zāi)結(jié)束時(shí)間且云量少的Sentinel-2影像,本實(shí)驗(yàn)所使用的四景Sentinel-2影像編號(hào)與日期如表2所示。下載的Sentinel-2影像是經(jīng)過(guò)幾何精校正的L1C產(chǎn)品,尚未經(jīng)過(guò)大氣校正,故使用Sec2Cor軟件對(duì)L1C產(chǎn)品大氣校正得到L2A產(chǎn)品。
2)經(jīng)過(guò)大氣校正后,影像的B1和B10波段被自動(dòng)剔除,最后得到包含11波段的衛(wèi)星影像。由于Sentinel-2影像的各波段的分辨率存在差異,故使用SNAP軟件將各波段重采樣至10 m分辨率。
3)利用Arcmap軟件將Sentinel-2影像與火燒跡地標(biāo)注數(shù)據(jù)統(tǒng)一到同一坐標(biāo)系,使得影像與標(biāo)注的空間位置一一對(duì)應(yīng)。
4)原始火燒跡地標(biāo)注為矢量數(shù)據(jù),不能直接作為深度學(xué)習(xí)語(yǔ)義分割模型的標(biāo)簽。故利用Arcmap軟件定義矢量標(biāo)注中的火燒跡地的類別為l,除火燒跡地外的背景類別為0,再通過(guò)Arcmap的面轉(zhuǎn)柵格功能,得到柵格標(biāo)簽。柵格標(biāo)簽中的0值代表背景,1值代表火燒跡地。并根據(jù)火燒跡地的范圍進(jìn)一步確定實(shí)際所用的影像大小。
5)將衛(wèi)星影像和標(biāo)簽均裁剪為256×256像素大小的圖像,總計(jì)2 142張圖片,其中影像的波段數(shù)為11。然后將所有圖片按照6:2:2比例劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集。256×256像素大小的圖像(B12、B8、B2波段合成的偽彩色圖像)及其標(biāo)簽如圖1所示,在標(biāo)簽中黑色代表森林火燒跡地,灰色代表除火燒跡地外的背景。
1.2 改進(jìn)PSPNet模型
PSPNet是一種深度學(xué)習(xí)語(yǔ)義分割模型,它最主要的特點(diǎn)是采用金字塔池化模塊(Pyramid Pooling Module, PPM)。利用該模塊實(shí)現(xiàn)不同尺度信息的有效融合,從而更加有效的捕獲全局信息。PSPNet的整體結(jié)構(gòu)如圖2所示。
PSPNet利用帶空洞卷積的ResNet來(lái)提取圖像特征,然后將提取到的特征送入金字塔池化模塊。金字塔池化模塊使用4個(gè)不同尺度的池化操作將輸入特征圖分別池化為1×1、2×2、3×3和6×6大小的特征圖,然后利用1×1卷積分別對(duì)4組特征圖進(jìn)行降維。利用雙線性插值將4組特征圖上采樣為輸入特征圖大小,并將其與ResNet輸出的特征圖進(jìn)行拼接。最后經(jīng)過(guò)卷積運(yùn)算及上采樣操作得到最終的預(yù)測(cè)結(jié)果。
本文首先選取帶空洞卷積的ResNet34作為PSPNet的主干網(wǎng)絡(luò),在其基礎(chǔ)上進(jìn)行改進(jìn),改進(jìn)模型的整體結(jié)構(gòu)如圖3所示。模型輸入數(shù)據(jù)為256×256像素大小,波段數(shù)為11的多光譜圖像,圖像中包含豐富的光譜信息;模型的輸出結(jié)果為256×256像素大小的0-1二值圖像。
本文改進(jìn)模型的特點(diǎn)如下:
1)為了加強(qiáng)主干網(wǎng)絡(luò)對(duì)于圖像特征的提取,改進(jìn)模型在原主干網(wǎng)絡(luò)的layer2后引入RFB模塊。RFB模塊利用不同尺寸的卷積核以及不同空洞率的卷積核,增大了模型的感受野,實(shí)現(xiàn)了基于不同尺寸的特征提取。
2)考慮到衛(wèi)星影像中包含的地物信息復(fù)雜,如森林、水體、陰影和火燒跡地等,故在原主干網(wǎng)絡(luò)的layer4后嵌入U(xiǎn)LSAM模塊,來(lái)突出有效特征,減小復(fù)雜背景特征的干擾,從而更加有效的區(qū)分前景與背景。同時(shí)ULSAM模塊有著較低的計(jì)算量,避免了過(guò)多的運(yùn)算開銷。
3)輸入圖像經(jīng)過(guò)改進(jìn)主干網(wǎng)絡(luò)運(yùn)算后,分別輸出四個(gè)層級(jí)的特征圖,采用feature1、feature2、feature3和feature4表示,其大小分別為64×64×64、32×32×128、32×32×256和32×32×512,與原主干網(wǎng)絡(luò)輸出的四個(gè)層級(jí)特征圖大小保持一致。
PSPNet在模型解碼端僅利用了原主干網(wǎng)絡(luò)的feature4,feature4作為深層特征圖,其包含著較多的語(yǔ)義信息,但是缺乏細(xì)節(jié)信息。feature1、feature2等淺層特征圖包含著較多的細(xì)粒度信息,如顏色、紋理和邊緣等特征,故本文采用跳躍連接使模型解碼器部分充分利用改進(jìn)主干網(wǎng)絡(luò)的深層特征圖與淺層特征圖。首先將feature2、feature3與金字塔池化模塊輸出的特征圖進(jìn)行拼接,之后利用3×3卷積降維,并將輸出的特征圖再上采樣為高寬為64×64的特征圖。接著將上采樣得到的特征圖與feature1進(jìn)行拼接,再利用3×3卷積對(duì)拼接后的特征圖進(jìn)行降維,最后通過(guò)雙線性插值上采樣獲得森林火燒跡地的分割結(jié)果。
1.2.1 ResNet網(wǎng)絡(luò)
ResNet通過(guò)殘差模塊中的跳躍連接將前面的特征直接傳遞到后面的層中,避免了神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中因網(wǎng)絡(luò)層數(shù)過(guò)深而產(chǎn)生的梯度消失問(wèn)題,提高了模型的表達(dá)能力和性能。ResNet34是一種較淺的ResNet網(wǎng)絡(luò),其具有較少的參數(shù)量和計(jì)算量,在許多視覺任務(wù)上表現(xiàn)出了良好的性能。ResNet34的結(jié)構(gòu)示意圖如圖4所示。ResNet34通過(guò)殘差塊來(lái)提取圖像特征,然后對(duì)提取到的特征進(jìn)行全局平均池化,最后通過(guò)全連接層得到每一個(gè)類別輸出的概率。
在語(yǔ)義分割模型設(shè)計(jì)中,研究人員使用去除全連接層的ResNet作為主干網(wǎng)絡(luò)來(lái)提取圖像特征。當(dāng)輸入圖像的高寬為256×256時(shí),經(jīng)過(guò)ResNet的layer1、layer2、layer3和layer4運(yùn)算后,特征圖尺寸不斷減小,分別輸出高寬為64×64、32×32、16×16和8×8的特征圖。最終輸出的特征圖尺寸為輸入圖像尺寸的1/32,使得圖像特征信息丟失。為避免該問(wèn)題,研究人員將空洞卷積結(jié)合到ResNet中。當(dāng)輸入圖像的高寬為256×256時(shí),帶空洞卷積的ResNet輸出的四個(gè)層級(jí)特征圖的高寬分別為64×64、32×32、32×32和32×32。最終輸出的特征圖尺寸為輸入圖像尺寸的1/8,該方式有效提高了主干網(wǎng)絡(luò)輸出特征圖的分辨率。
1.2.2 RFB模塊
RFB[13]模塊利用不同尺寸的卷積核組成多分支結(jié)構(gòu),模塊結(jié)構(gòu)如圖5所示。在該模塊中分別使用了1×1、3×3和5×5大小的卷積核,其特征提取能力優(yōu)于使用相同尺寸的卷積核的網(wǎng)絡(luò)結(jié)構(gòu)。同時(shí)在該模塊中分別使用了空洞率為1、3、5的3×3空洞卷積。空洞卷積在參數(shù)不變的情況下,增大了卷積核的感受野,使得每個(gè)卷積核的輸出包含較大的范圍,并且保證輸出的特征圖大小保持不變。另外RFB模塊引入Shortcut結(jié)構(gòu),用來(lái)減輕深層網(wǎng)絡(luò)的訓(xùn)練負(fù)擔(dān)。
1.2.3 ULSAM模塊
ULSAM[14]模塊是一個(gè)空間注意力模塊,它能夠自適應(yīng)地學(xué)習(xí)特征圖之間的依賴關(guān)系,使模型更加關(guān)注圖像中的有效特征。ULSAM模塊為每個(gè)特征圖子空間推斷不同的注意力圖,從而實(shí)現(xiàn)多尺度與多頻率的特征表示。ULSAM模塊結(jié)構(gòu)示意圖如圖6所示。
設(shè)F∈Rm×h×w表示輸入的特征圖,其中m表示輸入特征圖的通道數(shù),h、w表示特征圖的高度和寬度。然后將輸入特征圖F劃分為g個(gè)相互獨(dú)立的組,其中每組有G個(gè)特征圖。將定義為一組特征圖,注意力圖計(jì)算式如式(1)所示。式中,DW1×1表示1×1深度卷積;MaxPool3×3,1表示池化核尺寸為3×3,填充為1的最大池化操作;PW1×1表示1×1逐點(diǎn)卷積;Softmax為Softmax激活函數(shù)。每組特征圖經(jīng)過(guò)特征重分配后得到精細(xì)化的特征圖,如式(2)所示。然后對(duì)不同組的輸出特征圖在通道維度上進(jìn)行拼接得到最終的輸出結(jié)果,如式(3)所示。在本文中,設(shè)置分組數(shù)g=4。
(1)
(2)
(3)
2 實(shí)驗(yàn)與結(jié)果分析
2.1 實(shí)驗(yàn)設(shè)置
本文實(shí)驗(yàn)環(huán)境如下:NVIDIA GeForce RTX 3060 GPU,顯存12 GB;Ubuntu 20.04.5 LTS操作系統(tǒng);PyTorch 1.13.0深度學(xué)習(xí)框架,Python 3.6。
本文使用訓(xùn)練集來(lái)訓(xùn)練語(yǔ)義分割模型,使用驗(yàn)證集來(lái)評(píng)估模型在訓(xùn)練過(guò)程中的表現(xiàn)。使用測(cè)試集來(lái)評(píng)估模型最終的性能。在模型訓(xùn)練過(guò)程中,采用SGD優(yōu)化器,批量大?。˙atch Size)設(shè)置為4,學(xué)習(xí)率設(shè)為0.001,動(dòng)量設(shè)為0.9,權(quán)重衰減系數(shù)設(shè)為0.000 1,最大迭代次數(shù)(Epoch)設(shè)為100。采用交叉熵?fù)p失函數(shù)來(lái)計(jì)算模型訓(xùn)練時(shí)的損失值。
2.2 評(píng)價(jià)指標(biāo)
本文使用總體準(zhǔn)確率(OA)、交并比(IoU)和平均交并比(MIoU)對(duì)火燒跡地檢測(cè)結(jié)果進(jìn)行量化評(píng)價(jià)。計(jì)算式為:
(4)
(5)
(6)
其中,TP表示標(biāo)簽為正類別,預(yù)測(cè)結(jié)果為正類別;TN表示標(biāo)簽為負(fù)類別,預(yù)測(cè)結(jié)果為負(fù)類別;FP表示標(biāo)簽為負(fù)類別,預(yù)測(cè)結(jié)果為正類別;FN表示標(biāo)簽為正類別,預(yù)測(cè)結(jié)果為負(fù)類別。在本研究中,正類別為森林火燒跡地,負(fù)類別為背景。在式(6)中,k設(shè)為1。
2.3 實(shí)驗(yàn)結(jié)果
2.3.1 不同模型對(duì)比
本文改進(jìn)模型與其他語(yǔ)義分割模型(PSPNet[15]、SegFormer-B0[16]、U-Net[17])在測(cè)試集上的實(shí)驗(yàn)結(jié)果如表3所示。從表中可以看出,本文改進(jìn)模型的IoU、MIoU和OA指標(biāo)均優(yōu)于PSPNet、SegFormer-B0和U-Net;與PSPNet相比,改進(jìn)模型的IoU、MIoU和OA分別提高了2.11%、1.52%和0.67%。
不同語(yǔ)義分割模型的檢測(cè)結(jié)果對(duì)比圖如圖7所示。從第一行可以看出,PSPNet和SegFormer B0檢測(cè)得到的火燒跡地邊緣細(xì)節(jié)較差,U-Net和改進(jìn)模型則表現(xiàn)較好。從第二行可以看出,四種模型均出現(xiàn)不同程度的錯(cuò)誤分類,PSPNet的檢測(cè)效果最差,改進(jìn)模型的檢測(cè)效果最好。從第三行可以看出,改進(jìn)模型檢測(cè)得到的火燒跡地邊緣更加準(zhǔn)確清晰,優(yōu)于其他3個(gè)模型。整體而言,本文改進(jìn)模型減少了火燒跡地像素與背景像素的錯(cuò)誤分類,具有較好的檢測(cè)能力。
為了驗(yàn)證RFB模塊、ULSAM模塊和利用跳躍連接融合主干網(wǎng)絡(luò)淺層特征圖對(duì)模型的有效性,本文進(jìn)行消融實(shí)驗(yàn),結(jié)果如表4所示。從表中可以看出,加入RFB模塊后,模型的IoU、MIoU和OA分別提高了0.27%,0.26%和0.15%,再加入U(xiǎn)LSAM模塊后,模型的IoU、MIoU和OA分別提高0.58%,0.38%和0.16%。這說(shuō)明擴(kuò)大感受野和通過(guò)空間注意力機(jī)制突出有效特征有助于模型對(duì)火燒跡地的檢測(cè)。利用跳躍連接融合主干網(wǎng)絡(luò)輸出的淺層特征圖對(duì)模型的IoU、MIoU和OA提升較大,分別提高了1.26%、0.88%和0.36%,說(shuō)明淺層的細(xì)節(jié)特征信息對(duì)模型檢測(cè)火燒跡地有著重要的作用。
2.3.2 不同模型泛化性能對(duì)比
為了驗(yàn)證本文改進(jìn)模型與其他模型的泛化能力,本文以2018年BC省Kitimat-Stikine地區(qū)的森林火燒跡地作為研究對(duì)象。根據(jù)火災(zāi)的結(jié)束時(shí)間,選取了一景Sentinel-2影像,影像編號(hào)為T09VUE,日期為2018年9月18日。按照上述方法對(duì)衛(wèi)星影像進(jìn)行預(yù)處理,并對(duì)影像進(jìn)行裁剪,得到一幅7 180×5 201像素大小、波段數(shù)為11的衛(wèi)星影像。
將該影像利用滑窗裁剪為256×256像素大小圖像,分別輸入到PSPNet、SegFormer-B0、U-Net和改進(jìn)模型進(jìn)行預(yù)測(cè)。然后將得到的預(yù)測(cè)結(jié)果依次進(jìn)行拼接,得到一幅完整的預(yù)測(cè)圖,預(yù)測(cè)結(jié)果示意如圖8所示。從圖中可以看出,PSPNet、SegFormer-B0和U-Net模型均出現(xiàn)了不同程度的欠分割問(wèn)題,而改進(jìn)模型的分割細(xì)節(jié)更加豐富。
同時(shí)計(jì)算不同模型對(duì)該影像分割結(jié)果的OA、IoU和MIoU,實(shí)驗(yàn)結(jié)果如表5所示,從表中可以看出,改進(jìn)模型檢測(cè)結(jié)果優(yōu)于其他3個(gè)模型,其具有較好的泛化性能。
3 結(jié) 論
為了提高對(duì)森林火燒跡地的檢測(cè)精度,本文提出一種改進(jìn)PSPNet的森林火燒跡地檢測(cè)模型,并采用10 m分辨率的Sentinel-2多光譜影像進(jìn)行了實(shí)驗(yàn)。本文以帶空洞卷積的ResNet34作為模型主干網(wǎng)絡(luò),并在主干網(wǎng)絡(luò)內(nèi)部結(jié)合RFB和ULSAM模塊,最后在模型的解碼器部分利用跳躍連接充分融合主干網(wǎng)絡(luò)輸出的四個(gè)層級(jí)特征圖。實(shí)驗(yàn)結(jié)果表明,RFB、ULSAM模塊和融合淺層特征有效增強(qiáng)了模型對(duì)火燒跡地的檢測(cè)能力。與其他語(yǔ)義分割模型相比,改進(jìn)模型對(duì)森林火燒跡地的檢測(cè)精度更高,且具有較好的泛化性能,且具有較好的泛化性能。
參考文獻(xiàn):
[1] 吳立葉,沈潤(rùn)平,李鑫慧,等.不同遙感指數(shù)提取林火跡地研究 [J].遙感技術(shù)與應(yīng)用,2014,29(4):567-574.
[2] 苗慶林,田曉瑞,趙鳳君.大興安嶺不同植被火后NDVI恢復(fù)過(guò)程 [J].林業(yè)科學(xué),2015,51(2):90-98.
[3] SHIRAISHI T,HIRATA R. Estimation of Carbon Dioxide Emissions from the Megafires of Australia in 2019–2020 [J/OL].Scientific Reports,2021,11(1):8267[2024-2-10].https://doi.org/10.1038/s41598-021-87721-x.
[4] 郝帥,王星,張秋良,等.大興安嶺火燒跡地遙感提取研究 [J].林業(yè)資源管理,2022(2):75-81.
[5] 楊偉,姜曉麗.森林火災(zāi)火燒跡地遙感信息提取及應(yīng)用 [J].林業(yè)科學(xué),2018,54(5):135-142.
[6] 廖瑤,李雪,劉蕓,等.基于植被指數(shù)的高分一號(hào)遙感影像火燒跡地提取評(píng)價(jià)[J].自然災(zāi)害學(xué)報(bào),2021,30(5):199-206.
[7] 韓麗,戴必輝,王秋華,等.影像選擇及閾值對(duì)dNBR提取火燒跡地的影響 [J].遙感信息,2023,38(1):47-55.
[8] 牛方天,孫林,于會(huì)泳,等.地表反射率遙感數(shù)據(jù)支持的火燒跡地面積提取 [J].地球信息科學(xué)學(xué)報(bào),2023,25(9):1855-1868.
[9] MASKOUNI F H,SEYDI S T. Forest Burned Area Mapping Using Bi-Temporal Sentinel-2 Imagery Based on a Convolutional Neural Network: Case Study in Golestan Forest [J/OL].Engineering Proceedings,2021,10(1):6[2024-02-06].https://www.mdpi.com/2673-4591/10/1/6.
[10] SEYDI S T,HASANLOU M,CHANUSSOT J. Burnt-Net: Wildfire Burned Area Mapping with Single Post-Fire Sentinel-2 Data and Deep Learning Morphological Neural Network [J/OL].Ecological Indicators,2022,140:108999[2024-01-20]. https://doi.org/10.1016/j.ecolind.2022.108999.
[11] KNOPP L,WIELAND M,R?TTICH M,et al. A Deep Learning Approach for Burned Area Segmentation with Sentinel-2 Data [J/OL].Remote Sensing,2020,12(15):2422[2024-01-20].https://www.mdpi.com/2072-4292/12/15/2422.
[12] HALL R J,SKAKUN R S,METSARANTA J M,et al. Generating Annual Estimates of Forest Fire Disturbance in Canada: the National Burned Area Composite [J].International journal of wildland fire,2020,29(10):878-891.
[13] LIU S T,HUANG D,WANG Y H. Receptive Field Block Net for Accurate and Fast Object Detection [C]//Proceedings of the European conference on computer vision (ECCV).Munich:Springer,2018:404-419.
[14] SAINI R,JHA N K,DAS B,et al. Ulsam: Ultra-Lightweight Subspace Attention Module for Compact Convolutional Neural Networks [C]//2020 IEEE Winter Conference on Applications of Computer Vision (WACV).Snowmass:IEEE,2020:1616-1625.
[15] ZHAO H S,SHI J P,QI X J,et al. Pyramid Scene Parsing Network [C]//2017 IEEE conference on computer vision and pattern recognition.Honolulu:IEEE,2017:6230-6239.
[16] XIE E,WANG W H,YU Z D,et al. SegFormer: Simple and Efficient Design for Semantic Segmentation with Transformers [J].Advances in neural information processing systems,2021,34:12077-12090.
[17] RONNEBERGER O,F(xiàn)ISCHER P,BROX T. U-Net: Convolutional Networks for Biomedical Image Segmentation [C]//International Conference on Medical Image Computing and Computer-Assisted Intervention.Munich:Springer,2015:234-241.
作者簡(jiǎn)介:張藝(1997—),男,漢族,山西晉中人,碩士研究生,主要研究方向:深度學(xué)習(xí)、圖像分割;通信作者:黃建平(1982—),男,漢族,福建武夷山人,副教授,博士,主要研究方向:從事視覺檢測(cè)、圖像處理研究。
DOI:10.19850/j.cnki.2096-4706.2024.17.009
收稿日期:2024-03-13
基金項(xiàng)目:中央高?;究蒲袠I(yè)務(wù)費(fèi)專項(xiàng)資助基金(2572019CP19)
Forest Burned Area Detection Based on Improved PSPNet
ZHANG Yi, MA Yongjun, WANG Guanglai, HUANG Jianping
(College of Computer and Control Engineering, Northeast Forestry University, Harbin 150040, China)
Abstract: In order to improve the detection accuracy of forest burned area, this paper uses Sentinel-2 satellite images after the fire to propose a forest burned area detection model based on improved PSPNet. This model employs ResNet34 with dilated convolution as the backbone network and fuses the RFB module and ULSAM module inside the backbone network to enhance its feature extraction capability. Finally, skip connection is used to make the decoder part of the model make full use of the four-level feature maps output by the backbone network. The experimental results show that the MIoU and overall accuracy of the improved PSPNet model is 91.86% and 96.89%, respectively, which is 1.52% and 0.67% higher than PSPNet. Compared with other semantic segmentation models, segmentation outcomes achieved by the improved model exhibit richer details and have better generalization performance.
Keywords: forest fire; burned area; multispectral satellite image; Deep Learning; semantic segmentation