張榮卉
(1.安徽省基礎測繪信息中心,安徽 合肥 230031;2.自然資源安徽省衛(wèi)星應用技術中心,安徽 合肥 230031)
現階段,衛(wèi)星遙感影像分辨率不斷提高,與中低分辨率遙感影像變化檢測相比,雖然高分辨率遙感影像呈現了更多的細節(jié)信息,但是變化和未變化區(qū)域之間的可分性降低、提取難度反而提高。在遙感數據源增多、遙感影像空間分辨率提高以及地物細節(jié)豐富的前提下,傳統(tǒng)的基于遙感影像的變化檢測主要對不同時期影像的監(jiān)督分類結果進行分析,不僅需要利用繁重的人工目視解譯工作,還不能保證變化檢測精度。深度學習技術可以從海量數據中自動學習特征,適應遙感影像變化的不同情況,因此,在遙感影像變化檢測中得到越來越廣泛的應用[3]。超像元分割是圖像處理的一種方法,本質上是指對一些顏色、紋理或梯度等特征像素進行局部聚類的過程。將超像元分割技術用于優(yōu)化深度學習變化檢測方法[1-2],使其基于神經網絡的像素預測和基于對象級的約束,能夠使變化檢測結果更合理[7]。
安徽省地貌以平原、丘陵和低山為主,坡地面積較大,地物細節(jié)豐富,在遙感影像上表現極為復雜。該文制作變化檢測樣本的數據源分別是2020年四季度和2021年四季度、分辨率為2m的安徽省影像統(tǒng)籌季度一版圖兩期影像以及各自對應時相的矢量數據。對全省范圍內隨機選取的部分區(qū)縣級影像進行人工繪制參考矢量,通過前后時相兩期影像的疊加對比,標注新增建設用地圖斑,從而制作變化樣本集。針對地物類型主要為道路、建筑物和推填土等建設用地。
該文研究基于全卷積神經網絡的的變化檢測方法,通過深度學習樣本訓練技術獲得最優(yōu)的訓練模型,從而實現遙感影像變化信息自動提取。同時,在深度學習模型訓練的基礎上[4-5],基于分割對象提取兩期影像上的光譜、紋理和上下文特征差異,結合語義特征,提取兩期影像的變化置信度,最終獲得兩期影像的變化圖斑和對應變化矢量。
模型訓練是一個參數調整的過程,可以通過增加樣本訓練迭代得到符合精度要求的模型,也可以通過人工參數調整優(yōu)化模型。模型訓練包括模型訓練以及模型測試2個部分內容。首先利用已有的樣本數據進行模型訓練,得到初始模型。如果初始模型測試達到理想的精度指標,那么該模型可以作為最終模型;如果模型精度未能達標,那么需要調整參數,進一步進行模型訓練。通過增加樣本數據可以進一步提升模型精度,參數調整與新增樣本訓練可以交替或同步進行。具體流程如圖1所示。
圖1 模型訓練流程
2.1.1 樣本制作
利用安徽省影像統(tǒng)籌季度一版圖數據及其矢量成果,基于前后時相影像及其標簽數據,制作樣本數據集[6]。數據準備具體步驟如下:1)找到不同時相影像Img1(前時相影像)、影像Img2(后時相影像)。2)疊加對應的新、老地表覆蓋矢量M1、M2。3)通過更新后的矢量圖斑與疊加影像的目視判斷,修正錯誤,補測遺漏的圖斑。4)將變化圖斑單獨存為一個矢量數據Mc。5)Img1、Img2、Mc保存,為變化圖斑的樣本制作的輸入數據。其次,樣本裁切[9]。裁切后的變化樣本,包括前時相影像的樣本影像、后時相影像的樣本影像以及對應的變化標注數據,如圖2所示。
圖2 變化樣本
2.1.2 網絡模型設計
傳統(tǒng)的卷積神經網絡(CNN)主要用于圖像級分類,即判斷該圖像的內容屬于哪一類。遙感影像的變化檢測最終的結果是對影像進行像素級的二分類。該文的網絡模型選用的是滿足像素級別分類要求的全卷積神經網絡(FCN),與經典的CNN分類網絡最大的不同點如下:最后一層不是向量輸出,而是對輸出的特征圖進行上采樣[8]。經過上采樣后,得到原始尺寸的逐像素的分類預測圖。輸入圖像可以是任意尺寸的,同時根據輸入圖像的尺寸,網絡輸出結果的尺寸也與輸入圖像的尺寸保持一致,因此,可以對圖像進行像素級的概率預測,同時保留原始輸入圖像的空間信息。上采樣的形式很多,例如線性插值、反卷積等。FCN的上采樣主要是運用反卷積。如圖3所示,反卷積先通過補0(虛線元素值為0)擴大輸入圖像的尺寸,然后通過卷積核進行卷積。通過反卷積操作,圖像由原來的2×2像素變成4×4像素的圖像,從而實現上采樣。
圖3 反卷積示意圖
2.1.3 模型訓練
全卷積神經網絡FCN模型訓練的過程,就是參數調節(jié)的過程,主要參數包括以下3種。
2.1.3.1 學習率
學習率是訓練過程中的重要參數,但是對其設置一定要合理。較高的學習率有助于縮短訓練時間,減少反饋環(huán)路,可以較快地預判網絡模型是否可行,雖然網絡模型能夠更快地收斂,但是結果可能不會特別理想,甚至會有較大振蕩。
2.1.3.2 批尺寸
批尺寸是模型訓練時一次輸入的樣本數,同樣也有數量的設置限制。對較大樣本進行批處理,例如使用整個數據集,減少了梯度更新的方差,可以使每輪迭代的結果更精確。但是,這個方法受到物理內存大小限制。對較小樣本的批處理來說,例如使用1個樣本,能夠獲取更細粒度的權重以更新反饋,但是卻不容易收斂。
2.1.3.3 隨機失活
隨機失活是將多個模型的結果組合在一起,但不需要對多個模型分別進行訓練。具體做法是訓練多隱層網絡,對每個隱層的神經元進行一定的概率失活,這樣每次形成不同激活的由神經元的組成的網絡,相當于多個網絡的組合。本質上,每次迭代都是對隨機挑選特征空間的子集進行訓練。
2.1.4 模型測試
模型測試即模型精度評價?;谠u價指標不斷進行模型訓練及參數調整。如果總體測試精度不理想,就進行進一步迭代;如果總體精度滿足實際需求,就可以獲得目標網絡模型,不需要再進行參數調優(yōu);當有新的樣本時,可以通過補充樣本進行模型訓練,進一步提高模型精度。該文在計算模型精度的過程中采用的評價指標為查全率和正確率。基于模型提取的每個變化圖斑,面積>200個像素的計算方法如下:查全率=真值圖斑與檢測圖斑有交集的個數/真值圖斑的個數;正確率=檢測圖斑與真值圖斑有交集的個數/檢測圖斑的個數。其中,真值圖斑是指人工目視變化檢測結果(圖斑),檢測圖斑是指模型智能變化檢測結果(圖斑)。
超像元是一些具有相似特征(例如顏色、紋理和類別等特征)像素的集合,形成一個更具代表性的基本處理單元。超像元算法的主要作用是優(yōu)化深度學習變化檢測方法的結果。目前,常用的超像素分割算法有SLIC、SEEDS和LSC。該文選用了簡單的線性迭代聚類(SLIC)超像元算法,將圖像中的像素點聚類超像元中,以滿足空間和亮度上的約束。與其他幾種算法相比,其運行速度更快、物體輪廓保持度和超像元緊湊度較高?;赟LIC超像元算法設計了基于超像元分割對變化檢測結果優(yōu)化的方法,具體內容如下:1)輸入。前后兩期高分辨率遙感影像X1和X2,變化檢測初始結果為Y。2)輸出。最終變化檢測結果Y'。3)實現過程。首先,對X1,X2使用SLIC算法進行超像元分割,得到圖像集O=(o1,o2,…,om),oi=(oi1,oi2),oit表示第t個時相影像在i的分割尺度下的分割影像,m為分割尺度數量。其次,對應oit中各像元區(qū)域,根據變化檢測初始結果Y統(tǒng)計該區(qū)域變化與未變化的像素數,采用贏者通吃的原則將該區(qū)域全部賦予數量多的類別。對所有O進行以上操作,得到結果Yo=(Y1o,Y2o,…,Ymo),其中,Yio=(Yi1,Yi2);最后,將得到Yo的按t維堆疊,得到t×m的結果,對每個像素對應t個時期m種尺度的變化和未變化數量,根據舉手表決,以數量多的類別作為該像素的最終變化檢測結果,得到最終的變化結果Y'。
該文選取安徽省渦陽縣、包河區(qū)和懷寧縣3個地區(qū)作為變化檢測模型的測試區(qū)域,其中,渦陽縣位于安徽省北部,地形特征為平原;包河區(qū)位于安徽省中部,地形特征為平原;懷寧縣位于安徽省南部,地形特征為山地丘陵。針對建設用地變化目標,分別對3個地區(qū)的前后時相影像提取變化圖斑。模型測試結果見表1。
表1 模型測試結果統(tǒng)計(影像分辨率為2.0m)
通過測試可以看出,針對建設用地類型的變化圖斑,模型的查全率優(yōu)于90%,正確率優(yōu)于50%。3個地區(qū)的變化提取效果分別如圖4(a)~圖4(c)所示,黃色區(qū)域為人工提取變化圖斑情況,紅色區(qū)域為變化檢測模型效果。
圖4 前后時相影像變化提取效果示意圖
該文通過構建遙感影像樣本庫和基于深度學習的模型訓練技術,獲取適用于建設用地自動提取的變化檢測模型,自動提取了多時相遙感影像變化信息,為提升遙感影像的智能化解譯能力,做出了積極地探索和實踐。