劉立 何江
摘? 要:應用遙感數(shù)據(jù)進行土地覆被分類后變化檢測時,土地覆被分類誤差會造成嚴重的誤差累積效應。尤其是針對高分辨率遙感影像的土地覆被變化檢測,由于空間分辨率的提高,高分辨率影像的變化檢測難度增大,一般的分類后變化檢測精度較低。文章采用基于對象的影像分析方法,提出了利用貝葉斯軟融合方法降低了土地覆被變化分類誤差的累積效應,并選取了兩個研究區(qū)的高分辨遙感影像數(shù)據(jù)驗證了其有效性,分別得到了78%與76%的總精度。
關鍵詞:高分辨率影像;變化檢測;基于對象;貝葉斯方法
中圖分類號:TP75 文獻標志碼:A 文章編號:2095-2945(2019)11-0001-05
Abstract: When remote sensing data are used to detect the change of land cover classification, the error of land cover classification will cause serious error accumulation effect. Especially for the llllllllllllland cover change detection of high-resolution remote sensing images, due to the improvement of spatial resolution, the change detection of high-resolution images is more difficult, and the accuracy of general change detection after classification is low. In this paper, an object-based image analysis method is proposed to reduce the cumulative effect of classification errors of land cover change by using Bayesian soft fusion method, and two high-resolution remote sensing image data are selected to verify its effectiveness. The total accuracy vales of 78% and 76% are obtained respectively.
Keywords: high resolution image; change detection; object-based; Bayesian method
1 概述
土地利用/土地覆被(LULC)變化是生態(tài)環(huán)境變化的重要組成部分之一,其在森林開采、城市擴張、災害檢測與評估以及土地管理和規(guī)劃等方面均有重要作用[1]。而遙感數(shù)據(jù)以其周期性、范圍廣、易于獲取等特點在LULC研究中越來越被重視。尤其是更多的高分辨率數(shù)據(jù)的出現(xiàn),為LULC變化研究帶來了更多的便利[2]。
在遙感中,變化檢測是通過聯(lián)合處理不同時間在同一地理區(qū)域獲取的兩幅(或更多)影像來識別地球表面變化的過程[3]。高分辨率影像提供的豐富的紋理、形狀等特征信息可以更好的反映真實的地表形態(tài)[4],從而得到更加精確的LULC變化。然而隨著影像分辨率的提高,引起了一系列的問題:(1)影像配準的難度增加[5];(2)影像中每一類的光譜特征更加離散;(3)由于傳感器角度、陰影效應等造成的數(shù)據(jù)獲取條件的不同。以往基于像元的變化檢測方法難以解決這些問題,且更容易出現(xiàn)“椒鹽現(xiàn)象”,不利于后續(xù)的制圖表達。而基于對象的影像分析技術已被證明可以減少地理配準,更復雜的光譜變化以及不同的數(shù)據(jù)獲取條件的影響[6]。基于對象的變化檢測屬于基于對象的影像分析的一部分,其可以通過影像分割技術獲取影像對象以更好的反映真實地表的地理對象,并且可以通過特征提取的方法得到影像對象的光譜、紋理、形狀以及空間關系等特征。因此,基于對象的變化檢測方法成為了高分辨率影像變化檢測的主流方法之一[7]。
基于對象的變化檢測方法主要分為分類后比較法和直接檢測法。直接檢測法具有比較好的穩(wěn)定性和精確性,可以較方便的利用在基于像元的變化檢測中表現(xiàn)較好的方法,但是它并不能提供詳細的“從-到”類別變化信息,不適用于LULC變化檢測[8]。分類后比較的方法可以提供詳細的類別變化信息,在LULC變化檢測中更為常用,Blaschke為基于對象的分類后變化檢測提供了一個較完整的框架[9],并被廣泛應用。但是分類后比較的方法過分依賴于分類結果,在變化檢測的過程中丟失了影像對象的特征信息,使變化檢測的結果與精度受到分類誤差累積的影響。為了獲得更好檢測的結果,將從特征相似性得到的直接變化檢測結果與獨立分類結果相結合是改進后分類方法的可行且有效的方法[10]。Yu等人將分類與變化檢測相結合,利用回溯的方法完成了北京地區(qū)的LULC變化檢測,并且證明了該方法可以有效地減小誤報[11]。然而,其變化閾值的選擇依然是靠經驗,并且無論是分類結果還是變化檢測結果都屬于硬分類結果,丟失了其連續(xù)變化的強度信息,在兩者融合時易產生誤差。
因此,本文提出了一種在影像對象的基礎上利用貝葉斯方法融合獨立分類與變化檢測結果的方法。利用貝葉斯融合方法來尋找類概率和變化概率的最優(yōu)組合,確定類別變化方式。該方法可以充分利用獨立分類與變化檢測的連續(xù)概率信息,并且避免了在連續(xù)概率上閾值的選取。
2 基于對象的貝葉斯方法的變化檢測
集成基于對象與貝葉斯融合的變化檢測方法首先需要對兩幅影像進行分割得到影像對象;然后分別進行獨立的影像分類與直接變化檢測,得到影像對象的類別概率與變化概率;最后利用貝葉斯方法求得每一個影像對象對的最大后驗概率,繼而得到變化檢測結果,具體流程如圖1。
2.1 影像分割
商業(yè)軟件 eCognition推動了基于對象影像分析方法的快速發(fā)展和廣泛應用,其提供的分型網絡演化算法(Fractal Net Evolution Approach, FNEA)是典型的基于區(qū)域合并增長的方法。eCognition在其多尺度分割過程中實現(xiàn)了該方法。該方法中決定最優(yōu)分割數(shù)據(jù)集的參數(shù)涉及尺度因子、形狀因子和緊湊度因子。為了獲得理想的影像對象,僅僅目視判斷不足以得到準確結果,這就需要分割參數(shù)優(yōu)選的方法。
PSE-NSR-ED2不一致性法[12]綜合利用了PSE、NSR 和ED2三個分割質量評價指數(shù)以定量化評價分割質量,其兼顧了“過分割”與“欠分割”的影響,可以更準確的評估影像對象的分割精度。
2.2 影像分類與變化檢測
貝葉斯軟融合方法需要得到兩個時刻每個對象屬于每個類別的概率以及兩個時刻之間的時間段該對象發(fā)生變化的概率。
支持向量機(SVM)算法是近年來機器學習的主流方法之一,它可以在較少的訓練樣本的情況下獲得較好的分類結果,并且具有較好的魯棒性。因此,本文使用SVM作為分類的方法來獲得影像對象類別概率。
慢特征分析(SFA)是一種新的學習算法,可以從輸入信號中提取不變和緩慢變化的特征[13]。在遙感影像變化檢測問題中,未改變的對象對應于緩慢變化的分量,同時改變的對象是快速變化的。通過特征空間變換在不變特征空間中,未改變的對象被抑制,從而可以更好的分離改變的對象。通過求解特征值問題,SFA可以求得這種不變特征空間的全局最優(yōu)解[14]。為了適應雙時刻遙感影像的變化檢測以及使其更加自動化, Zhang等人重新擬定了SFA公式使其在迭代中,將大權重分配給未更改的對象,將小權重分配給改變的對象,從而反映對象的變化概率。其基本流程如下:(1)對數(shù)據(jù)進行標準化;(2)求取數(shù)據(jù)的協(xié)方差矩陣,按照公式(1)求解矩陣方程的特征值問題;(3)按照公式(2)計算每個對象的SFA值,并根據(jù)卡方分布求得每個對象權重;(4)根據(jù)權重求取數(shù)據(jù)協(xié)方差矩陣,重復2,3步,直至當前迭代與前一次迭代的最大特征值差值小于某一特定值。其中A為影像對象對應特征差值的協(xié)方差矩陣,B為兩幅影像特征各自的協(xié)方差矩陣的平均值。
其中w為解方程得到的特征向量,x,y分別為對應對象的特征值向量。
最終求得的每個對象的權重反映的是每個對象沒有發(fā)生變化的概率,從而得到每個對象的變化概率。
2.3 貝葉斯融合
一般的后分類變化檢測是通過影像分類得到類別標簽,然后比較類別標簽來獲得“從-到”的變化信息。然而,由于后分類方法忽略了影像特征之間的時間相關性,從而造成分類錯誤的累積。假設多時相影像對應的類別標簽在時間上是相關的,那么貝葉斯理論可以給出最佳的多時間分類,找到在兩個時刻特征空間分別為x,y時提供最大后驗概率的多時相類別wi,vj的組合[15]。
由此可以根據(jù)分類概率和變化概率得出影像兩時刻的各種類別標簽組合以判斷是否發(fā)生變化以及怎么變化。一般情況下我們優(yōu)先選擇具有最大概率的類別標簽組合作為結果。但是在一些特殊情況下,最大概率可能是根據(jù)影像區(qū)域或常識信息不可能發(fā)生的類別變化,如建成區(qū)變成林地,建成區(qū)變成水體等,這時我們將選擇次大的概率組合,直至結果合理。本文中貝葉斯融合方法由IDL程序實現(xiàn)。
3 實驗數(shù)據(jù)
3.1 實驗區(qū)1
實驗區(qū)1為Quickbird多光譜數(shù)據(jù),Quickbird衛(wèi)星是較早發(fā)射的商業(yè)高分辨率衛(wèi)星之一,目前依然被廣泛應用于地理科學、農業(yè)、林業(yè)、城市規(guī)劃、土地利用、環(huán)境監(jiān)測、考古、野生動物保護、環(huán)境評價、牧場管理等各個領域。其多光譜數(shù)據(jù)包括藍光波段、綠光波段、紅光波段、近紅外波段等4波段??臻g分辨率為2.4米。大小為250*250個像元。
由于兩期影像均為Quick Bird多光譜數(shù)據(jù),其成像條件基本相同。僅用DN值獲取地物類別與變化信息可以接受。故本文對Quick Bird多光譜數(shù)據(jù)只進行了影像配準,裁剪等相應的預處理過程。
從圖2中可以看出實驗區(qū)1的主要變化為道路拓寬,根據(jù)研究目的可以將影像土地覆被分為草地、林地、裸地、水體、道路和建筑物等6種類型。
3.2 實驗區(qū)2
實驗區(qū)2為WorldView2和WorldView3兩個傳感器的多光譜數(shù)據(jù),WorldView衛(wèi)星以其采集能力高、機動靈活性增強、高效大面積采集、重訪周期短等特點成為最廣泛被使用的商業(yè)衛(wèi)星之一。多光譜波段均包括海岸波段、藍光波段、綠光波段、黃光波段、紅光波段、紅邊波段、2個近紅外波段等8個波段。其空間分辨率均為2米,大小為600*400個像元。
由于WorldView2與WorldView3來自于不同的傳感器,其成像條件不完全相同,會造成影像DN值存在差異。故對于兩期WorldView數(shù)據(jù)除了進行配準、裁剪外還進行了影像的輻射定標與大氣校正將影像DN值定標為表觀反射率。其中輻射定標與大氣校正均采用ENVI軟件完成。
從圖3中可以看出實驗區(qū)2的主要變化為農村居民區(qū)改造和城市建設,可以將影像土地覆被分為草地、農田、裸地、水體、農村居民地、道路和建筑物等7種類型。
4 結果分析
4.1 實驗1結果
使用eCognition軟件的多尺度分割算法建立分割數(shù)據(jù)集并以實驗區(qū)1的矢量數(shù)據(jù)作為參考多邊形進行分割參數(shù)優(yōu)選。優(yōu)選結果如圖4,可以得出實驗區(qū)1的最優(yōu)分割參數(shù)為分割尺度因子25,形狀因子0.1,緊致度因子0.5。按照優(yōu)選參數(shù)對影像進行分割得到883個影像分割對象。
利用SVM分類得到對象屬于每個類別的概率結果,并且得到以最大概率的類別標簽作為結果的分類圖。經過試驗確定SVM的主要參數(shù)設置為核函數(shù)為徑向基核函數(shù),懲罰系數(shù)為1,gamma系數(shù)為0.1。
如圖5可以看到影像基本變化區(qū)域為右側道路部分,如果直接利用分類結果可以將道路的變化檢測出來。但是圖中左側建筑物與建筑物周圍的林地、草地相互交、結構較為復雜,很容易出現(xiàn)混分。
從圖6中可以看到利用ISFA的貝葉斯軟融合方法得到了最好的變化檢測結果,利用FCM、CVA的貝葉斯軟融合方法和直接分類后比較均有較多的“誤檢”現(xiàn)象。
4.2 實驗2結果
使用eCognition軟件的多尺度分割算法建立分割數(shù)據(jù)集并以實驗區(qū)2的矢量數(shù)據(jù)作為參考多邊形進行分割參數(shù)優(yōu)選。優(yōu)選結果如圖7,可以得出實驗區(qū)2的最優(yōu)分割參數(shù)為分割尺度因子35,形狀因子0.2,緊致度因子0.5。按照優(yōu)選參數(shù)對影像進行分割得到680個影像分割對象。
利用分類特征進行SVM分類得到對象屬于每個類別的概率結果,并且得到以最大概率的類別標簽作為結果的分類圖。經過試驗確定SVM的主要參數(shù)設置為核函數(shù)為徑向基核函數(shù),懲罰系數(shù)為1,gamma系數(shù)為0.1。
如圖8可以看到影像基本變化區(qū)域為左側和右側的農村地區(qū)的城市建設,直接利用分類結果可以將變化檢測出來。但是圖中中間部分的農田會出現(xiàn)較多誤檢(圖9)。
4.3 結論
為了驗證本文方法的有效性,文章通過目視解譯對兩個小區(qū)域數(shù)據(jù)進行了全部的矢量化,得到了全部影像區(qū)域的矢量數(shù)據(jù)。并且利用矢量化數(shù)據(jù)作為評價數(shù)據(jù)集。對分類后比較與貝葉斯方法的土地覆被轉移結果進行精度評價,得到每個轉移類型的精度以及所有轉移類型的總精度。同時得到是否為變化結果的準確率與召回率(表1)。
通過綜合分析兩個實驗數(shù)據(jù)的區(qū)別。可以發(fā)現(xiàn)第一組數(shù)據(jù)中每個類別之間區(qū)分較為明顯,不同類別之間差異較大。在這種情況下分類精度一般相對較高。其誤差來源更多是累積效應的影響。運用ISFA等可以較大分離變化與未變化的概率表示方法,可以有效消除誤差累積效應。第二組數(shù)據(jù)中每個類別之間區(qū)分并不十分明顯,而且同一類別之中可能會存在多種特征形式的表現(xiàn)狀態(tài),例如農田可能表現(xiàn)為有較高植被覆蓋、較低植被覆蓋甚至沒有植被覆蓋的形態(tài)。這樣變化檢測的誤差既來源于分類誤差同時有誤差累積效應的影響, ISFA過度的拉大變化與非變化就可能造成“漏檢”現(xiàn)象。但是ISFA雖然造成了一定的漏檢,但是總體上各個轉移類別的總體精度更高,相對于分類后比較依然具有明顯的改善效果。
高分辨率影像對于LULC變化檢測具有重要作用。本文根據(jù)高分辨率影像的特點選擇了基于對象的影像分析方式,并且利用貝葉斯融合的方法通過將直接變化檢測的結果與分類后比較的結果相結合,改進了只應用分類后比較造成的誤差累積問題。該方法通過采用概率信息的貝葉斯融合方式,利用最大的后驗概率組合,有效避免了變化檢測中的閾值選取問題,并且由于基于對象影像分析的優(yōu)勢,減弱了“椒鹽現(xiàn)象”,可以得到更好的制圖結果。
由于在變化檢測中沒有比較好的不同特征融合的方法,本文中直接變化檢測使用的方法均僅使用了光譜特征,沒有充分將基于對象的優(yōu)勢應用在直接變化檢測的方法中,后續(xù)會繼續(xù)尋找在變化檢測中利用紋理、幾何等特征的方法,通過不同的特征之間的有效融合改善變化檢測的結果。
參考文獻:
[1]趙敏,趙銀娣.面向對象的多特征分級CVA遙感影像變化檢測[J].遙感學報,2018,22(01):119-131.
[2]王成軍,毛政元,徐偉銘,等.超像素與主動學習相結合的遙感影像變化檢測方法[J].地球信息科學學報,2018,20(02):235-245.
[3]BRUZZONE L, BOVOLO F. A Novel Framework for the Design of Change-Detection Systems for Very-High-Resolution Remote Sensing Images[J]. Proceedings of the IEEE, 2013, 101(3): 609-630.
[4]BLASCHKE T. Object based image analysis for remote sensing[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2010, 65(1): 2-16.
[5]張良培,武辰.多時相遙感影像變化檢測的現(xiàn)狀與展望[J].測繪學報,2017,46(10):1447-1459.
[6]HUSSAIN M, CHEN D, CHENG A, et al. Change detection from remotely sensed images: From pixel-based to object-based approaches[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2013, 80: 91-106.
[7]CHEN G, HAY G J, CARVALHO L M T, et al. Object-based change detection[J]. International Journal of Remote Sensing, 2012, 33(14): 4434-4457.
[8]吳煒,沈占鋒,吳田軍,等.聯(lián)合概率密度空間的遙感自適應變化檢測方法[J].測繪學報,2016,45(01):73-79.
[9]BLASCHKE T. A framework for change detection based on image objects[M]. 2005.
[10]CARDILLE J A, FORTIN J A. Bayesian updating of land-cover estimates in a data-rich environment[J]. Remote Sensing of Environment, 2016, 186: 234-249.
[11]YU W, ZHOU W, QIAN Y, et al. A new approach for land cover classification and change analysis: Integrating backdating and an object-based method[J]. Remote Sensing of Environment, 2016, 177: 37-47.
[12]LIU Y, BIAN L, MENG Y, et al. Discrepancy measures for selecting optimal combination of parameter values in object-based image analysis[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2012, 68: 144-156.
[13]FRANZIUS M, WILBERT N, WISKOTT L. Invariant Object Recognition with Slow Feature Analysis[M]. 2008: 961-970.
[14]ZHANG Z, TAO D. Slow feature analysis for human action recognition[J]. IEEE Trans Pattern Anal Mach Intell, 2012, 34(3): 436-450.
[15]WU C, DU B, CUI X, et al. A post-classification change detection method based on iterative slow feature analysis and Bayesian soft fusion[J]. Remote Sensing of Environment, 2017, 199: 241-255.