劉兆祎,李鑫慧,沈潤平,朱楓,張凱,王恬,王媛媛
1.南京信息工程大學大氣物理學院,南京 210044
2.南京信息工程大學遙感學院,南京 210044
3.北京師范大學全球變化與地球系統(tǒng)科學研究院,北京 100875
4.中國人民解放軍94940部隊
5.蘭州大學大氣科學學院,蘭州 730000
6.中國科學院大氣物理研究所,北京 100029
高分辨率遙感圖像分割的最優(yōu)尺度選擇
劉兆祎1,李鑫慧2,沈潤平2,朱楓3,張凱4,王恬5,王媛媛6
1.南京信息工程大學大氣物理學院,南京 210044
2.南京信息工程大學遙感學院,南京 210044
3.北京師范大學全球變化與地球系統(tǒng)科學研究院,北京 100875
4.中國人民解放軍94940部隊
5.蘭州大學大氣科學學院,蘭州 730000
6.中國科學院大氣物理研究所,北京 100029
面向對象的最優(yōu)尺度選擇是高分辨率遙感圖像多尺度分割技術中的關鍵問題。最優(yōu)分割尺度的確定直接影響到后續(xù)的圖像信息提取與分析。在模型計算法的基礎上,改進并實現(xiàn)了一種全局最優(yōu)尺度計算模型。該最優(yōu)尺度計算模型可以根據(jù)多波段信息自動選擇最優(yōu)尺度,從而避免了人目視的主觀性。
面向對象;最優(yōu)尺度選擇;模型計算
圖像分割是圖像處理與計算機視覺的基本問題之一,是圖像處理與分析的關鍵步驟,它對提取目標特征、進行目標測量和分類及其后的高層處理都非常重要[1]。對于遙感圖像而言,圖像分割是決定遙感圖像分析與計算成功與否的關鍵因素之一,尤其是隨著高分辨率衛(wèi)星數(shù)據(jù)如IKONOS,QUIKBIRD等的大量獲取,圖像分割被越來越多地用于面向對象方法的圖像對象的獲取中,圖像分割的質量直接決定著后續(xù)的面向對象處理的精度[2]。因此在多尺度的高分辨率遙感影像分割中如何確定分割的最優(yōu)尺度顯得尤為重要。
關于多尺度分割算法研究很多,其中Fractal Net Evolution Approach被認為是一種有效利用光譜信息和空間信息的處理方法[3],是商業(yè)軟件eCognition多尺度分割的核心算法。利用該方法進行多尺度分割,需要預先設置分割參數(shù),包括各波段權重、均值因子(包括光譜因子和形狀因子)和分割尺度,其中分割尺度是形成影像對象的重要參數(shù),但是該方法不能確定對象表達在哪一個尺度上是合理的,即無法確定最優(yōu)尺度。因此有必要對多尺度分割的最優(yōu)尺度選擇進行研究。
目前國內外面向對象的最優(yōu)尺度選擇方法,主要有以下三類[4]:(1)憑借經驗選擇分割尺度,經反復驗證確定最優(yōu)分割尺度。這種方法簡單直觀,可操作性強,但帶有一定的主觀性,不易獲得最優(yōu)分割尺度。(2)選取尺度鑒別指標評價分割尺度選擇質量。尺度鑒別指標的構造通常會強調某個因素的作用,如面積或顏色,指標選擇不確定性較大,難以取得理想效果。(3)利用最優(yōu)分割尺度計算模型計算最優(yōu)分割尺度。該方法從對象內的同質性和對象間的異質性來判斷分割的優(yōu)劣,是一種全局最優(yōu)判斷的方法。
本文在分析原有模型計算法優(yōu)劣的基礎上,改進了基于多波段的模型計算法,達到了自動選擇最優(yōu)尺度的目的。
2.1 模型計算法
在遙感影像分類或信息提取中,對于整幅影像的理想分割結果是分割所得到的對象具有良好的內部同質性以及分割得到的對象與相鄰對象之間具有良好的異質性。何敏等人基于這一原則,提出了一種面向對象的全局最優(yōu)尺度計算模型[5]。這種方法的思想是:利用對象內部的標準差來表示對象內部的同質性,用空間相關性來表示對象之間的異質性,使得內部同質性和對象之間的異質性達到最好的綜合效果。該模型自動計算得到最優(yōu)尺度,方便快捷、可信度高,避免了人工目視的主觀性。
該方法的不足之處是:首先它對分割結果質量的評價只考慮了單波段的信息,而沒有充分利用遙感影像多波段的特點,分割結果的評價沒有與分割過程建立聯(lián)系。其次,這種方法是一種獲得全局最優(yōu)尺度的方法,但不同信息提取目標擁有不同的最優(yōu)尺度,該方法沒有考慮具體的信息提取目標。此外這種最優(yōu)尺度的選擇仍然只考慮了影像對象的光譜信息,而沒有考慮影像對象的空間特征。
2.2 改進的基于多波段的模型計算法
遙感影像不同于自然圖像的一個特點在于遙感影像具有多波段成像的特點。在遙感影像的信息提取中,應綜合考慮、充分利用遙感影像在各波段的特征,以提高信息提取的精度。遙感影像分割的理想結果是分割所得到的對象具有良好的內部同質性,同時相鄰對象之間具有良好的異質性,并且分割后的對象內同質性和對象間異質性在各個波段上都能夠得到體現(xiàn)。基于這個思想,本文針對何敏等提出的模型計算法只考慮單個波段的不足,提出了改進的基于多波段的模型計算法選擇影像分割的最優(yōu)尺度,以便得到最佳的分割結果。
由于多波段影像的分割前可以設置不同的波段權重,權重大的表示分割過程中應更多地考慮該波段的信息。因此,在衡量分割結果同質性、異質性的時候,應該將分割過程中采用較大權重的波段同樣賦予較大的權值,以體現(xiàn)分割過程和分割評價的標準一致性,從而將分割結果質量的評估與分割過程建立聯(lián)系。
綜合考慮多波段信息和波段權重后,本文提出的改進的基于多波段的計算模型具體計算過程如下:
設預分割的圖像具有N個波段,在執(zhí)行多尺度分割時各波段被賦予的權重是ti(i=1,2,…,N),對象內部在各個波段上的同質性用公式(1)計算,對象間在各個波段上的異質性用Moran指數(shù)來表示[6],計算公式見公式(3)。
式中Vb(b=1,2,…,N)表示在波段b上的對象同質性,Vi是對象i在波段b上的標準差,ai是對象i的面積,n為整個區(qū)域對象的總個數(shù)(分割后的對象總數(shù))。加入面積因子可以使得面積大的對象具有更高的權重,避免了小對象引起的不穩(wěn)定性。對象內部總的同質性指數(shù)是各波段上的同質性的加權和,權重與執(zhí)行分割時所設的權重相同,見公式(2):
上式中,N是波段數(shù)目,tb(b=1,2,…,N)表示波段b的權重,Vb是波段b的同質性指數(shù)。V越低,表示影像對象內部異質性越小,即對象內部具有良好的同質性。
上式中,Ib(b=1,2,…,N)表示在波段b上的對象異質性,n為對象的總數(shù);wij表示對象Ri和對象Rj的鄰接關系,如果對象Ri和對象Rj鄰接,則wij=1,否則wij= 0;yi為對象Ri在波段b上的光譜平均值;yˉ為在波段b上整個影像的光譜平均值。同理,對象間總的異質性指數(shù)是各波段異質性的加權和,見公式(4):
上式中,N是波段數(shù)目,tb(b=1,2,…,N)表示波段b的權重,Ib是波段b的異質性指數(shù)。I越低,影像對象之間相關性越低,即影像對象之間的可分性越好。
由同質性指數(shù)和異質性指數(shù)構建衡量分割質量的質量函數(shù)[7-8]:
其中,V為對象內部的各波段上標準差的加權和(代表對象內部同質性),I為各波段上Moran指數(shù)的加權和(代表對象間的異質性),w為Moran指數(shù)I在目標函數(shù)值中所占的權重,范圍為[0,1]。
在此基礎上通過插值函數(shù)的方法可以得到一個最優(yōu)分割尺度的計算模型[6]。
公式(5)在影像初分割階段用來計算對應分割尺度的質量值,用于插值函數(shù)的插值點,為最優(yōu)尺度計算模型公式(8)服務。
3.1 數(shù)據(jù)
本實驗數(shù)據(jù)采用南京地區(qū)IKONOS影像。IKONOS衛(wèi)星是全球第一顆高分辨率商業(yè)遙感衛(wèi)星,可提供1 m分辨率的全色影像和4 m分辨率的多光譜影像(包括可見光紅、綠、藍和近紅外波段)。因為影像范圍較大,實驗時利用ENVI4.2裁切300像素×300像素作為研究區(qū),該區(qū)域位于南京市區(qū)內。實驗前采用主成分分析法(PCA)將多光譜波段與全色波段進行融合,融合后的多光譜數(shù)據(jù)獲得了全色波段的空間結構特征,分辨率也是1 m(圖1)。
3.2 多尺度分割實驗
分割實驗在eCognition環(huán)境下進行。采用該軟件中的multi-resolution算法對處理后的IKONOS影像進行多尺度分割。分割時設置的分割參數(shù)包括各波段權重、均值因子(包括光譜因子和形狀因子,而形狀因子又包括緊密度和光滑度兩個因子)和分割尺度[5]。
因為多光譜波段在融合過程中需要重采樣,必然會造成信息失真,為保證分割的可靠性,分割過程中應該較多地考慮全色波段。從融合后的效果看,融合后的近紅外波段具有明顯的網格狀失真現(xiàn)象,分割中應賦予較小的權重。分割時的波段權重按全色、近紅外、紅綠藍順序對應設置為10,1,5,5,5,這也是利用模型計算最優(yōu)尺度用到的權重。實驗中將光譜因子和形狀因子分別設為0.9和0.1;緊密度因子和光滑度因子一般分別設為0.3和0.7[5]。實驗所要研究的對象是分割尺度,因此在實驗過程中,這些因子的值始終保持不變。
確定好這些參數(shù)以后,以步長5遞增進行影像分割。通過與圖1(a)的標準假彩色合成影像作目視對比可以看出,當尺度為小于30時(如圖1(b)),分割結果相當“破碎”,即分割出來的對象過多,相鄰對象間的光譜異質性降低,類別可分性降低。當尺度大于100時(如圖1(c)),分割結果“淹沒”現(xiàn)象嚴重,產生較多合并對象,如圖中房屋、道路和植被被分割到一個對象中去,沒能對地物進行有效分割,這同樣不利于提高后續(xù)信息提取的精度[9]。將各分割結果與分割前影像進行目視對比發(fā)現(xiàn)最優(yōu)分割尺度在55左右(如圖1(d))各個地物都較好地被提取出來。從全圖來看,分割結果在“破碎”和“淹沒”間比較平衡,比較能全面反應地物目標的差別。
3.3 模型計算和分析
根據(jù)上一步驟實驗分割結果圖,可以通過改進后模型計算法求得理論上的最優(yōu)尺度。為了避免過分割和分割太粗造成計算結果的不穩(wěn)定,實驗計算不采用過大或過小的尺度的分割結果,只導入以尺度40~90分割結果。
通過程序追蹤同質性指數(shù)和異質性指數(shù)和實驗分割尺度的關系。對象內同質性指數(shù)用面積加權的標準差來指示(見公式(1)),對象間異質性指數(shù)用Moran指數(shù)(見公式(3))來表示。隨著分割尺度的增加,分割對象的面積增大,對象數(shù)目減少(如圖2所示);因為包含像元的增多,在各個波段上對象內部同質性指數(shù)隨尺度增大而增大(如圖3),對象間異質性指數(shù)隨尺度增大總體呈下降趨勢(如圖4所示)??梢婓w現(xiàn)分割質量好壞的異質性指數(shù)和同質性指數(shù)是一對矛盾的因子。
圖1 不同分割尺度下的分割效果實驗
圖2 對象數(shù)目與尺度關系
圖3 同質性與尺度關系
圖4 異質性和尺度關系
分割質量值實際是同質性指數(shù)和異質性指數(shù)歸一化后的加權和(見公式(5))。為了使得計算的分割質量值能夠客觀正確地反映真實分割質量,必須在異質性指數(shù)和同質性指數(shù)之間取得矛盾的平衡。首先取w=0.5為權重進行實驗,通過對程序調試運行追蹤,可得到各實驗分割結果的分割質量,如圖5所示??紤]到分割質量隨分割尺度變化(見公式(8))的連續(xù)性,可以看出,在尺度45和55之間有個峰值對應最優(yōu)分割尺度,尺度55以后分割質量下降。最終計算的最優(yōu)尺度值為53,這與目視結果相當。模型計算的最優(yōu)尺度的分割結果如圖1(e)所示。
圖5 分割質量與尺度關系
再對w分別取0.3,0.7進行分割實驗,最終計算的最優(yōu)尺度分別為45和81。
一個好的分割結果要求對象內部要有較高的同質性,即應保證對象自身的純度,同時各對象之間要有較高的異質性,即應保證不同對象之間有差異,可分性好[10]。實驗表明,對象的同質性指數(shù)是分割尺度的增函數(shù),而異質性指數(shù)則隨分割尺度的增加呈下降趨勢,隨著分割尺度的增加,對象個數(shù)隨之減少,對象內的同質性相應減小,而對象間異質性則相應增大。在利用模型自動計算最優(yōu)分割尺度時,當強調對象內同質性時,應適當減小異質同質權重w,此時計算結果會偏向小尺度;反之當要強調對象間異質性時則要適當增加權重w,此時的計算結果會偏向大尺度。實驗表明基于該模型得到的最優(yōu)尺度的選擇結果是對象內均質性和對象間異質性矛盾因子的平衡。
本文提出的改進的基于多波段的模型計算法根據(jù)對象內同質性要大和對象間異質性要高的原則自動選擇最優(yōu)的分割尺度,具有較好的理論基礎。實驗表明,通過調節(jié)同質性指數(shù)和異質性指數(shù)的權重因子,可以獲得一系列最優(yōu)尺度值。在一權重因子下,全局最優(yōu)尺度的選擇結果是對象內均質性和對象間異質性矛盾因子的平衡。但是這種最優(yōu)尺度的選擇只考慮了影像對象的光譜信息,而沒有考慮影像對象的空間特征,這將是后續(xù)的研究內容。
[1]章毓晉.圖像分割評價技術分類和比較[J].中國圖象圖形學報,1996,1(2):151-158.
[2]郭建聰,李培軍,肖曉柏.一種高分辨率多光譜圖像的多尺度分割方法[J].北京大學學報:自然科學版,網絡版(預印本),2008(3):123-125.
[3]Hay J G,Blaschke T,Marceau J D,et al.A comparison of three image-object methods for the multiscale analysis of landscape structure[J].Isprs Journal of Photogrammetry and Remote Sensing,2003,57(5/6):327-345.
[4]于歡,張樹清,孔博,等.面向對象遙感影像分類的最優(yōu)分割尺度選擇研究[J].中國圖象圖形學報,2010(2):352-360.
[5]何敏,張文君,王衛(wèi)紅.面向對象的最優(yōu)分割尺度計算模型[J].大地測量與地球動力學,2009,29(1):106-109.
[6]胡文亮,趙萍,董張玉.一種改進的遙感影像面向對象最優(yōu)分割尺度計算模型[J].地理與地理信息科學,2010,26(6):15-18.
[7]陳建裕,潘德爐,毛志華.高分辨率海岸帶遙感影像中簡單地物的最優(yōu)分割問題[J].中國科學D輯:地球科學,2006,36(11):1044-1051.
[8]薄樹奎,韓新超,丁琳.面向對象影像分類中分割參數(shù)的選擇[J].武漢大學學報:信息科學版,2009,34(5):514-517.
[9]張俊,汪云甲,李妍,等.一種面向對象的高分辨率影像最優(yōu)分割尺度選擇算法[J].科技導報,2009(21):91-94.
[10]黃慧萍.面向對象影像分析中的尺度問題研究[D].北京:中國科學院研究生院(遙感應用研究所),2003.
LIU Zhaoyi1,LI Xinhui2,SHEN Runping2,ZHU Feng3,ZHANG Kai4,WANG Tian5,WANG Yuanyuan6
1.School of Atmospheric Physics,Nanjing University of Information Science and Technology,Nanjing 210044,China
2.School of Remote Sensing,Nanjing University of Information Science and Technology,Nanjing 210044,China
3.College of Global Change and Earth System Sciences,Beijing Normal University,Beijing 100875,China
4.Unit 94940 of PLA,China
5.School of Atmospheric Sciences,Lanzhou University,Lanzhou 730000,China
6.Institute of Atmospheric Physics,Chinese Academy of Sciences,Beijing 100029,China
The problem of best segmentation scale is a key point in multi-scale segmentation of high-resolution image segmentation.The confirmation of the best segmentation has a direct effect on the extraction and analysis of the information gathered from the image.This paper puts forward a best segmentation scale model in overall situation on the basis of model calculation.This model can calculate the best segmentation scale on the consideration of multi-band information, therefore,avoiding the potential subjectivity of human visual.
object-oriented;best segmentation scale;model calculation
A
TP751.1
10.3778/j.issn.1002-8331.1206-0094
LIU Zhaoyi,LI Xinhui,SHEN Runping,et al.Selection of the best segmentation scale in high-resolution image segmentation.Computer Engineering and Applications,2014,50(6):144-147.
江蘇省大學生實踐創(chuàng)新訓練計劃項目(No.10CX044)。
劉兆祎(1989—),男,碩士研究生,主要研究方向為衛(wèi)星資料同化;李鑫慧(1978—),女,博士研究生,講師,主要研究方向為遙感圖像處理;沈潤平(1963—),男,教授,博士生導師,主要研究方向為土地利用遙感與監(jiān)測、圖像處理等;朱楓(1988—),男,碩士研究生,主要研究方向為土地利用與氣候變化;張凱(1989—),男,主要研究方向為圖像處理;王恬(1988—),女,碩士研究生,主要研究方向為遙感與資料同化;王媛媛(1989—),女,碩士研究生,主要研究方向為陸面過程。E-mail:ryutyoui@yeah.net
2012-06-06
2012-10-29
1002-8331(2014)06-0144-04
CNKI網絡優(yōu)先出版:2012-11-12,http://www.cnki.net/kcms/detail/11.2127.TP.20121112.1436.006.html