白雪冰,郭景秋,陳 凱,祝 賀,張庭亮
(東北林業(yè)大學 機電工程學院,黑龍江 哈爾濱150040)
隨著圖像處理技術(shù)的不斷發(fā)展,基于“精準林業(yè)”理論的相關(guān)研究相繼出現(xiàn),樹木圖像分割的研究越來越受到重視。在自然場景中拍攝的樹木圖像容易受到光照、天氣等噪聲干擾,這些使得樹木圖像的準確提取分割工作更加困難,快速精準地提取樹木圖像變得越來越迫切[1]。目前對樹木圖像分割的算法很多,蔡世捷[2]通過提取樹木圖像的綠色通道信息及過綠特征來完成分割,但是當背景中含有與所要分割的樹木有相似過綠特征的景物時,會出現(xiàn)部分過分割情況。趙茂程[3]采用分形維數(shù)和顏色相結(jié)合對樹木圖像進行分割,樹木的邊緣細節(jié)能夠有效得到探索,但實時性差,而且對面積小的目標樹木會出現(xiàn)誤分割的現(xiàn)象。王曉松[4]以馬爾可夫隨機場理論為基礎(chǔ),把摳圖和區(qū)域生長技術(shù)相結(jié)合,但該算法比較復(fù)雜,還需要人機交互。本研究的重點為將樹木圖像先進行C-V模型水平集分割,然后結(jié)合形態(tài)學后處理操作對彩色樹木圖像進一步分割,分別對簡單環(huán)境下的目標圖像、復(fù)雜環(huán)境下的單個目標圖像及多目標圖像進行大量的試驗,將目標樹木與各種環(huán)境背景分離,通過合理選擇中心點、運動半徑及迭代次數(shù)等提高圖像分割速度,獲得完整的樹木圖像。
為了能夠更加精準地確定樹木圖像邊界,將其更加完整地分割提取,采用的是Chan和Vese提出的C-V模型。基于C-V模型的水平集演化算法具有全局特性,通過使得能量函數(shù)逐漸變得變小來演化曲線[5-8],在面積項 Area(inside(C))和長度項Length(C)的共同作用下,使得運動曲線逐漸逼近目標物邊緣,采用的能量函數(shù)如下:
式中:v≥0,μ≥0,且λ1,λ2均為>0的常數(shù),且均為各個能量的權(quán)正系數(shù)。一般λ1=λ2=0,υ=0。C是演化曲線,定義φ0為所選擇的最初化運動曲線C0的帶有符號方向性的距離函數(shù),用下面的函數(shù)表示曲線C:
式(2)用水平集函數(shù)φ表達為:
推導求解式(4),由φ表達的偏微分方程和數(shù)值解法,稱為C-V模型,偏微分方程:
經(jīng)過C-V模型水平集曲線演化后得到初次全局最優(yōu)分割效果圖,但其中有許多孤立點、細密紋理及非目標區(qū)域的噪聲。為了去除這些干擾,使得樹木圖像分割更加精確完整,對其進行形態(tài)學處理操作,具體操作如下:
第1步:采用適當?shù)脑貙Ψ指詈髽淠緢D像進行膨脹,獲取樹冠的連通部分[9-10];
第2步:填充樹木在分割過程中產(chǎn)生的孔洞部分[11];
第3步:經(jīng)過膨脹操作后的圖像會比原目標稍大一些,為了減小誤差,采用腐蝕操作使結(jié)果圖像接近原圖像的尺寸;
第4步:應(yīng)用圓盤形結(jié)構(gòu)元素進行先閉后開操作,濾除一些孤立點或者非目標區(qū)域的噪聲;
第5步:進行開閉重構(gòu)運算,可以有效地消除圖像剩余的細弱噪聲,處理后的圖像可以保持原有的結(jié)構(gòu)形式不變,與原圖像邊界基本不存在差異。
第6步:將形態(tài)學操作后的二值圖像與原樹木圖像相乘,得到樹木彩色圖像[12-13]。
綜上所述,得出C-V模型水平集及形態(tài)學后處理算法的步驟,分割流程如圖1所示。
圖1 分割流程Fig.1 Segmentation flowchart
為了使得樹木圖像的分割結(jié)果更加快速精準,采集不同環(huán)境下的樹木圖像,作為試驗所用數(shù)據(jù)庫,對其做大量試驗。
原圖應(yīng)用基于C-V模型的水平集的圖像分割方法,分割過程圖像如(圖1)中含有的(圖2a~圖2e),可以探討影響圖像基于C-V模型的水平集分割效果的因素。
圖2 C-V模型的水平集分割Fig.2 C-V model level set segmentation
圖2(b)是在迭代次數(shù)為n=30的情況下,由于分割的迭代次數(shù)選值較少,無法將目標圖像完全分割出來。圖2(c)是在n=100的情況下,因為距離半徑選取過長,導致曲線運動曲線圓變大,由向外擴張轉(zhuǎn)為向內(nèi)收縮運動,分割沒有到達目標邊界就停止了運動。圖2(d)是在n=100情況下,所選中心點位置在圖像的左下方,所以演化運動得到的分割結(jié)果也會在左下方。圖2(e)是在n=100的情況下,選取居中的點作為起始點,另一點選擇恰當?shù)囊欢ǖ目v向距離的點,二值間的距離作為水平集變化運動曲線的半徑長度,可以看到得到的初分割結(jié)果較為理想。圖2(f)是在n=500的情況下,使得圖像分割超過該有的范圍。
綜上所述,可以分析出影響圖像分割方法效果的因素是中心點的位置、運動長度半徑的大小以及迭代次數(shù),這要根據(jù)圖像的目標區(qū)域的具體情況具體分析。為了更直觀地觀察分割結(jié)果的輪廓線與原圖像邊界的差異大小,下面對其進行形態(tài)學后處理,先進行標注連通對象,計算標注面積,刪除小面積區(qū)域,去除非目標區(qū)域的干擾,最后應(yīng)用canny邊緣檢測來得到圖像二值化邊緣輪廓線[14-16]。
分割過程即結(jié)果如圖3、圖4、圖5、圖6所示。
對基于C-V模型的水平集分割圖像進行形態(tài)學后處理[17],采用尺寸大小為4的八邊形結(jié)構(gòu)元算進行膨脹,腐蝕操作,然后應(yīng)用尺寸大小為1的圓盤形結(jié)構(gòu)運算進行開閉運算,經(jīng)canny邊緣檢測得到圖像二值化后的輪廓邊緣[18-19]。此圖背景較為復(fù)雜,含有其他植物以及建筑物等干擾。由分割結(jié)果看出,獲得了完整閉合輪廓曲線,完全排除了周圍環(huán)境的干擾,結(jié)合形態(tài)學后處理對樹木中存在的空洞進行了有效分割。當n=200,運行時間為1 045.695 000s。
圖3 原圖2Fig.3 Artwork 2
圖4 C-V模型水平集分割Fig.4 C-V model segmentation
圖5 后處理的二值圖像Fig.5 Binary image
圖6 分割結(jié)果Fig.6 Segmentation result
對樹木圖7進行分析,圖中的2棵樹木出現(xiàn)了粘連,邊界信息比較微弱。為了可以實現(xiàn)分割出任意一棵樹木的圖像,先指定對左面的樹木進行分割,分割過程如圖8、圖9、圖10所示。
圖7 原圖3Fig.7 Artwork 2
圖8 C-V模型水平集分割Fig.8 C-V model segmentation
迭代次數(shù)n=50,運行時間為230.168 000s。然后指定對右面的一棵樹用同樣的方法對其進行分割,結(jié)果如圖11、圖12、圖13所示。
迭代次數(shù)n=40,運行時間為187.539 000s。最后將圖像的2個目標作為一個整體進行分割,結(jié)果如圖14、圖15、圖16所示。
迭代次數(shù)n=380,運行時間為1 217.466 000s。
圖9 后處理的二值圖像Fig.9 Binary image
圖10 分割結(jié)果Fig.10 Segmentation result
圖11 C-V模型水平集分割Fig.11 C-V model segmentation
圖12 后處理的二值圖像Fig.12 Binary image
圖13 分割結(jié)果Fig.13 Segmentation result
由上述試驗得出,圖7中2棵樹木顏色幾乎一致,而且彼此出現(xiàn)粘連的情況。為了成功地將其分割開來,僅僅靠顏色或者普通的分割是很難實現(xiàn)的。而應(yīng)用基于C-V模型的水平集曲線演化分割方法,可以指定其中任意一個目標,對其進行分割,然后進行形態(tài)學后處理,保留了更多的綠色樹木信息,樹木內(nèi)部的空洞也檢測出來了。而且可以實現(xiàn)多目標的分割,對2棵樹木間的凹陷處也具有一定的分割效果,消除了周圍噪音干擾,得到獨立完整的目標區(qū)域。
圖14 C-V模型水平集分割Fig.14 C-V model segmentation
圖15 后處理的二值圖像Fig.15 Binary image
圖16 分割結(jié)果Fig.16 Segmentation result
運用基于C-V模型水平集算法并結(jié)合形態(tài)學后處理操作實現(xiàn)彩色樹木圖像分割,該算法不受外界環(huán)境和噪聲干擾。基于這種全局優(yōu)化特點,獲得的樹木圖像信息更完整。通過不斷地調(diào)整影響因素來提高分割速度和分割效果。證明該算法可以更加有效地對彩色樹木圖像進行分割。
[1] 任德智.區(qū)域森林資源健康評價指標體系研究[J].西北林學院學報,2007,22(2):194-199.REN D Z.A study on index system about health assessment of regional forest resources[J].Journal of Northwest Forestry University,2007,22(2):194-199.(in Chinese)
[2] 蔡世捷.基于Matlab的樹木圖像分割方法研究[D].南京:南京林業(yè)大學,2005.
[3] 趙茂程.基于分形理論的樹木圖像分割的方法[J].農(nóng)業(yè)機械學報,2004,35(2):60-67.ZHAO M C.Tree image segmentation method based on the fractional dimension[J].Transaction of the Chinese Society for Agricultural Machinery,2004,35(2):60-67.(in Chinese)
[4] 王曉松.復(fù)雜背景下樹木圖像提取研究[D].北京:北京林業(yè)大學,2010.
[5] 馮媛.結(jié)合梯度和區(qū)域信息的多尺度水平集圖像分割[J].計算機工程與應(yīng)用,2010,46(35):180-184.FENG Y.Multi-scale level set image segmentation combined of gradient and region information[J].Computer Engineering and Applications,2010,46(35):180-184.(in Chinese)
[6] 劉建磊.主動輪廓模型和高斯模型在圖像處理中的應(yīng)用研究[D].西安:西安電子科技大學,2012.
[7] 龐冬冬.基于改進主動輪廓模型的圖像分割算法[D].太原:太原理工大學,2013.
[8] 董凱寧.基于水平集及主動輪廓線模型的圖像分割研究[J].成都工業(yè)學院學報,2008,42(1):56-63.
[9] 王宇.基于形態(tài)學梯度重構(gòu)和標記提取的分水嶺圖像分割[J].中國圖象圖形學報,2008,13(11):67-74.WANG Y.Watershed segmentation based on morphological gradient reconstruction and marker extraction[J].Journal of Image and Graphics,2008,13(11):67-74.(in Chinese)
[10] 才輝.數(shù)學形態(tài)學連通性理論及應(yīng)用研究[D].杭州:浙江大學,2009.
[11] 張大坤.形態(tài)學中閉運算功能的擴展及其應(yīng)用[J].計算機工程與應(yīng)用,2010,46(27):185-187.ZHANG D K.Function extension of morphological closing operation and its application[J].Computer Engineering and Applications,2010,46(27):185-187.(in Chinese)
[12] 陳佳祥.高分辨率遙感影像草地和樹木分類方法研究[D].廈門:集美大學,2011.
[13] 尹星云,王峻.基于改進的彩色圖像形態(tài)學膨脹和腐蝕算子設(shè)計[J].計算機工程與應(yīng)用,2008,44(14):172-176.YIN X Y,WANG J.Improved operators to dilate and erode color images based on morphology[J].Computer Engineering and Applications,2008,44(14):172-174.
[14] 趙建新.邊緣特性及邊緣檢測在圖像插值算法中的應(yīng)用研究[J].信息科學,2009,22(2):58-63.
[15] 孔銀昌.數(shù)字圖像邊緣提取算子基于Matlab的實現(xiàn)[J].價值工程,2012,15(3):170-174.KONG Y C.On digital image edge detection operator based on matlab[J].Value Engineering,2012,15(3):170-174.(in Chinese)
[16] 杜宏博.智能視覺導航系統(tǒng)中圖像處理算法的研究及實現(xiàn)[D].成都:電子科技大學,2010.
[17] 曹世梅.基于霧的能見度黑體識別的研究[J].成都信息工程學院學報,2008,23(1):56-64.
[18] 楊金剛.基于數(shù)學形態(tài)學的遙感圖像邊緣信息提取技術(shù)研究[D].成都:成都理工大學,2011.
[19] 錢瑭璜,雷江麗,莊雪影.3種草本蕨類植物耐旱性研究[J].西北林學院學報,2012,27(1):22.QIAN T H,LEI J L,ZHUANG X Y.Anti-drought stress capacity of 3herbal ferns[J].Journal of Northwest Forestry University,2012,27(1):22.(in Chinese)