趙建奇,黃美艷,馮前進(jìn),陳武凡
(南方醫(yī)科大學(xué)生物醫(yī)學(xué)工程學(xué)院,廣東廣州510515)
核磁共振成像(magnetic resonance imaging,MRI)由于具有非侵入性,無輻射傷害,高分辨率等優(yōu)點(diǎn),尤其適用于腦部腫瘤的診斷,已成為腦腫瘤診斷中最常用的影像檢查方法。但在現(xiàn)階段,腦腫瘤的分割一般由有經(jīng)驗(yàn)的醫(yī)生手工進(jìn)行,耗費(fèi)時(shí)間較長同時(shí)容易引入人為誤差,因而MR腦腫瘤圖像的自動(dòng)分割成為當(dāng)前的研究熱點(diǎn)[1]。MR腦腫瘤圖像自動(dòng)分割的困難主要在于:①腦組織本身結(jié)構(gòu)復(fù)雜,包含多種組織,且各組織灰度分布存在交疊;②不同個(gè)體間組織結(jié)構(gòu)差異較大,即使是同一個(gè)體,隨著時(shí)間的推移,也會產(chǎn)生一些變化。腦組織結(jié)構(gòu)的這些復(fù)雜特點(diǎn),使得目前還沒有一種方法可以通用地解決腦腫瘤MR圖像的分割問題。目前代表性的方法包括圖譜法(Atlasbased)[2,3]、圖割法(graph cut)[4-7]、模糊聚類(fuzzy clustering)[8,9]、活動(dòng)輪廓模型(active contour models,ACMs)[10,11]、基于分類器的方法[12-14]等,本文采用的方法就是基于分類器的分割方法。
基于分類器的腦腫瘤分割方法將分割問題看作像素點(diǎn)的分類問題。在基于分類器的分割方法中,圖像特征具有的辨別能力的強(qiáng)弱直接影響著分割結(jié)果的好壞,如何提取有效的特征是分類器算法面臨的關(guān)鍵問題。針對傳統(tǒng)灰度特征辨別力不強(qiáng)缺乏空間信息,以及傳統(tǒng)紋理特征概括性較弱的不足,我們引入詞袋模型(bag of words,BoW)[15,16]并配合滑動(dòng)窗口來提取像素點(diǎn)的特征。詞袋模型將圖像看作視覺單詞的集合,由于視覺單詞即對相似的特征具有代表性又對不同的特征具有區(qū)分性,因而將詞典對像素點(diǎn)的表達(dá)作為特征可以提升特征的辨別能力。在相關(guān)文獻(xiàn)中,還未見將詞袋模型應(yīng)用于腦腫瘤MR圖像分割的相關(guān)報(bào)道。
本文方法在MR圖像的T1增強(qiáng)圖像上實(shí)現(xiàn),主要分為預(yù)處理、特征提取和分類器分類3個(gè)步驟。如圖1所示,首先對數(shù)據(jù)集中的所有圖像進(jìn)行預(yù)處理,接著對訓(xùn)練集中的圖像按照腫瘤區(qū)域與背景區(qū)域的分類分別提取圖像塊特征并進(jìn)行K-means聚類,構(gòu)建聯(lián)合詞典。然后利用滑動(dòng)窗口提取由詞典對像素點(diǎn)的表達(dá)構(gòu)成的特征。最后將特征送入分類器進(jìn)行訓(xùn)練,利用訓(xùn)練好的分類器對測試集中的待分割圖像逐一像素點(diǎn)進(jìn)行分類從而完成分割。
圖1 利用詞袋模型進(jìn)行圖像分割的流程
圖像的預(yù)處理階段主要包括腦組織提取和灰度歸一化。為去除頭骨等非腦組織對腦腫瘤分割的干擾,本文利用BET算法對實(shí)驗(yàn)數(shù)據(jù)進(jìn)行去腦殼處理。實(shí)驗(yàn)中采用BET算法團(tuán)隊(duì)開發(fā)的FSL(FMRIB software library,http://fsl.fmrib.ox.ac.uk)工具包,調(diào)整參數(shù)使去腦殼效果達(dá)到最優(yōu)。為去除成像因素(參數(shù)設(shè)置、不同設(shè)備等)影響造成的圖像灰度差異,本文對實(shí)驗(yàn)數(shù)據(jù)進(jìn)行灰度歸一化處理。對每一幅去腦殼后的圖像,選取灰度值范圍上5%和95%的值作為最小值和最大值,利用min-max方法將灰度歸一化為0-100。
本文提取像素點(diǎn)特征的基本過程如圖2所示。圖像上某一點(diǎn)S的特征由其滑動(dòng)窗口內(nèi)的鄰域像素點(diǎn)特征來表達(dá)。在滑動(dòng)窗口中,首先依據(jù)一定的步長選取像素點(diǎn)S鄰域內(nèi)的相鄰像素點(diǎn),然后采集相鄰像素點(diǎn)的圖像塊特征并與視覺詞典相比較,為其分配最相近的視覺單詞作為鄰域像素點(diǎn)的特征,最后統(tǒng)計(jì)滑動(dòng)窗口中的視覺單詞,得到像素點(diǎn)S的特征。
1.3.1 構(gòu)建視覺詞典
首先我們利用訓(xùn)練集圖像構(gòu)建視覺詞典。本文采用密集采樣的方法選取采樣點(diǎn),采用灰度圖像塊特征作為特征描述子。對病灶區(qū)域和背景區(qū)域兩類區(qū)域內(nèi)的每個(gè)采樣點(diǎn)提取其特征描述子,記為fk,區(qū)域內(nèi)所有的特征描述子組成該區(qū)域的特征集F,則有其中c∈{0,1},當(dāng)c=0時(shí)F為病灶區(qū)域的特征集,當(dāng)c=1時(shí)F為背景區(qū)域的特征集,n為區(qū)域內(nèi)采樣點(diǎn)的個(gè)數(shù)。圖像塊大小對分割結(jié)果的影響將在后面的實(shí)驗(yàn)1中討論。
圖2 提取像素點(diǎn)特征的基本過程
在得到兩類區(qū)域的特征集之后我們用K-means聚類法對兩類特征集進(jìn)行分類聚類。一般的詞袋模型方法中詞典由訓(xùn)練集樣本直接聚類得到,在像素點(diǎn)分類的過程中,全局詞典容易導(dǎo)致不同類別的像素點(diǎn)被分配給同一視覺單詞,使得視覺單詞缺乏辨別能力,詞典對像素點(diǎn)的表達(dá)能力下降。為了克服這一缺點(diǎn),本文采用分類聚類的方法,分別生成病灶區(qū)域詞典和背景區(qū)域詞典,再將兩個(gè)詞典組合起來生成聯(lián)合詞典。經(jīng)過分類聚類,使不同類別的視覺單詞盡可能的分開,從而使聯(lián)合詞典可以為特征提供相對空間位置信息,提高了詞典對像素點(diǎn)的表達(dá)能力。
設(shè)視覺詞典D=[d1,d2,…,di,…dY]的大小為Y,其中di為詞典中第i個(gè)視覺單詞。詞典D由生成于腫瘤區(qū)域的大小為Y1的詞典DL與生成于背景區(qū)域的大小為Y2的詞典DB共同組成,即
圖3分別給出了一般的詞袋模型中的全局詞典以及由本文的分類聚類方法構(gòu)建的聯(lián)合詞典,從圖3中我們可以看出,使用分類聚類方法得到的聯(lián)合詞典中來自腫瘤區(qū)域的單詞與來自背景區(qū)域的單詞之間有比較明顯的分界。
圖3 全局詞典與聯(lián)合詞典的比較,兩詞典大小都為676
圖4為聯(lián)合詞典對不同區(qū)域內(nèi)的像素點(diǎn)的表達(dá),從圖4中我們可以看出,在大小為1000的聯(lián)合詞典中,0-500為腫瘤區(qū)域詞典,500-1000為背景區(qū)域詞典,來自腫瘤區(qū)域的像素點(diǎn)的特征大部分集中在腫瘤區(qū)域詞典中,來自背景區(qū)域像素點(diǎn)的特征則大部分集中在背景區(qū)域詞典中。聚類數(shù)即詞典大小對分割結(jié)果的影響將在后面的實(shí)驗(yàn)2中討論。
圖4 聯(lián)合詞典對不同區(qū)域像素點(diǎn)的表達(dá)
1.3.2 提取像素點(diǎn)的特征
在得到視覺詞典之后,我們就要使用詞典對像素點(diǎn)進(jìn)行表達(dá),即從某幅訓(xùn)練圖像中提取以某個(gè)像素點(diǎn)為中心的圖像塊特征,依據(jù)特征的相似程度為其分配視覺單詞作為該像素點(diǎn)的特征。本文采用硬分配的編碼方式,即每個(gè)像素點(diǎn)唯一對應(yīng)詞典中一個(gè)最相近的視覺單詞。但由于上一步驟中特征描述子的選擇為灰度圖像塊特征,其給像素點(diǎn)的表達(dá)過程帶來了不便,即圖像塊的大小難以確定。當(dāng)選擇較小的圖像塊時(shí),信息少辨別能力弱,詞典中可選的相近單詞多,詞典對像素點(diǎn)的表達(dá)能力差;當(dāng)選擇較大的圖像塊時(shí)又會導(dǎo)致詞典中找不到相近的單詞,詞典的表達(dá)能力也受到限制。因此,為了提高詞典的表達(dá)能力,我們采用滑動(dòng)窗口對像素點(diǎn)進(jìn)行表達(dá)。
在滑動(dòng)窗口中,目標(biāo)像素點(diǎn)的特征由其滑動(dòng)窗口內(nèi)的鄰域像素點(diǎn)特征來表達(dá)。首先設(shè)置較大的滑動(dòng)窗口,然后選取目標(biāo)像素點(diǎn)鄰域內(nèi)的相距一定步長的像素點(diǎn),采集其圖像塊特征,這里選擇較小的圖像塊,接著與視覺詞典相比較為鄰域像素點(diǎn)分配視覺單詞,最后統(tǒng)計(jì)滑動(dòng)窗口中的視覺單詞,從而得到目標(biāo)像素點(diǎn)的特征。為了計(jì)算方便,本文先將所有的圖像轉(zhuǎn)換為碼字圖。在滑動(dòng)窗口模型中,圖像上的一個(gè)像素點(diǎn)可表示為下式
式中:i,j——代表單詞位置的碼字,N=h*h——窗口中特征描述子的數(shù)量,h——窗口的大小,fk——窗口范圍內(nèi)的一個(gè)特征描述子。圖5(a)為訓(xùn)練集中的一副圖像;圖5(c)為圖5(a)經(jīng)過轉(zhuǎn)換之后的碼字圖;圖5(b)、圖5(d)為特征提取過程中從目標(biāo)像素點(diǎn)滑動(dòng)窗口中截取的一部分;圖5(e)為采用滑動(dòng)窗口得到的目標(biāo)像素點(diǎn)的特征。由圖5(d)圖可以看出,利用詞典對像素點(diǎn)進(jìn)行表達(dá)已經(jīng)能夠較好的將腫瘤區(qū)域與背景區(qū)域分割開來。
本文方法中,我們采用邏輯回歸分類器對腦部腫瘤組織與背景組織兩類目標(biāo)進(jìn)行分類。邏輯回歸分類器是一種常用的機(jī)器學(xué)習(xí)方法,用于估計(jì)某種事物的可能性。
邏輯函數(shù)(又被稱為sigmoid函數(shù))的形式如下
由于邏輯函數(shù)的定義域是(-∞,+∞),而值域?yàn)椋?,1),因此邏輯回歸分類器適合于對兩類目標(biāo)進(jìn)行分類。在分類過程中,選取一個(gè)合適的閾值,函數(shù)值大于閾值就被認(rèn)為是目標(biāo),小于閾值就被認(rèn)為是背景。
在訓(xùn)練階段,當(dāng)有某一樣本特征輸入時(shí),樣本函數(shù)可表示為
圖5 利用碼字圖表達(dá)目標(biāo)像素點(diǎn)
式中:β(β0,β1,…,βM)——邏輯回歸系數(shù),x(x1,x2,…xM)——某樣本數(shù)據(jù)的特征,維度——M。
它的概率估計(jì)可表示為
對其似然函數(shù)做最大似然估計(jì)得到最合適的β值,通過訓(xùn)練就可以得到這樣一組權(quán)值β(β0,β1,…,βM)。將上面得到的由詞典表達(dá)構(gòu)成的像素點(diǎn)的特征,連同病灶與背景兩類標(biāo)記送入邏輯回歸分類器中,通過訓(xùn)練得到權(quán)重系數(shù)β。
在分類階段,利用相同大小的滑動(dòng)窗口遍歷測試圖像,由詞典的表達(dá)得到每個(gè)像素點(diǎn)的特征,給出一個(gè)像素點(diǎn)的一組特征x(xi,…,xY),其中Y代表詞典大小,則該點(diǎn)是腫瘤組織的可能性為
閾值選為0.5,如該像素點(diǎn)得到的可能性大于閾值就被認(rèn)為是腫瘤組織,即完成了分割。
本文使用的實(shí)驗(yàn)數(shù)據(jù)共160例MR腦腫瘤T1增強(qiáng)圖像,其中腦膜瘤90例,垂體瘤70例,病灶區(qū)域由經(jīng)驗(yàn)豐富的醫(yī)師手工勾畫得到。隨機(jī)抽取80例作為訓(xùn)練圖像,其中腦膜瘤47例垂體瘤33例,剩下的80例作為測試圖像。
我們采用常用的4個(gè)指標(biāo)來比較算法自動(dòng)分割結(jié)果與醫(yī)師手工勾畫結(jié)果,它們分別是
式中:A——本文方法的結(jié)果,B——醫(yī)師手工勾畫的結(jié)果。
實(shí)驗(yàn)1:圖像塊大小對分割結(jié)果的影響
為了評估圖像塊大小對分割結(jié)果的影響,詞典大小設(shè)為1000,滑動(dòng)窗口大小設(shè)為16。圖6中橫軸代表不同大小的圖像塊,縱軸代表Dice系數(shù)。由實(shí)驗(yàn)結(jié)果可以看出,隨著圖像塊的不斷增大,分割的精度也越來越高。因?yàn)殡S著圖像塊的增大會有更豐富的信息來表達(dá)該像素點(diǎn),從而提高了特征的辨別能力。但隨著圖像塊的增大,程序的運(yùn)行時(shí)間也成倍增長,因而需要在分割精度與處理時(shí)間兩者之間取得平衡。
圖6 圖像塊大小對分割結(jié)果的影響
實(shí)驗(yàn)2:詞典大小對分割結(jié)果的影響
為了評估詞典大小對分割結(jié)果的影響,圖像塊大小設(shè)為15*15,滑動(dòng)窗口大小設(shè)為16。圖7中橫軸代表不同容量的聯(lián)合詞典,縱軸代表Dice系數(shù)。由實(shí)驗(yàn)結(jié)果可以看出,當(dāng)詞典容量較小時(shí),分割精度較低。因?yàn)榇藭r(shí)的視覺單詞數(shù)目較少,導(dǎo)致不同特征的像素點(diǎn)被歸為相同的一類,即詞典不足以充分表達(dá)像素點(diǎn)。隨著詞典容量的增大,分割精度也逐漸提高。因?yàn)殡S著視覺單詞的數(shù)目越來越充足,詞典對像素點(diǎn)的表達(dá)能力也越來越強(qiáng)。但詞典容量并不是越大越好,從圖7中我們可以看出,當(dāng)詞典容量增大到2000、3000的時(shí)候,分割精度急劇下降。這是因?yàn)楫?dāng)詞典容量過大時(shí),視覺單詞由于過度分散導(dǎo)致概括性能下降,本應(yīng)被歸為一類的相似的像素點(diǎn)會被歸為不同的類別,導(dǎo)致分割精度下降。在該實(shí)驗(yàn)設(shè)置條件下,當(dāng)詞典容量大小為1500時(shí),分割的效果最好。
圖7 詞典大小對分割結(jié)果的影響
實(shí)驗(yàn)3:聯(lián)合詞典與全局詞典的比較
聯(lián)合詞典與全局詞典由相同的特征集通過K-means聚類得到,分別使用詞典大小為500、1000、1500的聯(lián)合詞典與全局詞典進(jìn)行分割。如圖8所示實(shí)驗(yàn)結(jié)果可以看出,聯(lián)合詞典的性能要優(yōu)于全局詞典。但隨著詞典容量的增大,聯(lián)合詞典的優(yōu)勢在逐漸變小。
圖8 分別利用聯(lián)合詞典與全局詞典的分割結(jié)果比較
實(shí)驗(yàn)4:本文方法與傳統(tǒng)方法的比較
經(jīng)過參數(shù)選擇的實(shí)驗(yàn),我們選擇圖像塊大小為23*23,滑動(dòng)窗口大小為16,詞典大小為1500進(jìn)行實(shí)驗(yàn)。共使用3種方法進(jìn)行分割,一是直接使用圖像塊特征進(jìn)行分割;二是將圖像塊特征與詞袋模型結(jié)合之后進(jìn)行分割;三是將圖像塊特征、詞袋模型、滑動(dòng)窗口三者結(jié)合起來進(jìn)行分割。分割結(jié)果見表1。從分割結(jié)果可以看出,單純的使用圖像塊特征,分割的正確率較低;加入詞袋模型之后,分割的正確率有了明顯提高;利用滑動(dòng)窗口提取像素點(diǎn)特征,分割的正確率又有了進(jìn)一步的提高。部分分割結(jié)果如圖9所示。可以看出,我們的分割結(jié)果同醫(yī)生手動(dòng)分割的結(jié)果比較接近,表明了本文方法的有效性。
表1 本文分割結(jié)果與傳統(tǒng)方法結(jié)果的評價(jià)
圖9 本文方法分割結(jié)果與醫(yī)生手工分割結(jié)果的比較
本文提出了一種利用詞袋模型配合滑動(dòng)窗口提取像素點(diǎn)特征的腦腫瘤MR圖像分割方法,通過引入詞袋模型,建立分類的視覺詞典,應(yīng)用滑動(dòng)窗口等手段提取像素點(diǎn)的基于詞典表達(dá)的特征,對應(yīng)用詞袋模型的圖像分割方法進(jìn)行了優(yōu)化。實(shí)驗(yàn)結(jié)果表明,本文方法的分割精度較高且具有效性。今后的工作主要是實(shí)驗(yàn)新的有效特征以及分類性能更好的分類器。
[1]ZHANG Nan,YANG Wenming,LIAO Qingmin.The brain tumor segmentation algorithms for MRI images[C]//Chinese Society of Biomedical Engineering's 30th Anniversary Conference Chinese Society of Biomedical Engineering Academic Con-ference Youth Excellent Papers.Beijing:Chinese Society of Biomedical Engineering,2010(in Chinese).[張楠,楊文明,廖慶敏.MRI圖像腦腫瘤分割算法概述[C]//中國生物醫(yī)學(xué)工程學(xué)會成立30周年紀(jì)念大會暨中國生物醫(yī)學(xué)工程學(xué)會學(xué)術(shù)大會青年優(yōu)秀論文.北京:中國生物醫(yī)學(xué)工程學(xué)會,2010.]
[2]Gooya A,Biros G,Davatzikos C.Deformable registration of glioma images using EM algorithm and diffusion reaction modeling[J].IEEE Transactions on Medical Imaging,2011,30(2),375-390.
[3]Menze BH,Van Leemput,K Lashkari.A generative model for brain tumor segmentation in multi-modal images[C]//Medical Image Computing and Computer-Assisted Intervention,2010:151-159.
[4]Feng Q,Li S,Yang W,et al.Tumor segmentation using the learned distance metric[C]//IEEE International Symposium on Biomedical Imaging,2011:1958-1961.
[5]Wu Y,Yang W,Jiang J,et al.Semi-automatic segmentation of brain tumors using population and individual information[J].Journal of Digital Imaging,2013,26(4):786-796.
[6]LI Shuanqiang,F(xiàn)ENG Qianjin.Liver tumor segmentation using graph cuts based on CUDA[J].Chinese Journal of Biomedical Engineering,2010,29(5):641-647(in Chinese).[李拴強(qiáng),馮前進(jìn).統(tǒng)一計(jì)算設(shè)備架構(gòu)并行圖割算法用于肝臟腫瘤圖像分割[J].中國生物醫(yī)學(xué)工程學(xué)報(bào),2010,29(5):641-647.]
[7]LI Shuanqiang,F(xiàn)ENG Qianjin,CHEN Wufan,et al.A graph cuts-based interactive method for segmentation of magnetic resonance images of meningioma[J].Journal of Southern Medical University,2011,31(7):1164-1168(in Chinese).[李拴強(qiáng),馮前進(jìn),陳武凡,等.一種基于圖割的交互式腦膜瘤核磁共振圖像分割方法[J].南方醫(yī)科大學(xué)學(xué)報(bào),2011,31(7):1164-1168.]
[8]Khotanlou H,Colliot O,Atif J,et al.3D brain tumor segmentation in MRI using fuzzy classification,symmetry analysis and spatially constrained deformable models[J].Fuzzy Sets and Systems,2009,160(10):1457-1473.
[9]Thomas H,Yi-Min L,Chun-Chih L.Automatic segmentation of meningioma from non-contrasted brain MRI integrating fuzzy clustering and region growing[J].BMC Medical Informatics and Decision Making,2011,11(1):1472-6947.
[10]Dubey R,Hanmandlu M,Gupta S,et al.Semi-automatic segmentation of MRI brain tumor[J].ICGST-GVIP Journal,2009,9(4):33-40.
[11]Taheri S,Ong SH,Chong V.Threshold-based 3D tumor segmentation using level set(TSL)[C]//IEEE Workshop on Applications of Computer Vision,2007.
[12]Gao L,Yang W,Liao Z.Segmentation of ultrasonic breast tumors based on homogeneous patch[J].Medical Physics,2012,39(6):3299-3318.
[13]Li W,Liao S,F(xiàn)eng Q,et al.Learning image context for segmentation of the prostate in CT-guided radiotherapy[J].Physics in Medicine and Biology,2012,57(5):1283-1308.
[14]Yang W,F(xiàn)eng Q,Yu M,et al.Content-based retrieval of brain tumor in contrast-enhanced MRI images using tumor margin information and learned distance metric[J].Medical Physics,2012,39(11):6929-6942.
[15]Huang M,Yang W,Yu M,et al.Retrieval of brain tumors with region-specific bag-of-visual-words representations in contrast-enhanced MRI images[J].Computational and Mathematical Methods in Medicine,2012,2012:280538.
[16]Yang W,Lu Z,Yu M,et al.Content-based retrieval of focal liver lesions using bag-of-visual-words representations of single-and multiphase contrast-enhanced CT images[J].Journal of Digital Imaging,2012,25(6):708-719.