• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      一種混合特征高效融合的視網(wǎng)膜血管分割方法

      2017-10-14 14:55:07蔡軼珩高旭蓉邱長(zhǎng)炎崔益澤
      電子與信息學(xué)報(bào) 2017年8期
      關(guān)鍵詞:特征向量高斯視網(wǎng)膜

      蔡軼珩 高旭蓉 邱長(zhǎng)炎 崔益澤

      ?

      一種混合特征高效融合的視網(wǎng)膜血管分割方法

      蔡軼珩*高旭蓉 邱長(zhǎng)炎 崔益澤

      (北京工業(yè)大學(xué)信息學(xué)部 北京 100124)

      將機(jī)器學(xué)習(xí)運(yùn)用到視網(wǎng)膜血管分割當(dāng)中已成為一種趨勢(shì),然而選取什么特征作為血管與非血管的特征仍為眾所思考的問題。該文利用將血管像素與非血管像素看作二分類的原理,提出一種混合的5D特征作為血管像素與非血管像素的表達(dá),從而能夠簡(jiǎn)單快速地將視網(wǎng)膜血管從背景中分割開來(lái)。其中5D特征向量包括CLAHE (Contrast Limited Adaptive Histgram Equalization),高斯匹配濾波,Hesse矩陣變換,形態(tài)學(xué)底帽變換,B-COSFIRE(Bar-selective Combination Of Shifted FIlter REsponses),通過(guò)將融合特征輸入SVM(支持向量機(jī))分類器訓(xùn)練得到所需的模型。通過(guò)在DRIVE和STARE數(shù)據(jù)庫(kù)進(jìn)行實(shí)驗(yàn)分析,利用Se, Sp, Acc, Ppv, Npv, F1-measure等常規(guī)評(píng)價(jià)指標(biāo)來(lái)檢測(cè)分割效果,其中平均準(zhǔn)確率分別達(dá)到0.9573和0.9575,結(jié)果顯示該融合方法比單獨(dú)使用B-COSFIRE或者其他目前所提出的融合特征方法更準(zhǔn)確有效。

      機(jī)器學(xué)習(xí);視網(wǎng)膜;血管分割;特征向量;支持向量機(jī)

      1 引言

      青光眼和白內(nèi)障、糖尿病等疾病都會(huì)造成視網(wǎng)膜眼底血管的病變,如果不能對(duì)視網(wǎng)膜病變患者及時(shí)治療,常會(huì)導(dǎo)致長(zhǎng)期患有這些疾病的患者承受巨大痛苦甚至失明。因此定期做眼底檢查很重要,然而目前視網(wǎng)膜病是由??漆t(yī)生來(lái)人工診斷,首先對(duì)患者的眼底圖像進(jìn)行手工血管標(biāo)記,然后再測(cè)量所需的血管口徑、分叉角度等參數(shù)。其中手工標(biāo)記血管的過(guò)程大概需要兩個(gè)小時(shí)左右,因此,自動(dòng)化提取血管對(duì)節(jié)約人力物力尤為重要,在減輕??漆t(yī)生負(fù)擔(dān)的同時(shí)更有效解決了偏遠(yuǎn)地區(qū)缺乏??漆t(yī)生的問題。鑒于視網(wǎng)膜血管分割[1]的重要性,國(guó)內(nèi)外學(xué)者做了許多研究,分為非監(jiān)督和監(jiān)督兩類方法。

      非監(jiān)督方法是通過(guò)某種規(guī)則來(lái)提取血管目標(biāo),主要包括:匹配濾波[2]、形態(tài)學(xué)處理[3]、血管追蹤以及基于模型的算法等,更多內(nèi)容可以參閱文獻(xiàn)[4]。

      監(jiān)督方法則是通過(guò)對(duì)像素分類從而獲得血管分割結(jié)果。主要分為兩個(gè)過(guò)程:特征提取和分類。特征提取階段通常包括Gabor濾波[5],高斯匹配濾波,Hesse矩陣變換[6]等方法,并將其作為判斷血管與非血管的特性[7]輸入到分類器當(dāng)中進(jìn)行分類。分類階段常用的分類器有SVM[8], RF(隨機(jī)森林)等分類器[9]。Azzopardi等人[10]提出用B-COSFIRE濾波器來(lái)進(jìn)行血管分割,該方法通過(guò)采用DoG濾波器模擬感受野的生物特性。且能夠結(jié)合血管結(jié)構(gòu)使用對(duì)稱與非對(duì)稱B-COSFIRE對(duì)連續(xù)血管和血管末端完成特征提取。Strisciuglio等人[11]在此基礎(chǔ)上,通過(guò)改變構(gòu)成多尺度的特征向量,再用GMLVQ進(jìn)行特征向量的選擇,用SVM分類器對(duì)像素點(diǎn)進(jìn)行分類。但是,單獨(dú)使用B-COSFIRE濾波使得特征提取變得更有局限性,還有很大的提升空間。Aslani等人[12]在2016年提出了17-D的特征向量,其中包括CLAHE(1-D), Hesse變換(1-D),形態(tài)學(xué)高帽變換(1-D), Gabor變換(13-D), B-COSFIRE(1-D),用隨機(jī)森林進(jìn)行分類。雖然它將B-COSFIRE和其他特征進(jìn)行融合使用,達(dá)到了較好的效果,但高維特征向量添加了計(jì)算的復(fù)雜度。針對(duì)于此,本文提出了一種改進(jìn)方法,將復(fù)雜的Gabor特征向量去掉,加入高斯匹配濾波,且將高帽變換換作底帽變換,形成每個(gè)像素的5-D特征向量,通過(guò)SVM分類器,將每個(gè)像素點(diǎn)分類為血管或者非血管,再經(jīng)過(guò)后處理將分割錯(cuò)誤或者沒有分割的孤立噪聲點(diǎn)去掉,從而形成簡(jiǎn)單有效的視網(wǎng)膜血管分割方法。

      2 數(shù)據(jù)源和本文方法

      2.1數(shù)據(jù)源

      本文實(shí)驗(yàn)所用的視網(wǎng)膜圖像數(shù)據(jù)均來(lái)自于DRIVE和STARE兩個(gè)數(shù)據(jù)庫(kù),且將數(shù)據(jù)庫(kù)中第一位專家手動(dòng)分割的血管網(wǎng)絡(luò)結(jié)構(gòu)作為標(biāo)準(zhǔn)結(jié)果。

      DRIVE(Digital Retinal Images for Vessel Extraction)眼底圖像數(shù)據(jù)庫(kù)中有40幅彩色眼底圖像,大小為584×565, 20幅測(cè)試圖,20幅訓(xùn)練圖,其中7幅為病變圖像;STARE(STructured Analysis of the REtina)眼底圖像數(shù)據(jù)庫(kù)包含20幅彩色視網(wǎng)膜圖像,大小為700×605,其中10幅為病變圖像,但每幅圖像沒有相對(duì)應(yīng)的掩膜,本文通過(guò)ImageJ工具得到掩膜以方便找到感興趣區(qū)域。

      2.2方法

      如圖1所示,本文通過(guò)預(yù)處理來(lái)增強(qiáng)血管對(duì)比度,并將其作為像素的1維特征。其次,分別對(duì)預(yù)處理之后的圖像進(jìn)行特征提取,分別將其作為像素點(diǎn)的特征向量,將感興趣區(qū)域的像素進(jìn)行隨機(jī)選取一定數(shù)量作為訓(xùn)練樣本,歸一化,并將專家分割的像素結(jié)果作為分類標(biāo)簽,進(jìn)行分類器的訓(xùn)練形成訓(xùn)練模型。將測(cè)試圖像的特征向量進(jìn)行歸一化,輸入分類器判斷其每個(gè)像素的分類結(jié)果,通過(guò)后處理去除孤立噪聲點(diǎn),并將分割圖像呈現(xiàn)出來(lái)。

      2.2.1預(yù)處理 各類研究表明,綠色通道的對(duì)比度明顯比其他通道強(qiáng),由此選取綠色通道。由于采集到的視網(wǎng)膜眼底圖像的亮度往往不均勻,所以對(duì)綠色通道圖進(jìn)行CLAHE處理。CLAHE即受限對(duì)比度自適應(yīng)直方圖均衡化能夠?qū)D像分成塊,分別在每個(gè)塊內(nèi)進(jìn)行灰度直方圖的裁剪限幅,從而均衡眼底圖像的亮度,使其更適合后續(xù)血管提取。

      2.2.2特征提取

      (1)高斯匹配濾波: 經(jīng)過(guò)分析視網(wǎng)膜血管橫截面信息,高斯匹配濾波函數(shù)可以模擬視網(wǎng)膜血管的灰度分布,利用高斯匹配濾波函數(shù)的形狀和走向來(lái)逼近視網(wǎng)膜圖像血管。

      圖2(a)為一段血管圖,圖2(b)為豎線相應(yīng)的灰度級(jí)圖。可以看到3個(gè)比較大的血管灰度級(jí)明顯呈高斯?fàn)钭呦?,很多肉眼無(wú)法觀察到的細(xì)小血管也呈高斯?fàn)钭呦?,因此,通過(guò)高斯匹配濾波來(lái)實(shí)現(xiàn)粗細(xì)血管的增強(qiáng)。由于血管的方向是任意的,因此,本文采用12個(gè)不同方向的高斯核模板來(lái)對(duì)視網(wǎng)膜圖像進(jìn)行匹配濾波,找到相應(yīng)的最大響應(yīng)作為該像素的響應(yīng)值。2維高斯匹配濾波核函數(shù)為

      式中,表示高斯曲線的方差,L表示y軸被截?cái)嗟囊暰W(wǎng)膜血管長(zhǎng)度,濾波窗口的寬度選擇。另外,理論上L越大,能夠使視網(wǎng)膜圖像平滑效果更優(yōu),同時(shí)還能夠降低視網(wǎng)膜圖像噪聲,但是L的加大會(huì)引起眼底血管寬度變大,與實(shí)際寬度不同,降低準(zhǔn)確度。進(jìn)行多次實(shí)驗(yàn),選定參數(shù)使得匹配濾波核為一個(gè)77的矩陣從而達(dá)最佳的視網(wǎng)膜血管匹配效果。

      圖2 血管的橫截面灰度圖

      (3)

      (3)形態(tài)學(xué)底帽變換: 文獻(xiàn)[12]中用到的是形態(tài)學(xué)高帽變換,然而形態(tài)學(xué)高帽變換常用作提取在暗背景下的亮目標(biāo),底帽變換則相反,對(duì)于視網(wǎng)膜圖像來(lái)說(shuō),血管與其背景相比較暗,所以,選擇底帽變換來(lái)提取所需血管。本文使用線形結(jié)構(gòu)元素,底帽變換可以表示為

      (5)

      (4)B-COSFIRE: DoG模型最早用在模擬貓的視網(wǎng)膜神經(jīng)節(jié)細(xì)胞的同心圓拮抗空間特性,根據(jù)復(fù)雜細(xì)胞感受野的生理模型和DoG的數(shù)學(xué)模型,文獻(xiàn)[10]提出B-COSFIRE濾波模型是由一組LGN細(xì)胞計(jì)算模型的幾何平均值,從而模擬了復(fù)雜細(xì)胞感受野的工作機(jī)制,其原理如圖3所示,這種模型對(duì)于檢測(cè)血管之類的帶狀結(jié)構(gòu)有著很好的效果。

      圖3中虛線是B-COSFIRE的作用區(qū)域,黑點(diǎn)處的B-COSFIRE響應(yīng)通過(guò)計(jì)算一組DoG濾波響應(yīng)的乘積加權(quán)幾何平均得到。DoG濾波器如式(6):

      圖4(a)中的5個(gè)黑點(diǎn)表示DoG響應(yīng)最大的位置,構(gòu)成了一組DoG濾波響應(yīng)記為,圖4(b)中的3個(gè)黑點(diǎn)同樣。由于B-COSFIRE濾波器的中心點(diǎn)的輸出需要利用中點(diǎn)的DoG濾波響應(yīng),為了提高各個(gè)點(diǎn)位置的容錯(cuò)性,對(duì)DoG濾波響應(yīng)進(jìn)行模糊移位操作,需計(jì)算每個(gè)位置極坐標(biāo)鄰域的DoG濾波器的最大加權(quán)閾值響應(yīng)。權(quán)重通過(guò)DoG濾波響應(yīng)與高斯函數(shù)的系數(shù)的乘積得到,,,為常數(shù),為與中心濾波器之間的距離。模糊移位的DoG濾波響應(yīng)為

      其中, , B-COSFIRE濾波響應(yīng)是由一組集合的模糊移位DoG濾波響應(yīng)的乘積加權(quán)幾何平均計(jì)算得到。如式(8)所示:

      圖4 B-COSFIRE參數(shù)配置

      其中,

      由于血管方向是任意的,經(jīng)旋轉(zhuǎn)濾波器12個(gè)方向來(lái)選取最大值。本文將對(duì)稱和非對(duì)稱B-COSFIRE濾波響應(yīng)進(jìn)行相加得到最后的特征圖。B-COSFIRE濾波一直應(yīng)用在視網(wǎng)膜圖像處理的參數(shù)均同文獻(xiàn)[12],也為了與文獻(xiàn)[12]更好地比較,本文參數(shù)選取也同文獻(xiàn)[12]。

      本文中的5-D特征圖如圖5所示。將每個(gè)像素點(diǎn)用一個(gè)5維特征向量進(jìn)行表示為

      由于各個(gè)特征向量變換范圍不一,需要將其特征訓(xùn)練集歸一化到。

      2.2.3分類過(guò)程 訓(xùn)練:DRIVE數(shù)據(jù)庫(kù):對(duì)每一幅訓(xùn)練圖分別取1500個(gè)血管像素點(diǎn)和非血管像素點(diǎn)(總共60000個(gè)正反樣本),選取的樣本數(shù)是文獻(xiàn)[12]的1/5,歸一化后,作為訓(xùn)練樣本,血管標(biāo)簽為1,非血管標(biāo)簽為0。STARE數(shù)據(jù)庫(kù)沒有進(jìn)行訓(xùn)練集和測(cè)試集分類,需要自己將其進(jìn)行分類。本文將每幅圖像中取少量像素點(diǎn)作為訓(xùn)練樣本,整幅圖像作為測(cè)試樣本,與DRIVE一樣對(duì)每幅圖分別選擇1500個(gè)正反樣本。通過(guò)libsvm工具箱進(jìn)行SVM訓(xùn)練,所用的核函數(shù)是RBF核函數(shù),由于樣本數(shù)較多,尋優(yōu)實(shí)現(xiàn)比較費(fèi)時(shí),本文C使用常用默認(rèn)值1,選擇0.01,訓(xùn)練得到很好的模型。

      測(cè)試:對(duì)于測(cè)試集圖像中的像素點(diǎn)同樣提取特征向量,進(jìn)行歸一化,輸入SVM模型當(dāng)中,從而得到血管分割二值圖。

      2.2.4后處理 輸出圖像中有一些孤立的噪聲點(diǎn),被錯(cuò)誤的當(dāng)作血管,通過(guò)去除面積小于25像素的塊去除這些噪聲點(diǎn)。

      3 實(shí)驗(yàn)結(jié)果與分析

      3.1評(píng)估方法

      為了評(píng)價(jià)算法的分割性能,將本文方法的視網(wǎng)膜血管分割結(jié)果與專家手動(dòng)分割結(jié)果進(jìn)行比較,從而討論視網(wǎng)膜圖像像素點(diǎn)的分類效果。各種分類結(jié)果如表1。

      圖5 各個(gè)特征圖

      表1血管分類情況

      血管非血管 識(shí)別為血管識(shí)別為非血管TP(真陽(yáng)性)FN(假陰性)FP(假陽(yáng)性)TN(真陰性)

      如表 1所示,對(duì)于血管像素,若算法分割結(jié)果與專家手動(dòng)分割結(jié)果一致,則為真陽(yáng)性,否則為假陽(yáng)性;對(duì)于非血管(背景)像素,若算法分割結(jié)果與專家手動(dòng)分割結(jié)果一致,則為真陰性,否則,為假陰性。為了評(píng)估本文提出的算法,并與其他方法進(jìn)行比較,分別計(jì)算Se(敏感性),Sp(特異性),Acc(準(zhǔn)確率),但由于在視網(wǎng)膜圖像中非血管像素所占比例很大,即使沒有分割出血管,Acc依然可以達(dá)到90%以上,所以本文也通過(guò)其他評(píng)估參數(shù)如Ppv(精確率),Npv, F1-measure, AUC(ROC曲線下的面積)等來(lái)進(jìn)行評(píng)估。各評(píng)估參數(shù)如表 2所示。

      3.2實(shí)驗(yàn)結(jié)果與對(duì)比

      兩個(gè)數(shù)據(jù)庫(kù)均選擇第1位專家的手動(dòng)分割結(jié)果作為評(píng)價(jià)標(biāo)準(zhǔn),每個(gè)數(shù)據(jù)庫(kù)中總結(jié)評(píng)估結(jié)果如表3和表4。

      在DRIVE數(shù)據(jù)庫(kù)中,Se, Sp, Acc, AUC的平均值分別達(dá)到0.8336, 0.9781, 0.9573, 0.9651, F1-measure最好可達(dá)到0.8266,此時(shí)Acc達(dá)到0.9636, F1-measure最小為0.7131,此時(shí),Acc為0.9512;在STARE數(shù)據(jù)庫(kù)中,Se, Sp, Acc, AUC的平均值分別達(dá)到0.8519, 0.9743, 0.9575, 0.9703, F1-measure最好可達(dá)到0.8305,此時(shí)Acc為0.9683,F(xiàn)1-measure最小為0.6363,此時(shí)Acc為0.9255,本文將最好與最壞的分割結(jié)果展示如圖6。

      表2分割效果評(píng)估

      評(píng)估項(xiàng)公式 Se(TPR)TP/(TP+FN) SpTN/(TN+FP) Acc(TP+TN)/(TP+FP+TN+FN) PpvTP/(TP+FP) NpvTN/(TN+FN) F1-measure(2×Ppv×TPR)/(Ppv+TPR)

      最壞情況下血管大部分被分割出來(lái),但是由于病變的出現(xiàn),導(dǎo)致有的部分出現(xiàn)了片狀的區(qū)域,換言之,若出現(xiàn)這種情況,并非就一定是一件壞事,當(dāng)醫(yī)生發(fā)現(xiàn)這張視網(wǎng)膜血管圖存在異象時(shí),從而專注分析它的具體病變情況,同樣給醫(yī)生為病人的檢查節(jié)省了大量的時(shí)間,提高了效率。

      本文在文獻(xiàn)[12]的基礎(chǔ)上,添加了高斯匹配濾波來(lái)更好模擬血管的走向,以及將其高帽變換換做底帽變換使得血管能夠從背景中很好地顯現(xiàn)出來(lái),為了分析各個(gè)特征的影響程度,如表5,表6所示:在CLAHE, Hesse, B-COSFIRE這3維特征向量,分別添加高斯匹配濾波和底帽變換,則Se, Sp, Acc等評(píng)估參數(shù)都明顯增大。在第2種組合的基礎(chǔ)上,若添加了高帽變換,所得到的分割結(jié)果比第2種組合有所提升,將其高帽變換換做底帽變換,也就是本文方法,則各方面的評(píng)估參數(shù)都有了明顯的提升,證明了高斯匹配濾波的有效性,同時(shí)證實(shí)了與文獻(xiàn)[12]相比,底帽變換比高帽變換能夠更好地反映視網(wǎng)膜血管的特性。也正是各個(gè)特征向量的相互補(bǔ)充,使得本文方法取得很好的分割效果。

      其次,將本文方法與現(xiàn)有的方法進(jìn)行比較如表7和表8。從中看出與中外近期文獻(xiàn)相比,本文中Se,Npv的值明顯高于其他方法,在表7的DRIVE數(shù)據(jù)庫(kù)實(shí)驗(yàn)當(dāng)中,本文方法在準(zhǔn)確率上高于所有其他方法,在表8的STARE數(shù)據(jù)庫(kù)實(shí)驗(yàn)當(dāng)中,本文方法在準(zhǔn)確率上高于除文獻(xiàn)[12]以外的其他方法,雖然其準(zhǔn)確率略低于文獻(xiàn)[12],但是,本文在文獻(xiàn)[12]基礎(chǔ)上去除了Gabor濾波使得特征向量從17-D降低到5-D特征向量,從而將計(jì)算復(fù)雜度降低,另外,所取的樣本遠(yuǎn)遠(yuǎn)少于文獻(xiàn)[12],訓(xùn)練時(shí)間大大降低,卻能達(dá)到基本不相上下的測(cè)試準(zhǔn)確率。

      表3 DRIVE測(cè)試集分割結(jié)果

      表 4 STARE測(cè)試集分割結(jié)果

      圖 6 DRIVE和STARE中的最好與最壞分割情況

      表 5 DRIVE數(shù)據(jù)庫(kù)

      表6 STARE數(shù)據(jù)庫(kù)

      表7 DRIVE數(shù)據(jù)庫(kù)

      表8 STARE數(shù)據(jù)庫(kù)

      實(shí)驗(yàn)中所使用計(jì)算機(jī)的 CPU 為 Intel Core i5-2520M處理器,核心頻率為 2.5 GHz, 4GB RAM,軟件平臺(tái)為 MATLAB R2014a,就DRIVE數(shù)據(jù)庫(kù)而言,文獻(xiàn)[5]處理一副圖像所用時(shí)間達(dá)到2 min以上,文獻(xiàn)[10]用時(shí)15.5 s左右,文獻(xiàn)[11]用時(shí)53 s左右,文獻(xiàn)[12]處理一副圖像需要220 s左右,而本文方法僅需要90 s左右,相比文獻(xiàn)[12]而言,降低用時(shí)的同時(shí)且能達(dá)到很好的準(zhǔn)確率。

      為了進(jìn)一步檢驗(yàn)本文方法的有效性,本文做了交叉訓(xùn)練,即在DRIVE數(shù)據(jù)庫(kù)訓(xùn)練得到的模型測(cè)試集用STARE,反之在STARE數(shù)據(jù)庫(kù)訓(xùn)練得到的分割模型用DRIVE數(shù)據(jù)庫(kù)的測(cè)試集來(lái)檢驗(yàn),交叉訓(xùn)練結(jié)果如表9所示。本文方法的Se, Sp, Acc, AUC等均優(yōu)于文獻(xiàn)[12]。綜合而言,本文在選取較少樣本的情況下,選擇較少的特征向量,將視網(wǎng)膜血管很好地分割出來(lái),進(jìn)一步證明在復(fù)雜度和分割效果上都優(yōu)于文獻(xiàn)[12]。

      4 結(jié)束語(yǔ)

      本文在其他文獻(xiàn)的基礎(chǔ)上提出了一種基于混合特征高效融合的視網(wǎng)膜血管自動(dòng)分割方法,對(duì)視網(wǎng)膜圖像中血管與非血管構(gòu)建5D特征向量,包括CLAHE、高斯匹配濾波、Hesse矩陣變換、形態(tài)學(xué)變換、B-COSFIRE濾波變換,該方法選取較少的樣本經(jīng)過(guò)SVM分類器訓(xùn)練,形成用于分類血管像素與非血管像素的一種簡(jiǎn)單有效的模型。與當(dāng)前其他的監(jiān)督算法相比,本文方法簡(jiǎn)單且分割準(zhǔn)確率高,分割速度快,對(duì)于視網(wǎng)膜病變的篩查及早期診斷具有重要意義。雖然本文方法得到很好的分割效果,但在接下來(lái)的進(jìn)展中,需將傳統(tǒng)方法與現(xiàn)有的深度學(xué)習(xí)等特征提取方法相結(jié)合進(jìn)一步提升分割效果。

      表9交叉訓(xùn)練結(jié)果

      數(shù)據(jù)庫(kù)方法SeSpAccAUC DRIVE(STARE數(shù)據(jù)集訓(xùn)練)文獻(xiàn)[12]0.73080.97400.94960.9595 本文方法0.78500.98530.96230.9636 STARE(DRIVE數(shù)據(jù)集訓(xùn)練)文獻(xiàn)[12]0.74530.97600.95450.9719 本文方法0.85620.98120.95870.9789

      [1] 揚(yáng)琴, 趙景秀. 基于主成分分析的血管分割算法[J]. 電子技術(shù)設(shè)計(jì)與應(yīng)用, 2016, 3: 66-70.

      YANG Qin and ZHAO Jingxiu. Blood vessel segmentation algorithm based on principal components analysis[J].&, 2016, 45(3): 66-70.

      [2] SINGH N P and SRIVASTAVA R. Retinal blood vessels segmentation by using Gumbel probability distributiaon function based matched filter[J]., 2016, 129(C): 40-50. doi: 10.1016/j.cmpb.2016.03. 001.

      [3] FRAZ M M, BASIT A, and BARMAN S A. Application of morphological bit planes in retinal blood vessel extration[J].. 2013, 26(2): 274-286. doi: 10.1007/s10278-012- 9513-3.

      [4] FRAZ M M, REMAGNINO P, HOPPE A,. Blood vessel segmentation methodologies in retinalimages-A survey[J]., 2012, 108(1): 407-433. doi: 10.1016/j.cmpb.2012.03009.

      [5] 吳奎, 蔡冬梅, 賈鵬, 等. 基于2D Gabor小波與組合線檢測(cè)算子的視網(wǎng)膜血管分割[J]. 科學(xué)技術(shù)與工程, 2016, 16(12): 106-112.

      WU Kui, CAI Dongmei, JIA Peng,. Retinal vessel segmentation based on 2D Gabor wavelet and combined line operators[J]., 2016, 16(12): 106-112.

      [6] 于輝, 王小鵬. 基于HESSIAN增強(qiáng)和形態(tài)學(xué)尺度空間的視網(wǎng)膜血管分割[J]. 計(jì)算機(jī)應(yīng)用與軟件, 2016, 33(8): 200-205.

      YU Hui and WANG Xiaopeng. Retinal vessels segmentation based on Hessian enhancement and morphological scale space[J]., 2016, 33(8): 200-205.

      [7] WAHEED Z, AKRAM M U, WAHEED A,. Person identification using vascular and non-vascular retinal feature[J]., 2016, 53: 359-371. doi: 10.1016/j.compeleceng.2016.03.010.

      [8] RICCI E and PERFETTI R. Retinal blood vessel segmentation using line operators and support vector classification[J]., 2007, 26(10): 1357-1365. doi: 10.1109/TMI.2007.8985551.

      [9] FRAZ M M, REMAGNINO P, HOPPE A,. An ensemble classification-based approach applied to retinal blood vessel segmentation[J]., 2012, 59(9): 2538-2548. doi: 10.1109/TBME. 2012.2205687.

      [10] AZZOPARDI G, STRISCIUGLIO N, VENTO M,. Trainable COSFIRE filters for vessel delineation with application to retinal images[J]., 2015, 19(1): 46-57. doi: 10.1016/j.media.2014.08.002.

      [11] STRISCIUGLIO N, AZZOPARDI G, VENTO M,. Supervised vessel delineation in retinal fundus images with the automatic selection of B-COSFIRE filters[J]., 2016, 27(8): 1137-1149. doi: 10.1007 //s00138-016-0781-7.

      [12] ASLANI S and SARNEL H. A new supervised retinal vessel segmentation method based on robust hybrid feature[J]., 2016, 30: 1-12. doi: 10.1016/j.bspc.2016.05006.

      Retinal Vessel Segmentation Method with Efficient Hybrid Features Fusion

      CAI Yiheng GAO Xurong QIU Changyan CUI Yize

      (,,100124,)

      How to apply machine learning to retinal vessel segmentation effectively has become a trend, however, choosing what kind of features for the blood vessels is still a problem. In this paper, the blood vessels of pixels are regarded as a theory of binary classification, and a hybrid 5D features for each pixel is put forward to extract retinal blood vessels from the background simplely and quickly. The 5D eigenvector includes Contrast Limited Adaptive Histgram Equalization (CLAHE), Gaussian matched filter, Hessian matrix transform, morphological bottom hat transform and Bar-selective Combination Of Shifted Filter Responses (B-COSFIRE). Then the fusion features are input into the Support Vector Machine (SVM) classifier to train a model that is needed. The proposed method is evaluated on two publicly available datasets of DRIVE and STARE, respectively. Se, Sp, Acc, Ppv, Npv, F1-measure are used to test the proposed method, and average classification accuracies are 0.9573 and 0.9575 on the DRIVE and STARE datasets, respectively. Performance results show that the fusion method also outperform the state-of-the-art method including B-COSFIRE and other currently proposed fusion features method.

      Machine learning; Retina; Vessel segmentation; Feature vetor; Support Vector Machine (SVM)

      TP391

      A

      1009-5896(2017)08-1956-08

      10.11999/JEIT161290

      2016-11-28;

      改回日期:2017-04-14;

      2017-05-11

      蔡軼珩 caiyiheng@bjut.edu.cn

      國(guó)家自然科學(xué)基金(61201360)

      The National Natural Science Foundation of China (61201360)

      蔡軼珩: 女,1974年生,博士,副教授,主要研究方向?yàn)獒t(yī)學(xué)圖像處理.

      高旭蓉: 女,1992年生,碩士,主要研究方向?yàn)閳D像處理.

      邱長(zhǎng)炎: 男,1991年生,碩士,主要研究方向?yàn)閳D像處理.

      崔益澤: 男,1993年生,碩士,主要研究方向?yàn)閳D像處理.

      猜你喜歡
      特征向量高斯視網(wǎng)膜
      小高斯的大發(fā)現(xiàn)
      二年制職教本科線性代數(shù)課程的幾何化教學(xué)設(shè)計(jì)——以特征值和特征向量為例
      深度學(xué)習(xí)在糖尿病視網(wǎng)膜病變?cè)\療中的應(yīng)用
      克羅內(nèi)克積的特征向量
      家族性滲出性玻璃體視網(wǎng)膜病變合并孔源性視網(wǎng)膜脫離1例
      高度近視視網(wǎng)膜微循環(huán)改變研究進(jìn)展
      天才數(shù)學(xué)家——高斯
      一類特殊矩陣特征向量的求法
      EXCEL表格計(jì)算判斷矩陣近似特征向量在AHP法檢驗(yàn)上的應(yīng)用
      復(fù)明片治療糖尿病視網(wǎng)膜病變視網(wǎng)膜光凝術(shù)后臨床觀察
      磴口县| 金门县| 攀枝花市| 伊金霍洛旗| 临武县| 武乡县| 安泽县| 华池县| 什邡市| 青田县| 沈阳市| 石狮市| 内丘县| 泾源县| 孝感市| 神农架林区| 华池县| 青河县| 瑞金市| 凤山县| 岗巴县| 茂名市| 澄迈县| 广州市| 梁河县| 准格尔旗| 马关县| 米泉市| 弋阳县| 乳山市| 康平县| 蒙山县| 太湖县| 三明市| 靖西县| 涡阳县| 通许县| 彰化县| 炉霍县| 乌拉特前旗| 胶州市|