• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      改進的全卷積神經(jīng)網(wǎng)絡的腦腫瘤圖像分割

      2018-07-26 02:38:18邢波濤
      信號處理 2018年8期
      關鍵詞:卷積模態(tài)精度

      邢波濤 李 鏘 關 欣

      (天津大學微電子學院, 天津 300072)

      1 引言

      惡性腦腫瘤是世界上最可怕的癌癥類型之一,通常會使患者的認知功能下降、生活質(zhì)量變差。成人中最常見的腦腫瘤是原發(fā)性中樞神經(jīng)系統(tǒng)淋巴瘤和膠質(zhì)瘤,其中膠質(zhì)瘤占到惡性腫瘤的80%以上[1],因此膠質(zhì)瘤是腫瘤分割的重點對象。但由于膠質(zhì)瘤可出現(xiàn)在大腦的任何位置且大小不定、形狀不規(guī)則,使得其分割仍然是一個具有挑戰(zhàn)性的任務,因此如何采用現(xiàn)代信息技術高效且全自動化地分割腦腫瘤成為一個重要的研究方向[2]。核磁共振成像(Magnetic Resonance Imaging, MRI)技術具有非侵入性,對腦腫瘤圖像分割具有重要的輔助作用[3- 4]。腦腫瘤MRI序列包括T1加權(T1-weighted)、T1C(Contrast enhanced T1-weighted images)、T2加權(T2-weighted images)及FLAIR(Fluid Attenuated Inversion Recovery)等成像序列,臨床上通常結合四種圖像共同診斷腫瘤的位置和大小。

      近年來研究人員運用多種方法來分割腦腫瘤圖像,總體上可分為無監(jiān)督學習算法[5-7]和監(jiān)督學習算法[8-12]。無監(jiān)督學習算法大都屬于半自動算法且分割精度總體不高,Levine等[5]提出的區(qū)域生長法需要在分割圖像中手動設置初始點;Szilagyi等[6]提出將多個模糊C均值(Fuzzy C-means, FCM)算法級聯(lián)的模型,但此算法僅在有限數(shù)據(jù)集上進行了測試,模型泛化程度并不高;童云飛等[7]采用快速模糊C均值選擇腫瘤區(qū)域內(nèi)的初始輪廓,而后利用水平集方法來提取腦腫瘤邊界,但初始輪廓選擇不正確會導致分割結果不理想。

      對比上述無監(jiān)督學習算法,監(jiān)督學習算法由于標簽的反饋機制使得算法整體分割精度變高。與極端隨機樹(Extremely Randomized Trees, ERT)[8]和支持向量機(Support Vector Machine, SVM)[9]等傳統(tǒng)監(jiān)督機器學習算法相比,基于卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network, CNN)的方法不依賴于人工提取特征,而是自動從訓練數(shù)據(jù)中學習到高水平和任務自適應的復雜特征,使得算法的精度越來越高。Havaei等[10]提出一種級聯(lián)的CNN模型來提高腦腫瘤的分割精度,但網(wǎng)絡模型復雜度過高導致訓練較困難,分割精度(文中無特指情況下,分割精度代表相似系數(shù)Dice指標)只能達到85%左右;Pereira等[11]為了加快網(wǎng)絡的訓練速度,在CNN模型中用多個3×3小尺寸的卷積核來減少網(wǎng)絡參數(shù)同時加深層數(shù)提高模型精度,但分割精度依然沒有超過90%;師冬麗等[12]結合模糊推理系統(tǒng),建立學習規(guī)則對CNN預測腫瘤點的概率進行再判斷雖然分割精度可達90%,但算法卻變?yōu)榘胱詣踊D壳盎贑NN的腦腫瘤圖像分割精度難以提升主要由于:(1)相鄰像素塊的標簽具有獨立性,沒有考慮標簽之間的相關性;(2)像素塊的大小限制了感受野的大小,網(wǎng)絡只能提取到局部特征,導致CNN無法分割出精細的腫瘤邊界,精細即與腦腫瘤圖像標簽相比,算法可正確分割出腦腫瘤的總體輪廓,精度可達85%以上且不存在過多分割散點,分割出的腦腫瘤邊界更加突出;(3)CNN針對每個相鄰像素塊逐個卷積,計算復雜度較高。

      針對CNN分割圖像的缺陷,文獻[13]提出的馬爾科夫隨機場算法和文獻[14]、文獻[15]提出的條件隨機場算法考慮到圖像標簽之間的相關性,將其作為CNN的后處理手段用于圖像的邊界分割;文獻[18]提出一種不依懶于像素塊直接對像素點分割的全卷積神經(jīng)網(wǎng)絡,大大降低了計算復雜度?;诖吮疚奶岢鲆环N基于改進的全卷積神經(jīng)網(wǎng)絡(Fully Convolutional Neural Network, FCNN)和條件隨機場(Conditional Random Fields, CRF)的全自動腦腫瘤MR圖像分割算法。首先對多模態(tài)MR腦腫瘤圖像做灰度歸一化及灰度圖像融合的預處理,而后對預處理圖像建立FCNN模型進行粗分割,隨后基于圖像標簽之間的相關性,將概率圖譜模型CRF融合到FCNN中,進行精細的邊界分割,提高腦腫瘤的分割精度。

      2 基本理論

      2.1 改進的全卷積神經(jīng)網(wǎng)絡

      1998年LeCun等[16]將CNN首次應用于圖像識別領域,2012年由Krizhevsky[17]等提出的AlexNet網(wǎng)絡結構在CNN物體分類領域內(nèi)取得重大突破,2015年Long等[18]提出了一種像素級別的圖像語義分割網(wǎng)絡—全卷積神經(jīng)網(wǎng)絡FCNN,該網(wǎng)絡在AlexNet基礎上改進,可端對端地對每個像素分類,實現(xiàn)圖像分割任務。FCNN將AlexNet的兩個全連接層轉(zhuǎn)化為卷積層使得網(wǎng)絡最后的輸出仍為二維矩陣,這樣保留了像素間的空間信息,更加有利于特征的提取。為使網(wǎng)絡的輸出和輸入大小一致,原始FCNN直接對最后一個卷積層的輸出進行上采樣,使其恢復到輸入圖像相同的尺寸,但這種操作只利用了第5次池化的特征信息,得到的目標特征較粗糙,難以實現(xiàn)目標的精確分割。

      本算法將利用不同池化層的特征信息,實現(xiàn)特征信息的多級融合。在對最后一個卷積層的輸出進行上采樣后,首先與第四次池化的特征向量矩陣進行第一次融合;而后對得到的特征融合矩陣進行上采樣并與第三次池化的特征向量矩陣進行第二次融合;然后再將此融合特征矩陣進行上采樣與第二次池化的特征向量矩陣進行第三次融合,最后將第三次融合的特征矩陣進行上采樣得到與原始圖像相同大小的特征矩陣,從而得到更好的特征信息矩陣。同時算法在每個卷積層后增加Ioffe等[19]提出的批量正則化(Batch Normalization, BN)層以加快網(wǎng)絡的訓練速度,提高模型的分割精度。多級特征信息融合的網(wǎng)絡結構如圖1所示,其中Conv為卷積層,該層可提取圖像的邊緣、位置等多種特征;Pool為池化層,可實現(xiàn)特征降維,保留卷積層提取的主要特征;BN為批量正則化層,可保證卷積后網(wǎng)絡的權重分布不發(fā)生很大的變化;Up為上采樣層,主要以反卷積的方式增大特征矩陣;Crop_Fuse對特征矩陣進行裁剪和融合操作,Pixelwise Prediction為像素分類預測層,通過對每個像素點分類實現(xiàn)圖像分割。

      2.2 條件隨機場

      基于CRF模型的圖像語義分割是經(jīng)典的概率圖譜分割算法之一,可去除分割結果中的噪聲,強化圖像的邊界分割。本算法將Zheng等[15]提出的全連接CRF模型融合到改進的FCNN網(wǎng)絡中,進行腦腫瘤邊界分割的后處理,提高腦腫瘤圖像的分割精度。

      在全連接CRF模型中,像素歸屬為所屬標簽的能量函數(shù)可表示為:

      (1)

      式(1)中:E(x)為像素歸屬標簽的總能量;φu(xi)為一元能量勢函數(shù),表示不考慮像素與像素間的關系時,將像素i歸屬為標簽xi的能量;φp(xi,xj)為點對能量勢函數(shù),表示基于像素間的灰度值差異和空間位置距離,將像素i、j同時分割為標簽xi、xj的能量,描述兩兩像素點間的關系,使得相似像素點分配相同的標簽。

      一元能量勢函數(shù)φu(xi)可以從FCNN的初始粗分割結果中得到,點對能量勢函數(shù)φp(xi,xj)可表示為:

      (2)

      在CRF模型中,采用雙邊高斯濾波器將空間上離得近并且灰度值接近的像素點劃分為同一標簽;利用空間平滑高斯濾波器去除腦腫瘤分割結果中孤立的小區(qū)域。所以式(2)可進一步表示為:

      (3)

      圖1 多級特征信息融合的網(wǎng)絡結構圖Fig.1 The network structure chart of the multilevel features information fusion

      3 本文算法原理

      本文改進的全卷積神經(jīng)網(wǎng)絡的腦腫瘤圖像分割算法流程如圖2所示。首先對歸一化的多模態(tài)MR腦腫瘤圖像數(shù)據(jù)進行灰度圖像融合;隨后將融合的部分數(shù)據(jù)作為訓練集,部分數(shù)據(jù)作為測試集,利用訓練集訓練FCNN和CRF的融合算法;最后在測試集上進行模型的測試和分割結果的指標評價。

      圖2 算法流程圖Fig.2 The flow chart of algorithm

      3.1 圖像預處理

      原始MR腦腫瘤圖像中的每一個像素點在計算機中以16 bit進行存儲,但在數(shù)字圖像處理技術中都是對8 bit圖像進行處理,故本文先對MR圖像進行灰度歸一化,將每一像素點的灰度值均勻壓縮至范圍0~255之間??紤]到神經(jīng)網(wǎng)絡只通過單一模態(tài)圖像數(shù)據(jù)提取到的特征不足以精確地分割腦腫瘤邊界,所以根據(jù)MR四種模態(tài)圖像的成像特點,對FLAIR、T2和T1C三種模態(tài)分別作為R、G、B通道進行簡單的灰度圖像融合以便卷積核能學習到不同模態(tài)的不同特征。

      3.2 改進的FCNN- 4s粗分割算法

      為了獲得良好的腫瘤特征,便于概率圖譜CRF模型進行精細的邊界分割。本文對原始的FCNN算法進行改進,提出精細的特征融合模型,同時為了加快網(wǎng)絡的收斂速度,提高模型的精度,將BN層加入到網(wǎng)絡中,形成圖3所示的FCNN- 4s算法。其中Data為數(shù)據(jù)層,Conv為卷積層,Pool為池化層,ReLU(Rectified Linear Units)為激活函數(shù)層,Up為上采樣層,Prob為輸出的概率圖譜層。Fuse為特征融合操作,融合在高維特征矩陣和低維特征矩陣的維數(shù)和大小相同前提下,將兩目標矩陣對應維度的數(shù)據(jù)進行簡單的相加運算。Crop表示如果融合前兩目標矩陣的維數(shù)和大小不一致時(如表1中Pool4層輸出大小為28×28×512,而Up1層輸出大小為18×18×2),算法為使兩目標矩陣維數(shù)和大小一致而進行的矩陣裁剪操作。當維數(shù)不一致時,算法將低維特征矩陣同1×1×Nhigh(Nhigh為高維特征矩陣數(shù)量)的卷積核進行卷積,使得兩矩陣維數(shù)相同的同時又不會改變低維特征矩陣值的大??;當大小不一致時,因為圖像的特征信息主要集中于中間部分,算法從低維特征矩陣的中心向兩邊對稱提取與高維特征矩陣相同的大小,降低腦腫瘤特征信息的損失,使得其對分割結果幾乎不產(chǎn)生影響。

      圖3 改進的FCNN- 4s的網(wǎng)絡結構圖Fig.3 The network structure chart of the improved FCNN- 4s

      表1為圖3網(wǎng)絡的具體參數(shù),其中Layer為每一層的名字;Kernel表示卷積核或池化核的維度和大??;Stride表示卷積運算過程中滑動窗口的步長;Pad表示計算前對輸入矩陣進行一定的邊緣擴充,為了防止池化后的特征信息矩陣過小,本文對原始腦腫瘤圖像(240×240)進行Pad為100的操作;Output-Size表示輸出特征矩陣的維度和大小。算法將不同維度上的特征矩陣進行三次融合,使獲取的腦腫瘤特征更加精細,同時BN層可使每次迭代訓練的參數(shù)權重分布不發(fā)生很大的變化以加快收斂速度。

      表1 改進的FCNN- 4s的網(wǎng)絡結構參數(shù)

      3.3 FCNN- 4s和CRF的細分割融合算法

      本文判斷MR腦腫瘤圖像中每一個像素點是否為腫瘤點,標簽l中用0表示非腫瘤像素點,1表示腫瘤像素點,屬于二分類問題。當獲取到FCNN- 4s的兩張初始概率圖譜后,首先初始化能量函數(shù)得到像素點原始歸屬標簽概率值,隨后采用以下步驟計算CRF模型,不斷迭代修正FCNN- 4s預測的兩類概率圖譜,融合算法如下所示。

      算法的偽代碼如下所示,最終形成CRF與FCNN- 4s的融合網(wǎng)絡結構,可采用反向傳播算法端對端地計算每個像素的損失并更新網(wǎng)絡參數(shù)權重。

      Begin

      While not convergedQi(xi)≥90% do

      end while

      End

      4 實驗結果與分析

      4.1 數(shù)據(jù)和評價標準

      實驗采用在線MR腦腫瘤數(shù)據(jù)圖庫BRATS 2015[注]https:∥www.smir.ch/BRATS/Start2015(Brain tumor image segmentation benchmark, BRATS),圖庫中每一例患者的FLAIR、T1、T2和T1C等四種模態(tài)MR圖像都已配準,即各模態(tài)圖像按人體標準大腦進行線性對準,像素點相互對應,反映大腦中同一位置的腫瘤情況[7]。各模態(tài)MR圖像的三維大小均為240×240×155,真值標簽為多名專家手工標定的腫瘤結果。實驗環(huán)境如下:CPU Intel Core i7 3.5GHz,GPU NVIDIA GeForce GTX1070,Ubuntu 16.04 LST 64位操作系統(tǒng),Caffe深度學習框架。

      本文采用相似系數(shù)(Dice Similarity Coefficient, DSC),靈敏度(Sensitivity)和陽性預測值(Predictive Positivity Value, PPV)等指標評價腦腫瘤的分割結果。其中相似系數(shù)表示實驗分割結果與標簽之間的相似程度,靈敏度代表實驗分割后正確腫瘤點占真值腫瘤點的比例,陽性預測值代表實驗分割后正確腫瘤點占分割結果為腫瘤點的比例。表達式如下:

      (4)

      (5)

      (6)

      式中P表示本文算法分割結果,T表示專家分割腦腫瘤的標簽。

      4.2 實驗參數(shù)的設置與模型的訓練

      實驗隨機選取100例腦腫瘤患者的MR圖像作為訓練集。即首先將大小為240×240×155的四種模態(tài)的體素圖像進行切片處理,隨后利用3.1節(jié)的圖像預處理技術和數(shù)據(jù)增強技術得到數(shù)量為51000、大小為240×240的灰度圖像融合訓練數(shù)據(jù)。本文主要對腦腫瘤圖像做水平翻轉(zhuǎn)、上下翻轉(zhuǎn)以及逆時針旋轉(zhuǎn)90°、180°和270°的數(shù)據(jù)增強處理,以提高訓練模型的精度。

      在訓練階段,使用較為成熟的Caffe深度學習框架對訓練集進行模型參數(shù)的學習,考慮到Sigmoid、Tanh激活函數(shù)容易造成梯度消失,網(wǎng)絡選取ReLU作為激活函數(shù),采用常規(guī)的SoftMax分類損失函數(shù)。由于學習率的選取對網(wǎng)絡至關重要,它決定網(wǎng)絡是否能夠收斂和收斂的程度,既不能太大也不能過小,本文利用原始訓練集比較不同學習率下網(wǎng)絡的收斂情況,圖4反映出當網(wǎng)絡選取10e- 08和10e- 09等較大學習率時,會導致訓練的損失無法收斂,當學習率為10e-10時,訓練損失可以收斂,且比10e-11等小學習率收斂程度更好,所以本文最終采用10e-10的學習率。

      圖4 不同學習率下網(wǎng)絡的收斂程度Fig.4 The convergence degree of the network with different learning rates

      權重衰減系數(shù)對網(wǎng)絡的過擬合程度有一定的影響,本文比較不同權重衰減系數(shù)下網(wǎng)絡的訓練準確率,從表2可看出:當權重衰減系數(shù)過小時沒有起到權重衰減的作用使得網(wǎng)絡訓練的準確率較差;當權重衰減系數(shù)過大時網(wǎng)絡出現(xiàn)一定的過擬合,訓練準確率有所下降,所以本文最終采取權重衰減系數(shù)為0.0005。

      表2 不同權重衰減系數(shù)下網(wǎng)絡的訓練準確率

      為驗證加入BN層的有效性,本文利用原始訓練集比較加入BN層前后的網(wǎng)絡訓練損失和訓練準確率。圖5(a)中加入BN層的網(wǎng)絡在迭代8000次后損失已降到5000左右,迭代1.2×105次網(wǎng)絡已基本收斂;而無BN層的網(wǎng)絡在迭代2.0×104次損失才降到5000左右,迭代近1.6×105次網(wǎng)絡才收斂,充分印證了BN層可加速網(wǎng)絡的收斂速度,且收斂的損失值較小,圖5(b)反映了BN層的加入在一定程度上也提高了訓練模型的精度。

      圖5 有無BN層的網(wǎng)絡訓練損失和準確率Fig.5 Train loss and accuracy of the network whether adding the BN layer

      當網(wǎng)絡結構和參數(shù)正確選擇后,為驗證擴增的數(shù)據(jù)集可提高模型精度,本文對不同數(shù)據(jù)集進行腫瘤分類正確率的比較,從表3可看出,隨著數(shù)據(jù)集的一步步擴增,訓練的準確率大幅度提升10.45%,可見增大訓練樣本可防止網(wǎng)絡過擬合,提高模型的泛化能力,這樣也保證了訓練的模型在測試集上能夠?qū)崿F(xiàn)較好的腦腫瘤分割。

      表3 不同數(shù)據(jù)集下網(wǎng)絡的訓練準確率

      最后為了驗證改進的FCNN- 4s和CRF的融合網(wǎng)絡更加有利于腫瘤邊界特征提取,本文利用擴增的訓練集和以上參數(shù)訓練了融合兩次特征的FCNN- 8s網(wǎng)絡和融合三次特征的FCNN- 4s網(wǎng)絡。圖6表示了各網(wǎng)絡所提取的最終腦腫瘤特征信息,黃色程度越深,代表是腦腫瘤的概率越大,藍色程度越深則為背景的概率越大。從中可看出圖6(b)融合更多特征信息的FCNN- 4s網(wǎng)絡比圖6(a)FCNN- 8s網(wǎng)絡分割的腦腫瘤總體輪廓更加明顯,而圖6(c)通過CRF模型加強了邊界信息的提取,使得提取的腦腫瘤特征非常接近標簽值。

      圖6 不同網(wǎng)絡結構提取的腦腫瘤特征Fig.6 The brain tumor feature of different networks

      4.3 單模態(tài)圖像與融合模態(tài)圖像的分割結果比較

      實驗同時選取50例腦腫瘤患者的MR圖像進行模型測試。為了比較本文提出的算法在單模態(tài)圖像與融合圖像分割效果上的差異,選取腦腫瘤邊界較明顯的FLAIR單模態(tài)圖像,與采用灰度圖像融合的預處理圖像進行分割結果上的比較。從實驗結果圖7中可看出,當用本文算法分割FLAIR單模態(tài)圖像時,可正確分割出腦腫瘤的總體輪廓,但非腫瘤區(qū)域存在大量的散點,即出現(xiàn)過分割現(xiàn)象;當分割灰度融合模態(tài)圖像時,由于三種模態(tài)的腫瘤信息可以相互補充,加強了邊界等特征的提取,使得腦腫瘤的輪廓不僅被正確分割出來,在一定程度上也減少了過分割的現(xiàn)象,分割的腫瘤邊界也更加精細。

      隨后采用三種指標定量分析分割結果的好壞,從表4可看出,多模態(tài)融合圖像相對單模態(tài)圖像在相似性指數(shù)、靈敏度以及陽性預測率等分割精度上都有了較大提升,尤其是Dice提高了6.33%。

      表4 算法在單模態(tài)與融合模態(tài)圖像上的分割性能評估

      4.4 對比和討論

      為了驗證所提改進算法的優(yōu)越性,本文與只進行兩次特征融合的簡單分割算法FCNN- 8s以及沒有融合CRF的FCNN- 4s算法進行比較,同時實驗還與著名學者Havaei[10]和Pereira[11]等提出的傳統(tǒng)CNN算法進行對比,從圖8可看出,Havaei[10]算法存在明顯的過分割,分割的腦腫瘤邊界不明顯且存在較多的孤立散點;Pereira[11]算法由于網(wǎng)絡層數(shù)更深,使得分割模型的精度更好,性能整體較Havaei[10]算法略有提升,并在一定程度上減少了腦腫瘤的過分割;FCNN- 8s雖然獲得了平滑的腦腫瘤分割輪廓,但由于特征融合較少導致腦腫瘤邊界不夠精細且分割精度不高;FCNN- 4s相對FCNN- 8s來說在獲取腦腫瘤邊界信息上有一定增強,但分割出的腦腫瘤邊界還是不夠細膩。尤其在分割第3例復雜腦腫瘤圖像時,由于腫瘤邊界太復雜導致各種算法的分割結果都差強人意,但采用本文算法卻能夠分割出比較滿意的結果??偟膩碚f,采用特征融合更加精細的FCNN- 4s模型,且融合CRF形成的端對端的算法結構能夠使得相似的像素點獲得相同的標簽,從而細化腦腫瘤的邊界,有效解決腦腫瘤的過分割與欠分割問題。

      另外從表5中也可看出本文算法相對其他算法具有較高的分割精度,Dice較兩位學者提出的算法分別提高了5.47%和3.60%,較無融合CRF的FCNN算法更是平均提高了8.52%。再從分割一幅腦腫瘤圖像的平均時間來看,本算法在預測階段具有較高的實時性,平均1 s內(nèi)便可完成一幅腦腫瘤圖像的分割。

      圖7 算法在單模態(tài)與融合模態(tài)圖像上的分割結果比較圖Fig.7 Compared with the segmentation results between single mode and fused mode image

      圖8 五種算法的分割結果比較圖Fig.8 Compared with the segmentation results of five segmentation methods

      算法DiceSensitivityPositive本文平均值0.91290.90970.8916時間/s1.0326FCNN-4s平均值0.84710.85930.8747時間/s0.9568FCNN-8s平均值0.80830.83260.8572時間/s0.9043Pereiral[11]平均值0.87690.89620.8825時間/s3.4315Havaei[10]平均值0.85820.80460.8412時間/s2.7652

      圖9 五種算法的穩(wěn)定性評價圖Fig.9 The stability evaluation of five algorithms

      同時為了驗證本文算法的穩(wěn)定性,實驗隨機選取6例患者每例各50幅腦腫瘤切片圖像,對每個算法進行Dice評價。圖9中每幅圖像代表一個患者采用不同算法分割的Dice值,每個小矩形框表示一個算法,從左到右依次為FCNN- 8s算法,F(xiàn)CNN- 4s算法,Havaei[10]算法,Pereiral[11]算法以及本文算法。矩形框的高度反映了算法的穩(wěn)定性,矩形框越高則說明算法Dice波動太大,算法穩(wěn)定性較差;矩形框內(nèi)的橫線為該算法平均Dice值??煽闯鑫宸N算法的分割精度基本都達到80%以上,但FCNN- 8s算法不論是在分割精度還是在穩(wěn)定性上表現(xiàn)都較差;Pereiral[11]算法較Havaei[10]算法在分割精度上略有提升,穩(wěn)定性也較好;FCNN- 4s算法較FCNN- 8s算法分割性能大幅度提高,穩(wěn)定性相對兩位學者較差。但融合CRF和BN的本文算法在分割腦腫瘤時不僅精度大幅度提高,平均Dice高達91.29%左右,而且還具有較高的穩(wěn)定性,整體性能優(yōu)于其他算法。

      5 結論

      本文針對卷積神經(jīng)網(wǎng)絡分割腦腫瘤計算復雜度高且精度不高的缺陷提出了一種改進的腦腫瘤圖像分割算法。首先利用改進的全卷積神經(jīng)網(wǎng)絡實現(xiàn)腦腫瘤像素級別的粗分割,而后基于圖像標簽之間的相關性,融合概率圖譜模型條件隨機場,形成可訓練的端對端的分割算法。與傳統(tǒng)的卷積神經(jīng)網(wǎng)絡分割算法相比,本文的算法結構更加精細,能有效解決腦腫瘤的過分割與欠分割問題,分割預測實時性更好,穩(wěn)定性較強,可實現(xiàn)較高的分割精度。

      猜你喜歡
      卷積模態(tài)精度
      基于3D-Winograd的快速卷積算法設計及FPGA實現(xiàn)
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      基于DSPIC33F微處理器的采集精度的提高
      電子制作(2018年11期)2018-08-04 03:25:38
      基于傅里葉域卷積表示的目標跟蹤算法
      GPS/GLONASS/BDS組合PPP精度分析
      國內(nèi)多模態(tài)教學研究回顧與展望
      基于HHT和Prony算法的電力系統(tǒng)低頻振蕩模態(tài)識別
      改進的Goldschmidt雙精度浮點除法器
      由單個模態(tài)構造對稱簡支梁的抗彎剛度
      計算物理(2014年2期)2014-03-11 17:01:39
      一種基于卷積神經(jīng)網(wǎng)絡的性別識別方法
      電視技術(2014年19期)2014-03-11 15:38:20
      峡江县| 东平县| 沅陵县| 龙州县| 高台县| 迁安市| 兴宁市| 山东省| 舒兰市| 永年县| 麻栗坡县| 保亭| 金乡县| 襄汾县| 惠来县| 嵊州市| 潞西市| 锡林浩特市| 西吉县| 沭阳县| 高平市| 博罗县| 江口县| 贺兰县| 临漳县| 茌平县| 芮城县| 武城县| 运城市| 沁阳市| 玉树县| 神池县| 兴海县| 玉林市| 尉犁县| 鲜城| 和林格尔县| 南召县| 桓仁| 凯里市| 临城县|