蔣西然,蔣韜,孫嘉瑤,宋江典,姜文研,艾華,龍哲,蘇娟,常世杰,于韜
1.中國醫(yī)科大學(xué) 公共基礎(chǔ)學(xué)院,遼寧 沈陽 110122;2.中國科學(xué)院大學(xué) 計算機科學(xué)與技術(shù)學(xué)院,北京 100049;3.中國醫(yī)科大學(xué) 醫(yī)學(xué)信息學(xué)院,遼寧 沈陽 110122;4.遼寧省腫瘤醫(yī)院 中國醫(yī)科大學(xué)腫瘤醫(yī)院 醫(yī)學(xué)影像科,遼寧 沈陽 110042
臨床醫(yī)學(xué)影像通過反映人體組織器官的形態(tài)及功能,在臨床疾病的診斷和預(yù)后中發(fā)揮著重要作用。當前對醫(yī)學(xué)影像數(shù)據(jù)的分析多依賴于醫(yī)生肉眼觀察閱片,醫(yī)生本身的經(jīng)驗和主觀因素差異會影響診斷的準確性,而臨床影像數(shù)據(jù)量的急劇增長也極大地增加了醫(yī)生的工作量。近年來,醫(yī)學(xué)影像數(shù)字化和人工智能輔助診斷的快速發(fā)展對醫(yī)療影像分析帶來了巨大變革,利用深度學(xué)習(xí)技術(shù)模擬人腦自動學(xué)習(xí)數(shù)據(jù)各層次抽象特征來分析醫(yī)學(xué)影像并給出輔助診斷結(jié)論已成為現(xiàn)代臨床影像分析工作中的重要發(fā)展趨勢,合理使用人工智能技術(shù)將有效提高臨床診斷的效率和準確性。
1998年Lecun等[1]首次提出了神經(jīng)網(wǎng)絡(luò)雛形LeNet,利用反向傳播算法訓(xùn)練多層神經(jīng)網(wǎng)絡(luò)為深度學(xué)習(xí)奠定了基礎(chǔ)。在此之后涌現(xiàn)出更多優(yōu)秀的深度學(xué)習(xí)算法,如2012年ImageNet圖像分類競賽冠軍AlexNet[2],2014年ILSVRC定位任務(wù)第一名和分類任務(wù)第二名的VGGNet[3],ImageNet競賽冠軍GoogLeNet[4]等,這些算法在醫(yī)學(xué)影像分類、定位、分割和重建方面均取得了較好的效果。新一代非監(jiān)督深度學(xué)習(xí)網(wǎng)絡(luò)如PixelRNN/卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)、變分自編碼器、生成式對抗網(wǎng)絡(luò)和多層降噪自動編碼機(Stacked Denoising Auto Encoder,SDAE)等無需使用帶標簽的數(shù)據(jù)訓(xùn)練,能解決影像訓(xùn)練樣本不足的問題,并節(jié)省了人工標記影像感興趣區(qū)域(Region of Interest,ROI)的步驟[5]。近年發(fā)展較快的深度強化學(xué)習(xí)[6]具有自動學(xué)習(xí)的功能,能夠根據(jù)反饋不斷調(diào)整自己的輸出以達到最優(yōu)結(jié)果。其他深度學(xué)習(xí)網(wǎng)絡(luò)模型如循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)[7]、全卷積神經(jīng)網(wǎng)絡(luò)[8]和U-net[9]等也都在具有不同特點的醫(yī)學(xué)影像分析問題中取得了較好的效果。由于醫(yī)學(xué)影像存在著對比度低、可變性大和結(jié)構(gòu)復(fù)雜等特點,目前尚無一種通用的方法來解決不同成像方式和不同疾病的輔助診斷,本文按照不同成像方式對現(xiàn)有的深度學(xué)習(xí)方法應(yīng)用進行了梳理,列舉了近年來深度學(xué)習(xí)方法在不同醫(yī)學(xué)場景的應(yīng)用??偨Y(jié)表明,將傳統(tǒng)的深度學(xué)習(xí)方法與實際圖像特點相結(jié)合的改進方法能夠有效適應(yīng)醫(yī)學(xué)圖像的特征,將是醫(yī)學(xué)輔助診斷發(fā)展的重要趨勢。
MRI可獲得反映不同人體組織器官特性的影像數(shù)據(jù),是臨床影像檢查中的常用方法。由于不同序列MRI影像中信息量較大,一些組織器官的信號相近,臨床上依賴有一定工作經(jīng)驗的影像科醫(yī)生進行閱片解讀。近年來,隨著深度學(xué)習(xí)人工智能的快速發(fā)展,針對MRI影像的計算機輔助分析技術(shù)能夠快速準確地批量處理大量影像數(shù)據(jù),在對不同疾病進行準確診斷、精準分割、分類和預(yù)后等方面顯示出巨大的應(yīng)用潛力,得到醫(yī)學(xué)影像工作者的高度關(guān)注[10-12]。當前用于MRI影像分析的深度學(xué)習(xí)方法主要有三類:基于小塊圖像組的Patch-Wise CNN模型,基于語義的Semantic-Wise CNN模型和基于級聯(lián)網(wǎng)絡(luò)的Cascade CNN模型[13]。
基于小塊圖像組的Patch-Wise CNN模型結(jié)構(gòu)具有收斂速度快的特點,在醫(yī)學(xué)圖像診斷和分割領(lǐng)域中已有廣泛應(yīng)用[14],Ghafoorian等[15]使用Patch-Wise CNN嘗試分割白質(zhì)高信號區(qū)域,網(wǎng)絡(luò)獲得的分割結(jié)果與醫(yī)生手工分割圖像沒有統(tǒng)計學(xué)差異。Moeskops等[16]采用了不同尺寸的2D圖像組作為輸入,并使用了不同大小的卷積核,獲得分割圖像Dice相似系數(shù)(Dice Similarity Coefficent,DSC)值范圍為0.82~0.91,并表明小尺寸圖像組訓(xùn)練的網(wǎng)絡(luò)可以對微小組織結(jié)構(gòu)進行精細分析。Mehta等[17]提出的BrainSegNet框架則將2D和3D圖像分別輸入后,再經(jīng)過不同的小卷積核進行卷積處理,獲得了優(yōu)于單一圖像輸入的分割效果。Kamnitsas等[18]設(shè)計了含有雙通路的3D卷積網(wǎng)絡(luò)DeepMedic模型,使用條件隨機場(Conditional Random Fields,CRF)作為后處理,在 TBI、BRATS 2015和ISLES-SISS 2015數(shù)據(jù)庫中測試的DSC值分別達到了63.0、89.8和66.0。Liu等[19]進一步對DeepMedic模型進行改進,并用于腦轉(zhuǎn)移瘤MRI影像的分割,將DSC值分別提高到75.0、81.0和67.0。這些研究均表明Patch-Wise CNN框架在MRI影像的分割中具有重要的研究價值和應(yīng)用潛力。與Patch-Wise CNN模型只能將固定尺寸的影像輸入網(wǎng)絡(luò)不同,基于語義的Semantic-Wise CNN模型先通過卷積獲得圖像的高層次特征,再通過去卷積輸出分割圖像[13],從而能夠?qū)⑷我獯笮〉挠跋褡鳛檩斎?,且具有更少的網(wǎng)絡(luò)參數(shù),訓(xùn)練所需的耗時更短[14]。Jonathan等[20]最早基于語義分割思想提出了端對端的全卷積網(wǎng)絡(luò)(Fully Convolutional Network,F(xiàn)CN)概念,對整幅輸入影像進行卷積處理,學(xué)習(xí)高維度抽象信息,再通過去卷積處理獲得對不同種像素的分割輸出。Brosch等[21]將FCN網(wǎng)絡(luò)框架用于多發(fā)性硬化病灶MRI影像的分割研究,雖然分割使用的數(shù)據(jù)集較小,仍獲得了68.4的DSC值。Nile等[22]進一步采用使用該網(wǎng)絡(luò)框架對人體正常組織的MRI影像進行了分割,并測試了單模態(tài)和多模態(tài)輸入對網(wǎng)絡(luò)的影響,表明模型泵從多模態(tài)輸入中獲取更豐富的高維度信息?;诩壜?lián)網(wǎng)絡(luò)的Cascade CNN模型是將一個CNN的輸出作為另一個CNN的輸入,第一個CNN用來勾畫組織器官的大體區(qū)域,第二個CNN則用來進行精細分割,判斷每個像素是否屬于該組織器官[14],這可以使得整個網(wǎng)絡(luò)更加高效,且所需影像的訓(xùn)練樣本較少[23]。該網(wǎng)絡(luò)的主要特點是在第二輪計算中只針對篩選出的感興趣區(qū)進行分析,可以顯著減少冗余計算,不僅能區(qū)分正常組織和病變區(qū)域,而且在病變區(qū)域內(nèi)部還可以進一步實現(xiàn)細分類[24-26]。Valverde等[26]利用Cascade CNN網(wǎng)絡(luò)對多發(fā)性硬化癥MRI影像進行了分割,結(jié)果表明Cascade CNN網(wǎng)絡(luò)可以在保持假陽性率較低的基礎(chǔ)上大幅提高分割精確度。Havaei等[24]基于級聯(lián)網(wǎng)絡(luò)思路設(shè)計構(gòu)建了三種含有不同卷積層結(jié)構(gòu)的Cascade CNN網(wǎng)絡(luò)(LocalCascadeCNN、FCascadeCNN 和 InputCascadeCNN),并針對腦部水腫區(qū)、壞死區(qū)和增強/非增強區(qū)MRI影像進行了分割測試,表明LocalCascadeCNN在檢測整個腫瘤區(qū)域時的假陽性率最低,MFCascadeCNN輸出的腫瘤邊界最平滑,而InputCascadeCNN的分割耗時最短。Cui等[25]也使用CascadeCNN對腦膠質(zhì)瘤MRI影像進行了分割,他們采用FCN網(wǎng)絡(luò)結(jié)合遷移學(xué)習(xí)的方法先挑選出影像中的腫瘤區(qū)域,再使用深層CNN網(wǎng)絡(luò)結(jié)合小卷積核進一步對腫瘤影像進行精確分割,該方法在BRATS 2015公開MRI影像數(shù)據(jù)集上的DSC值可達0.89,計算耗時僅需1.54 s。表1為近年提出的一些有代表性的用于腦部MRI影像分割的重要深度學(xué)習(xí)模型。
表1 用于腦部MRI影像分割的深度學(xué)習(xí)網(wǎng)絡(luò)模型
針對CT影像的計算機輔助分析技術(shù)的研究時間最長,且技術(shù)發(fā)展較為成熟。已有大量研究表明,利用深度學(xué)習(xí)對多層CT影像進行篩選和分類的輔助診斷技術(shù)能為臨床醫(yī)生提供有價值的參考意見[31-32]。對CT影像進行適當?shù)念A(yù)處理可以有效提高深度學(xué)習(xí)模型對肺結(jié)節(jié)的分類能力,Ciompi等[33]通過將肺部CT影像垂直的橫切面、矢狀面和冠狀面進行旋轉(zhuǎn)擴充,獲得不同切面的結(jié)節(jié)圖像,從而解決了臨床訓(xùn)練數(shù)據(jù)不足的問題。Shen等[34]則模擬醫(yī)生閱片時的遠觀和近看過程,對同一結(jié)節(jié)圖像進行了縮放處理后再進入深度學(xué)習(xí)網(wǎng)絡(luò),模型的分類效果獲得了顯著提高。Tu等[35]深入對比了針對結(jié)節(jié)影像采樣的SINGLE策略和ALL策略(SINGLE策略在一個結(jié)節(jié)的橫切面、矢狀面和冠狀面影像中,僅抽取位于中央的圖像用于訓(xùn)練和測試,而ALL策略則取出三個互相垂直的切面中的全部圖像用于訓(xùn)練和測試),指出采用ALL策略的模型獲得預(yù)測準確率比SINGLE策略有大幅提高。此外,近年的研究發(fā)現(xiàn),使用自然圖像對神經(jīng)網(wǎng)絡(luò)進行預(yù)先訓(xùn)練后,再利用肺CT影像對模型二次訓(xùn)練,可以顯著提高結(jié)節(jié)的分類效果。Ciompi等[36]使用ImageNet數(shù)據(jù)庫預(yù)先訓(xùn)練好的網(wǎng)絡(luò),并通過微調(diào)使其更加適用于肺結(jié)節(jié)的分類任務(wù)。Hoo-Chang等[37]也利用ImageNet對AlexNet和GoogLeNet分別進行訓(xùn)練和微調(diào),分類效果也得到了明顯提升。Erhan等[38]則進一步采用無監(jiān)督預(yù)訓(xùn)練聯(lián)合監(jiān)督式微調(diào)進行訓(xùn)練,提高了對肺結(jié)節(jié)的分類能力。
多種網(wǎng)絡(luò)模型融合策略也常用于肺部CT影像中結(jié)節(jié)分類鑒定。Zhao等[39]將LeNet和AlexNet進行融合后,分類準確率為82.25%,AUC值達到87.70%。Shen等[40]提出含有特殊池化層結(jié)構(gòu)的Multi-Crop CNN模型,能將卷積層輸出的中心特征提取出來,再將多個Multi-Crop提取的特征進行集合后再繼續(xù)卷積操作,該模型的分類準確度為87.14%,AUC值高達0.93。Kang等[41]進一步建立了考慮CT片層空間關(guān)系的3D inception和3D Inception-ResNet模型,分類錯誤率4.59%,敏感度95.68%,特異性94.51%。Cheng等[42]則嘗試非監(jiān)督學(xué)習(xí)的方法,即采用SDAE模型和ALL策略,獲得分類準確率為94.4%,敏感度90.8%,特異性98.1%。Ali等[43]在現(xiàn)有CNN網(wǎng)絡(luò)模型的基礎(chǔ)上,進一步提出了強化學(xué)習(xí)(Reinforcement Learning,RL)模型,并在LIDC-IDRI數(shù)據(jù)集上進行了測試,結(jié)果表明RL模型在訓(xùn)練集中能得到很高的準確率和敏感度,但在測試集上卻較低,這可能是由于RL模型對數(shù)據(jù)量的需求較大,對于大于3 mm的結(jié)節(jié),單個放射科醫(yī)師的錯誤發(fā)現(xiàn)率為65.2%,而RL模型的為44.7%,體現(xiàn)了強化學(xué)習(xí)策略在CT影像分析中的優(yōu)勢。
在術(shù)前定位及放療定位中,病灶輪廓勾畫的不精確會對放療計劃的劑量學(xué)特性產(chǎn)生巨大影響及對正常組織造成毒性損傷,因此基于CT影像的器官輪廓精準分割有著重要的臨床價值,而現(xiàn)有分割方法多采用手動分割,存在人為誤差。近年來,深度學(xué)習(xí)技術(shù)在CT影像分割領(lǐng)域取得了一系列重要研究進展。Swierczynski等[44]將肺部圖像配準和分割結(jié)合在一起,取得了良好的肺分割準確率。Feng等[45]提出的基于CNN的弱監(jiān)督肺結(jié)節(jié)分割網(wǎng)絡(luò),僅需要圖像級別的標簽就能夠完成對結(jié)節(jié)的自動分割分割,真陽性率可達0.77。Lustberg等[46]則對比了基于圖譜區(qū)域劃分技術(shù)(Mirada RTx 1.6和Work flow Box 1.4)與深度學(xué)習(xí)區(qū)域劃分技術(shù)(Mirada DLC Expert),發(fā)現(xiàn)用這兩種勾畫區(qū)域技術(shù)均比手工方式耗時更短,但訓(xùn)練集由于醫(yī)生對輪廓勾畫存在人為誤差以及勾畫方式不同(包含或排除心臟的血管),而深度學(xué)習(xí)網(wǎng)絡(luò)試圖將這些差異結(jié)合起來,因此會導(dǎo)致最終結(jié)果不準確。在腹部CT影像分割領(lǐng)域,由于腹部器官較多且CT值相近,因此精準分割各器官輪廓是非常困難的。Fu等[47]首先在FCN的基礎(chǔ)上采用多層級上采樣結(jié)構(gòu)對胰腺進行了自動分割,該算法用上采樣up-sampling將各階段通過卷積得到的特征恢復(fù)成原圖大小,保證了分割邊界的清晰,DSC值達到76.36%。Roth等[48]則進一步使用神經(jīng)網(wǎng)絡(luò)(Holistically-Nested convolutional Network,HNN)將胰腺所在區(qū)域標注出來,再使用另外一個HNN勾畫胰腺輪廓,DSC可以提高到81.27%。他們進一步提出的3D U-net神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),采用了兩個階段從粗到精的方法,先用3D-FCN篩選出粗略的感興趣區(qū),再輸入第二個3D-FCN進行具體分析,有利于對精細區(qū)域的分割,DSC范圍達0.69~0.82,為當前最佳水平[49]。Gibson等[50]提出了另外一種神經(jīng)網(wǎng)絡(luò)構(gòu)架—NiftyNet,該網(wǎng)絡(luò)對腹腔臟器分割的DSC為0.62~0.94,其中對肝臟的分割DCS達0.94。在對病變組織的劃分問題上,Drozdzal等[51]利用FCN和FC-ResNets的整合網(wǎng)絡(luò)進行肝臟病灶劃分,先將數(shù)據(jù)輸入低容量FCN,將該FCN用作圖像歸一化,再輸入FCResNet進行分割。對肝臟病灶分割的DSC達到0.711。盆腔器官的分割復(fù)雜度與腹腔器官類似,Cha等[52]提出了DL-CNN網(wǎng)絡(luò)構(gòu)架對膀胱癌的腫瘤部分進行分割,獲得了較高的分割準確率。Xu等[53]則利用雙通道預(yù)處理的方法處理盆腔CT影像,然后利用CNN粗略處理選出膀胱所在范圍,再使用3D CRF-RNN精確勾畫膀胱輪廓,DSC達到了92.24%,高于常規(guī)V-net方法。表2列舉了近年發(fā)表的有代表性的用于人體組織器官CT影像分割研究的深度學(xué)習(xí)模型。
表2 深度學(xué)習(xí)在人體組織和器官CT影像分割中的應(yīng)用
超聲檢查在臨床工作中具有操作簡單和價格低廉的優(yōu)勢,超聲科醫(yī)生可根據(jù)超聲圖像的形態(tài)及回聲特點來判斷組織器官的疾病狀態(tài)。Wang等[61]基于離散小波變換特征對不同模態(tài)下的超聲圖進行歸類,對甲狀腺結(jié)節(jié)惡性風(fēng)險進行評分,取得了98.9%~100%的準確性,這種方法提取的“計算機決定的特征”不同于臨床微鈣化灶等人工經(jīng)驗,為深度學(xué)習(xí)應(yīng)用開辟了先河,結(jié)合預(yù)處理和參數(shù)微調(diào)之后,深度學(xué)習(xí)技術(shù)識別甲狀腺腫瘤良惡性的準確率、靈敏度和特異性可達到96.34%、82.8%、99.3%[62]。深度學(xué)習(xí)還應(yīng)用于識別新生兒的心臟疾病分類,Armato等[63]在心臟超聲圖像上直接訓(xùn)練了CNN模型,從五種不同的幼兒中區(qū)分先天性心臟病,在有限的訓(xùn)練數(shù)據(jù)下取得了優(yōu)異的表現(xiàn)。為了進一步提高分類效果,有學(xué)者嘗試了對超聲影像在Caffe框架下進行預(yù)處理,之后對一個預(yù)先訓(xùn)練的深度學(xué)習(xí)網(wǎng)絡(luò)GoogLeNet模型進行微調(diào),最后使用有監(jiān)督機器學(xué)習(xí)分類器Cost-Sensitive Random Forest 進行二分類,該方法尤其適用于對甲狀腺結(jié)節(jié)超聲影像的分析[7]。Ciompi等[36]對深度學(xué)習(xí)網(wǎng)絡(luò)在肝臟超聲影像的特征分層中的應(yīng)用進行了優(yōu)化,提出一個有22層的神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)網(wǎng)絡(luò)Symtosis,通過設(shè)置Dropout參數(shù)值抑制一定比例神經(jīng)元活性,生成的不同模型平均,去除肝臟原始圖像的背景,得到了100%的平均準確率。在超聲檢測方面,Azizi等[64-66]結(jié)合時間增強型超聲的前列腺影像,提取出高維深度學(xué)習(xí)特征,成功完成前列腺癌的檢測和分級。在闌尾炎超聲診斷方面,深度學(xué)習(xí)能通過協(xié)助定位為急性闌尾炎患者的精確診斷提供依據(jù),如無監(jiān)督深度學(xué)習(xí)模型Fuzzy Art可使得闌尾炎診斷區(qū)域的準確性提高至95%,達到與CT診斷能力相當?shù)乃絒67]。在胎兒超聲診斷中,標準平面的獲取是先決條件,除了使用傳統(tǒng)的機器學(xué)習(xí)方法檢測胎兒US標準平面外,最近使用深度學(xué)習(xí)算法檢測胎兒超聲標準平面的趨勢越來越明顯。Baumgartner等[68-69]和Chen等[70-71]通過模型,分別完成了二維超聲圖像中13個胎兒標準面(如腎臟、大腦、腹部、脊柱、股骨和心臟平面)和胎兒腹部(或面部和四腔)標準面的檢測。在分割方面,Norman等[9]針對乳腺超聲病變檢測問題比較了LeNet、U-Net和FCNAlex Net網(wǎng)絡(luò)模型,其中基于patch的LeNet和轉(zhuǎn)移學(xué)習(xí)FCN-AlexNet分別在不同的數(shù)據(jù)集上取得了最好結(jié)果,顯著優(yōu)于傳統(tǒng)U-Net方法。Huang等[31]進一步對U-Net加以改進,提出multiple U-net算法,添加了手動分割掩模,通過實時掃描,同時從不同的角度、方向和不同的預(yù)壓縮水平,對乳腺超聲影像中的可疑腫塊進行分割,并將同一腫塊的不同截面信息圖像分別作為獨立情況處理,增加了神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的信息量。超聲彈性成像也是臨床上常用的超聲成像方式,有研究者嘗試將深度學(xué)習(xí)方法應(yīng)用于二維剪切波彈性成像(Shear-Wave Elastography,SWE)數(shù)據(jù)分析,相比于統(tǒng)計學(xué)特征,深度學(xué)習(xí)方法將準確率、靈敏度和特異性分別提高至93.4%、88.6%和97.1%,AUC可達94.7%。此外,通常認為SWE圖像中的顏色缺失區(qū)域(“黑洞”區(qū)域)的剪切波速或彈性模量的計算是不確定的,而深度學(xué)習(xí)模型可以捕獲腫瘤中存在的“黑洞”的信息并用于區(qū)分腫瘤的良惡性[33]。
X線檢查是重要的臨床早期篩查方法,對于人體密度相差大的部位(如胸部和骨骼等)成像效果好,但由于X線影像中含有多種人體組織器官的重疊,醫(yī)生難以對各組織器官的具體位置進行精準判斷[72]。近年來,深度學(xué)習(xí)在X線早期篩查領(lǐng)域得到了快速發(fā)展,Kooi等[73]一種基于X線診斷乳腺癌良性孤立性囊腫和惡性腫塊的深度學(xué)習(xí)模型,通過采用組織增強的方法來對重疊組織進行分類,準確率達到80%。Qiu等[74]進一步將風(fēng)險預(yù)測模型應(yīng)用到乳腺癌早期預(yù)測,準確率達到71.4%。Li等[75]利用遷移學(xué)習(xí)區(qū)分乳腺癌高風(fēng)險和低風(fēng)險人群,發(fā)現(xiàn)該模型較傳統(tǒng)紋理分析能更好的提取不同人群的特征,取得更好的預(yù)測效果。為了提高對X線影像信息的利用能力,當前應(yīng)用較多的CAD4TB軟件可以針對胸部X線影像中的病灶區(qū)域進行形狀和紋理評分并輔助預(yù)測肺結(jié)核[76],在不同的CXRs(Chest X-rays)數(shù)據(jù)集上的AUC值可達到0.71~0.84[76-80]。近年有學(xué)者對CAD4TB進行改進,構(gòu)建對X線影像更加敏感的深度學(xué)習(xí)模型,如Hwang等[81]使用自我學(xué)習(xí)(Self-transfer Learning,STL)方法,同時訓(xùn)練分類和定位網(wǎng)絡(luò),可以在沒有任何預(yù)先訓(xùn)練模型的情況下,僅采用圖像層面的標記數(shù)據(jù)集給出準確的ROI的精確定位,使用STL在三個不同的CXRs公開數(shù)據(jù)集上進行結(jié)核病分類的AUC值分別達到為0.96、0.93和0.88,相比CAD4TB有了顯著提升[82]。此外,為了解決臨床影像數(shù)據(jù)量不足的問題,Bar等[83]率先在胸部X線影像診斷中引入遷移學(xué)習(xí)方法,他們抽取了經(jīng)Imagenet公開數(shù)據(jù)集預(yù)先訓(xùn)練的CNN網(wǎng)絡(luò)的第5~7層并分別放入新的網(wǎng)絡(luò)中進行訓(xùn)練,再與圖像編碼融合,用于檢測胸腔積液的AUC值可達0.93。Lakhani等[84]則在Caffe深度學(xué)習(xí)框架下使用AlexNet和GoogLeNet網(wǎng)絡(luò)模型對X線影像進行檢測,使用兩個網(wǎng)絡(luò)進行集成融合的網(wǎng)絡(luò)獲得預(yù)測AUC值可提高至0.99,表明深度學(xué)習(xí)在X線影像分析中具有較大應(yīng)用潛力。
經(jīng)過近幾年的快速發(fā)展,深度學(xué)習(xí)技術(shù)在臨床醫(yī)學(xué)影像輔助分析中得到了越來越多的重視,基于深度學(xué)習(xí)建立的計算機輔助分析方法已經(jīng)涵蓋了幾乎全部的醫(yī)學(xué)影像種類,涉及的疾病類別十分廣泛,已經(jīng)能夠在臨床影像的分類、分割、配準和重建等方面提供高效可靠的解決方案[85-86]。
然而,當前深度學(xué)習(xí)技術(shù)的應(yīng)用也存在一些問題,如對影像數(shù)據(jù)的訓(xùn)練過程中,需要醫(yī)生在影像上對病灶區(qū)域進行人工標注,較為耗時耗力,限制了深度學(xué)習(xí)技術(shù)的大規(guī)模應(yīng)用。針對這一問題,可通過引入非監(jiān)督式或弱監(jiān)督學(xué)習(xí)方法,能減少復(fù)雜的標記分割工作,同時不會帶來主觀因素造成的誤差,能夠很好地提高識別效率和識別結(jié)果的準確性,因此非監(jiān)督式和弱監(jiān)督學(xué)習(xí)方法將成為醫(yī)學(xué)圖像分析的重要趨勢。此外,由于醫(yī)學(xué)影像對比度較低,正常組織與異常組織邊界模糊,還存在較多的如神經(jīng)、血管等微細結(jié)構(gòu),經(jīng)典的深度學(xué)習(xí)方法對這些細微結(jié)構(gòu)的適用性還有待提高,研究者應(yīng)結(jié)合不同醫(yī)學(xué)影像自身特點建立有針對性的深度學(xué)習(xí)模型,這是未來人工智能醫(yī)學(xué)影像分析的一個重要發(fā)展方向。
總之,深度學(xué)習(xí)技術(shù)在醫(yī)學(xué)影像分析領(lǐng)域已經(jīng)體現(xiàn)出較大的發(fā)展?jié)摿蛷V闊的應(yīng)用前景,隨著神經(jīng)網(wǎng)絡(luò)模型的日益完善,網(wǎng)絡(luò)對疾病的識別速度、準確度、特異度和靈敏度均有望進一步大幅提高,伴隨當前醫(yī)療信息大數(shù)據(jù)發(fā)展趨勢,深度學(xué)習(xí)技術(shù)必將輔助醫(yī)生提升臨床分析能力,助力我國醫(yī)療水平發(fā)展,引領(lǐng)醫(yī)學(xué)影像學(xué)進入一個新階段。