李曉峰 劉剛 衛(wèi)晉 王妍瑋
摘 ? 要:針對傳統(tǒng)醫(yī)療圖像誤差預(yù)測算法無法很好的選擇圖像特征,存在圖像誤差預(yù)測值與實(shí)際值擬合度低、預(yù)測耗時(shí)長等問題,提出基于卷積神經(jīng)網(wǎng)絡(luò)與特征選擇的醫(yī)療圖像誤差預(yù)測算法. 首先,選取5種集成規(guī)則構(gòu)建自適應(yīng)多分類器,對醫(yī)療圖像區(qū)域進(jìn)行分類;其次,訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò),利用訓(xùn)練完成的神經(jīng)網(wǎng)絡(luò)提取不同類別醫(yī)療圖像區(qū)域特征,以此為基礎(chǔ)計(jì)算區(qū)域距離,尋找出相似度最小的區(qū)域,完成圖像可疑區(qū)域定位;再次,融合多評價(jià)標(biāo)準(zhǔn)生成特征子集,從中搜索得到最優(yōu)特征子集,完成可疑區(qū)域圖像特征選擇;最后,以選擇得到的特征區(qū)域像素點(diǎn)作為訓(xùn)練樣本,建立預(yù)測樣本與訓(xùn)練樣本之間的多元線性回歸矩陣,實(shí)現(xiàn)誤差預(yù)測. 實(shí)驗(yàn)結(jié)果表明,所提算法的集成規(guī)則適應(yīng)度較高,分類性能好,區(qū)域距離計(jì)算準(zhǔn)確率高達(dá)95%左右,特征選擇的AUC值(Area Under Curve)高,且預(yù)測結(jié)果擬合度和預(yù)測耗時(shí)均優(yōu)于傳統(tǒng)算法.
關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);集成規(guī)則;多評價(jià)標(biāo)準(zhǔn);特征選擇;多元線性回歸矩陣;預(yù)測
中圖分類號:TP391 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?文獻(xiàn)標(biāo)志碼:A
Error Prediction Algorithm of Medical Image Based
on Convolution Neural Network and Feature Selection
LI Xiaofeng1,LIU Gang2,WEI Jin1,WANG Yanwei3
(1. School of Computer Science and Technology,Beijing Institute of Technology,Beijing 100081,China;
2. College of Computer Science and Technology,Harbin Engineering University,Harbin 150001,China;
3. Department of Mechanical Engineering,Purdue University,West lafayette,Indianan IN47906,US)
Abstract:In order to address the problem that traditional medical image error prediction algorithm can not select image features well,there are some problems such as low fitting degree of image error prediction value,low actual value and long prediction time,a medical image error prediction algorithm based on convolution neural network and feature selection was proposed. Firstly,five integrated rules were selected to construct adaptive multi-classifiers to classify medical image regions. Secondly,the training convolution neural network was used to extract different types of medical image area features by using the training neural network. Then,multiple evaluation criteria were combined to generate special features. The optimal feature subset was searched to complete the feature selection of suspicious region image. Finally,the multiple linear regression matrix between the prediction sample and the training sample was established to realize the error prediction by taking the pixel points of the feature region as the training sample. The experimental results show that the proposed algorithm has high fitness of integration rules and good classification performance,the accuracy of region distance calculation is about 95%,the AUC value of feature selection is high,and the fitting degree and prediction time of the prediction results are better than those of the traditional algorithm.
Key words:convolution neural network;integration rules;multiple evaluation criteria;feature selection;multiple linear regression matrix;prediction
醫(yī)療圖像是記錄患者診斷情況的重要依據(jù),獲取高質(zhì)量的醫(yī)療圖像對于醫(yī)療診斷具有重要的意義[1-2]. 目前醫(yī)療研究領(lǐng)域中,人們能夠依據(jù)各類儀器、設(shè)備獲取海量醫(yī)療圖像信息,利用當(dāng)前醫(yī)學(xué)影像設(shè)備獲取醫(yī)療圖像時(shí),比如CT圖像,因?yàn)橥ǔF矫娅@取的圖像分辨率大于空間層面的圖像分辨率,所以CT圖像在X軸和Y軸方向上的分辨率較大,Z軸方向的分辨率較小,由此則容易產(chǎn)生誤差,若不對圖像進(jìn)行有效篩選而直接作為診斷依據(jù),將會嚴(yán)重影響疾病的診斷情況,對于醫(yī)療領(lǐng)域的發(fā)展也會產(chǎn)生一定的阻礙作用[3-4]. 對于海量的醫(yī)療圖像,如果能夠準(zhǔn)確地預(yù)測醫(yī)療圖像誤差,將誤差預(yù)測技術(shù)實(shí)時(shí)應(yīng)用于醫(yī)療診斷中,將會大大促進(jìn)醫(yī)療領(lǐng)域的進(jìn)步,幫助更多的患者精準(zhǔn)診療. 目前對于醫(yī)療圖像的誤差處理存在一定的問題,缺乏高效的誤差預(yù)測手段,因此尋找一種有效的醫(yī)學(xué)圖像誤差預(yù)測方法具有重要的理論和實(shí)際價(jià)值[5-6].
隨著近年來計(jì)算機(jī)技術(shù)的飛速發(fā)展,將深度學(xué)習(xí)應(yīng)用于醫(yī)療圖像處理中,已成為廣受專家們關(guān)注的話題,侯夢薇等人[7]將知識圖譜與深度學(xué)習(xí)相結(jié)合,在優(yōu)質(zhì)醫(yī)療資源稀缺但醫(yī)療需求增加的背景下,全面分析醫(yī)療知識圖譜,對其中的關(guān)鍵技術(shù)進(jìn)行研究綜述,全面剖析了智能醫(yī)療現(xiàn)狀與研究方向;趙越等人[8]將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用到宮頸細(xì)胞分類中,首先初始化處理卷積神經(jīng)網(wǎng)絡(luò),分批次輸入宮頸細(xì)胞圖像,然后采用Softmax函數(shù)建立損失函數(shù),最后改進(jìn)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),通過參數(shù)優(yōu)化選擇損失函數(shù)的最小值,實(shí)現(xiàn)圖像分類;劉凱等人[9]提出基于卷積神經(jīng)網(wǎng)絡(luò)的中文醫(yī)療弱監(jiān)督關(guān)系抽取方法,該方法給予訓(xùn)練語料一定的關(guān)系標(biāo)簽,將弱關(guān)系語料轉(zhuǎn)換為向量特征矩陣,將其輸入卷積神經(jīng)網(wǎng)絡(luò)處理;Wang等人[10]通過細(xì)化圖像制作適用于特定圖像的卷積神經(jīng)網(wǎng)絡(luò)框架,構(gòu)建加權(quán)損失函數(shù),建立交互式圖像分割模型;Zhou等人[11]提出了利用眼睛跟蹤數(shù)據(jù)進(jìn)行圖像分類的方法,過程中主要利用圖像特征選擇技術(shù)實(shí)現(xiàn)分類;Nizami等人[12]在對圖像質(zhì)量分析中,同樣也應(yīng)用到了圖像特征選擇技術(shù),獲取了較好的成效.
針對卷積神經(jīng)網(wǎng)絡(luò)與醫(yī)療圖像誤差預(yù)測問題,國內(nèi)眾多學(xué)者早已做出了相關(guān)研究. 文獻(xiàn)[13]提取了多個(gè)醫(yī)療影像數(shù)據(jù)特征集,基于支持向量機(jī)建立腫瘤預(yù)測模型,成為一種有效的計(jì)算機(jī)輔助診療醫(yī)學(xué)工具,但該方法的數(shù)據(jù)分類效果差;文獻(xiàn)[14]基于拓展設(shè)計(jì)、緩存優(yōu)化等技術(shù),提出一種面向邊緣計(jì)算的卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建方法,并利用網(wǎng)絡(luò)層間可復(fù)用的加速器核心完成對網(wǎng)絡(luò)硬件的優(yōu)化,該方法構(gòu)建的神經(jīng)網(wǎng)絡(luò)可廣泛應(yīng)用于醫(yī)療等各領(lǐng)域,但該方法對數(shù)據(jù)區(qū)域距離計(jì)算的準(zhǔn)確率不高;文獻(xiàn)[15]簡單處理了原始數(shù)據(jù),將其輸入卷積神經(jīng)網(wǎng)絡(luò),充分利用了卷積神經(jīng)網(wǎng)絡(luò)的局部特征分析優(yōu)勢,獲取數(shù)據(jù)特征項(xiàng),但預(yù)測耗時(shí)長,準(zhǔn)確率不高;文獻(xiàn)[16]以卷積神經(jīng)網(wǎng)絡(luò)特征提取器為研究對象,針對圖像分類問題,將神經(jīng)網(wǎng)絡(luò)模型壓縮問題轉(zhuǎn)換為特征選取問題,實(shí)現(xiàn)對圖像的深度分析,該方法的整體性能不佳,特征選擇效果差,有待進(jìn)一步提高.
國外學(xué)者也針對相關(guān)問題提出了許多觀點(diǎn),文獻(xiàn)[17]針對圖像處理問題,提出一種深度卷積神經(jīng)網(wǎng)絡(luò)方法,在訓(xùn)練階段,利用梯度剪裁方法加快網(wǎng)絡(luò)收斂速度,獲取了較好的圖像處理效果,但該方法對數(shù)據(jù)處理效果不佳,導(dǎo)致預(yù)測耗時(shí)長、準(zhǔn)確率低;文獻(xiàn)[18]將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于心臟CT血管造影中,該方法使用監(jiān)督學(xué)習(xí)直接識別和量化圖像,降低了圖像處理復(fù)雜度,但利用該方法得到的預(yù)測值與實(shí)際值偏差較大,且計(jì)算時(shí)間長;文獻(xiàn)[19]在醫(yī)療影像分析中,提出深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)和水平集相結(jié)合方法,利用16萬個(gè)感興趣區(qū)域和圖像,訓(xùn)練深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò),以此來區(qū)分膀胱內(nèi)外,取得了一定的成果,然而該方法的數(shù)據(jù)分類效果差,獲取結(jié)果與實(shí)際值之間仍舊存在較大的偏差.
為有效解決上述方法存在的問題,本文基于卷積神經(jīng)網(wǎng)絡(luò)與特征選擇,來預(yù)測醫(yī)療圖像誤差. 特征選擇方法中,現(xiàn)有的兩種方法為過濾型方法和封裝型方法,其中過濾型方法基于數(shù)據(jù)的固有屬性實(shí)現(xiàn)數(shù)據(jù)特征分類和評價(jià),多數(shù)情況下獲取的選擇結(jié)果具有相似性. 封裝型方法則是基于分類模型實(shí)現(xiàn),從分類模型中選擇出最優(yōu)的特征子集完成特征選擇,這種方法對數(shù)據(jù)集大小的敏感性較強(qiáng),在不同數(shù)據(jù)集情況下表現(xiàn)的差異較大[20-21]. 上述兩種特征選擇方法都是基于單一標(biāo)準(zhǔn)進(jìn)行特征選擇,結(jié)果具有一定的偏差,為此,本文基于多評價(jià)標(biāo)準(zhǔn)融合構(gòu)建特征選擇方法,將不同評價(jià)標(biāo)準(zhǔn)下的特征選擇結(jié)果集成,獲取更為全面的特征選擇結(jié)果. 在上述現(xiàn)有研究內(nèi)容的基礎(chǔ)上,本文將卷積神經(jīng)網(wǎng)絡(luò)和特征選擇相結(jié)合,預(yù)測醫(yī)療圖像誤差,以期獲取更高質(zhì)量的醫(yī)療圖像. 本文的主要研究工作:1) 對醫(yī)療圖像區(qū)域分類,為圖像誤差的準(zhǔn)確預(yù)測提供了基礎(chǔ);2) 基于多評價(jià)標(biāo)準(zhǔn)進(jìn)行醫(yī)療圖像特征選擇,有效地改善了卷積神經(jīng)網(wǎng)絡(luò)特征提取結(jié)果不明確的問題;3) 利用多元線性回歸方法完成圖像誤差預(yù)測;4) 設(shè)立集成規(guī)則適應(yīng)度、區(qū)域距離計(jì)算準(zhǔn)確率、特征選擇的AUC值、預(yù)測值與實(shí)際值擬合度、不同數(shù)據(jù)樣本下預(yù)測耗時(shí)等多個(gè)指標(biāo),通過實(shí)驗(yàn)驗(yàn)證所提算法性能,增強(qiáng)了實(shí)驗(yàn)結(jié)果的可靠性.
1 ? 醫(yī)療圖像區(qū)域自適應(yīng)多分類器構(gòu)建
在進(jìn)行醫(yī)療圖像誤差預(yù)測前,本文首先對醫(yī)療圖像區(qū)域分類,將圖像細(xì)化為不同的區(qū)域,尋找出可疑區(qū)域,完成誤差預(yù)測.
選取了5個(gè)經(jīng)典的基分類器,分別為K最近鄰分類器、數(shù)據(jù)引力分類器、徑向基神經(jīng)網(wǎng)絡(luò)分類器、決策樹分類器和支持向量機(jī)分類器[22]. 對每一個(gè)分類器訓(xùn)練后,都可能產(chǎn)生不一樣的分類結(jié)果,因此,為提高對醫(yī)療圖像區(qū)域的分類精度,本文構(gòu)建了自適應(yīng)多分類器,將不同分類器獲取的分類結(jié)果綜合起來,得出一個(gè)最終的分類結(jié)果. 多分類器訓(xùn)練理論推導(dǎo)過程如下:
初始化多分類器,從原始圖像中獲取圖像區(qū)域,對該圖像區(qū)域進(jìn)行預(yù)處理. 通常醫(yī)療圖像中容易存在異常數(shù)據(jù)點(diǎn)和孤立數(shù)據(jù)點(diǎn),降低圖像質(zhì)量,本文采用距離法檢測圖像區(qū)域的異常數(shù)據(jù)點(diǎn)和孤立數(shù)據(jù)點(diǎn),若存在,則保持?jǐn)?shù)據(jù)庫連接并關(guān)閉圖像文件,剔除異常和孤立數(shù)據(jù)點(diǎn),若不存在,則不關(guān)閉輸出文件,繼續(xù)下一步,直至獲取多個(gè)分類器輸出結(jié)果.
然后尋找一種有效的集成規(guī)則,依據(jù)集成規(guī)則合并分類結(jié)果. 目前存在的多種集成規(guī)則僅能表現(xiàn)多個(gè)分類器輸出結(jié)果,并未將單個(gè)分類器的分類性能考慮進(jìn)去,因此本文對每種分類器給予一定的分類權(quán)重,設(shè)計(jì)一種更為全面的集成規(guī)則. 假設(shè)醫(yī)療圖像數(shù)據(jù)集為Di={d1,d2,d3,…,di},包含m個(gè)類別,則類標(biāo)簽可表示為C={c1,c2,c3,…,cm}. 假設(shè)本文選取的基分類器中,第i個(gè)分類器的權(quán)重為Careai,其分類結(jié)果為Cj的概率為Pij,依據(jù)集成規(guī)則處理后,將第i個(gè)分類器最終獲取的概率結(jié)果分配給Cj. 本文使用的5種集成規(guī)則可表示為:
式中:e表示自然對數(shù)底數(shù),Z表示圖像分類屬性特征值, Gain(Z)表示屬性特征值Z的增益數(shù)值.
依據(jù)上述5種集成規(guī)則對不同分類器結(jié)果進(jìn)行處理,則可獲取綜合分類結(jié)果,完成醫(yī)療圖像區(qū)域自適應(yīng)多分類器構(gòu)建,為醫(yī)療圖像區(qū)域選擇最優(yōu)集成方法,從而更好的實(shí)現(xiàn)分類.
上述多分類器訓(xùn)練流程如圖1所示.
2 ? 醫(yī)療圖像誤差預(yù)測算法
2.1 ? 基于卷積神經(jīng)網(wǎng)絡(luò)的圖像可疑區(qū)域定位
2.1.1 ? 卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練
卷積神經(jīng)網(wǎng)絡(luò)是一種多層前饋神經(jīng)網(wǎng)絡(luò),通過局部感受與采樣對圖像進(jìn)行分類識別,因此卷積神經(jīng)網(wǎng)絡(luò)模型構(gòu)建中,直接將原始圖像數(shù)據(jù)輸入,無需考慮圖像的形狀、類型等問題,無需對圖像進(jìn)行預(yù)處理[23-24]. 卷積神經(jīng)網(wǎng)絡(luò)主要由輸入層、卷積層、激勵層、池化層和全連接層、輸出層等構(gòu)成[25]. 其中,卷積層由多個(gè)特征圖構(gòu)成,經(jīng)過上層特征與卷積核處理,可獲取下層特征;激勵層主要通過對數(shù)據(jù)的非線性處理,完成圖像和數(shù)據(jù)空間的變換;池化層主要負(fù)責(zé)對圖像進(jìn)行壓縮處理,避免卷積神經(jīng)網(wǎng)絡(luò)運(yùn)行中產(chǎn)生過量的數(shù)據(jù),從而導(dǎo)致數(shù)據(jù)過擬合;全連接層能夠進(jìn)行圖像或者數(shù)據(jù)的模式分類[26-27].
本文先對神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,利用訓(xùn)練后的網(wǎng)絡(luò)模型進(jìn)行醫(yī)療圖像特征提取. 卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練是一個(gè)反向傳播過程,利用誤差函數(shù)進(jìn)行反向傳播,對卷積神經(jīng)網(wǎng)絡(luò)參數(shù)進(jìn)行調(diào)整,直至達(dá)到最大迭代次數(shù)為止. 誤差函數(shù)計(jì)算公式為:
式中:n表示訓(xùn)練樣本數(shù)量,k表示輸出數(shù)量,wnk表示第n個(gè)訓(xùn)練樣本相對應(yīng)的第k個(gè)輸出標(biāo)簽,snk表示第 n個(gè)訓(xùn)練樣本相對應(yīng)的第k個(gè)網(wǎng)絡(luò)計(jì)算值.
利用誤差函數(shù)完成網(wǎng)絡(luò)反向傳播,自適應(yīng)調(diào)整網(wǎng)絡(luò)參數(shù),不斷迭代這一過程,直至收斂為止,完成卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練(注:卷積神經(jīng)網(wǎng)絡(luò)不同層之間的大小存在差異,因此進(jìn)行誤差傳遞時(shí),需要進(jìn)行上采樣,使前后兩層尺寸一致).
2.1.2 ? 醫(yī)療圖像區(qū)域相似度計(jì)算
本節(jié)利用訓(xùn)練后的卷積神經(jīng)網(wǎng)絡(luò)定位醫(yī)療圖像可疑區(qū)域,為減少卷積神經(jīng)網(wǎng)絡(luò)的計(jì)算量,首先進(jìn)行醫(yī)療圖像特征提取分析,再進(jìn)行醫(yī)療圖像區(qū)域距離計(jì)算,尋找出相似度最小的區(qū)域,即可完成醫(yī)療圖像可疑區(qū)域定位.
掃描尺度為A×B的目標(biāo)區(qū)域醫(yī)療圖像,選取其中大小為e×e的圖像塊U為研究對象,建立圖像塊U與實(shí)際醫(yī)療圖像的數(shù)據(jù)集,形成映射關(guān)系,利用映射函數(shù)f(U)對圖像塊進(jìn)行提取,獲取目標(biāo)研究對象在窗口范圍內(nèi)的M個(gè)特征[28-29]. 映射過程表達(dá)式為:
f(U)→MRN ? ? ? ? ? (8)
式中:RN表示實(shí)數(shù)向量.
映射得到的醫(yī)療圖像維數(shù)為:
W = χ(e + 1) × (e + 1) ? ? ? ? ? (9)
式中: χ表示維度向量.
映射得到的醫(yī)療圖像數(shù)據(jù)向量計(jì)算公式為:
y = Wf(U) × Vi(U) ? ? ? ? ? (10)
式中:Vi(U)表示第i個(gè)圖像特征.
以此類推,對醫(yī)療圖像的所有數(shù)據(jù)集進(jìn)行卷積運(yùn)算,可獲取維度為MW的批量卷積,完成圖像特征提取.
醫(yī)療圖像特征提取結(jié)束后,在卷積神經(jīng)網(wǎng)絡(luò)的全連接層進(jìn)行醫(yī)療圖像區(qū)域相似度計(jì)算,根據(jù)醫(yī)療圖像區(qū)域分類結(jié)果,隨機(jī)選定某一固定區(qū)域作為參考區(qū)域,對其他區(qū)域進(jìn)行編號,分別計(jì)算不同區(qū)域與參考區(qū)域之間的距離,參考區(qū)域定義為F,對象區(qū)域定義為Fi,區(qū)域距離可表示為:
式中:?準(zhǔn)表示權(quán)重向量.
將第2節(jié)中分類得到的每個(gè)區(qū)域依次作為對象區(qū)域,按照公式(11)計(jì)算每個(gè)區(qū)域的區(qū)域距離,可得到多個(gè)結(jié)果,從中選取出距離最大的區(qū)域作為初始區(qū)域,計(jì)算初始區(qū)域與其鄰近區(qū)域之間的距離,如果距離大于設(shè)定的閾值(本文閾值取值為3.0),則合并這些區(qū)域生成新的區(qū)域,不斷重復(fù)這一過程,最終可定位得到相似度最小的區(qū)域,將其看作可疑區(qū)域.
2.2 ? 基于多評價(jià)標(biāo)準(zhǔn)融合的可疑區(qū)域特征選擇
利用卷積神經(jīng)網(wǎng)絡(luò)提取得到的醫(yī)療圖像特征,一般會具有一定的冗余性等問題[30-31],即特征選擇不明確,易導(dǎo)致可疑區(qū)域定位結(jié)果產(chǎn)生誤差,為此,本文創(chuàng)新性地提出一種特征選擇方法,將其與卷積神經(jīng)網(wǎng)絡(luò)結(jié)合,彌補(bǔ)卷積神經(jīng)網(wǎng)絡(luò)存在的不足. 本文基于多評價(jià)標(biāo)準(zhǔn)融合方法進(jìn)行可疑區(qū)域特征選擇,具體過程如下:
首先選取卡方檢驗(yàn)標(biāo)準(zhǔn)[32]、線性回歸權(quán)重標(biāo)準(zhǔn)[33]、 AW-SVM (Absolute Weight of ?Support Vector Machine )標(biāo)準(zhǔn)[34]等3種不同的評價(jià)標(biāo)準(zhǔn),每一種評價(jià)標(biāo)準(zhǔn)對應(yīng)一個(gè)特征序列,融合各序列生成最終的特征序列. 特征序列融合過程中,假設(shè)有i個(gè)特征選擇標(biāo)準(zhǔn),I為上限,j個(gè)特征,J為上限,依據(jù)特征選擇標(biāo)準(zhǔn),采用投票方式對每一個(gè)特征進(jìn)行票數(shù)統(tǒng)計(jì)并打分[35-36],依據(jù)得分高低對特征進(jìn)行排序,得分最高的特征為J,其次為J-1,以此類推,每個(gè)特征的最終得分計(jì)算公式為:
式中:S表示每個(gè)特征的最終得分.
利用公式(12)計(jì)算得到的特征得分后,按高低順序依次排列,得到特征排名,實(shí)現(xiàn)多評價(jià)標(biāo)準(zhǔn)特征融合.
將融合計(jì)算得到的特征組合為特征子集,表示為Z,為選擇一個(gè)最佳的特征子集,需要對多個(gè)特征子集進(jìn)行集成處理,再從中進(jìn)行搜索,獲取最優(yōu)特征子集[37],具體步驟如下:
1)依據(jù)特征融合結(jié)果生成特征子集,對其進(jìn)行初始化處理,表示為Z0;
2)根據(jù)公式(12)計(jì)算原始特征子集Zj的重要程度,依次對特征子集中的元素進(jìn)行排名;
3)選取排名最差的特征,將其刪除,這時(shí)特征子集表示為Zj-1;
4)重復(fù)迭代上一步驟,直至特征子集中的元素?cái)?shù)量降為最低;
5)輸出最終選擇得到的特征.
2.3 ? 本文算法
在完成可疑區(qū)域特征選擇的基礎(chǔ)上,進(jìn)行醫(yī)療圖像誤差預(yù)測. 將選擇得到的特征區(qū)域作為目標(biāo)區(qū)域,建立預(yù)測樣本與訓(xùn)練樣本之間的多元線性回歸矩陣,實(shí)現(xiàn)醫(yī)療圖像誤差多元回歸預(yù)測. 理論推導(dǎo)過程為:
將醫(yī)療圖像可疑區(qū)域特征選擇結(jié)果作為目標(biāo)區(qū)域,隨機(jī)選取目標(biāo)區(qū)域內(nèi)的3個(gè)特征像素點(diǎn)作為預(yù)測樣本,以這3個(gè)像素為目標(biāo),依據(jù)同樣的預(yù)測樣本選取方式,獲取每個(gè)與特征像素點(diǎn)相連接的3個(gè)像素點(diǎn),共同作為訓(xùn)練樣本.
假設(shè)fa,b代表預(yù)測目標(biāo)像素,組成目標(biāo)預(yù)測樣本集合 ,Y = {y1,y2,y3,…,yn}, fa,b-1、 fa-1,b-1、 fa-1,b為與目標(biāo)像素相連接的訓(xùn)練樣本像素,組成訓(xùn)練樣本集合X;建立目標(biāo)預(yù)測樣本與訓(xùn)練樣本之間的多元線性回歸矩陣,表示為:
fa,b-1fa-1,b-1fa-1,b= ?fa,b-2 ? ?fa-1,b-2 ? ?fa-1,bfa-1,b-2 ? ?fa-2,b-2 ? fa-1,b-1fa-1,b-1 ? ?fa-2,b-1 ? ?fa-2,bλ1λ2λ3+σ1σ2σ3 (13)
式中:λi代表不同的多元線性回歸系數(shù),σi代表不同的殘差值,是回歸計(jì)算中的隨機(jī)擾動項(xiàng)的近似替代值.
其中λi的計(jì)算公式為:
λi = (XT X)-1 XT Y ? ? ?(14)
式中:T為轉(zhuǎn)置符號.
5)將fa,b-1、 fa-1,b-1、 fa-1,b作為新的目標(biāo)預(yù)測樣本,則可以獲取目標(biāo)像素的預(yù)測值f′ ?a,b:
f′ ?a,b = S(λ1 fa,b-1 + λ2 fa-1,b-1 + λ3 fa-1,b) ? ? (15)
6)比較原始目標(biāo)預(yù)測樣本與新的樣本預(yù)測值,則可獲取醫(yī)療圖像誤差預(yù)測值,計(jì)算公式如下:
E1 = round( fa,b - f′ ?a,b) ? ? ? (16)
7)由于在實(shí)際條件下,線性回歸并不能很好地?cái)M合誤差預(yù)測點(diǎn),導(dǎo)致預(yù)測結(jié)果容易出現(xiàn)一定的偏差,為此,引入局部線性加權(quán)方法進(jìn)行分析,在待預(yù)測區(qū)域附近給予每個(gè)預(yù)測點(diǎn)一定的權(quán)重,這時(shí)回歸系數(shù)構(gòu)成的向量偏導(dǎo)數(shù)為:
式中:ψ為權(quán)重矩陣.
計(jì)算過程中,使用高斯核[38]賦予每個(gè)預(yù)測點(diǎn)一定的權(quán)重,高斯核對應(yīng)的權(quán)重為:
高斯核中只有一個(gè)待確定的參數(shù)?諄,參數(shù)?諄的大小直接決定預(yù)測點(diǎn)的權(quán)重大小,由此可獲取較為準(zhǔn)確的誤差預(yù)測值. 目前常用的高斯核參數(shù)?諄確定方法為交叉驗(yàn)證法,但該方法無法應(yīng)對大規(guī)模的數(shù)據(jù)樣本計(jì)算,因此本文采用核函數(shù)性質(zhì)和幾何距離來確定參數(shù)?諄,無需求解核函數(shù),就能很好地解決大量數(shù)據(jù)樣本下的計(jì)算.
綜上所述,可完成醫(yī)療圖像誤差預(yù)測算法. 本文算法流程如圖2所示.
3 ? 實(shí)驗(yàn)結(jié)果與分析
3.1 ? 實(shí)驗(yàn)環(huán)境和數(shù)據(jù)集
本實(shí)驗(yàn)操作中,實(shí)驗(yàn)平臺為MATLAB R2015b,醫(yī)療圖像卷積神經(jīng)網(wǎng)絡(luò)特征提取中,計(jì)算框架為MatConvNet,采用IPFS-Cluster管理工具與醫(yī)院服務(wù)器相連接,進(jìn)行醫(yī)療圖像數(shù)據(jù)管理. 實(shí)驗(yàn)數(shù)據(jù)包括訓(xùn)練數(shù)據(jù)集和測試數(shù)據(jù)集,為最大程度保證有效提升特征表示能力,實(shí)驗(yàn)數(shù)據(jù)統(tǒng)一采用TCGA(The Cancer Genome Atlas)數(shù)據(jù)庫中的乳腺癌圖像數(shù)據(jù)集. 該數(shù)據(jù)庫包含36種癌癥數(shù)據(jù),每種癌癥都涉及多維的圖譜信息. 為避免不同類別醫(yī)療圖像數(shù)據(jù)對實(shí)驗(yàn)結(jié)果的干擾,本實(shí)驗(yàn)選取其中的乳腺癌圖像數(shù)據(jù)集為測試集,每一圖像特征對應(yīng)一個(gè)時(shí)間戳記錄. 測試圖像種類50種,圖像大小為512×512,特征選擇迭代次數(shù)為5 000次,訓(xùn)練數(shù)據(jù)集和測試數(shù)據(jù)集分別為1 000萬和3 000萬.
3.2 ? 評估指標(biāo)
選取以下實(shí)驗(yàn)指標(biāo),對本文算法進(jìn)行驗(yàn)證分析,具體如下:
1)乳腺癌圖像可疑區(qū)域定位效果:給出真實(shí)的乳腺癌圖像,利用不同算法進(jìn)行圖像可疑區(qū)域定位,與文獻(xiàn)[10]、文獻(xiàn)[11]、文獻(xiàn)[12]進(jìn)行對比.
2)集成規(guī)則適應(yīng)度:自適應(yīng)多分類器構(gòu)建中,選擇了5種集成規(guī)則實(shí)現(xiàn)醫(yī)療圖像區(qū)域最優(yōu)集成,對圖像區(qū)域分類性能具有直接的影響作用. 為驗(yàn)證本文醫(yī)療圖像分類結(jié)果精度,對集成規(guī)則適應(yīng)度進(jìn)行對比分析.
3)區(qū)域距離計(jì)算準(zhǔn)確率:準(zhǔn)確率這一指標(biāo)能夠清晰的反映算法的性能,以區(qū)域距離計(jì)算準(zhǔn)確率為指標(biāo),對本文算法與文獻(xiàn)[10]、文獻(xiàn)[11]、文獻(xiàn)[12]、文獻(xiàn)[13]和文獻(xiàn)[14]算法進(jìn)行比較. 以正文中公式(10)的區(qū)域距離計(jì)算結(jié)果Ji為數(shù)據(jù)依據(jù),使用J表示實(shí)際區(qū)域距離,獲取區(qū)域距離計(jì)算準(zhǔn)確率公式如下:
4)特征選擇的AUC(Area Under Curve)值:ROC曲線為一種感受性曲線,用于選取最佳的數(shù)據(jù)值,ROC曲線下與坐標(biāo)軸圍成的面積稱為AUC(Area Under Curve)值[39-40]. 本組實(shí)驗(yàn)在不同算法下,計(jì)算得出AUC值,AUC值的取值范圍通常為[0.5,1],數(shù)值越大,表示特征選擇效果越好. AUC值計(jì)算公式如下:
式中:predpos表示特征選擇的正樣本數(shù)量,即選擇得到的真實(shí)特征數(shù)量,predneg表示特征選擇的負(fù)樣本數(shù)量,即選擇得到的特征為非真實(shí)特征的數(shù)量,分母positiveNum·negativeNum表示正負(fù)樣本總數(shù)量.
5)預(yù)測值與實(shí)際值擬合度:為驗(yàn)證本文預(yù)測結(jié)果的可靠性,分析本文圖像誤差預(yù)測值與實(shí)際值的擬合度. 擬合度計(jì)算公式如下:
式中:p表示常數(shù)指數(shù),取值大于0.
6)不同數(shù)據(jù)樣本下預(yù)測耗時(shí):在實(shí)際應(yīng)用中,目標(biāo)研究區(qū)域存在數(shù)據(jù)量不一情況,以預(yù)測耗時(shí)為指標(biāo),分別在大數(shù)據(jù)樣本和小數(shù)據(jù)樣本條件下,對本文算法與文獻(xiàn)[13]、文獻(xiàn)[14]、文獻(xiàn)[15]、文獻(xiàn)[16]、文獻(xiàn)[17]算法進(jìn)行比較. 此處,大數(shù)據(jù)樣本是指本實(shí)驗(yàn)選取的全部測試數(shù)據(jù)集,包含數(shù)據(jù)集3 000萬,小數(shù)據(jù)樣本則是從中隨機(jī)選取一半的數(shù)據(jù)集,數(shù)量為1 500萬.
3.3 ? 實(shí)驗(yàn)結(jié)果與討論
3.3.1 ? 乳腺癌圖像可疑區(qū)域定位效果對比
以乳腺癌圖像為研究對象,利用不同算法進(jìn)行圖像可疑區(qū)域定位,形成對比,結(jié)果如圖3所示.
(e)文獻(xiàn)[12]
根據(jù)圖3分析利用計(jì)算機(jī)模擬得出可疑區(qū)域定
位準(zhǔn)確率數(shù)值,用表1表示.
根據(jù)圖3和表1可以明顯看出,本文算法獲取的圖像可疑區(qū)域定位結(jié)果與原始圖像基本一致,文獻(xiàn)[10]、文獻(xiàn)[11]、文獻(xiàn)[12]算法雖然定位得到了可疑區(qū)域,但定位得到的區(qū)域過多,結(jié)果不夠精準(zhǔn),準(zhǔn)確率較低,且增加了后續(xù)圖像誤差預(yù)測計(jì)算復(fù)雜度. 由此可以直觀的看出,本文算法具有良好的圖像可疑區(qū)域定位效果,為圖像誤差預(yù)測奠定了良好的基礎(chǔ).
3.3.2 ? 集成規(guī)則適應(yīng)度對比
本文對醫(yī)療圖像區(qū)域分類中,集成規(guī)則是重要因素,在不同測試數(shù)據(jù)采樣方式下,對本文算法與文獻(xiàn)[10]、文獻(xiàn)[11]、文獻(xiàn)[12]、文獻(xiàn)[13]和文獻(xiàn)[14]算法的集成規(guī)則適應(yīng)度進(jìn)行對比,結(jié)果如表2所示.
分析表2可知,測試數(shù)據(jù)采樣方式的不同,對文獻(xiàn)算法均會產(chǎn)生一定的影響,將采樣方式由均勻采樣變換為非均勻采樣后,文獻(xiàn)[10]、文獻(xiàn)[11]、文獻(xiàn)[12]、文獻(xiàn)[13]和文獻(xiàn)[14]算法的集成規(guī)則適應(yīng)度均出現(xiàn)了降低,而本文算法的集成規(guī)則適應(yīng)度仍舊為92%,不受采樣方式影響,且本文算法的集成規(guī)則適應(yīng)度最高,表明本文構(gòu)建的自適應(yīng)多分類器性能較好,能夠很好地完成醫(yī)療圖像區(qū)域分類. 主要是因?yàn)楸疚倪x取了5種分類器,對每種分類器給予一定的分類權(quán)重,構(gòu)造出了一種更為全面的的集成規(guī)則,有效提高了集成規(guī)則的適應(yīng)度.
3.3.3 ? 區(qū)域距離計(jì)算準(zhǔn)確率對比
本文算法與文獻(xiàn)[10]、文獻(xiàn)[11]、文獻(xiàn)[12]、文獻(xiàn)[13]和文獻(xiàn)[14]算法的區(qū)域距離計(jì)算準(zhǔn)確率對比結(jié)果如圖4所示.
分析圖4可以看出,隨著數(shù)據(jù)量的增大,不同算法的區(qū)域距離計(jì)算準(zhǔn)確率呈現(xiàn)不同的波動趨勢,文獻(xiàn)[11]算法的區(qū)域距離計(jì)算準(zhǔn)確率始終處于下降趨勢,文獻(xiàn)[10]、文獻(xiàn)[12]、文獻(xiàn)[13]和文獻(xiàn)[14]算法的準(zhǔn)確率變化中,既有上升趨勢,也會出現(xiàn)下降趨勢,但這5種文獻(xiàn)方法的最高區(qū)域距離計(jì)算準(zhǔn)確率不超過60%,而本文算法的最低區(qū)域距離計(jì)算準(zhǔn)確率為60%,且變化曲線始終呈現(xiàn)上升趨勢,在數(shù)據(jù)量為3 000萬個(gè)時(shí),準(zhǔn)確率高達(dá)95%左右. 根據(jù)上述數(shù)據(jù)分析可以看出,本文利用卷積神經(jīng)網(wǎng)絡(luò)能夠很好地完成醫(yī)療圖像區(qū)域距離計(jì)算,效果較好. 究其原因,是因?yàn)楸疚氖紫葘矸e神經(jīng)網(wǎng)絡(luò)進(jìn)行了訓(xùn)練,利用訓(xùn)練后的神經(jīng)網(wǎng)絡(luò)提取圖像特征,以提取得到的特征為基礎(chǔ)計(jì)算區(qū)域距離,由此增加了區(qū)域距離計(jì)算準(zhǔn)確率,為可疑區(qū)域定位結(jié)果提供了保障.
3.3.4 ? 特征選擇的AUC值對比
利用本文算法與文獻(xiàn)[10]、文獻(xiàn)[11]、文獻(xiàn)[12]、文獻(xiàn)[13]算法、文獻(xiàn)[14]算法,分別繪制特征選擇的AUC值曲線,如圖5所示.
根據(jù)圖5得到的AUC值可知,在數(shù)據(jù)量為500萬時(shí),文獻(xiàn)[10]算法的特征選擇AUC值為0.56,文獻(xiàn)[11]算法的特征選擇AUC值為0.71,文獻(xiàn)[12]算法為0.66,文獻(xiàn)[13]算法為0.68,文獻(xiàn)[14]算法為0.69,本文算法的特征選擇AUC值為0.80,遠(yuǎn)高于其他文獻(xiàn)方法. 在數(shù)據(jù)量為3 000萬時(shí),本文算法的特征選擇AUC值最大,為0.84,其次為文獻(xiàn)[11]和文獻(xiàn)[14]算法,最高為0.83. 通過圖5可以顯著的看出,本文算法特征選擇結(jié)果較好,主要是因?yàn)楸疚牟捎昧硕嘣u價(jià)標(biāo)準(zhǔn)融合的方式,從多個(gè)特征子集中搜索得出最優(yōu)特征子集,大大提高了算法的特征選擇性能.
3.3.5 ? 預(yù)測值與實(shí)際值擬合度對比
對本文算法獲取的預(yù)測值與實(shí)際值的擬合度進(jìn)行分析,將其與文獻(xiàn)[10]、文獻(xiàn)[11]和文獻(xiàn)[12]算法對比,結(jié)果如圖6所示.
根據(jù)圖6顯示結(jié)果可知,本文算法得到的預(yù)測值緊緊圍繞實(shí)際值組成的直線,趨勢一致,分布在實(shí)際值兩側(cè),與實(shí)際值的擬合度較高,表明利用本文方法獲取得到的誤差預(yù)測值結(jié)果較為準(zhǔn)確. 文獻(xiàn)[10]算法得到的預(yù)測值雖然也分布在實(shí)際值直線兩側(cè),但與實(shí)際值的距離較遠(yuǎn). 文獻(xiàn)[11]算法的預(yù)測值全部分布在實(shí)際值下側(cè),文獻(xiàn)[12]算法的預(yù)測值全部分布在實(shí)際值上側(cè),且這兩種算法的預(yù)測值與實(shí)際值直線相距較遠(yuǎn),擬合度較低. 根據(jù)上述分析結(jié)果可知,本文預(yù)測算法具有一定的優(yōu)勢,主要是因?yàn)楸疚脑O(shè)置了預(yù)測樣本與訓(xùn)練樣本,構(gòu)建了兩個(gè)樣本之間的多元線性回歸矩陣,利用多元線性回歸方法完成了醫(yī)療圖像誤差預(yù)測,預(yù)測結(jié)果準(zhǔn)確率較高,擬合度較好. 3.3.6 ? 不同數(shù)據(jù)樣本下預(yù)測耗時(shí)對比
在大數(shù)據(jù)樣本和小數(shù)據(jù)樣本條件下,對比本文算法與文獻(xiàn)[10]、文獻(xiàn)[11]、文獻(xiàn)[12]、文獻(xiàn)[13]、文獻(xiàn)[14]算法的預(yù)測耗時(shí),結(jié)果如表3所示.
根據(jù)表3分析結(jié)果可知,在大數(shù)據(jù)樣本條件下,文獻(xiàn)[10]、文獻(xiàn)[11]、文獻(xiàn)[12]、文獻(xiàn)[13]、文獻(xiàn)[14]算法的預(yù)測耗時(shí)較多,在21~32 s之間,小數(shù)據(jù)樣本條件下,這些文獻(xiàn)算法的最高預(yù)測耗時(shí)為23 s,表明數(shù)據(jù)樣本的分布情況會對文獻(xiàn)算法產(chǎn)生直接的影響,增加計(jì)算耗時(shí). 但本文算法基本不受數(shù)據(jù)樣本條件的影響,在大數(shù)據(jù)樣本條件下平均耗時(shí)為8 s,在小數(shù)據(jù)樣本條件下平均耗時(shí)為7 s,遠(yuǎn)遠(yuǎn)低于文獻(xiàn)算法. 究其原因,在于本文運(yùn)用卷積神經(jīng)網(wǎng)絡(luò)和特征選擇結(jié)合的方式進(jìn)行誤差預(yù)測,排除冗余數(shù)據(jù)造成的影響,大大降低了數(shù)據(jù)計(jì)算量,節(jié)約了預(yù)測耗時(shí).
4 ? 結(jié) ? 論
從醫(yī)療圖像中準(zhǔn)確獲取重要的信息,是有效完成計(jì)算機(jī)輔助疾病診斷的基礎(chǔ),但采集得到的醫(yī)療圖像通常會存在一定的誤差,因此,對醫(yī)療圖像誤差預(yù)測具有非常重要的研究價(jià)值. 但目前存在的誤差預(yù)測方法存在不足,未能獲取很好的預(yù)測效果,為此,本文提出基于卷積神經(jīng)網(wǎng)絡(luò)與特征選擇的醫(yī)療圖像誤差預(yù)測算法,采用多元線性回歸方法實(shí)現(xiàn)醫(yī)療圖像誤差預(yù)測. 為驗(yàn)證本文算法的性能,在多個(gè)測試指標(biāo)以及多種數(shù)據(jù)條件下展開實(shí)驗(yàn),結(jié)果表明,本文所提算法在區(qū)域分類、圖像特征選擇、預(yù)測結(jié)果擬合度以及預(yù)測耗時(shí)方面均優(yōu)于傳統(tǒng)算法,能夠快速、準(zhǔn)確的實(shí)現(xiàn)醫(yī)療圖像誤差預(yù)測.
然而,本研究結(jié)果仍舊有待進(jìn)一步的補(bǔ)充與改善,面對日益復(fù)雜的醫(yī)療圖像問題,在未來的研究工作中,需要結(jié)合醫(yī)療圖像實(shí)際需求進(jìn)行研究. 此外,本文對于卷積神經(jīng)網(wǎng)絡(luò)模型僅進(jìn)行了簡單的訓(xùn)練,分析深度不足,未能充分利用卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)勢,下一步研究中,將不斷改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)模型,使其無需借助其他方法的輔助,能夠更加便捷的應(yīng)用于醫(yī)療領(lǐng)域,獲取更好的成果.
參考文獻(xiàn)
[1] ? ?GEGENFURTNER A,KOK E,VAN G K,et al. The challenges of studying visual expertise in medical image diagnosis[J]. Medical Education,2017,51(1):97—104.
[2] ? ?LIU M,ZHANG J,YAP P T,et al. View-aligned hypergraph learning for Alzheimer's disease diagnosis with incomplete multi-modality data[J]. Medical Image Analysis,2017,36(2):123—134.
[3] ? ?LITJENS G,KOOI T,BEJNORDI B E,et al. A survey on deep learning in medical image analysis[J]. Medical Image Analysis,2017,42(9):60—88.
[4] ? ?BRUIJNE M D. Machine learning approaches in medical image analysis:From detection to diagnosis[J]. Medical Image Analysis,2016,33(1):94—97.
[5] ? ?HE T,LI X F. Image quality recognition technology based on deep learning[J]. Journal of Visual Communication and Image Representation,2019,65:1—10.
[6] ? ?CARLAK H F,GENCER N G,BESIKCI C. Theoretical assessment of electro-thermal imaging: A new technique for medical diagnosis[J]. Infrared Physics & Technology,2016,76:227—234.
[7] ? ?侯夢薇,衛(wèi)榮,陸亮,等. 知識圖譜研究綜述及其在醫(yī)療領(lǐng)域的應(yīng)用[J]. 計(jì)算機(jī)研究與發(fā)展,2018,55(12):2587—2599.
HOU M W,WEI R,LU L,et al. Review of knowledge map research and its application in medical field [J]. Computer Research and Development,2018,55 (12):2587—2599. (In Chinese)
[8] ? ?趙越,曾立波,吳瓊水. 卷積神經(jīng)網(wǎng)絡(luò)的宮頸細(xì)胞圖像分類[J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2018,30(11):2049—2054.
ZHAO Y,ZENG L B,WU Q S. Cervical cell image classification based on convolutional neural network [J]. Journal of Computer Aided Design and Graphics,2018,30 (11):2049—2054. (In Chinese)
[9] ? ?劉凱,符海東,鄒玉薇,等. 基于卷積神經(jīng)網(wǎng)絡(luò)的中文醫(yī)療弱監(jiān)督關(guān)系抽取[J]. 計(jì)算機(jī)科學(xué),2017,44(10):249—253.
LIU K,F(xiàn)U H D,ZOU Y W,et al. Extraction of Chinese medical weak supervision relationship based on convolutional neural network [J]. Computer Science,2017,44 (10):249—253. (In Chinese)
[10] ?WANG G,LI W,ZULUAGA M A,et al. Interactive medical image segmentation using deep learning with image-specific fine tuning[J]. IEEE Transactions on Medical Imaging,2018,37(7):1562—1573.
[11] ?ZHOU X,GAO X,WANG J,et al. Eye tracking data guided feature selection for image classification [J]. Pattern Recognition,2017, 63:56—70.
[12] ?NIZAMI I F,MAJID M,KHURSHID K. New feature selection algorithms for no-reference image quality assessment[J]. Applied Intelligence,2018,48(12):3482—3501.
[13] ?張利文,劉俠,汪俊,等. 基于定量影像組學(xué)的肺腫瘤良惡性預(yù)測方法[J]. 自動化學(xué)報(bào),2017,43(12):2109—2114.
ZHANG L W,LIU X,WANG J,et al. Prediction of benign and malignant lung tumors based on quantitative imaging[J]. Journal of Automation,2017,43(12):2109—2114. (In Chinese)
[14] ?盧冶,陳瑤,李濤,等. 面向邊緣計(jì)算的嵌入式FPGA卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建方法[J]. 計(jì)算機(jī)研究與發(fā)展,2018,55(3):551—562.
LU Y,CHEN Y,LI T,et al. Construction method of edge computing oriented embedded FPGA convolutional neural network[J]. Computer Research and Development,2018,55 (3):551—562. (In Chinese)
[15] ?王忠民,曹洪江,范琳. 一種基于卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的人體行為識別方法[J]. 計(jì)算機(jī)科學(xué),2016,43(S2):56—58.
WANG Z M,CAO H J,F(xiàn)AN L. A human behavior recognition method based on convolutional neural network deep learning[J]. Computer Science,2016,43(S2):56—58. (In Chinese)
[16] ?鄒月嫻,余嘉勝,陳澤晗,等. 圖像分類卷積神經(jīng)網(wǎng)絡(luò)的特征選擇模型壓縮方法[J]. 控制理論與應(yīng)用,2017,34(6):746—752.
ZOU Y X,YU J S,CHEN Z H,et al. Compression method of feature selection model for convolution neural network of image classification [J]. Control Theory and Application,2017,34 (6):746—752. (In Chinese)
[17] ?ZHANG F,CAI N ,WU J ,et al. Image denoising method based on a deep convolution neural network[J]. IET Image Processing,2018,12(4):485—493.
[18] ?WOLTERINK J M,LEINER T,VIERGEVER M A,et al. Automatic coronary calcium scoring in cardiac CT angiography using convolutional neural networks[C]//MICCAI 2015. Lecture Notes in Computer Science,Springer,Cham,2015,9349:589—596.
[19] ?CHA K H,HADJIISKI L,SAMALA R K,et al. Urinary bladder segmentation in CT urography using deep-learning convolutional neural network and level sets[J]. Medical Physics,2016,43(4):1882—1896.
[20] ?許行,張凱,王文劍. 一種小樣本數(shù)據(jù)的特征選擇方法[J]. 計(jì)算機(jī)研究與發(fā)展,2018,55(10):2321—2330.
XU X,ZHANG K,WANG W J. A feature selection method for small sample data[J]. Computer Research and Development,2018,55 (10):2321—2330. (In Chinese)
[21] ?ZHANG F,CHAN K P,BIGGIO B,et al. Adversarial feature selection against evasion attacks[J]. IEEE Transactions on Cybernetics,2016,46(3):766—777.
[22] ?劉麗倩,董東. 基于代價(jià)敏感集成分類器的長方法檢測[J]. 計(jì)算機(jī)科學(xué),2018,45(S2):497—500.
LIU L Q,DONG D. Long method detection based on cost sensitive ensemble classifier[J]. Computer Science,2018,45(S2):497—500. (In Chinese)
[23] ?RAGHAVENDRA U,F(xiàn)UJITA H,BHANDARY S V,et al. Deep convolution neural network for accurate diagnosis of glaucoma using digital fundus images[J]. Information Sciences,2018,441:41—49.
[24] ?CHEN T,LU S,F(xiàn)AN J. S-CNN: Subcategory-aware convolutional networks for object detection [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2018,40(10):2522—2528.
[25] ?WEI C,ZHENG Z,QI Z,et al. Application of a parallel spectral-spatial convolution neural network in object-oriented remote sensing land use classification[J]. Remote Sensing Letters,2018,9(4):334—342.
[26] ?JIAN L,SUJUAN H,XIAODAN S ,et al. Deblurring retinal optical coherence tomography via a convolutional neural network with anisotropic and double convolution layer[J]. Iet Computer Vision,2018,12(6):900—907.
[27] ?XU Q,PAN G. SparseConnect: regularising CNNs on fully connected layers [J]. Electronics Letters,2017,53(18):1246—1248.
[28] ?PONTABRY J,ROUSSEAU F,STUDHOLME C,et al. A discriminative feature selection approach for shape analysis: Application to fetal brain cortical folding [J]. Medical Image Analysis,2017,35:313—326.
[29] ?CHANDY D A,CHRISTINAL A H,THEODORE A J,et al. Neighbourhood search feature selection method for content-based mammogram retrieval [J]. Medical & Biological Engineering & Computing,2017,55(3):493—505.
[30] ?IBRAGIMOV B,XING L. Segmentation of organs at risks in head and neck CT images using convolutional neural networks [J]. Medical Physics,2017,44(2):547—557.
[31] ?ZHANG Z,JAISWAL P,RAI R. FeatureNet: Machining feature recognition based on 3D Convolution Neural Network [J]. Computer-Aided Design,2018,101:12—22.
[32] ?LU S,HEEMINK A,LIN H X,et al. Evaluation criteria on the design for assimilating remote sensing data using variational approaches[J]. Monthly Weather Review,2017,145(6):2165—2175.
[33] ?SRISUWAN N,PHUKPATTARANONT P,LIMSAKUL C. Comparison of feature evaluation criteria for speech recognition based on electromyography [J]. Medical & Biological Engineering & Computing,2018,56(4):1041—1051.
[34] ?鐘學(xué)燕,陳國青,孫磊磊,等. 基于多視角特征融合的移動信息服務(wù)模式挖掘[J]. 系統(tǒng)工程理論與實(shí)踐,2018,38(7):1853—1861.
ZHONG X Y,CHEN G Q,SUN L L,et al. Mining mobile information service patterns based on multi perspective feature fusion[J]. System Engineering Theory and Practice,2018,38(7):1853—1861. (In Chinese)
[35] ?李婉君,汪天富,倪東,等. 基于特征融合和判別式學(xué)習(xí)的胎盤成熟度自動分級[J].中國生物醫(yī)學(xué)工程學(xué)報(bào),2016,35(4):411—418.
LI W J,WANG T F,NI D,et al. Placental maturity evaluation via feature fusion and discriminative learning [J]. Chinese Journal of Biomedical Engineering,2016,35(4):411—418. (In Chinese)
[36] ?ZHAI A,WEN X,XU H,et al. Multi-Layer model based on multi-scale and multi-feature fusion for SAR images [J]. Remote Sensing,2017,9(11):1085—1101.
[37] ?MA G,YANG X,ZHANG B,et al. Multi-feature fusion deep networks [J]. Neurocomputing,2016,218(19):164—171.
[38] ?張駢,侯進(jìn). 高斯核函數(shù)快速插值的頭發(fā)實(shí)時(shí)仿真與渲染[J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2017,29(2):320—327.
ZHANG P,HOU J. Hair real-time simulation and rendering with fast interpolation of Gaussian kernel function [J]. Journal of Computer Aided Design and Graphics, 2017, 29(2): 320—327. (In Chinese)
[39] ?ZAWISTOWSKI M,SUSSMAN J B,HOFER T P,et al. Corrected ROC analysis for misclassified binary outcomes [J]. Statistics in Medicine,2017,36(13):2148—2160.
[40] ?CUNHA B A,CUNHA C B,LAM B,et al. Nitrofurantoin safety and effectiveness in treating acute uncomplicated cystitis (AUC) in hospitalized adults with renal insufficiency: antibiotic stewardship implications[J]. European Journal of Clinical Microbiology & Infectious Diseases,2017,36(2):1213—1216.
收稿日期:2020-07-03
基金項(xiàng)目:國家自然科學(xué)基金資助項(xiàng)目(61803117),National Natural Science Foundation of China(61803117);教育部科技發(fā)展中心產(chǎn)學(xué)研創(chuàng)新基金(2018A01002),Ministry of Education Science and Technology Development Center Fund(2018A01002);國家科技部創(chuàng)新方法專項(xiàng)(2017IM010500),The Innovtion Method Project of Ministry of Science and Technology(2017IM010500)
作者簡介:李曉峰(1978—),男,黑龍江哈爾濱人,北京理工大學(xué)教授,博士,CCF高級會員,IEEE會員
通信聯(lián)系人,E-mail:liugang@brbeu.edu.cn