郝瑞,秦亞雪,甄俊平,強(qiáng)彥
(1.山西財經(jīng)大學(xué)信息學(xué)院,山西太原 030006;2.山西財經(jīng)大學(xué)管理科學(xué)與工程學(xué)院,山西太原 030006;3.山西醫(yī)科大學(xué)第二醫(yī)院醫(yī)學(xué)影像科,山西太原 030001;4.太原理工大學(xué)信息與計算機(jī)學(xué)院,山西太原 030600)
目前全球的肺癌發(fā)病率和死亡率高且呈上升趨勢。全球男性肺癌發(fā)病率和死亡率占惡性腫瘤首位,女性肺癌發(fā)病率占第3 位,死亡率占第2 位。肺癌的高發(fā)病率和死亡率嚴(yán)重威脅著人類健康和生命,是亟待解決的公共健康安全問題之一。肺結(jié)節(jié)與早期肺癌的關(guān)系密切,對肺結(jié)節(jié)進(jìn)行早期篩查和診斷可以有效地降低肺癌的發(fā)病率,進(jìn)而提高患者的生存率[1]。CT具有較高的密度分辨率,可以較好地識別出正常肺部結(jié)構(gòu)與病理結(jié)構(gòu)[2],是目前早期肺癌常規(guī)篩查的主要手段[3]。但人工閱讀大量的CT圖片及數(shù)據(jù)工作量繁重、工作效率低,且極易漏診及誤診,已不能很好地滿足臨床需求;另外,由于肺癌存在同病異影和異病同影的現(xiàn)象,肺癌影像上的相似性也為診斷帶來了極大的困難。近年來,受到社會與環(huán)境變化以及人們生活習(xí)慣的影響,肺部CT圖像呈現(xiàn)出兩個主要特征:數(shù)量上極速增長,內(nèi)容上愈加復(fù)雜,出現(xiàn)醫(yī)生數(shù)量和專業(yè)水平不能較好地滿足目前肺部CT 圖像診斷需求的現(xiàn)象。因此,若能將醫(yī)生固有的經(jīng)驗?zāi)芰陀嬎銠C(jī)獨(dú)有的高速圖像檢索能力融為一體,建立大規(guī)模肺部CT 圖像相似病灶快速有效的檢索模型,充分利用肺部疾病歷史數(shù)據(jù)實現(xiàn)類似于醫(yī)生診斷過程的相似病例自動檢索方法,可大大減少醫(yī)生的工作量,同時也能輔助醫(yī)生對相似病例的診療方案進(jìn)行回顧性分析,更好的為患者提供定制化智能診療方案[4]。哈希算法由于其占用存儲空間小和計算相似度速度快的優(yōu)勢,已廣泛用于大規(guī)模醫(yī)學(xué)圖像檢索領(lǐng)域[5-7]。在醫(yī)學(xué)圖像診斷應(yīng)用中,針對肺結(jié)節(jié)CT 圖像檢索的深度哈希算法研究還相對較少,而肺結(jié)節(jié)CT圖像的識別與檢索在肺癌診斷和治療中占據(jù)重要的地位。為了提高肺結(jié)節(jié)CT圖像檢索精度,本文鑒于深度哈希在圖像檢索上的優(yōu)勢,提出一種基于深度哈希的肺結(jié)節(jié)CT 相似圖像檢索方法。由于肺結(jié)節(jié)CT 圖像通常情況下屬于灰度圖像,因此本文在網(wǎng)絡(luò)設(shè)計中針對卷積神經(jīng)網(wǎng)絡(luò)與雙向長短期記憶網(wǎng)絡(luò)的通道進(jìn)行一定的調(diào)整,并在該深度網(wǎng)絡(luò)中嵌入哈希函數(shù)以獲取有效的哈希特征。然后,本文針對所獲取的哈希特征提出一種分級檢索算法。首先利用搭建的深度哈希框架預(yù)測圖像的標(biāo)注信息,在所對應(yīng)的類庫中利用哈希編碼檢索得到一定數(shù)量的圖像候選對象;其次,根據(jù)圖像高層語義特征進(jìn)行相似度排序獲取相似的肺結(jié)節(jié)圖像列表。
本文所采用的數(shù)據(jù)集是LIDC-IDRI[7]公開數(shù)據(jù)集。LIDC-IDRI 原始圖像是由美國國家癌癥研究所收集的。該數(shù)據(jù)集共收錄了1 018 個研究病例,每一個研究病例都包括了兩種文件,分別是肺部圖像文件(.dcm)和由4 位放射科醫(yī)師給出的診斷結(jié)果標(biāo)注文件(.xml)。每一個病例都包含切片,每張切片大小為512×512 像素。本文利用1.2 節(jié)所述方法從LIDC-IDRI中分割肺結(jié)節(jié)圖片,并根據(jù)肺結(jié)節(jié)圖片對應(yīng)的標(biāo)注信息良惡性程度得到了5 類肺結(jié)節(jié),其中良惡性程度為3 表示不確定信息,對該部分?jǐn)?shù)據(jù)舍棄,剩下的整合為良性與惡性兩種標(biāo)簽信息。良惡性結(jié)節(jié)的個數(shù)分別為2 102和1 313,所占比例分別為62%和38%,良惡性程度分布相對比較均勻。模型所用的訓(xùn)練集和測試集分別按照70%和30%的比例隨機(jī)抽取。
由于數(shù)據(jù)集中所有的肺部CT 圖像,都會顯示肺組織內(nèi)部的空氣、液體、脂肪、軟組織等物質(zhì),因此,為了減少肺部CT圖像信息冗余現(xiàn)象,有必要鎖定圖像中存在肺結(jié)節(jié)的感興趣區(qū)域(region of interest,ROI)區(qū)域。本文首先利用二值化閾值分割算法確定肺實質(zhì)區(qū)域,然后通過形態(tài)學(xué)膨脹腐蝕算法對分割出的區(qū)域進(jìn)行邊緣輪廓平滑處理,最后通過最大連通區(qū)域算法分割肺實質(zhì)區(qū)域。通過讀取XML 標(biāo)注文件中的醫(yī)師標(biāo)注的良惡性程度信息和位置信息,將肺結(jié)節(jié)病灶區(qū)域所對應(yīng)相應(yīng)的肺實質(zhì)區(qū)域進(jìn)行識別并進(jìn)行分割,并且為了統(tǒng)一圖像大小,使其與設(shè)計的網(wǎng)絡(luò)結(jié)構(gòu)所要求的輸入圖像保持一致,將預(yù)處理得到的ROI 固定大小為32×32 像素的圖像(圖1)。
圖1 肺結(jié)節(jié)ROI預(yù)處理過程Fig.1 Preconditioning of pulmonary nodule ROI
本文研究的肺結(jié)節(jié)CT 圖像檢索主要包含3 大部分:①結(jié)合深度學(xué)習(xí)方法,針對肺結(jié)節(jié)CT圖像設(shè)計一種能夠完整表達(dá)圖像信息的網(wǎng)絡(luò)結(jié)構(gòu),并借助肺結(jié)節(jié)CT 圖像標(biāo)注信息進(jìn)行監(jiān)督學(xué)習(xí);②在網(wǎng)絡(luò)結(jié)構(gòu)中嵌入哈希層,圍繞哈希層節(jié)點數(shù)、哈希函數(shù)構(gòu)造以及哈希表示等將高維圖像特征映射為低維緊湊的哈希碼;③針對所獲取的高維圖像特征以及哈希碼,設(shè)計分級檢索算法逐級計算圖像相似度,并獲取最終的檢索結(jié)果。
1.3.1 圖像特征表示 由于深度學(xué)習(xí)模型在特征提取方面效果較好,同時為了保證肺結(jié)節(jié)CT 圖像檢索的效率,本文通過聯(lián)合注意力機(jī)制的卷積神經(jīng)網(wǎng)絡(luò)和雙向長短期記憶網(wǎng)絡(luò),構(gòu)造能夠全面提取圖像的潛在關(guān)鍵特征的深度模型,并在深度模型中嵌入哈希層,通過設(shè)置相應(yīng)的激活函數(shù)與閾值函數(shù)以實現(xiàn)圖像哈希特征的有效映射(圖2)。
圖2 肺結(jié)節(jié)圖像深度學(xué)習(xí)模型Fig.2 Deep learning model of pulmonary nodule image
首先進(jìn)行深度特征提取。肺結(jié)節(jié)圖像具有相似度高和關(guān)聯(lián)度高的特點,CNN在提取肺結(jié)節(jié)圖像特征時,卷積和池化層都是獨(dú)立地對局部圖像區(qū)域進(jìn)行操作,不會考慮其他圖像區(qū)域從而忽略了不同區(qū)域間的上下文相關(guān)信息,這種上下文依賴性代表了圖像中的有用空間結(jié)構(gòu)信息[8-9],而BiLSTM 是由前向和后向的兩個獨(dú)立的LSTM 結(jié)構(gòu)組合而成,各循環(huán)神經(jīng)網(wǎng)絡(luò)單元之間具有反饋連接,可以挖掘不同區(qū)域間依賴關(guān)系和上下文相關(guān)信息以獲得更好特征表示。為增強(qiáng)提取的肺結(jié)節(jié)圖像特征的表達(dá)能力,本文利用CNN 與BiLSTM 分別獲取圖像的局部區(qū)域特征與區(qū)域間上下文相關(guān)信息,為了避免信息學(xué)習(xí)的覆蓋,本文采用了并行式的網(wǎng)絡(luò)結(jié)構(gòu)。同時為了減少信息學(xué)習(xí)冗余現(xiàn)象以及重點關(guān)注對標(biāo)注信息影響較大的特征,本文在并行設(shè)計的2 個分支網(wǎng)絡(luò)后面分別加入注意力機(jī)制(attention mechanism,AM)。此外,本文的網(wǎng)絡(luò)輸出分為2 個輸出:第1 部分輸出是嵌入哈希函數(shù)的深度哈希層,實現(xiàn)對圖像的特征表示并映射為相應(yīng)的哈希碼;第2 部分輸出連接到softmax 分類器,用于對肺結(jié)節(jié)良惡性類型進(jìn)行有效分類,利用其類別信息監(jiān)督學(xué)習(xí)圖像特征。
其次構(gòu)建哈希函數(shù)。構(gòu)建合理的哈希函數(shù),實現(xiàn)圖像特征向哈希編碼的映射是圖像哈希方法應(yīng)用于圖像相似性檢索至關(guān)重要的一部分。本文在全連接層后面插入一層哈希層學(xué)習(xí)圖像的二值特征,其設(shè)計主要圍繞哈希節(jié)點的選取、哈希函數(shù)的構(gòu)造以及圖像特征二值化3 個方面進(jìn)行。①哈希節(jié)點的選取。由于全連接層提取的圖像特征是高維的,不宜直接進(jìn)行相似度計算,因此哈希節(jié)點個數(shù)在設(shè)置時不應(yīng)超過全連接層節(jié)點數(shù)以達(dá)到降維目的,同時也要保證其能夠唯一的表示圖像的標(biāo)簽信息。因此最終的哈希節(jié)點數(shù)設(shè)置如公式1所示。
其中N表示標(biāo)簽數(shù)目,F(xiàn)C表示全連接層節(jié)點數(shù);H表示哈希層節(jié)點數(shù)。②哈希函數(shù)的構(gòu)造。本文在構(gòu)造哈希函數(shù)時借鑒了LSH的核心思想,為了便于神經(jīng)網(wǎng)絡(luò)訓(xùn)練,本文選取sigmoid 函數(shù)作為哈希層的激活函數(shù),如公式2所示。
其中fc表示全連接層信息,h表示哈希層信息,W表示權(quán)重是,b表示偏置。③圖像特征二值化。上述函數(shù)得到的結(jié)果是[-1,1]上的連續(xù)值,為了得到圖像的二值特征,本文設(shè)置了閾值函數(shù)對哈希層的輸出進(jìn)行離散化。該函數(shù)設(shè)置如公式3所示。
最后對網(wǎng)絡(luò)進(jìn)行訓(xùn)練。本文CNN 采納速度較快的AlexNet 網(wǎng)絡(luò),訓(xùn)練過程中最關(guān)鍵的是損失函數(shù)的設(shè)計與梯度下降算法的選擇。本文在設(shè)計損失函數(shù)時遵循經(jīng)驗風(fēng)險與結(jié)構(gòu)風(fēng)險的共同組合。其中經(jīng)驗風(fēng)險本文選取交叉熵?fù)p失函數(shù);同時為了對網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行控制,緩解欠擬合或者過擬合現(xiàn)象的發(fā)生,本文加入了L2參數(shù)懲罰項,將正則化參數(shù)λ設(shè)為0.01。在實驗中將Batch-size 設(shè)為32、Epoch設(shè)為25 進(jìn)行訓(xùn)練。在神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中,本文選取Adam 訓(xùn)練器進(jìn)行優(yōu)化,該訓(xùn)練器易于訓(xùn)練且具有較好的魯棒性。此外,該訓(xùn)練器是自適應(yīng)學(xué)習(xí)率,不需要手動設(shè)置,提高模型泛化性。
1.3.2 查詢圖像檢索 目前的檢索策略是直接在低維空間計算訓(xùn)練集中每一幅圖像與待查詢圖像的哈希編碼之間的漢明距離。雖然具有計算效率高和內(nèi)存占用少的優(yōu)勢,但是在哈希編碼對原始圖像表示學(xué)習(xí)中存在量化損失,進(jìn)而導(dǎo)致其表示具有一定的局限性。因此,僅使用漢明距離衡量圖像間的相似性不夠準(zhǔn)確。因此本文設(shè)計一種分級檢索算法,實現(xiàn)由粗到細(xì)的精檢索。其具體檢索流程:①通過深度學(xué)習(xí)模型預(yù)測查詢圖像的肺結(jié)節(jié)標(biāo)注信息,找到與其對應(yīng)的類庫,縮小搜索范圍;②為了進(jìn)一步快速篩選圖像,在類庫中計算與查詢項漢明距離最接近的一組相似圖像構(gòu)建候選池,實現(xiàn)初步粗檢索;③計算查詢項與候選池內(nèi)圖像通過深度學(xué)習(xí)模型提取的全連接層特征之間的歐式距離度量相似度得到最終的檢索結(jié)果,實現(xiàn)精確檢索。
肺結(jié)節(jié)相似圖像檢索主要算法設(shè)計。
輸入:待查詢肺結(jié)節(jié)圖像x,深度模型參數(shù)加載,肺結(jié)節(jié)圖像庫,返回查詢結(jié)果數(shù)k;輸出:k個相似圖像。①初始化相似圖像池集合T,檢索結(jié)果集合S;②加載模型,將待查詢圖像輸入該模型,得到其標(biāo)注信息、哈希編碼以及全連接層特征;③在對應(yīng)的標(biāo)注信息庫中,根據(jù)公式(4)計算待查詢項與類內(nèi)圖像哈希碼之間的漢明距離,并對其進(jìn)行排序;
其中,x和y為n位的哈希碼,⊕為異或運(yùn)算。取前2k個圖像添加至T集合中,T={y1,y2,…,y2k};④對T 集合中的圖像提取其全連接層特征;⑤根據(jù)公式(5)計算待查詢項與T集合中各圖像的歐式距離,并按照距離重新排序;
其中,x,y分別為圖像的n維特征向量。⑥取前k項添加至S集合中,S=;⑦返回S集合。
本文研究的肺結(jié)節(jié)CT 圖像檢索提出了實驗環(huán)境和實驗評價指標(biāo)和據(jù)此獲得的結(jié)果。
本文實驗使用的操作系統(tǒng)為Windows 1 064 bit,處理器為Intel(R)Core(TM)i5-10400F CPU@2.90~4.3 GHz,顯卡為GeForce RTX2060,內(nèi)存為16 GB,深度學(xué)習(xí)框架為pytorch 1.2,參數(shù)配置見表1。
表1 參數(shù)配置Table 1 Parameter configuration
為了反映圖像哈希算法的效果與性能,本實驗選擇的評價指標(biāo)有準(zhǔn)確率(precision,P)、召回率(recall,R)、調(diào)和平均數(shù)F1、P@10、MAP。
P@10 是對檢索相似圖像返回前10 項結(jié)果計算精確度。
AP 指單個類別下每個圖像檢索的相似圖像的準(zhǔn)確率的平均值。而MAP 則是所有類別的AP 的平均值。
針對肺結(jié)節(jié)CT 圖像數(shù)據(jù)集,借助肺結(jié)節(jié)標(biāo)注信息對數(shù)據(jù)集進(jìn)行分類,其目的是驗證本文深度學(xué)習(xí)模型所提取的圖像特征能夠更充分的反映標(biāo)注信息。并且與傳統(tǒng)的支持向量機(jī)(support vector machine,SVM)、極限學(xué)習(xí)機(jī)(extreme learning machine,ELM),以及深度網(wǎng)絡(luò)對比,其中“+”表示網(wǎng)絡(luò)構(gòu)造為串聯(lián),“-”表示網(wǎng)絡(luò)構(gòu)造為并行,驗證本文算法所提取圖像特征的有效性(見表2)。
表2 分類準(zhǔn)確率對比Table 2 Comparison of classification accuracy
由于全連接層的圖像特征是高維的,直接進(jìn)行相似度計算成本較高,需要將高維特征投射到低維空間,因此本文在全連接層后嵌入哈希層,并通過設(shè)置不同位數(shù)的哈希節(jié)點來獲取低維特征,其目的是確定具有最優(yōu)區(qū)分標(biāo)注信息能力的哈希編碼位數(shù)。在LIDC-IDRI數(shù)據(jù)集上進(jìn)行實驗,結(jié)果見表3。
表3 哈希節(jié)點與分類準(zhǔn)確率變化表Table 3 Relationship between hash nodes and classification accuracy
為了驗證本文所設(shè)計的哈希圖像檢索方法的有效性,與其它哈希算法進(jìn)行對比,分別選取P@10以及MAP 作為評價指標(biāo)。結(jié)果分別如圖3-圖4所示。
國內(nèi)外相關(guān)學(xué)者開展基于內(nèi)容的醫(yī)學(xué)圖像檢索算法研究并構(gòu)建了相應(yīng)的檢索系統(tǒng),其基本原理是通過提取圖像的顏色、紋理以及空間位置等淺層特征以構(gòu)造特征向量;利用傳統(tǒng)的哈希算法將特征向量壓縮為低維緊湊的哈希特征;通過漢明距離衡量圖像的相似性。傳統(tǒng)代表算法主要有譜哈希(spectral Hashing,SH)[5]、局部感知哈希(locality sensitive Hashing,LSH)[6]、二進(jìn)制重構(gòu)嵌入(binary reconstructive embedding,BRE)[10]、迭代量化(iterative quantization,ITQ)[11]、最小化損失哈希(minimal loss Hashing,MLH)[12]、核監(jiān)督哈希(kernelbased supervised Hashing,KSH)[13]等。上述算法主要依賴于圖像的淺層語義信息,并不能完整地表達(dá)CT 圖像信息且得到的哈希特征并不是最優(yōu)特征,從而使得圖像檢索算法檢索精度低下。深度哈希算法相較于傳統(tǒng)的哈希算法具有優(yōu)勢,其所學(xué)習(xí)到的哈希編碼具有更有效的特征表示并且不需要人工設(shè)計抽取特征,卷積神經(jīng)網(wǎng)絡(luò)哈希(convolutional neural network Hashing,CNNH)首次采用卷積神經(jīng)網(wǎng)絡(luò)將特征學(xué)習(xí)與哈希編碼結(jié)合起來進(jìn)行深度圖像檢索[14]。不過,由于其圖像特征表示無法為哈希編碼學(xué)習(xí)提供反饋信息,該算法不是一種端到端的學(xué)習(xí)方法。二進(jìn)制哈希碼深度學(xué)習(xí)(deep learning of binary Hash codes,DLBHC)采用一種監(jiān)督學(xué)習(xí)框架根據(jù)數(shù)據(jù)的標(biāo)簽信息可以同時學(xué)習(xí)圖像特征表示和二進(jìn)制編碼,并提出由粗到細(xì)的檢索策略,在滿足檢索精度的同時加快了檢索速度[15]。深度神經(jīng)網(wǎng)絡(luò)哈希(deep neural network Hashing,DNNH)在網(wǎng)絡(luò)中通過設(shè)計三元組監(jiān)督信息來捕獲圖像的相似性的深度哈希方法,使用圖像的相似對與不相似對所構(gòu)成的三元組對CNN 進(jìn)行訓(xùn)練,是一種端到端的學(xué)習(xí)方法,但在前期需要進(jìn)行大量的圖像預(yù)處理工作且人工標(biāo)記相似對與不相似對具有較大的主觀性[16]。
肺部疾病影像不僅表現(xiàn)復(fù)雜,近幾年數(shù)量也增長迅速,這導(dǎo)致影像科醫(yī)生任務(wù)繁重。而當(dāng)前的智能診斷算法可有多種應(yīng)用模式,如能夠?qū)崿F(xiàn)肺部病灶檢出、分割及其性質(zhì)判斷等,這不僅有效提升醫(yī)生診斷的效率,更有望推動分級診療、優(yōu)化醫(yī)療資源配置,而且基于人工智能的肺部影像診斷技術(shù)已經(jīng)從單一特定的疾病診斷逐漸發(fā)展到多疾病聯(lián)合診斷[17]。本文針對肺結(jié)節(jié)CT 圖像檢索的深度哈希算法進(jìn)行研究,探討其在醫(yī)學(xué)圖像診斷中的應(yīng)用。
分析表2 的結(jié)果可以看出本文設(shè)計的深度模型在LIDC-IDRI 數(shù)據(jù)集上的識別準(zhǔn)確率都高于常用的分類算法,這表明本文方法所提取的特征具有更強(qiáng)的圖像表征能力,可以驗證本文設(shè)計方法檢索的有效性。從表2 還可以看出,網(wǎng)絡(luò)結(jié)構(gòu)好壞也是提取圖像特征的關(guān)鍵,CNN 和BiLSTM 并行的模型優(yōu)于串聯(lián)的模型,這是因為CNN 和BiLSTM 串聯(lián),前者學(xué)習(xí)到的信息可能會覆蓋后者學(xué)習(xí)到的信息從而導(dǎo)致信息損失,而并行網(wǎng)絡(luò)結(jié)構(gòu)可以避免此類情況的發(fā)生。此外,本文模型相較于BiLSTM_CNN并行網(wǎng)絡(luò)模型準(zhǔn)確率又有明顯提升,究其原因是引入注意力機(jī)制能夠為學(xué)習(xí)到的特征分配不同的權(quán)重將關(guān)鍵信息強(qiáng)調(diào)出來,更進(jìn)一步提升模型效果。分析表3 可以得知,當(dāng)哈希位數(shù)增加時,本文模型在LIDC-IDRI 數(shù)據(jù)集上的分類準(zhǔn)確率也會隨之增加,哈希位數(shù)為256 位時,準(zhǔn)確率最高。但是,當(dāng)哈希碼位數(shù)繼續(xù)增加時,分類準(zhǔn)確率卻有下降的趨勢,這是因為哈希位數(shù)較少時學(xué)習(xí)到的哈希特征不能充分表達(dá)類別信息;隨著哈希位數(shù)的增加,哈希特征數(shù)目也隨之增加,學(xué)習(xí)到的圖像內(nèi)容與圖像語義信息也會逐漸增強(qiáng);但是哈希位數(shù)過長,則可能出現(xiàn)過擬合現(xiàn)象。圖3 展示了檢索結(jié)果返回前10項的檢索精度對比,可以看出本文算法的檢索精度為89.79%,優(yōu)于其它的哈希算法。圖4展示了不同哈希算法在LIDC-IDRI 數(shù)據(jù)集上的平均檢索精度隨著返回圖像數(shù)目的變化圖,可以看出本文算法的平均檢索精度要優(yōu)于其它的哈希算法,其平均檢索精度高達(dá)91.00%,圖3~圖4 均驗證了本文算法的有效性。
本文提出的一種新的、基于深度哈希網(wǎng)絡(luò)的肺結(jié)節(jié)CT 醫(yī)學(xué)圖像檢索模型,該模型融合了肺結(jié)節(jié)圖像區(qū)域局部特征和區(qū)域間上下文相關(guān)信息,增強(qiáng)了肺結(jié)節(jié)圖像特征表示。另外,利用本文設(shè)計的一種分級檢索策略縮小了相似性檢索的范圍,對整個數(shù)據(jù)集通過分層檢索得到相似圖像。實驗結(jié)果表明本文算法具有更高的檢索精度,并且與其他模型相比,能充分提取圖像語義特征,在準(zhǔn)確率、召回率、F1、P@10、MAP值上均有明顯提升,更加適用于大數(shù)據(jù)檢索,表明本文方法可能為研發(fā)肺癌影像智能診斷系統(tǒng)提供了一種思路,在臨床應(yīng)用中具有一定的實用價值。