趙少峰,李 靜
(中國(guó)科學(xué)技術(shù)大學(xué)工程科學(xué)學(xué)院,安徽合肥 230027)
電阻抗成像技術(shù)(electrical impedance tomography,EIT)是一種新型的無(wú)損檢測(cè)技術(shù)[1],可以重建目標(biāo)物體的電導(dǎo)率分布,從而獲取物體內(nèi)部結(jié)構(gòu)的分布信息,在生物醫(yī)學(xué)領(lǐng)域有許多應(yīng)用[2]。醫(yī)學(xué)EIT的實(shí)施方法是在人體皮膚上放置電極,注入交流電,測(cè)量相同或其他電極產(chǎn)生的電位,這種注入電流以建立人體組織的邊界電位構(gòu)成電阻抗成像的正問(wèn)題;依據(jù)電極電位重構(gòu)人體組織內(nèi)部的阻抗變化或阻抗分布的圖像構(gòu)成了電阻抗成像逆問(wèn)題[3]。EIT的逆問(wèn)題是一個(gè)高度非線性的不適定問(wèn)題,傳統(tǒng)成像方法通常會(huì)導(dǎo)致圖像模糊,成像質(zhì)量差,目標(biāo)尺寸、位置計(jì)算不準(zhǔn)確[4]。此外,傳統(tǒng)非迭代成像算法如Tikhonov方法[5],通?;谡齽t化來(lái)解決圖像重建問(wèn)題,該方法成像存在偽影[6]。如何得到高質(zhì)量的重建圖像是EIT技術(shù)應(yīng)用中的關(guān)鍵挑戰(zhàn)之一[7]。
深度學(xué)習(xí)網(wǎng)絡(luò)(deep neural network,DNN)廣泛應(yīng)用于不同的研究領(lǐng)域,如圖像分割[8]、人群密度估計(jì)[9]、語(yǔ)義關(guān)系分類(lèi)[10]等。DNN從人工神經(jīng)網(wǎng)絡(luò)發(fā)展而來(lái),具有分布式處理高度復(fù)雜非線性問(wèn)題的能力;DNN由全連接的神經(jīng)元組成,不包含卷積單元。二維卷積神經(jīng)網(wǎng)絡(luò)(two dimensional convolutional neural network,2DCNN)是深度學(xué)習(xí)算法之一,具有提取數(shù)據(jù)深層特征的能力,與一維的DNN相比,2DCNN模型包含可以自適應(yīng)地學(xué)習(xí)特征的卷積單元,具有更強(qiáng)的魯棒性和更好的泛化能力[11]。
本文利用二維卷積神經(jīng)網(wǎng)絡(luò)(2DCNN)的非線性映射特性[11]來(lái)解決EIT逆問(wèn)題,實(shí)現(xiàn)圖像重構(gòu)。首先構(gòu)建不同大小、形狀、位置且具有一定阻抗值的目標(biāo)物體,基于EIT正問(wèn)題計(jì)算邊界電位,將邊界電位數(shù)據(jù)輸入神經(jīng)網(wǎng)絡(luò),經(jīng)過(guò)訓(xùn)練和調(diào)參得到優(yōu)化過(guò)后的2DCNN網(wǎng)絡(luò),由網(wǎng)絡(luò)輸出重構(gòu)圖像。
2DCNN結(jié)構(gòu)主要包括卷積層、池化層、全連接層、剔除層、展平層和長(zhǎng)短期記憶(long short term,LSTM)網(wǎng)絡(luò)層。
卷積層通常使用相同大小的卷積核對(duì)輸入數(shù)據(jù)進(jìn)行卷積運(yùn)算,然后通過(guò)激活函數(shù)生成特征圖。訓(xùn)練時(shí)不斷地更新卷積核中的參數(shù),以改善卷積核的特征提取。這個(gè)過(guò)程也被稱(chēng)為特征學(xué)習(xí)。卷積層中非線性激活過(guò)程可以表示為
(1)
池化層的功能是將輸入數(shù)據(jù)劃分為一系列不重疊的矩陣,然后輸出每個(gè)子區(qū)間的最大值或平均值,池化操作如圖1所示。
圖1 池化操作示意圖
池化層通常在卷積層之后,最大池化函數(shù)表達(dá)式為
(2)
式中:Rk是特征圖中k個(gè)不重疊的子域;ai為第i層輸出。
使用池化層是為了避免增加參數(shù)的數(shù)量,即避免在訓(xùn)練階段過(guò)度擬合,提高網(wǎng)絡(luò)泛化性能,提高計(jì)算效率,使特征魯棒性更強(qiáng)。
長(zhǎng)短期記憶層(LSTM)主要是為了解決長(zhǎng)序列訓(xùn)練過(guò)程中的梯度消失和梯度爆炸問(wèn)題,LSTM層在長(zhǎng)序列中有更好的表現(xiàn)。展平層將提取的多維特征一維化,可用于從LSTM層到剔除層的過(guò)渡。網(wǎng)絡(luò)中的剔除層舍棄一些節(jié)點(diǎn),使一些隱藏層節(jié)點(diǎn)不工作,可防止模型過(guò)擬合。在卷積層和池化層交替進(jìn)行后,通常會(huì)加入全連接層來(lái)壓縮提取的特征。
仿真平臺(tái)如下:PC(英特爾核心Tesla K80 GPU,11G RAM),操作系統(tǒng)是Ubuntu 18.4.5,以深度學(xué)習(xí)開(kāi)源框架TensorFlow2.6.0為基礎(chǔ),以Python3為編程環(huán)境構(gòu)建2DCNN算法。2DCNN結(jié)構(gòu)如圖2所示,由3個(gè)卷積層、3個(gè)池化層、1個(gè)全連接層、1個(gè)展平層、1個(gè)剔除層和1個(gè)LSTM層組成。其中I1、O1分別為輸入和輸出,C1、C2、C3為卷積層,3個(gè)卷積核的尺寸分別為13×13×8,7×7×16,5×5×32,核的數(shù)量分別為8,16,32,填充像素方式相同,步長(zhǎng)為1。P1、P2、P3為池化層,池化核為2×2,步長(zhǎng)為2。LS為L(zhǎng)STM層,節(jié)點(diǎn)數(shù)設(shè)置為512,F(xiàn)L為展平層,DP為剔除層,隨機(jī)剔除25%的節(jié)點(diǎn),F(xiàn)N為全連接層。
圖2 用于EIT圖像重建的2DCNN結(jié)構(gòu)
使用EIT邊界電壓數(shù)據(jù)作為輸入,無(wú)任何預(yù)處理和過(guò)濾,以避免丟失信息。使用的優(yōu)化器是自適應(yīng)矩估計(jì)(Adam)[13]優(yōu)化器,Adam是一種一階優(yōu)化算法,可以取代傳統(tǒng)的隨機(jī)梯度下降過(guò)程。選取損失函數(shù)均方誤差(mean squared error,MSE)為網(wǎng)絡(luò)性能的評(píng)價(jià)指標(biāo)。訓(xùn)練時(shí)根據(jù)輸入數(shù)據(jù)迭代更新神經(jīng)網(wǎng)絡(luò)的權(quán)重,由預(yù)測(cè)結(jié)果計(jì)算MSE值,其值越小表示網(wǎng)絡(luò)性能越好。MSE表達(dá)式為
(3)
式中:Y為電位實(shí)際值;Y*為電位預(yù)測(cè)值;n為Y中元素個(gè)數(shù)。
本文使用均方根誤差和圖像相關(guān)系數(shù)評(píng)估重構(gòu)圖像的質(zhì)量。
均方根誤差(root mean square error,RMSE)表達(dá)式為
(4)
電位預(yù)測(cè)值與電位實(shí)際值越接近,RMSE數(shù)值越小,數(shù)值為0表示預(yù)測(cè)值與實(shí)際值完全吻合[14]。
圖像相關(guān)系數(shù)(image correlation coefficient,ICC)表達(dá)式為
(5)
ICC越接近1,表示兩張圖像的相關(guān)程度越高,重建效果越好[15]。
使用電阻抗斷層掃描和漫反射光學(xué)斷層掃描重建軟件(EIDORS)設(shè)計(jì)一個(gè)電位數(shù)據(jù)集。電極數(shù)量為16個(gè),激勵(lì)電流為1 mA,測(cè)量模式及激勵(lì)模式均為相鄰模式。圖3為基于EIDORS軟件包模擬不同位置、大小、形狀的樣本,每一組樣本包括13×16個(gè)測(cè)量電位和1 024個(gè)電導(dǎo)率值。為防止過(guò)擬合,模擬了共30 000組數(shù)據(jù)。按照6:2:2的比例隨機(jī)分為訓(xùn)練數(shù)據(jù)、驗(yàn)證數(shù)據(jù)和測(cè)試數(shù)據(jù),樣本的分割如表1所示。
圖3 不同樣本的典型分布
表1 數(shù)據(jù)集的數(shù)量
為了更好地了解和評(píng)估2DCNN方法在解決EIT逆問(wèn)題中的性能表現(xiàn),將其與Tikhonov(以下簡(jiǎn)稱(chēng)TK)方法、深度學(xué)習(xí)DNN方法進(jìn)行了比較。為了減少網(wǎng)絡(luò)訓(xùn)練所需的時(shí)間,根據(jù)測(cè)試經(jīng)驗(yàn)設(shè)置了一個(gè)訓(xùn)練停止標(biāo)準(zhǔn)。對(duì)于DNN和2DCNN算法,如果均方根誤差在10次迭代內(nèi)沒(méi)有減少,訓(xùn)練過(guò)程就會(huì)提前停止。經(jīng)過(guò)網(wǎng)絡(luò)參數(shù)訓(xùn)練和調(diào)整,本文選擇了學(xué)習(xí)率為0.001,批次大小為60,迭代次數(shù)為254次的2DCNN網(wǎng)絡(luò)模型為最終模型。DNN模型學(xué)習(xí)率和批次與2DCNN模型相同。
2DCNN方法下訓(xùn)練集和驗(yàn)證集的均方根誤差曲線如圖4所示,由圖4可知,訓(xùn)練集和驗(yàn)證集的均方根誤差隨迭代次數(shù)增加迅速減少,最后穩(wěn)定在0.003 1,表明網(wǎng)絡(luò)模型性能良好[16]。
圖4 訓(xùn)練集和驗(yàn)證集的誤差曲線
圖5顯示了無(wú)噪聲時(shí)DNN和TK方法重建的圖像均存在偽影,而2DCNN方法能更好地去除偽影,成像清晰可靠,分辨率高,精準(zhǔn)地反映出目標(biāo)的位置,清晰地反映出目標(biāo)的大小和形狀。表2給出了3種算法重構(gòu)指標(biāo)的對(duì)比,2DCNN方法具有最高的ICC和最小的RMSE值,因此,2DCNN方法具有最高的重建圖像質(zhì)量。
圖5 無(wú)噪聲時(shí)3種算法成像結(jié)果對(duì)比
表2 無(wú)噪聲時(shí)不同算法的重構(gòu)性能參數(shù)
實(shí)際環(huán)境中噪聲不可避免,為評(píng)估2DCNN算法抗噪聲性能,正問(wèn)題中加入信噪比SNR(signal to noise ratio)分別為30、40、50 dB的高斯隨機(jī)噪聲。信噪比SNR表達(dá)式如下:
(6)
式中:RMS(·)為求解均方根函數(shù);S為原電位信號(hào);N為噪聲。
SNR值越小表示干擾噪聲幅值越高。
圖6~圖8展示了SNR分別為30、40、50 dB時(shí)3個(gè)方法的成像結(jié)果,表3給出了不同SNR下3個(gè)方法建立的模型中所有單元的平均RMSE和ICC。
圖6 SNR為30 dB時(shí)3種算法的重構(gòu)圖像
圖7 SNR為40 dB時(shí)3種算法的重構(gòu)圖像
圖8 SNR為50 dB時(shí)3種算法的重構(gòu)圖像
表3 含噪聲時(shí)不同算法的重構(gòu)性能參數(shù)
由圖6~圖8和表3可知,基于2DCNN的重建圖像在3種噪聲下具有更好的成像質(zhì)量。信噪比為30 dB時(shí),3種方法重建的圖像均存在偽影;隨著信噪比的增加,2DCNN的重建圖像中偽影最先減弱、消失。隨著噪聲的增加,3種方法下RMSE均持續(xù)增大,表示成像誤差逐漸增大;2DCNN的RMSE和ICC指標(biāo)均顯著優(yōu)于DNN和TK方法。以上證明了2DCNN具有更好的抗噪聲能力和成像質(zhì)量。
根據(jù)卷積神經(jīng)網(wǎng)絡(luò)可以提取數(shù)據(jù)中抽象和復(fù)雜特征的特性,本文提出了2DCNN方法來(lái)實(shí)現(xiàn)圖像重構(gòu),對(duì)具有不同形狀、大小和位置的樣本進(jìn)行了模擬,對(duì)新方法的有效性、抗噪聲能力進(jìn)行了仿真測(cè)試。對(duì)于無(wú)噪聲的測(cè)試集,與Tikhonov和DNN算法相比,2DCNN算法訓(xùn)練的結(jié)果明顯更好,實(shí)現(xiàn)了清晰可靠的圖像重建。在抗噪測(cè)試中,2DCNN方法與Tikhonov和DNN重建方法相比,具有偽影少、分辨率高、成像誤差小、抗噪聲能力強(qiáng)的優(yōu)勢(shì)。