何理文 遲潔茹 石涵瑜 李鎣楠
摘要:針對在膝關(guān)節(jié)MRI圖像重建中,傳統(tǒng)超分辨算法存在重建圖像紋理不清晰、參考圖像難以與低分辨率圖像紋理嚴格對齊等問題,提出了一種基于參考圖像的膝關(guān)節(jié)MRI超分辨率成像算法。該算法利用紋理相似性,將參考圖像的遷移紋理與低分辨率圖像紋理自適應(yīng)地對齊,豐富低分辨率圖像的細節(jié),實現(xiàn)膝關(guān)節(jié)MRI超分辨率成像。紋理遷移利用殘差網(wǎng)絡(luò)與跳躍鏈接構(gòu)成的生成網(wǎng)絡(luò)實現(xiàn)。實驗結(jié)果表明,與傳統(tǒng)算法相比,該算法重建圖像分辨率更高、紋理更真實。
關(guān)鍵詞:MRI;圖像重建;深度學(xué)習(xí)
中圖分類號:TN011
文獻標(biāo)志碼:A
文章編號:1006-1037(2021)01-0077-05
基金項目:山東省自然科學(xué)基金 (批準(zhǔn)號:ZR2016FM11)資助
通信作者:遲潔茹,女,博士,副教授,主要研究方向為智能信息處理,醫(yī)學(xué)成像等。E-mail:qduchijieru@163.com
核磁共振成像(Magnetic Resonance Imaging, MRI)是一種非侵入式的活體成像技術(shù),因具有無輻射、對比度高等特點而被廣泛應(yīng)用于膝蓋MRI成像。MRI成像存在成像速度慢、運動偽影等缺點,難以在短時間內(nèi)獲得高分辨圖像。超分辨率(Super-Resolution,SR)技術(shù)為低分辨率MRI圖像的高信噪比和高分辨率重建提供了可行性[1]。近年來,深度學(xué)習(xí)尤其是深度卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[2-5]在MRI重建領(lǐng)域得到了廣泛的應(yīng)用?;谏疃葘W(xué)習(xí)的MRI成像方法在保證圖像精度的同時提高重建速度。Dong[6]使用超分辨率卷積神經(jīng)網(wǎng)絡(luò)(Super-Resolution Convolutional Neural Network, SRCNN)進行圖像重建,具有結(jié)構(gòu)簡單、容易實現(xiàn)等優(yōu)點。由于存在采用的卷積層數(shù)少、感受野小、泛化能力差等缺陷,使SRCNN因無法提取圖像深層次特征而導(dǎo)致重建圖像紋理不夠清晰。基于參考圖像的超分辨率重建(Reference-based Super-Resolution,RefSR)技術(shù)在圖像重建過程中,通過引入與低分辨率圖像具有相似紋理或內(nèi)容結(jié)構(gòu)的參考圖像,將參考圖像的高頻細節(jié)遷移到低分辨率圖像(low-resolution,LR)中,從而獲得高分辨率圖像。Yue等[7]對RefSR技術(shù)提出了結(jié)構(gòu)感知匹配準(zhǔn)則,提高了低分辨率與高分辨率補丁之間的映射精度,但這種方法要求參考圖像與低分辨率圖像的紋理良好對齊。Walls等[8]提出了基于流光法的RefSR深層模型,該模型將輸入圖像與參考圖像的紋理對齊。由于流光法無法匹配長距離對應(yīng)關(guān)系,導(dǎo)致該方法無法處理明顯未對齊的參考圖像。本文在傳統(tǒng)RefSR算法基礎(chǔ)上提出了改進型的RefSR方法(IRefSR),根據(jù)紋理相似性自適應(yīng)地遷移參考MRI圖像的紋理來豐富低分辨率MRI圖像的細節(jié)[9-10],克服傳統(tǒng)方法需要紋理嚴格對齊的缺點;在神經(jīng)空間內(nèi)進行多級匹配,有助于多尺度神經(jīng)傳遞,使模型盡可能地從語義相同的參考圖像補丁中獲取紋理信息,從而克服傳統(tǒng)算法在像素空間特征匹配的不足。利用本文所提出算法,能夠減少掃描時間,提高圖像的分辨率;在提高患者安全性的同時,獲取更準(zhǔn)確的診斷圖像。
1 網(wǎng)絡(luò)結(jié)構(gòu)
本文提出的基于參考圖像的超分辨率算法中神經(jīng)網(wǎng)絡(luò)模型主要分為特征匹配與紋理遷移兩部分。特征匹配部分在特征空間中搜索參考圖像IRef的紋理特征,通過多層級方式與低分辨率圖像ILR的紋理特征進行對比,根據(jù)兩者之間的相似程度進行特征塊的替換,并將特征匹配部分得到的特征結(jié)果輸入到紋理遷移結(jié)構(gòu)中。紋理遷移部分將得到的特征結(jié)果整合到LR圖像中,采用的LR圖像由高分辨率圖像(high-resolution,HR)經(jīng)過雙三次插值下采樣(4×)獲得。網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。
1.1 特征匹配
為了使超分辨率圖像的紋理更加真實,特征匹配部分在整個IRef上搜索與ILR局部相似的紋理、并進行替換。在HR圖像的空間坐標(biāo)中進行特征搜索,使紋理直接遷移到最終輸出圖像ISR。
1)將ILR進行雙三次上采樣獲得低分辨率的放大圖像ILR↑,ILR↑與IHR具有相同的空間大小;
2)對IRef先下采樣后上采樣得到IRef↓↑,IRef↓↑與ILR↑具有相同的結(jié)構(gòu);
3)進行特征提取與相似度匹配。
特征提取只需要匹配ILR↑與IRef↓↑中采集的局部補丁。為了增強低分辨率圖像與參考圖像在結(jié)構(gòu)和紋理方面的信息,本文在神經(jīng)特征空間φI中進行相似度匹配。使用內(nèi)積度量神經(jīng)特征之間的相似性
其中,Si,j是第i個LR圖像ILR↑補丁和第j個Ref圖像IRef↓↑補丁之間的相似度,Pi·表示從神經(jīng)特征圖像中采樣的第i個補丁。
將參考圖像的特征進行歸一化處理以選擇所有Ref補丁j上的最佳匹配。將每個Ref圖像補丁作為卷積核對所有LR圖像補丁進行卷積以計算Ref圖像補丁與LR圖像補丁之間的相似度
其中,Sj是第j個Ref圖像補丁與所有ILR↑圖像補丁的相似圖,表示卷積運算。
采用Sjx,y來描述以位置x,y為中心的LR圖像補丁和第j個Ref圖像補丁之間的相似度,LR圖像和Ref圖像補丁都是從各自對應(yīng)的圖像中密集采樣的。基于LR圖像與Ref圖像的相似度,在此造一個特征匹配圖M表示紋理增強后的LR圖像。M中以x,y為中心的補丁定義為
其中,ω·,·為將補丁中心映射到補丁索引,j為使Sjx,y取最大值時j的取值。值得注意的是,IRef↓↑用于匹配式(2),原始參考IRef用于交換式(3)以便保留原始HR圖像的信息。由于LR圖像補丁的密集采樣,重疊區(qū)域的交換特征Pj*φIRef取平均值。最終每一層低分辨率圖像都將得到一個與其對應(yīng)的特征匹配圖M。
1.2 神經(jīng)紋理遷移
圖像重建部分通過神經(jīng)紋理遷移實現(xiàn),將交換特征圖M合并到對應(yīng)比例特征層的基本生成網(wǎng)絡(luò)來設(shè)計紋理遷移模型,使用殘差網(wǎng)絡(luò)與跳躍鏈接構(gòu)成基本生成網(wǎng)絡(luò)[11-13]。紋理遷移網(wǎng)絡(luò)利用原始低分辨率圖像和交換特征圖M從高級到低級逐步恢復(fù)超分辨率圖像,每個紋理遷移的過程相同,輸出圖像的尺寸、分辨率逐漸提高。單個級別的紋理遷移網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示??梢钥闯?,紋理遷移網(wǎng)絡(luò)從與ψl (ILR)相對應(yīng)的Ml中提取相關(guān)紋理并將其與目標(biāo)內(nèi)容合并。
網(wǎng)絡(luò)第l層的輸出ψl定義為
其中,Res·表示殘差網(wǎng)絡(luò),‖表示信號級聯(lián),↑2×表示使用子像素卷積[14]將合并后的圖像放大兩倍作為下一層的輸入,最終SR結(jié)果圖像在L層之后生成,達到目標(biāo)HR圖像分辨率
2 損失函數(shù)
為了保留LR圖像的空間結(jié)構(gòu)、提高SR圖像的視覺質(zhì)量以及充分利用Ref圖像的紋理信息。本文神經(jīng)網(wǎng)絡(luò)模型的損失函數(shù)結(jié)合了對抗損失、重建損失、感知損失和紋理損失。
對抗損失(Adversarial loss)可以顯著提高合成圖像的視覺質(zhì)量[15],這里引用WGAN-GP[16],通過梯度懲罰來改進WGAN[17]以獲得更穩(wěn)定的結(jié)果。對抗損失表示為
其中,K是1-Lipschitz函數(shù)的集合,Pr和Pg是模型分布與實際分布。D是鑒別器,D(x)表示判決樣本為正確的概率。x表示實際分布的樣本點。=G(z),z~p(z),z服從于投到生成器中噪聲的分布。G表示圖片生成網(wǎng)絡(luò),接收隨機噪聲z,通過這個噪聲生成圖像,記作G(z)。
重建損失(Reconstruction loss)的目的是獲得更高的峰值信噪比,WGAN[18]中的Wasserstein距離是基于l1范數(shù)的,一致的目標(biāo)有助于優(yōu)化過程,因此本文使用l1范數(shù)代替均方誤差(MSE)進行衡量,與均方誤差(MSE)相比,使用l1范數(shù)將進一步提高ISR的峰值信噪比
通過對感知損失(Perceptual loss)[19]進行研究可獲得更好的視覺質(zhì)量。本文對VGG19網(wǎng)絡(luò)的relu5_1層[20]進行研究
其中,V與C分別代表特征圖的Volume與Channel,φi代表VGG19網(wǎng)絡(luò)隱藏層中提取特征圖的第i個通道,·F表示Frobenius范數(shù)。
紋理損失(Texture loss)為
其中,G·表示Gram矩陣,用于計算兩個特征之間的相關(guān)性,λl是對應(yīng)于特征層l的歸一化因子。Sl是所有LR圖像補丁的加權(quán)映射。直觀地說,與ILR不同的紋理在紋理傳輸中得到較低的懲罰權(quán)重。這種方式可以根據(jù)Ref圖像質(zhì)量自適應(yīng)地從IRef到ISR進行紋理傳輸,最終輸出更為健壯的紋理。
3 實驗結(jié)果與分析
3.1 數(shù)據(jù)集與實驗細節(jié)
為了證實算法在膝關(guān)節(jié)MRI圖像超分辨率重建方面的有效性,從膝關(guān)節(jié)MRI圖像數(shù)據(jù)集中裁剪5 000對大小為160×160的圖像作為數(shù)據(jù)集,且輸入圖像與參考圖像具有不同程度相似度。圖3展示了其中兩組來自數(shù)據(jù)集的樣本。
訓(xùn)練IRefSR時Adam優(yōu)化器的學(xué)習(xí)率為1e-4,Lrec、Lper、Ladv和Ltex的權(quán)重分別為1、1e-4、1e-6、1e-4。先用重建損失訓(xùn)練2輪再使用全部損失訓(xùn)練20輪。計算機語言使用Python,框架為TensorFlow,GPU廠商為NVIDIA.
3.2 視覺效果比較
作為比較示例,本文從膝關(guān)節(jié)MRI數(shù)據(jù)集中選取2張圖像,將雙三次插值算法、基于深度學(xué)習(xí)的SRCNN算法與本文基于參考的超分辨率算法進行了比較,效果如圖4所示。可知,本文算法在細節(jié)與紋理上都有較好的表現(xiàn),只有IRefSR可以正確重建膝關(guān)節(jié)上的紋理,對比其他算法圖像線條更加清晰,且與現(xiàn)有方法相比,在重建圖像細節(jié)上的表現(xiàn)更加精確。本文采用兩個常用的圖像質(zhì)量指標(biāo)來評估模型性能,分別是峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)與結(jié)構(gòu)相似度(Structural Similarity, SSIM)。選擇這兩種比較方法是為了對重建結(jié)果進行互補評估。PSNR是基于誤差敏感的圖像質(zhì)量評價,強調(diào)整體重建精度,SSIM強調(diào)圖像質(zhì)量的感知。
由表1可知,相較于Bicubic和SRCNN兩種算法,IRefSR在測試集上可得到更高的PSNR與SSIM值。證明IRefSR在膝關(guān)節(jié)MRI超分辨率圖像重建上具有更好的性能,適用于膝關(guān)節(jié)MRI超分辨率重建任務(wù)。
4 結(jié)論
本文提出了一種IRefSR算法,能夠根據(jù)紋理相似性自適應(yīng)地從參考圖像遷移紋理來豐富低分辨率圖像的細節(jié)。在膝關(guān)節(jié)MRI數(shù)據(jù)集上進行訓(xùn)練并與雙三次插值算法、SRCNN算法進行對比得到紋理細節(jié)更加豐富的重建圖像,證明了IRefSR算法在膝關(guān)節(jié)MRI重建方面的應(yīng)用價值,患者的安全性也將隨著圖像質(zhì)量的提高而提高。
參考文獻
[1]MAXIM Z, JULIAN M, MICHAEL H. Motion artifacts in MRI: A complex problem with many partial solutions[J]. Journal of Magnetic Resonance Imaging, 2015, 42(4):887-901.
[2]WANG Z, LIU D, YANG J, et al. Deep networks for image Super-Resolution with sparse prior[C]//2015 IEEE International Conference on Computer Vision (ICCV), Santiago, 2016: 370-378.
[3]WEI W, FENG G, ZHANG D, et al. Accurate single image super-resolution using cascading dense connections[J]. Electronics Letters, 2015, 55(13): 739-742.
[4]HONG X, ZAN Y, WANG W, et al. Enhancing the image quality via transferred deep residual learning of coarse PET sinograms[J]. IEEE Transactions on Medical Imaging, 2018, 37(10):2322-2332.
[5]劉世豪,李軍.基于改進的深度卷積神經(jīng)網(wǎng)絡(luò)的單圖像超分辨率重建[J].青島大學(xué)學(xué)報(自然科學(xué)版),2019,32(1):106-111.
[6]DONG C, LOY C C, TANG X. Accelerating the Super-Resolution convolutional neural network[C]// 14th European Conference on Computer Vision. Amsterdam: Springer International Publishing. Amsterdam, 2016: 391-407.
[7]YUE H, SUN X, MEMBER S, et al. Landmark image Super-Resolution by retrieving Web images[J]. IEEE Transactions on Image Processing, 2013, 22(12):4865-4878.
[8]WALLS T J, LIKHAREY K K. Self-organization in autonomous, recurrent, firing-rate crossnets with quasi-hebbian plasticity[J]. IEEE Transactions on Neural Networks and Learning Systems, 2013, 25(4):819-824.
[9]LIU W, LIU X, JI J, et al. Sound texture generative model guided by a lossless Mel-frequency convolutional neural network[J]. IEEE Access, 2018, 6:48030-48041.
[10] SUN L B, HAYS J. Super-resolution from internet-scale scene matching[C]// 2012 IEEE International Conference on Computational Photography. Seattle, 2012:1-12.
[11] NARANJO J, PERES S, MARTIN I, et al. A comparative analysis of residual block alternatives for End-to-End audio classification[J]. IEEE Access, 2020, 8:188875-188882.
[12] CHEN W, LIU Y, YAN Y, et al. Guided dual networks for single image Super-Resolution[J]. IEEE Access, 2020, 8:93608-93620.
[13] SHI W, CABALLERO J, FERENC H, et al. Real-time single image and video Super-resolution using an efficient Sub-pixel convolutional neural network[C]// 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Seattle, 2016: 1874-1883.
[14] HO S, QU Y, GAO L X, et al. Generative adversarial nets enhanced continual data release using differential privacy[C]// Algorithms and Architectures for Parallel Processing-19th International Conference. New York, 2019: 418-426.
[15] CHEN L, HU X, ZHANG Z. Face aging with boundary equilibrium conditional autoencoder[J]. IEEE Access, 2018, 6:54834-54843.
[16] ZHU H, LEUNG R, HONG M. Shadow compensation for synthetic aperture radar target classification by dual parallel generative adversarial network[J]. IEEE Sensors Letters. 2020, 4(8):1-4.
[17] 姜玉寧, 李勁華, 趙俊莉. 生成式對抗網(wǎng)絡(luò)模型研究[J]. 青島大學(xué)學(xué)報(自然科學(xué)版), 2019, 32(3):31-38,43.
[18] ISHAAN G, FARUK A, ARJOVSKY M, et al. Improved training of wasserstein GANs[C]// Advances in Neural Information Processing Systems 30-Proceedings of the 2017 Conference. New York, 2017: 5768-5778.
[19] FAN B. A performance evaluation of local features for image-based 3D reconstruction[J]. IEEE Transactions on Image Processing, 2019, 28(10):4774-4789.
[20] FAN J. HD-MTL: Hierarchical deep multi-task learning for large-scale visual recognition[J]. IEEE Transactions on Image Processing, 2017, 26(4):1923-1938.