• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于L曲線調(diào)參的FOTV-ADMM超分辨率圖像重建*

      2021-08-30 01:45:14楊曉梅徐秋怡田巧玉
      電訊技術(shù) 2021年8期
      關(guān)鍵詞:正則分辨率細(xì)節(jié)

      徐 文,楊曉梅,徐秋怡,田巧玉,劉 凱

      (1.四川大學(xué)錦江學(xué)院 電氣與電子信息工程學(xué)院,四川 眉山 620860; 2.四川大學(xué) 電氣工程學(xué)院,成都610207;3.中央民族大學(xué) 信息工程學(xué)院,北京100081)

      0 引 言

      大數(shù)據(jù)信息時(shí)代,超分辨率圖像重建技術(shù)通過軟件編程的方式來提高圖像的分辨率,在沒有替換原有的成像設(shè)備前提下,從包含不同細(xì)節(jié)的低分辨圖像中采集有用信息融合成一幅高分辨圖像。其技術(shù)主要的思想是用同一場(chǎng)景的圖像序列的時(shí)間分辨率來換取更高的一個(gè)空間分辨率[1]。通過超分辨重建的方法處理視頻圖像就是從多個(gè)低分辨率圖像中連續(xù)幀之間的相關(guān)聯(lián)系來得到原始圖像中高分辨圖像的相關(guān)信息,獲得更清晰、分辨率更高、內(nèi)容信息更加豐富的圖像視頻信息。超分辨率圖像和視頻重建在監(jiān)控設(shè)備、衛(wèi)星圖像和醫(yī)學(xué)影像等領(lǐng)域都有重要的應(yīng)用價(jià)值。

      20世紀(jì)80年代,Tsai和 Huang[2]首先發(fā)現(xiàn)了基于序列或多幀圖像的超分辨率重建問題,他們通過實(shí)驗(yàn)分析且證明了從互相平移得到的圖像序列中能夠獲取到分辨率更高的靜態(tài)圖像,并且給出了在從時(shí)域轉(zhuǎn)換到頻域里解決問題的方法。近年來,壓縮感知增強(qiáng)技術(shù)和超分辨率圖像復(fù)原技術(shù)為圖像復(fù)原的研究注入了新的力量[3-9]。人工智能中深度學(xué)習(xí)的發(fā)展,突破了圖像的分割和分類的傳統(tǒng)技術(shù),特別是基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)的單幅圖像重建(Super-Resolution CNN,SRCNN)[10]算法能夠快速重建高分辨率的圖像。但SRCNN算法對(duì)網(wǎng)絡(luò)參數(shù)敏感,要求訓(xùn)練參數(shù)稠密,減緩了訓(xùn)練速度,對(duì)細(xì)節(jié)恢復(fù)效果欠佳。VDSR(Accurate Image Super-Resolution Using Very Deep Convolutional Networks)[11]算法提出只針對(duì)殘差進(jìn)行訓(xùn)練,減輕了網(wǎng)絡(luò)的負(fù)擔(dān),又加速了學(xué)習(xí)速率。再之后的SRGAN(Super-Resolution GAN)[12]等算法將生成式對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)用于SR問題,提升重建圖片的真實(shí)感。

      從數(shù)學(xué)角度看,超分辨率重建是一個(gè)典型的病態(tài)不適應(yīng)問題[13]。 對(duì)于不適應(yīng)問題,正則化的求解方法是非常有效的。正則化的方法為保證求解過程的穩(wěn)定性,通過加入性質(zhì)不同的先驗(yàn)信息來約束重建過程,從而將超分辨率圖像重建由病態(tài)轉(zhuǎn)為良態(tài)問題。相對(duì)于深度學(xué)習(xí)圖像處理問題,基于三層神經(jīng)網(wǎng)絡(luò)SRCNN算法雖然通過使用較大的卷積核可以減少計(jì)算量,但卷積計(jì)算時(shí)大量丟失高頻信息,對(duì)于紋理的處理仍然出現(xiàn)過平滑,特征的提取不夠準(zhǔn)確,重建質(zhì)量受到影響。SRGAN算法能提升高頻圖像真實(shí)感,但仍存在放大細(xì)節(jié)部分的像素塊模糊[12]。 考慮到此類模型訓(xùn)練的數(shù)據(jù)量龐大與研究設(shè)備費(fèi)用高昂?jiǎn)栴},本文仍堅(jiān)持以傳統(tǒng)非深度學(xué)習(xí)的方法為研究重點(diǎn),探討正則項(xiàng)的選取對(duì)于圖像高頻紋理細(xì)節(jié)重建保持問題,分析超分辨率圖像重建的過平滑現(xiàn)象根源,改善圖像重建質(zhì)量。

      2 超分辨率圖像重建方法

      本文提出基于傳統(tǒng)的全變分正則化(Total Variation,TV)模型引入了交替方向乘子法(Alternating Direction Method of Multipliers,ADMM)[14]。 ADMM重建算法將有約束的問題轉(zhuǎn)化為無約束的問題,在求解模型中某一個(gè)變量的同時(shí)固定另一個(gè)變量,通過固定迭代的方式更新模型中的每一個(gè)變量達(dá)到求解目的。針對(duì)TV-ADMM重建效果中出現(xiàn)的問題,本文引入分?jǐn)?shù)階全變分(Fractional Order Total Variation,FOTV)正則項(xiàng)約束的模型,同樣使用ADMM算法進(jìn)行求解,改善超分辨率圖像重建效果。

      2.1 ADMM算法

      ADMM算法是專門用于解決可分離凸規(guī)劃問題而被提出的一種方法,適用于各類優(yōu)化問題。ADMM算法一般解決的問題形式如下[14]:

      minf(x)+g(z)

      (1)

      s.t.A(x)+B(z)=C。

      (2)

      式中:x∈n,z∈m,A∈p×n,B∈p×m,C∈p,p、m、n分別為空間的維度;f(x)和g(z)表示的是凸函數(shù);增廣拉格朗日(Lagrangian)函數(shù)用于求解凸優(yōu)化問題,

      Lρ(x,z,λ)=f(x)+g(z)+λT(Ax+Bz-C)+

      (3)

      式中:λ為Lagrangian 乘子,ρ>0為懲罰參數(shù)。

      ADMM算法的迭代步驟如下:

      xk+1=arg minxLρ(x,zk,λk) ,

      (4)

      zk+1=arg minzLρ(xk+1,z,λk),

      (5)

      λk+1=λk+ρ(Axk+1+Bzk+1-C) 。

      (6)

      式中:ρ>0是懲罰參數(shù)。ADMM迭代算法包括x、z變量極小化和一個(gè)對(duì)偶變量的迭代。為方便計(jì)算,將ADMM算法迭代步驟等價(jià)為下列式子,定義參量

      r=Ax+Bz-C,

      (7)

      計(jì)算得到

      (8)

      (9)

      (10)

      uk+1=uk-Axk+1+Bzk+1-C。

      (11)

      乘子法和ADMM乘子法類似,把x、z兩個(gè)變量一起求解,而ADMM是將目標(biāo)函數(shù)分離求解,和Gauss-Seidel方法迭代一步類似。和乘子法相似,只是用zk+1最小化式子:

      (12)

      其中用到了對(duì)偶式子

      (13)

      ADMM算法的有效性主要由選取的拉格朗日(Lagrange)乘子決定,可以從算法的收斂性分析中得出。

      2.2 基于TV-ADMM的超分辨率圖像重建

      超分辨率圖像退化模型表示為[15]

      Y=DHMu+n。

      (14)

      式中:u為高清圖像,Y為低分辨率圖像,D為下采樣因子,H為模糊因子,M為運(yùn)動(dòng)因子,n為隨機(jī)噪聲,μ為正則化參數(shù),本文中沒有移位變換所以M不考慮為1?;赥V全變分約束的正則化圖像重建模型描述為以下形式:

      (15)

      模型由保真項(xiàng)和正則項(xiàng)組成,其中正則項(xiàng)φ(u)=TV(u)為全變分[16]可以表示為圖像像素離散梯度之和,即離散梯度的l1范數(shù)形式:

      (16)

      (17)

      (18)

      超分辨率圖像重建問題(15)是病態(tài)的逆問題,ADMM算法通過引入變量d替換原模型中的不可微項(xiàng)φ(u),可以得到與其等價(jià)的約束優(yōu)化問題:

      (19)

      對(duì)于約束優(yōu)化問題,其增廣拉格朗日乘子函數(shù)

      (20)

      式中:<>表示內(nèi)積。從而將式(20)轉(zhuǎn)換為兩個(gè)子問題m、n。

      (1)子問題m:固定u求d

      (21)

      子問題m可以通過收縮閾值方法求解:

      (22)

      (23)

      (2)子問題n:固定d求u

      (24)

      問題(24)等價(jià)于

      (25)

      本文中φ(u)=u為正則項(xiàng),其中Y是輸入的低分辨圖像。用快速傅里葉變換處理公式(25),得

      μHTDT(DHu-T)+λT+βTu-βTd=0,

      (26)

      (27)

      更新

      λk+1=λ-γβ(dk+1-u) ,

      (28)

      Yk+1=Yk+(Y-DHuk+1) 。

      (29)

      2.3 基于L曲線調(diào)參的FOTV-ADMM圖像重建

      L曲線是以(‖Axμ-b‖2,‖xμ‖2)為坐標(biāo)所構(gòu)成的一條單調(diào)遞減曲線,該項(xiàng)對(duì)應(yīng)于本文模型(15)中的‖Y-DHu‖,這些點(diǎn)與正則化參數(shù)呈一一對(duì)應(yīng)的關(guān)系。圖1為Tikhonov正則化的L曲線[17],其中圓圈表示TGSVD正則化的L曲線。

      圖1 Tikhonov正則化的L曲線

      ‖Axμ-b‖2為殘差項(xiàng),‖Lxμ‖2為正則化解,對(duì)于L曲線法來說,作為基本問題需要同時(shí)考慮到正則化解和殘差項(xiàng)。圖1中L曲線水平部分與垂直部分的相交處作為正則化最優(yōu)參數(shù)解。由于正則化參數(shù)過大會(huì)引起正則化誤差主導(dǎo)水平位置對(duì)應(yīng)的正則化解,過小則會(huì)使垂直部分對(duì)應(yīng)的正則化解主要受到b中的誤差影響,而在相交處,均衡了都較小的一個(gè),因此這個(gè)相交點(diǎn)就對(duì)應(yīng)了一個(gè)最優(yōu)的正則化參數(shù)。所以采用L曲線法,實(shí)際上就是為了求出曲線相交處的位置。

      自適應(yīng)的離散L曲線算法的關(guān)鍵之處就是適量的移除曲線上的點(diǎn),來盡可能快速地找到該曲線的相交處。自適應(yīng)算法的流程如下:

      Step1 初始化處理,將所有殘差項(xiàng)和正則化解為0的點(diǎn)進(jìn)行移除。

      Step2 選出所有的轉(zhuǎn)折點(diǎn)。

      Step3 選出真正的相交處。

      本文基于L曲線曲率最大的規(guī)則即曲線是二次可微的,求解最大曲率點(diǎn)K(μ):

      (30)

      式中:ρ=‖Axu-b‖2,η=‖xμ‖2,ρ′表示的是對(duì)μ求導(dǎo)。但如果采用的正則化方法求得的正則化參數(shù)是非連續(xù)變動(dòng)的,則該曲線不可微,所以不能直接求出曲率,需要利用一條曲線去擬合這些離散點(diǎn)去選取正則化參數(shù),接著再尋找相交處的位置,然后從離散點(diǎn)中選擇離擬合曲線相交處最近的點(diǎn),這個(gè)點(diǎn)就是最佳正則化參數(shù)。

      分?jǐn)?shù)階理論中出現(xiàn)了不同定義的分?jǐn)?shù)階函數(shù),利用其中的Grümwald-Letnikov(G-L)定義構(gòu)造分?jǐn)?shù)階梯度算子。一般意義下的二次項(xiàng)系數(shù)定義為

      (31)

      式中:

      (32)

      (33)

      (34)

      (35)

      (36)

      分?jǐn)?shù)階可以表示為

      (37)

      其中根據(jù)分?jǐn)?shù)階不同階次的幅頻曲線,a的取值范圍為1

      在求代價(jià)方程(15)最小值的過程中,基于G-L定義選取分?jǐn)?shù)階作為正則項(xiàng)約束,重建問題(15)表示為

      (38)

      (39)

      A=u-μHTDT(DHu-Y)。

      (40)

      類似于全變分求解,根據(jù)分?jǐn)?shù)階的約束問題,本文使用ADMM算法求解,引入變量p表示au,原目標(biāo)問題變?yōu)橛屑s束的優(yōu)化問題:

      (41)

      對(duì)于分?jǐn)?shù)階優(yōu)化問題,其增廣拉格朗日乘子函數(shù)

      (42)

      ADMM算法將問題(41)轉(zhuǎn)換為兩個(gè)子問題求解。

      (1)子問題1:固定u求p

      (43)

      可以通過收縮閾值方法求解子問題1:

      (44)

      (2)子問題2:固定p求u

      子問題2的求解中涉及到正則化參數(shù)μ的選取。根據(jù)正則項(xiàng)變化連續(xù),本文首先計(jì)算該點(diǎn)曲率K(μ),將其設(shè)置為最大曲率點(diǎn)K(μ)max,與之后迭代過程中通過殘差項(xiàng)計(jì)算曲率再更新參數(shù)μ。

      (45)

      問題(45)等價(jià)于

      (46)

      使用快速傅里葉變換處理公式(46),得

      (47)

      更新拉格朗日乘子和近端映射算子:

      λk+1=λ-γβ(pk+1-au),

      (48)

      Ak+1=u-μk+1HTDT(DHu-Yk+1) 。

      (49)

      基于參數(shù)自適應(yīng)的FOTV-ADMM算法流程如下:

      Step1 初始化ε=1×10-4,γ=2,μ=0.000 3,β=0.008,a=1.2,Y0=Y,u0=FillUnknown(Y)。

      Step2 計(jì)算Ak+1=uk-μHTDT(DHuk-Yk)。

      Step4 引入變量p=au。

      Step6 更新正則化參數(shù)μk+1。

      Step8 迭代更新λk+1=λk-γβ(pk+1-uk+1),Yk+1=Yk+(Y-DHuk+1)。

      Step9 若‖uk+1-uk‖2≤ε停止迭代。

      Step10 輸出uk+1。

      其中ε為迭代終止閾值,在本文中的u0由Y采用雙線性插值方法填充得到。本文算法均可通過matlab/C++編程實(shí)現(xiàn)。算法流程圖如圖2所示。

      圖2 算法流程

      3 實(shí)驗(yàn)與結(jié)果分析

      3.1 實(shí)驗(yàn)設(shè)置及評(píng)價(jià)指標(biāo)

      選取Matlab2014b作為軟件仿真平臺(tái),深度學(xué)習(xí)對(duì)比算法環(huán)境為Window7+caffe架構(gòu)+cuda6.0+NVIDIA333.11。分別選取Lena(512×512)、Lena(256×256)、Baboon(512×512)、Caneraman(256×256)、Barbara(512×512)、Pepper(490×490)、Girl(280×280)作為2倍超分辨率圖像的實(shí)驗(yàn)原圖,如圖3所示。

      圖3 原始超分辨率圖像

      超分辨率圖像重建的結(jié)果往往依靠人眼視覺來判斷,因人而異,作為主觀評(píng)價(jià),不能做到統(tǒng)一。

      在選擇重建效果評(píng)價(jià)標(biāo)準(zhǔn)上本文選擇峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)和結(jié)構(gòu)相似性度量(Structural Similarity,SSIM)兩種公認(rèn)客觀的評(píng)價(jià)指標(biāo)來證明本文提出方法的有效性,兩種指標(biāo)越大就代表重建的效果越好[16]。

      3.2 各圖像的2倍超分辨率重建結(jié)果對(duì)比

      實(shí)驗(yàn)選取圖1的5幅原始圖像來做2∶1等間距下采樣,之后以2倍超分辨率來進(jìn)行實(shí)驗(yàn),對(duì)比的算法為Bilinear Interpolation雙線性插值法、Bicubic interpolation雙三次插值法、深度學(xué)習(xí)算法SCRNN和VDSR算法、TV-ADMM和FOTV-ADMM以及基于L曲線調(diào)參的FOTV-ADMM算法(簡(jiǎn)寫為AFOTV),模糊核選取高斯模糊。表1為在2倍超分辨率下各算法的客觀實(shí)驗(yàn)效果對(duì)比,表2為Lena512在不同算法下2~8倍數(shù)超分辨重建實(shí)驗(yàn)結(jié)果,表3為選取Cameraman256灰度圖像加入高斯噪聲均值為0方差從0.001~0.02變化的高斯噪聲各算法的重建實(shí)驗(yàn)結(jié)果對(duì)比,所有實(shí)驗(yàn)迭代次數(shù)為50次。由于篇幅限制只選取部分主觀實(shí)驗(yàn)結(jié)果展示,圖像Lena512帽子邊緣細(xì)節(jié)圖對(duì)比分析如圖4所示,Barbara衣服紋理部分如圖5白框標(biāo)注所示。圖6為Lena512圖L曲線參數(shù)調(diào)節(jié)結(jié)果

      表1 2倍超分辨率各算法的PSNR和SSIM值對(duì)比 單位:dB

      表2 Lena(512)2~8倍放大的各方法PSNR和SSIM值對(duì)比 單位:dB

      表3 不同方差的高斯噪聲下各算法的PSNR和SSIM值對(duì)比 單位:dB

      圖4 2倍超分辨率Lena帽子細(xì)節(jié)圖實(shí)驗(yàn)效果展示

      圖5 2倍超分辨率Babara圍巾細(xì)節(jié)圖實(shí)驗(yàn)效果展示

      圖6 Lena512圖L曲線參數(shù)調(diào)節(jié)結(jié)果

      (a)不同放大倍數(shù)下各算法重建PSNR值曲線

      (b)不同噪聲下各算法重建PSNR值曲線圖7 各算法在不同條件下重建效果曲線圖

      圖7(a)為TV-ADMM和FOTV-ADMM算法以及AFOTV-ADMM算法細(xì)節(jié)放大圖。從主觀實(shí)驗(yàn)圖中可以看出在Lena帽子的邊緣和頭發(fā)的紋理細(xì)節(jié)上FOTV重建的圖像比其他方法重建圖像更清晰,細(xì)節(jié)保留效果TV-ADMM法容易丟失部分圖像細(xì)節(jié)紋理信息,帽沿邊緣羽毛出現(xiàn)過平滑現(xiàn)象;Bilinear法整體效果較模糊、細(xì)節(jié)不清晰;Bicubic從Barbara細(xì)節(jié)圖上的紋理效果重建來看稍遜于AFOTV和算法。

      FOTV模型算法有獨(dú)特的幅頻特性優(yōu)勢(shì),能很好地保留圖像邊緣特征,更多的圖像紋理信息也能保留,有提升高頻的作用,中頻也隨之增強(qiáng),非線性保留低頻部分。利用分?jǐn)?shù)階不僅能保持圖像邊緣特征,對(duì)于處理平滑區(qū)域內(nèi)灰度變化小的紋理細(xì)節(jié)信息也有很好的效果。TV模型是比較經(jīng)典的模型,現(xiàn)實(shí)生活中,很多信號(hào)是非線性不連續(xù)的,這種約束方法常常模糊圖像的邊緣。AFOTV模型通過L曲線調(diào)節(jié)正則化參數(shù),使復(fù)原圖像邊緣更加清晰,紋理部分也更接近原始圖形,更好地保留了圖像紋理信息。深度學(xué)習(xí)算法在圖像亮度方面的改善是比較明顯的,信噪比(Signal-to-Noise Ratio,SNR)值也有比較好的表現(xiàn),但整體由于深層卷積操作,求解最優(yōu)均方誤差(Mean Square Error,MSE)還是會(huì)帶來過平滑現(xiàn)象,對(duì)細(xì)節(jié)的恢復(fù)也存在一定問題。VDSR算法采樣殘差網(wǎng)絡(luò)的思想加速了網(wǎng)絡(luò)學(xué)習(xí)速度提升了效率能獲得穩(wěn)定效果,但總的來說深度學(xué)習(xí)算法學(xué)習(xí)要求時(shí)間較長,設(shè)備性能要求普遍較高。

      由表2可知,放大倍數(shù)越大,AFOTV算法處理的峰值信噪比值也更大一些。圖6中AFOTV算法在2倍放大時(shí)處理效果較佳,結(jié)構(gòu)相似度的值要比TV算法大;在其他倍數(shù),較深度學(xué)習(xí)網(wǎng)絡(luò)有較大的差距,但結(jié)構(gòu)相似度性上表現(xiàn)更好。表3和圖7表明,在噪聲較大的時(shí)候得益于TV的過平滑重建現(xiàn)象,TV的去噪能力較其他幾種算法好,但對(duì)細(xì)節(jié)的還原度上有待改進(jìn);FOTV和AFOTV算法對(duì)紋理細(xì)節(jié)恢復(fù)較好,但在對(duì)高頻噪聲抑制方面性能還有待提升。

      4 結(jié)束語

      圖像中灰度變化較緩慢的區(qū)域?qū)?yīng)低頻平滑部分,TV-ADMM算法對(duì)于圖像低頻信號(hào)的重建有較好的效果,但由于圖像邊緣的灰度值變化快,將連續(xù)高頻率的光滑細(xì)節(jié)處理成分段等值信號(hào)容易出現(xiàn)階梯效應(yīng)和過平滑現(xiàn)象。本文提出的FOTV-ADMM算法實(shí)驗(yàn)結(jié)果表明,該算法適合于邊緣比較銳利陡峭的圖像,防止出現(xiàn)過平滑現(xiàn)象的同時(shí)能有效保留圖像的細(xì)節(jié)和結(jié)構(gòu)相似度。對(duì)于灰度值變化快的區(qū)域,增大正則化參數(shù)有利于提升重建質(zhì)量但不能過大造成平滑,L曲線的調(diào)節(jié)選參不同于傳統(tǒng)手動(dòng)調(diào)參算法,能有效改善重建質(zhì)量,在國防監(jiān)控,醫(yī)學(xué)診療圖像恢復(fù)等領(lǐng)域具有較大的實(shí)用價(jià)值。下一步將在降低算法復(fù)雜度和減少訓(xùn)練時(shí)間上開展更多的研究應(yīng)用。

      猜你喜歡
      正則分辨率細(xì)節(jié)
      以細(xì)節(jié)取勝 Cambridge Audio AXR100/ FOCAL ARIA 906
      EM算法的參數(shù)分辨率
      剩余有限Minimax可解群的4階正則自同構(gòu)
      原生VS最大那些混淆視聽的“分辨率”概念
      留心細(xì)節(jié)處處美——《收集東·收集西》
      類似于VNL環(huán)的環(huán)
      基于深度特征學(xué)習(xí)的圖像超分辨率重建
      一種改進(jìn)的基于邊緣加強(qiáng)超分辨率算法
      細(xì)節(jié)取勝
      Coco薇(2016年10期)2016-11-29 19:59:58
      有限秩的可解群的正則自同構(gòu)
      无极县| 赤水市| 五河县| 印江| 合水县| 木兰县| 年辖:市辖区| 延吉市| 资阳市| 同江市| 云和县| 炉霍县| 临洮县| 尼玛县| 论坛| 昭平县| 察雅县| 弥渡县| 永寿县| 花莲市| 宁陕县| 贡嘎县| 修文县| 甘孜县| 宝应县| 惠安县| 通许县| 连江县| 吉安县| 马鞍山市| 漠河县| 宣威市| 孝感市| 江西省| 邳州市| 吉木乃县| 芒康县| 如东县| 克什克腾旗| 商丘市| 前郭尔|