• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      面向圖像復(fù)原的殘差密集生成對抗網(wǎng)絡(luò)新方法

      2020-04-11 02:55:02許乾坤李克東
      小型微型計算機系統(tǒng) 2020年4期
      關(guān)鍵詞:復(fù)原殘差損失

      李 燁,許乾坤,李克東

      (上海理工大學(xué) 光電信息與計算機工程學(xué)院,上海 200093)

      1 引 言

      近年來,隨著電子信息技術(shù)和移動互聯(lián)網(wǎng)技術(shù)的飛速發(fā)展,各種具有手持拍攝功能的智能終端設(shè)備得到了極大普及.然而在圖像實際拍攝和傳播的過程中,因受成像距離、成像設(shè)備分辨率、相機抖動等因素的影響,往往會使圖像在獲取的過程產(chǎn)生質(zhì)量退化,導(dǎo)致圖像模糊[1].如何避免圖像退化,改善圖像質(zhì)量,一直以來都是圖像處理領(lǐng)域亟待解決的問題.

      攝影過程中造成的圖像模糊按照形成條件可以分為運動模糊、失焦模糊和高斯模糊三大類.其中,運動模糊是造成圖像退化的主要原因,也是研究的熱點之一.在獲取圖像的瞬間,攝像機與目標(biāo)物體之間發(fā)生相對移動導(dǎo)致的圖像質(zhì)量退化,稱為運動模糊[2].從數(shù)學(xué)角度來看,運動模糊可以看成是清晰圖像與模糊核進行卷積產(chǎn)生的結(jié)果,在實際場景中,通常還會有隨機噪聲摻雜其中,其數(shù)學(xué)模型可以表示為:

      B=K*S+N

      (1)

      其中,B表示模糊圖像,K表示模糊核,S表示清晰圖像,*表示卷積運算,N表示加性噪聲.而圖像去運動模糊可以簡化為一個求解圖像的反卷積過程,根據(jù)圖像模糊的基本原理并借助一定的圖像先驗知識,從一張或多張模糊圖像中重建出接近于真實圖像的清晰圖像.根據(jù)模糊核K的已知情況,可以將去模糊方法分為非盲去模糊[3]和盲去模糊[4]兩大類.非盲去模糊可以直接根據(jù)模糊圖像和已知模糊核求解出清晰圖像.而盲去模糊只有估計出精準(zhǔn)的模糊核才能恢復(fù)潛在的清晰圖像,否則會直接影響復(fù)原圖像的質(zhì)量,產(chǎn)生振鈴現(xiàn)象[5].鑒于傳統(tǒng)的圖像去運動模糊方法存在計算過程復(fù)雜、受噪聲影響較大、對模糊核估計要求較高等缺陷,基于深度學(xué)習(xí)的去模糊方法應(yīng)運而生,寄望于利用深度神經(jīng)網(wǎng)絡(luò)強大的特征學(xué)習(xí)和表達能力,提升去模糊的質(zhì)量和效率.特別是生成對抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)的出現(xiàn)為計算機視覺應(yīng)用提供了新的技術(shù)和手段,本文提出了一種基于殘差密集生成對抗網(wǎng)絡(luò)的去運動模糊方法,采用端到端的方式,直接將一幅模糊圖像復(fù)原為清晰圖像而無需估計模糊核.

      2 相關(guān)工作

      2.1 圖像去運動模糊

      早期的圖像去模糊研究主要針對非盲去模糊,即在模糊核已知的條件下對模糊圖像進行復(fù)原.迄今為止,已經(jīng)有許多非盲去模糊算法被提出,如經(jīng)典的維納濾波法[6]、Richardson-Lucy算法[7,8]等.然而在大多數(shù)情況下,我們很難提前獲取模糊核的有效信息,找到每個像素值相對應(yīng)的模糊核是一個嚴(yán)重的不適定性問題,這是盲去模糊的困難所在.目前,常用的盲去模糊算法大多依據(jù)貝葉斯理論,具體可以分為兩大類:變分貝葉斯(Variational Bayes,VB)和最大后驗概率(Maximum A Posteriori,MAP).與變分貝葉斯算法相比,最大后驗概率算法的推導(dǎo)簡單且計算復(fù)雜度較低,因而使用比較廣泛.Fergus等[9]首次利用自然圖像的統(tǒng)計信息等先驗知識成功地從比較嚴(yán)重的單幅運動模糊圖像中恢復(fù)出潛在的清晰圖像,但該算法會出現(xiàn)明顯的振鈴現(xiàn)象.Shan等[10]針對Fergus算法的不足,提出了結(jié)合局部先驗和自然圖像的稀疏梯度先驗的去模糊方法,有效復(fù)原出清晰圖像并且減輕了振鈴現(xiàn)象.Xu和Jia[11]提出了一種兩階段模糊核估計算法,并利用正則化約束的方法對圖像進行交替復(fù)原,該算法取得了較好的去模糊效果,但是計算比較復(fù)雜.2011年Krishnan等[12]提出一種歸一化圖像稀疏先驗的盲去模糊算法,能夠快速對模糊圖像進行復(fù)原,但復(fù)原出的圖像質(zhì)量并不是很高.Whyte等[13]基于相機曝光過程中旋轉(zhuǎn)速度的參數(shù)化幾何模型,提出了一種新的非均勻盲去模糊算法,但重建出的圖像產(chǎn)生了嚴(yán)重的振鈴現(xiàn)象.Xu等[14]于2013年提出了一個廣義的和數(shù)學(xué)上的L0稀疏表達式且給出了一種有效的去運動模糊新方法.

      近年來,隨著深度學(xué)習(xí)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)被廣泛應(yīng)用于圖像處理領(lǐng)域,并取得了前所未有的巨大成功.Xu等[15]提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的非盲去模糊方法,開辟了深度學(xué)習(xí)在圖像去模糊研究領(lǐng)域的新篇章.2015年,Sun等[16]提出了一種利用卷積神經(jīng)網(wǎng)絡(luò)估計模糊核的盲去模糊方法.Chakrabarti等[17]在2016年提出采用濾波器將輸入圖像進行分解得到圖像特征,并結(jié)合神經(jīng)網(wǎng)絡(luò)的方法估計模糊核,最后通過離散傅里葉變換得到復(fù)原圖像.該方法可以估計不同尺寸的模糊核,但復(fù)原出的圖像會出現(xiàn)邊緣特征模糊現(xiàn)象.Nah等[18]于2017年提出了一種基于深度多尺度卷積神經(jīng)網(wǎng)絡(luò)的圖像去模糊方法,該方法對于自然場景下空間變化的運動模糊圖像有明顯的復(fù)原效果.Nimisha等[19]通過將自編碼器和生成對抗網(wǎng)絡(luò)相結(jié)合,提出一種基于稀疏自編碼的條件生成對抗網(wǎng)絡(luò)用于模糊圖像的盲復(fù)原.Ramakrishnan等[20]提出了一種用于消除運動模糊的深度生成網(wǎng)絡(luò),該方法將密集卷積神經(jīng)網(wǎng)絡(luò)與生成對抗網(wǎng)絡(luò)結(jié)合在一起,構(gòu)建出去運動模糊網(wǎng)絡(luò)模型,取得了較好的去模糊效果.

      2.2 生成對抗網(wǎng)絡(luò)

      GAN是2014年由Goodfellow等[21]提出的一種生成式深度學(xué)習(xí)模型,目前在圖像超分辨率重建[22]、圖像翻譯[23]、風(fēng)格遷移[24]、文本圖像的相互生成[25]以及圖像的還原與修復(fù)[26]等多個計算機視覺領(lǐng)域取得了顯著成功[27].

      該模型采用二人零和博弈的思想,理論上可以逼近任何概率分布.系統(tǒng)由生成器和判別器兩部分構(gòu)成,通過對抗學(xué)習(xí)的方式進行訓(xùn)練.生成器學(xué)習(xí)真實數(shù)據(jù)樣本的潛在分布并生成新的數(shù)據(jù)樣本;而判別器本質(zhì)上為一個二分類器,甄別輸入的數(shù)據(jù)是真實數(shù)據(jù)還是生成器生成的數(shù)據(jù).GAN的優(yōu)化過程可以描述為一個“二元極大極小”博弈問題,優(yōu)化目標(biāo)是達到納什均衡[28],使得生成器能夠估測到數(shù)據(jù)樣本的概率分布.其目標(biāo)函數(shù)定義為:

      (2)

      其中,D表示判別器,G表示生成器,E表示期望,x采樣于真實數(shù)據(jù)分布pdata(x),z采樣于先驗噪聲分布pz(z).

      生成器與判別器的訓(xùn)練過程是交替進行的,更新一方參數(shù)時,另一方的參數(shù)保持不變.為了使生成器能夠盡可能多的學(xué)習(xí)到有效信息,通常情況下,首先需要訓(xùn)練判別器D,然后再訓(xùn)練生成器G.

      1)訓(xùn)練判別器D

      在生成器給定的情況下,優(yōu)化判別器,判別器的目標(biāo)函數(shù)定義為:

      (3)

      對于第一項,當(dāng)輸入判別器的數(shù)據(jù)為真實數(shù)據(jù)x時,我們希望得到的判別結(jié)果D(x)越接近1越好;對于第二項,當(dāng)輸入的數(shù)據(jù)為假樣本時,我們希望得到的結(jié)果D(G(z))越接近0越好,兩項合在一起即最大化判別器目標(biāo)函數(shù).

      2)訓(xùn)練生成器G

      訓(xùn)練生成器時,判別器的權(quán)重參數(shù)被固定,目標(biāo)函數(shù)為:

      (4)

      由于生成器的目標(biāo)是生成更加逼真的數(shù)據(jù)騙過判別器D,所以對于輸入的假樣本G(z),我們希望通過判別器D判別的結(jié)果D(G(z))越大越好(或者說是1-D(G(z))越小越好),即最小化生成器的目標(biāo)函數(shù).

      3 模型架構(gòu)

      基于GAN構(gòu)建的去運動模糊基本網(wǎng)絡(luò)模型如圖1所示,其中生成器的目的是盡量學(xué)習(xí)圖像數(shù)據(jù)樣本的潛在分布,使得生成的圖像盡可能的接近于真實清晰圖像,而判別器的目的是盡量辨別出輸入的圖像數(shù)據(jù)樣本是來自于真實清晰圖像還是來自于生成器生成的圖像.在對抗訓(xùn)練中生成器的生成能力和判別器的判別能力不斷得到提高,當(dāng)判別器的判別能力提升到一定程度,并且無法判別數(shù)據(jù)來源時,可以近似認(rèn)為此時的生成器學(xué)習(xí)到了真實圖像數(shù)據(jù)樣本的分布,整個網(wǎng)絡(luò)到達了一個納什均衡狀態(tài).

      圖1 去運動模糊基本網(wǎng)絡(luò)模型Fig.1 Basic network model of motion deblurring

      3.1 生成器

      生成器的作用是從輸入的模糊圖像中重建出復(fù)原后的清晰圖像,因此,它不僅要保留輸入圖像的結(jié)構(gòu)和細節(jié)信息,而且還要盡可能的消除模糊.不同于原始GAN,本文生成器G的輸入不是隨機噪聲,而是待修復(fù)的模糊圖像.如圖2所示,輸入的模糊圖像首先通過卷積層進行卷積操作,卷積層的參數(shù)設(shè)置為Conv(64,7×7,1×1),即64個7×7的卷積核,步長為1,再填補適宜的0用來保持原圖像的尺寸大小.然后經(jīng)過兩層卷積核大小為3×3、步長為2的步幅卷積,確保生成網(wǎng)絡(luò)在學(xué)習(xí)中能夠獲得提取模糊圖像從像素級特征到內(nèi)容級特征的能力,所提取的淺層特征輸入到由10個殘差密集塊(Residual Dense Block,RDB)構(gòu)成的深度殘差密集網(wǎng)絡(luò)(Residual Dense Network,RDN)[29].RDB的結(jié)構(gòu)如圖3所示,每個RDB除了最后一層卷積層的卷積核大小為1×1、步長為1之外,其余卷積層的卷積核大小均為3×3、步長均為1.所有RDB經(jīng)拼接(Concat)以進行全局特征融合操作,并通過卷積核大小為1×1、步長為1的卷積層進行降維處理.為了使生成網(wǎng)絡(luò)的生成圖像和輸入圖像具有相同的尺寸,使用了兩層步幅為1/2的微步幅卷積進行反卷積操作.生成器中的每一個卷積層后面都緊跟一個實例化標(biāo)準(zhǔn)層(InstanceNorm,IN),除了輸出層使用Tanh激活函數(shù)外,其余層均使用ReLU激活函數(shù).此外,通過增加跳變連接(Skip Connect)來提高整個網(wǎng)絡(luò)的訓(xùn)練速度和收斂性能.RDN結(jié)合殘差網(wǎng)絡(luò)和密集連接網(wǎng)絡(luò)的特性,充分利用了待修復(fù)圖像的所有分層特征,且RDN中的前一個RDB的輸出可以直接訪問后一個RDB的各層,從而使得需要保留的特征信息可以連續(xù)傳遞,為圖像重構(gòu)提供更多的線索信息.考慮到模糊圖像與清晰圖像在像素值上非常接近,深度殘差密集網(wǎng)絡(luò)結(jié)構(gòu)可以更好地學(xué)習(xí)兩幅圖像之間的映射關(guān)系.相比于其它的卷積神經(jīng)網(wǎng)絡(luò)模型,RDN能夠提取圖像不同層次的分層特征,保留圖像中大量的細節(jié)信息,重建出更加完整的圖像.

      圖2 生成器結(jié)構(gòu)Fig.2 Generator structure

      圖3 殘差密集塊結(jié)構(gòu)Fig.3 Residual dense block structure

      3.2 判別器

      判別器結(jié)構(gòu)如圖4所示.判別器一方面用來判斷輸入圖像的真假,另一方面也輔助生成器生成更為接近于真實圖像的去模糊圖像.判別器的輸入維度和生成器的輸出維度一致,都為128×128×3,網(wǎng)絡(luò)結(jié)構(gòu)主要由卷積層、實例標(biāo)準(zhǔn)化層以及LReLU(Leaky ReLU)激活層組成,在判別網(wǎng)絡(luò)的最后一層后面連接Sigmoid激活函數(shù),將輸出映射到[0,1]之間.

      圖4 判別器結(jié)構(gòu)Fig.4 Discriminator structure

      4 損失函數(shù)

      a)對抗損失

      原始生成對抗網(wǎng)絡(luò)的優(yōu)化策略是基于JS散度(Jensen Shannon Divergence)和KL散度(Kullback Leibler Divergence),但是這種優(yōu)化方式會導(dǎo)致訓(xùn)練過程不穩(wěn)定且容易產(chǎn)生梯度消失和模型崩潰的現(xiàn)象.針對上述問題,Arjovsky等[30]提出了使用EM距離(Earth-Mover Distance)作為優(yōu)化策略的Wasserstein生成對抗網(wǎng)絡(luò)(WGAN),相比于原始GAN具有一些改善,但是仍然存在訓(xùn)練困難、收斂速度慢的問題.研究表明,引入對抗損失函數(shù),通過生成器與判別器之間的對抗博弈,可重建出更多的紋理細節(jié)信息,使得生成的圖像在主觀視覺上更加真實銳利.Gulrajani等[31]提出WGAN-GP,采用如下帶梯度懲罰項的對抗損失,以改進WGAN的訓(xùn)練:

      (5)

      b)感知損失

      為了獲得更加清晰的圖像,提升生成圖像的感知效果,引入在ImageNet數(shù)據(jù)集上預(yù)先訓(xùn)練好的VGG-19網(wǎng)絡(luò),該網(wǎng)絡(luò)的卷積核大小為3×3,共有19層,包括16個卷積層和3個全連接層,多個卷積層與非線性的激活層交替的結(jié)構(gòu)使得其特征提取的能力較強,可以衡量生成圖像和真實圖像之間的高維特征差異,并致力于縮小它們.將生成器生成的圖像和目標(biāo)清晰圖像輸入到網(wǎng)絡(luò)中,通過深層卷積神經(jīng)網(wǎng)絡(luò)提取到生成圖像與目標(biāo)圖像空間特征,然后計算兩者的歐式距離.文中通過計算清晰圖像與重建圖像在VGG-19網(wǎng)絡(luò)中第3個池化層前的第3個卷積層的特征差異來計算感知損失,在感知損失的約束下,使得生成的圖像與目標(biāo)清晰圖像在語義上更為相似.感知損失函數(shù)定義為:

      (6)

      其中,S表示清晰圖像,B表示模糊圖像,Wi,j、Hi,j表示特征映射圖的寬和高,φi,j表示在VGG-19網(wǎng)絡(luò)中第i個池化層前的第j個卷積層的特征映射.

      c)梯度L1正則化和L1損失

      考慮到清晰圖像與模糊圖像之間的邊緣特征差異較大,引入梯度L1正則化,用來約束生成圖像與真實圖像之間的梯度差異;為了保證生成圖像與真實清晰圖像在低頻特征細節(jié)的相似性,進一步引入L1損失函數(shù);這樣二者結(jié)合構(gòu)成一組新的損失函數(shù)項,既有助于網(wǎng)絡(luò)模型的優(yōu)化又可以保留圖像更多邊緣細節(jié)和結(jié)構(gòu)信息.該損失函數(shù)定義為:

      lx=‖G(B)-S‖1+β‖G(B)-S‖1

      (7)

      其中,‖G(B)-S‖1表示L1損失,表示梯度算子,β表示梯度L1正則化權(quán)重.

      模型的總體損失函數(shù)由ladv、lpercep和lx三部分構(gòu)成,在損失函數(shù)的約束下生成器和判別器進行對抗訓(xùn)練,最終達到納什均衡狀態(tài),總體損失函數(shù)定義為:

      ltotal=ladv+k1·lpercep+k2·lx

      (8)

      其中,k1、k2為權(quán)重因子,用于平衡各項損失函數(shù).

      5 仿真實驗分析

      5.1 數(shù)據(jù)的獲取與處理

      采用Nah等[18]公開的GoPro數(shù)據(jù)集進行實驗.該數(shù)據(jù)集是對不同場景下拍攝的一系列連續(xù)清晰視頻圖像累加高速視頻中的視頻幀,來近似模擬現(xiàn)實生活中運動模糊圖像的產(chǎn)生過程.整個數(shù)據(jù)集由3214對模糊清晰圖像對構(gòu)成,其中的2103對作為訓(xùn)練集,剩余的1111對為測試集.訓(xùn)練前預(yù)先對數(shù)據(jù)做成對處理,將模糊圖像和清晰圖像拼接在一起,輸入網(wǎng)絡(luò)中的圖像分辨率大小均調(diào)整為128×128×3.

      5.2 實驗設(shè)置

      通過Tensorflow深度學(xué)習(xí)框架實現(xiàn)本文模型,實驗平臺搭建在Google Cloud Platform,硬件配置為8個vCPU,15GB內(nèi)存,NVIDIA Tesla K80 GPU.模型epoch設(shè)置為300,對抗損失中權(quán)重參數(shù)λ設(shè)為10,梯度L1正則化權(quán)重設(shè)置為β設(shè)置為10-5,總體損失函數(shù)中的權(quán)重因子k1和k2分別設(shè)為100和75.考慮到樣本數(shù)據(jù)量比較小,將batchsize設(shè)置為1,學(xué)習(xí)率算法采用自適應(yīng)矩估計(ADAptive Moment estimation,ADAM)優(yōu)化策略,經(jīng)過多次訓(xùn)練后,最終將學(xué)習(xí)率大小設(shè)置為0.0001,Adam優(yōu)化器其余的超參數(shù)設(shè)置為默認(rèn)值.采用峰值信噪比(Peak Signal to Noise Ration,PSNR)和結(jié)構(gòu)相似性(Structural SIMilarity,SSIM)作為圖像修復(fù)質(zhì)量優(yōu)劣的評價指標(biāo),其中PSNR衡量重建圖像與真實圖像在像素值上的差異,其值越高說明圖像失真越小,而SSIM從亮度、對比度、結(jié)構(gòu)信息三方面來衡量兩幅圖像之間的相似度,其值越接近于1,說明重建圖像與真實圖像在結(jié)構(gòu)上更加相似,復(fù)原效果越好.

      5.3 網(wǎng)絡(luò)結(jié)構(gòu)的影響

      為了驗證本文殘差密集網(wǎng)絡(luò)模型的有效性,在相同的參數(shù)設(shè)置和數(shù)據(jù)集下,與殘差網(wǎng)絡(luò)、密集連接網(wǎng)絡(luò)進行對比研究,實驗結(jié)果如圖5和表1所示.由圖5可見,盡管三種方法的去模糊效果在視覺清晰度上比較接近,但是從放大的細節(jié)圖可以清楚觀察到,采用本文網(wǎng)絡(luò)模型重建出的圖像恢復(fù)了更多的細節(jié)特征.由表1可見,采用本文網(wǎng)絡(luò)模型得到的PSNR和SSIM明顯高于其它兩種網(wǎng)絡(luò)結(jié)構(gòu).這表明,RDN結(jié)合殘差網(wǎng)絡(luò)和密集連接網(wǎng)絡(luò)二者的優(yōu)勢,通過淺層特征提取、殘差密集連接和特征融合,充分利用原始圖像的所有分層特征,可獲得更優(yōu)的圖像復(fù)原效果.

      表1 采用不同網(wǎng)絡(luò)模型的去模糊結(jié)果對比
      Table 1 Comparison of deblurring results adopting
      different network models

      殘差網(wǎng)絡(luò)密集連接網(wǎng)絡(luò)本文方法PSNR26.872026.431927.8169SSIM0.85440.81080.8941

      5.4 損失函數(shù)的影響

      為了驗證本文所提損失函數(shù)的效果,在相同參數(shù)設(shè)置和數(shù)據(jù)集下,采用不同函數(shù)組合進行實驗對比研究.實驗結(jié)果如圖6和表2所示.由圖6可見,ladv+l1損失函數(shù)組合去模糊效果最差,重建出的圖像存在部分模糊和細節(jié)缺失現(xiàn)象.盡管ladv+lpercep和ladv+l1+lpercep損失函數(shù)組合重建出的圖像在整體主觀視覺上與本文方法相差不大,但從放大的細節(jié)圖中可以發(fā)現(xiàn)本文方法重建出的圖像更加清晰自然且擁有更多的細節(jié)特征.由表2分析ladv+l1+lpercep組合相比于ladv+lpercep,前者生成圖像的PSNR和SSIM指標(biāo)都有一定程度的提高,這是由于L1損失函數(shù)的引入能夠輔助網(wǎng)絡(luò)模型捕獲更多的圖像低頻信息,確保生成圖像的完整性;ladv+l1+lpercep組合相比于ladv+l1,其SSIM有一定程度的提高,說明感知損失的引入可以保留圖像更多的結(jié)構(gòu)信息;本文方法將對抗損失、感知損失、L1損失函數(shù)和梯度L1正則化組合起來,所生成圖像的PSNR和SSIM均獲得了最高的指標(biāo)值.

      表2 采用不同損失函數(shù)組合的去模糊結(jié)果對比
      Table 2 Comparison of deblurring results adopting
      different loss functions combination

      ladv + lpercepladv + l1ladv+ l1 + lpercep本文方法PSNR26.504827.211627.081427.8169SSIM0.87360.86390.88500.8941

      圖5 采用不同網(wǎng)絡(luò)模型的去模糊結(jié)果對比Fig.5 Comparison of deblurring results of different network models

      圖6 采用不同損失函數(shù)組合的去模糊結(jié)果對比Fig.6 Comparison of deblurring results adopting different loss functions combination

      5.5 與其他方法對比

      選取Whyte等[13]、Xu等[14]和Ramakrishnan等[20]分別提出的三種具有代表性的盲去模糊算法進行對比研究,實驗結(jié)果如圖7和表3所示.由圖7可以看出,文獻[13]的去模糊結(jié)果出現(xiàn)了明顯的失真現(xiàn)象;文獻[14]的去模糊結(jié)果相比于模糊圖像雖然在視覺清晰度上有較大改善,但是復(fù)原出的圖像邊緣存在一部分的模糊區(qū)域,并且出現(xiàn)了細節(jié)缺失現(xiàn)象;文獻[20]相比于上述兩種算法無論是視覺清晰度還是圖像質(zhì)量評價指標(biāo)均有較大提升,但是重建出的圖像細節(jié)區(qū)域仍然不夠清晰;顯然,本文方法在視覺清晰度、邊緣特征以及細節(jié)信息等方面均有明顯改善,這說明所構(gòu)建的網(wǎng)絡(luò)模型和采用的損失函數(shù)對于圖像邊緣特征、細節(jié)信息的提取和復(fù)原均具有更好的作用.由表3可以看出,本文方法的PSNR和SSIM指標(biāo)均高于其它三種方法,說明去模糊效果更優(yōu).

      圖7 與三種代表性方法的對比Fig.7 Comparison with three representative methods

      表3 與三種代表性方法的對比
      Table 3 Comparison with three representative methods

      文獻[13]文獻[14]文獻[20]本文方法PSNR24.216525.185827.478027.8169SSIM0.80140.88320.89240.8941

      6 結(jié) 語

      提出了一種基于殘差密集生成對抗網(wǎng)絡(luò)的圖像去運動模糊的新方法,采用端到端的方式直接對模糊圖像進行復(fù)原,無需估計模糊核,有效避免了由于估計模糊核帶來的一些問題.以殘差密集網(wǎng)絡(luò)作為生成式模型的核心組件,為圖像復(fù)原提供更多的特征信息,并在各項損失函數(shù)的約束下,重建出細節(jié)豐富、真實銳利的圖像.實驗結(jié)果表明,與已有的幾種代表性的盲去模糊方法相比,本文方法在主觀視覺效果和圖像質(zhì)量評價結(jié)果方面均有明顯提高.

      猜你喜歡
      復(fù)原殘差損失
      溫陳華:唐宋甲胄復(fù)原第一人
      基于雙向GRU與殘差擬合的車輛跟馳建模
      少問一句,損失千金
      胖胖損失了多少元
      淺談曜變建盞的復(fù)原工藝
      基于殘差學(xué)習(xí)的自適應(yīng)無人機目標(biāo)跟蹤算法
      毓慶宮惇本殿明間原狀陳列的復(fù)原
      紫禁城(2020年8期)2020-09-09 09:38:04
      基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
      玉米抽穗前倒伏怎么辦?怎么減少損失?
      一般自由碰撞的最大動能損失
      开化县| 德钦县| 响水县| 岗巴县| 突泉县| 夏邑县| 新干县| 云霄县| 汉川市| 岑溪市| 辽宁省| 宁南县| 宿迁市| 海林市| 丹阳市| 昌都县| 法库县| 石阡县| 吴川市| 湖南省| 平和县| 北宁市| 报价| 弥渡县| 泾阳县| 维西| 德钦县| 通州市| 江华| 托里县| 沙雅县| 古浪县| 尼勒克县| 外汇| 北流市| 溧水县| 库尔勒市| 轮台县| 汉中市| 泸州市| 宜春市|