• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      PSWGAN-GP:改進(jìn)梯度懲罰的生成對(duì)抗網(wǎng)絡(luò)

      2022-05-05 13:54:00陳云翔陳怡丹趙永新周慶華
      關(guān)鍵詞:梯度損失卷積

      陳云翔,王 巍,寧 娟,陳怡丹,趙永新,周慶華

      (長沙理工大學(xué)物理與電子科學(xué)學(xué)院,湖南 長沙 410114)

      0 引 言

      生成模型是機(jī)器學(xué)習(xí)和計(jì)算機(jī)視覺算法的重要組成部分。它被用于估計(jì)高維信號(hào)的底層統(tǒng)計(jì)結(jié)構(gòu)以及生成包括高質(zhì)量的圖像、視頻和音頻等在內(nèi)的各種人工數(shù)據(jù)。由Goodfellow等[1]首先提出的生成式對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network, GAN)引起了廣泛關(guān)注。自2014年以來,GAN在理論和應(yīng)用上都取得了很大的進(jìn)展,已有大量后續(xù)論文發(fā)表。GAN算法被用于文本圖像合成[2]、風(fēng)格轉(zhuǎn)移[3-5]和紋理合成[6]、圖像到圖像翻譯[7]、視頻生成與預(yù)測[8]和遙感圖像處理[9-11]等領(lǐng)域。Radford等[12]2015年提出的深度卷積生成式對(duì)抗網(wǎng)絡(luò)(Deep Convolutional Generative Adversarial Networks, DCGAN)對(duì)傳統(tǒng)的GAN進(jìn)行了改進(jìn),主要體現(xiàn)在:1)使用卷積網(wǎng)絡(luò),允許生成器學(xué)習(xí)自己的空間特征,同時(shí)使判別器能夠讀取到更深層的圖像特征;2)使用批量歸一層[13](Batch Normalization, BN)將每層的輸入都轉(zhuǎn)換為期望為0、方差為1的數(shù)據(jù);3)使用全局池化層代替全連接層;4)生成器的輸出層使用tanh激活函數(shù),其他層使用ReLU;5)判別器中所有的激活函數(shù)均使用LeakyReLU。盡管DCGAN在圖像生成方面有了開創(chuàng)性的突破,但其仍存在訓(xùn)練時(shí)梯度消失、真假數(shù)據(jù)差異過大時(shí)無法正常訓(xùn)練、很難適應(yīng)不同數(shù)據(jù)集等問題。

      Mirza等[14]提出了條件對(duì)抗網(wǎng)(Conditional Generative Adversarial Network, CGAN),使用額外標(biāo)簽信息提升圖像的質(zhì)量并在一定程度上控制圖像的外觀。Mao等[15]提出使用最小二乘函數(shù)的LSGAN來代替交叉熵作為判別器的損失函數(shù),避免梯度消失從而提高生成圖像的質(zhì)量。Arjovsky等[16]提出使用Wasserstein距離衡量圖像的分布差異,解決了GAN訓(xùn)練困難和不穩(wěn)定、模式崩壞等問題。為了使判別器滿足Lipschitz連續(xù)條件,WGAN (Wasserstein GAN)中使用了梯度裁剪的方式。然而梯度裁剪可能會(huì)造成參數(shù)走向極端,因此Gulrajani等[17]提出了WGAN-GP (WGAN with Gradient Penalty)使用梯度懲罰來代替梯度裁剪,在保證判別器滿足Lipschitz連續(xù)條件的同時(shí),避免了參數(shù)走向極端的情況。即便如此,使用WGAN-GP生成的圖像仍會(huì)出現(xiàn)質(zhì)量不高、細(xì)節(jié)模糊等問題。

      為了進(jìn)一步提升生成圖片的細(xì)節(jié)質(zhì)量,本文在WGAN-GP算法的基礎(chǔ)上結(jié)合圖像感知損失(Perceptual-loss)和風(fēng)格損失(Style-loss),提出PSWGAN-GP算法,通過訓(xùn)練,對(duì)生成圖像的細(xì)節(jié)進(jìn)行提升和優(yōu)化,并在CelebA[18]和FAMOUSFACE[19]數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)。本文的主要工作有:

      1)PSWGAN-GP方法。在WGAN-GP原有的判別器的損失項(xiàng)后加入風(fēng)格損失和感知損失并使用原有WGAN-GP算法的梯度懲罰控制梯度值,實(shí)現(xiàn)圖像細(xì)節(jié)的提升。

      2)驗(yàn)證評(píng)估PSWGAN-GP算法。在同等參數(shù)和實(shí)驗(yàn)條件下將其與DCGAN、WGAN以及WGAN-GP算法對(duì)比,生成圖像的FID[20]分?jǐn)?shù)優(yōu)于對(duì)照算法,且IS[21]分?jǐn)?shù)比較具有競爭力,表明其生成的圖像細(xì)節(jié)質(zhì)量較好。

      1 WGAN-GP算法

      1.1 生成式對(duì)抗網(wǎng)絡(luò)與DCGAN

      生成對(duì)抗網(wǎng)絡(luò)GAN是通過生成器模型G(Generator Model)和判別器模型D(Discriminator Model)在訓(xùn)練過程中互相對(duì)抗博弈,使得生成器生成的樣本逐漸逼近真實(shí)樣本在樣本空間中的分布。生成器學(xué)習(xí)真實(shí)數(shù)據(jù)的分布特征,并生成與真實(shí)數(shù)據(jù)相似的數(shù)據(jù)樣本;判別器是一個(gè)二分類模型,用于判斷輸入是真實(shí)數(shù)據(jù)還是虛假數(shù)據(jù)。其目標(biāo)函數(shù)為:

      Ez~Pθ(z)[log(1-D(G(z)))]

      (1)

      其中,Pdata(x)表示真實(shí)樣本的概率分布,Pθ(z)表示虛假樣本的概率分布,E表示期望值。為了使判別器更難區(qū)分出自己生成的樣本,生成器需要不斷提升自身捕捉真實(shí)樣本特征的能力,而判別器則需要不斷提升自身區(qū)分真實(shí)樣本和虛假樣本的能力,通過生成器和判別器的交替訓(xùn)練,最終達(dá)到納什均衡。

      DCGAN的提出使GAN模型成功應(yīng)用在圖像領(lǐng)域,生成器通過產(chǎn)生隨機(jī)噪聲并使用多個(gè)反卷積層來生成虛假圖像。判別器通過多個(gè)卷積層對(duì)輸入的圖像進(jìn)行二分類,判斷輸入的圖像來自真實(shí)圖像集還是生成的虛假圖像。

      1.2 WGAN與WGAN-GP

      Arjovsky等提出了使用Wasserstein距離衡量分布差異來改進(jìn)GAN。原始GAN中采用JS散度來衡量生成數(shù)據(jù)和真實(shí)數(shù)據(jù)間的差異,但當(dāng)兩者的分布完全不重疊時(shí),JS散度的值將為一個(gè)常數(shù),反映不了分布距離,也提供不了訓(xùn)練所需的梯度。其判別器損失函數(shù)為:

      L(D)=Ez~P(z)[fω(G(z))]-Ex~P(x)[fω(x)]

      (2)

      其中fω是一個(gè)含參數(shù)ω且最后一層不是非線性激活層的判別器網(wǎng)絡(luò)。限制網(wǎng)絡(luò)fω中的所有參數(shù)ω在[-c,c]的范圍內(nèi),c為一個(gè)常數(shù),比如c為0.01時(shí),參數(shù)ω將被限制在[-0.01,0.01],小于-0.01則取-0.01,大于0.01則取0.01。此時(shí)關(guān)于輸入樣本x的導(dǎo)數(shù)?fω/?x也不會(huì)超過某個(gè)范圍,即滿足Lipschitz連續(xù)條件。然而WGAN使用的梯度裁剪(Gradient Clipping)存在2個(gè)問題:

      1)判別器希望盡可能擴(kuò)大真假樣本的分?jǐn)?shù)差,然而梯度裁剪獨(dú)立地限制每一個(gè)網(wǎng)絡(luò)參數(shù)的取值范圍,在這種情況下,可預(yù)想的最優(yōu)策略就是盡可能讓所有參數(shù)走向極端,即要么取最大值,要么取最小值。

      2)梯度裁剪會(huì)導(dǎo)致梯度消失或梯度爆炸。

      Gulrajani等提出的WGAN-GP通過梯度懲罰來控制梯度,解決了上述2個(gè)問題,通過設(shè)置額外的損失項(xiàng)來實(shí)現(xiàn)梯度與Lipschitz條件之間的聯(lián)系,其判別器損失函數(shù)為:

      (3)

      (4)

      2 PSWGAN-GP算法

      2.1 VGG網(wǎng)絡(luò)

      自深度學(xué)習(xí)進(jìn)入人們的視野以來,越來越多的網(wǎng)絡(luò)模型被用于圖像分類。1994年誕生了最早的LeNet,之后又出現(xiàn)了AlexNet[22]等。VGG-Net是牛津大學(xué)和Google Deep Mind公司研究人員研發(fā)的深層卷積神經(jīng)網(wǎng)絡(luò)[23]。VGG-Net采用連續(xù)幾個(gè)3×3的卷積核堆疊來代替AlexNet中較大的卷積核,在獲取相同的感受野的同時(shí)提升了網(wǎng)絡(luò)的深度。本文選用VGG-16網(wǎng)絡(luò)來提取深層特征。

      2.2 感知損失和風(fēng)格損失

      Johnson等[24]提出的感知損失Perceptual-loss和風(fēng)格損失Style-loss在圖像風(fēng)格轉(zhuǎn)換領(lǐng)域取得了成功,將卷積神經(jīng)網(wǎng)絡(luò)提取出的圖像深層特征作為目標(biāo)函數(shù)的一部分,通過比較2幅圖片的深層特征,使得待生成的圖片與真實(shí)圖片在語義上相對(duì)于像素級(jí)別的損失函數(shù)更加相似。感知損失和風(fēng)格損失被應(yīng)用于圖像孔洞修復(fù)[25]和照片恢復(fù)[26]。本文中定義的感知損失使用VGG-16網(wǎng)絡(luò)的第3、第6與第10層(即前3個(gè)最大池化層)提取圖像的深層特征,其公式為:

      (5)

      風(fēng)格損失首先計(jì)算深度特征的格拉姆矩陣(Gram Matrix)[27]來衡量深度特征中每個(gè)元素的自相關(guān)程度,再計(jì)算其L1距離。與上述感知損失相同,本文中所使用的風(fēng)格損失也是用VGG網(wǎng)絡(luò)的前3個(gè)池化層提取圖像的深層特征,其定義為:

      (6)

      2.3 PSWGAN-GP網(wǎng)絡(luò)結(jié)構(gòu)

      本文所提出的PSWGAN-GP著重在于提升生成圖像的細(xì)節(jié)質(zhì)量,通過加入風(fēng)格損失和感知損失提升生成圖像和真實(shí)圖像的相似度,同時(shí)保證生成圖像在背景、輪廓等細(xì)節(jié)上保持一致。在訓(xùn)練過程中,判別器的參數(shù)較少,且結(jié)構(gòu)較為簡單,易于估計(jì)感知損失和風(fēng)格損失,具體的PSWGAN-GP結(jié)構(gòu)如圖1所示。判別器接收來自真實(shí)數(shù)據(jù)集的圖像X和生成器由隨機(jī)噪聲生成的虛假圖像G(z),并與生成器進(jìn)行對(duì)抗訓(xùn)練,生成器接收隨機(jī)噪聲并學(xué)習(xí)真實(shí)圖像的分布特征,生成虛假圖像。隨著訓(xùn)練的進(jìn)行,生成器會(huì)不斷優(yōu)化參數(shù)提升判別器將虛假圖像誤判為真實(shí)圖像的概率,而判別器會(huì)不斷優(yōu)化參數(shù)提升判斷的準(zhǔn)確度。與此同時(shí),將真實(shí)圖像和虛假圖像同時(shí)輸入VGG網(wǎng)絡(luò)中并提取其前3層最大池化層得到的圖像深層特征,計(jì)算風(fēng)格損失和感知損失并對(duì)比虛假圖像和真實(shí)圖像的深層特征,通過訓(xùn)練減少兩者的差異。

      圖1 PSWGAN-GP流程圖

      在判別數(shù)據(jù)真?zhèn)螘r(shí),由于判別器會(huì)不斷提高鑒別能力,其損失將會(huì)減小,判別器希望真假圖像的風(fēng)格損失和感知損失越大越好,因此風(fēng)格損失和感知損失使用負(fù)數(shù)超參數(shù)確保當(dāng)兩者數(shù)值較大時(shí)判別器損失減小。PSWGAN-GP判別器的損失函數(shù)定義為:

      Ltotal=Lorigin+α1Lperceptual+α2Lstyle

      (7)

      式中Lorigin為WGAN-GP原本的損失函數(shù)。α1和α2分別為2.2節(jié)提到的感知損失和風(fēng)格損失的超參數(shù)。由感知損失和風(fēng)格損失的定義可以看出,風(fēng)格損失經(jīng)過了自相關(guān)計(jì)算以及多次歸一化,在將輸入圖像數(shù)據(jù)歸一化后的情況下,兩者的結(jié)果數(shù)量級(jí)差距較大,需要通過超參數(shù)來將結(jié)果轉(zhuǎn)換至與原WGAN-GP損失一致的數(shù)量級(jí),以免訓(xùn)練時(shí)出現(xiàn)梯度爆炸的現(xiàn)象。通過超參搜索,確定兩者的超參數(shù)α1為-0.05,α2為-120。

      2.3.1 生成器結(jié)構(gòu)

      本文所提PSWGAN-GP網(wǎng)絡(luò)的生成器結(jié)構(gòu)包含5個(gè)神經(jīng)網(wǎng)絡(luò)層,將隨機(jī)噪聲輸入后通過堆疊的反卷積層(TransposeConv)輸出生成圖像。每個(gè)反卷積層通過多個(gè)5×5的反卷積核來改變輸入的維度,如圖2(a)所示,反卷積層1將輸入的噪聲維度從256降低到128,后續(xù)的反卷積層2、反卷積層3、反卷積層4每層將維度減少一半,最后一層的反卷積層5輸入維度為3,對(duì)應(yīng)圖像的RGB三通道。所有反卷積層均使用ReLU作為激活函數(shù),且卷積步長均為2×2。將該生成器應(yīng)用到不同尺寸圖像的數(shù)據(jù)集中時(shí),只需改變輸入噪聲的尺寸即可,例如當(dāng)輸入噪聲尺寸為2×2時(shí),通過生成器產(chǎn)生的虛假圖像尺寸為64×64,而當(dāng)輸入噪聲尺寸為4×4時(shí),產(chǎn)生的虛假圖像尺寸為128×128。

      2.3.2 判別器結(jié)構(gòu)

      PSWGAN-GP網(wǎng)絡(luò)的判別器結(jié)構(gòu)如圖2(b)所示,首先輸入3通道的圖像,經(jīng)過卷積層提取圖像特征,為了使卷積層能夠獲得更大的感受野,不使用池化層。所有卷積層的步長均為2×2,且填充方式為same,圖像在經(jīng)過卷積層后尺寸和維度均發(fā)生了改變,例如卷積層1將圖像的尺寸改變?yōu)?Horigin/s)×(Worigin/s),其中s為卷積層的步長,Horigin和Worigin為輸入圖像的尺寸。原圖像的維度由3改變?yōu)?4。后續(xù)的卷積層2、卷積層3、卷積層4每層將圖像的尺寸縮小1/2,并調(diào)整其輸出維度。最后通過2個(gè)全連接層將圖像特征轉(zhuǎn)換為64維的向量后,再經(jīng)過1個(gè)輸出維度為1的全連接層輸出判別器對(duì)該圖像的評(píng)分。判別器網(wǎng)絡(luò)中所有層均使用LeakyReLU作為激活函數(shù),斜率均設(shè)置為0.2。

      圖2 生成器和判別器網(wǎng)絡(luò)結(jié)構(gòu)

      2.3.3 本文算法

      在訓(xùn)練PSWGAN-GP時(shí),設(shè)定生成模型和判別模型的學(xué)習(xí)率為0.00005。使用Adam[28]優(yōu)化器對(duì)判別器和生成器交替進(jìn)行參數(shù)優(yōu)化,即每更新5次判別器后再更新1次生成器。

      算法1 PSWGAN-GP算法

      輸入:批量大小m,判別器迭代次數(shù)ncritic,總迭代次數(shù)Epoches,Adam優(yōu)化器的超參數(shù)α、β1、β2,判別器待優(yōu)化參數(shù)w,生成器待優(yōu)化參數(shù)θ,感知損失和風(fēng)格損失超參數(shù)α1、α2。

      for epoch in Epoches do

      fortin range(ncritic) do

      foriin range(m) do

      Sample real datax~Pr, random noisez, a random

      numberε~U[0,1]

      //判別器損失

      end for

      end for

      Sample a batch of random noisesz

      end for

      算法1總結(jié)了PSWGAN-GP的過程,首先訓(xùn)練判別器,對(duì)真實(shí)數(shù)據(jù)和噪聲分別采樣,接著計(jì)算真實(shí)圖像和虛假圖像的感知損失、風(fēng)格損失以及Wasserstein距離,計(jì)算判別器參數(shù)的梯度并通過梯度懲罰確保其滿足Lipschitz限制條件,并更新判別器參數(shù)。然后訓(xùn)練生成器并再次生成隨機(jī)噪聲、更新生成器參數(shù),降低真假圖像之間的差異,直到循環(huán)結(jié)束。

      3 實(shí)驗(yàn)結(jié)果與分析

      3.1 實(shí)驗(yàn)環(huán)境與評(píng)價(jià)標(biāo)準(zhǔn)

      為了驗(yàn)證所提PSWGAN-GP算法的性能,將其與原有的WGAN-GP算法在CelebA和FAMOUSFACE數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)。CelebA數(shù)據(jù)集是一個(gè)包含了20多萬幅人臉圖像的大規(guī)模數(shù)據(jù)集,每幅圖有40個(gè)屬性標(biāo)注。FAMOUSFACE數(shù)據(jù)集同樣包含了9萬多張512×512的高清人臉圖像,本文將其所有圖像下采樣至128×128進(jìn)行訓(xùn)練。

      實(shí)驗(yàn)配置的環(huán)境為Inter(R) Xeon(R) Gold 6134處理器,3.20 GHz, Windows Server 2012 R2系統(tǒng)256 GB內(nèi)存,采用GPU Tesla P40,并使用基于Python編程語言的TensorFlow2.0框架進(jìn)行網(wǎng)絡(luò)模型的實(shí)現(xiàn)和訓(xùn)練。

      采用IS(Inception Score)和FID(Fréchet Inception Distance)指標(biāo)對(duì)本文算法進(jìn)行性能評(píng)估。IS使用Google預(yù)訓(xùn)練的Inception Net-V3網(wǎng)絡(luò)計(jì)算出的結(jié)果來評(píng)估輸入圖像的質(zhì)量,其定義為:

      IS(G)=exp(Ex~pg[DKL(p(y|x)‖p(y))])

      (8)

      式中x是生成圖像的樣本,p(y|x)表示圖像x經(jīng)過Inception計(jì)算后得到的屬于類別y的概率分布。p(x)表示x在所有分類上的邊緣分布。DKL表示上述2個(gè)分布的KL散度。IS越大表明生成圖像的質(zhì)量越高,即生成模型越好。但I(xiàn)S指標(biāo)忽略了生成圖像和真實(shí)圖像的差異。

      FID是評(píng)估生成對(duì)抗網(wǎng)絡(luò)性能的常用指標(biāo),其也是通過Inception網(wǎng)絡(luò)進(jìn)行計(jì)算,不同的是其去除掉了Inception網(wǎng)絡(luò)的輸出層,將最后一層池化層作為輸出層。圖像經(jīng)過Inception的計(jì)算后得到2048維的向量,F(xiàn)ID通過對(duì)比真實(shí)圖像和生成圖像高維特征方差和均值來評(píng)估兩者的差距,其定義為:

      (9)

      其中μx和Σx分別為真實(shí)圖像的特征均值和協(xié)方差矩陣,μg和Σg分別為生成圖像的特征均值和協(xié)方差矩陣。FID越小代表生成圖像和真實(shí)圖像的相似度越高。

      3.2 實(shí)驗(yàn)結(jié)果分析

      本文將PSWGAN-GP與DCGAN、WGAN、WGAN-GP在2個(gè)數(shù)據(jù)集上進(jìn)行比較。每種算法在每個(gè)訓(xùn)練集上訓(xùn)練5000次,訓(xùn)練完成后生成2000張圖像并計(jì)算其IS,再從2個(gè)數(shù)據(jù)集中分別隨機(jī)抽取2000張圖像與生成的圖像計(jì)算FID。

      從表1可以看出,在分辨率為64×64的CelebA數(shù)據(jù)集中,PSWGAN-GP的IS評(píng)分不如DCGAN,但比WGAN-GP提升了一些。而FID指數(shù)為4種算法中最優(yōu),比DCGAN和WGAN分別提升了34.5%和26.7%,比原先的WGAN-GP提升了10.8%。而在分別率為128×128的FAMOUSFACE數(shù)據(jù)集中,PSWGAN-GP算法的IS和FID均為4種算法中最優(yōu),F(xiàn)ID指數(shù)比DCGAN、WGAN和WGAN-GP分別提升了36.5%、40.3%和9.9%。這表明PSWGAN-GP算法在生成分辨率較高的圖像時(shí)圖像質(zhì)量優(yōu)于其他3種算法,而在生成分辨率較低的圖像時(shí),雖然IS評(píng)分不如DCGAN,但是仍保持著良好的競爭力且FID指數(shù)優(yōu)于其他3種算法,即生成圖像和真實(shí)圖像更加相似。

      表1 不同算法在CelebA和FAMOUSFACE數(shù)據(jù)集上的IS性能及FID性能比較

      圖3展示了4種算法的FID和IS指標(biāo)隨迭代次數(shù)的變化曲線。由圖3(a)與圖3(c)可以看出本文PSWGAN-GP算法的FID指標(biāo)在2個(gè)數(shù)據(jù)集中與其他3種算法收斂性相當(dāng),由圖3(b)與圖3(d)可以看出其他3種算法的IS指標(biāo)在FAMOUSFACE數(shù)據(jù)集中均比本文的PSWGAN-GP算法先達(dá)到收斂狀態(tài),而在64×64的CelebA數(shù)據(jù)集中PSWGAN-GP比其他算法先達(dá)到收斂狀態(tài)??傮w而言,PSWGAN-GP算法在圖像分辨率較高時(shí)表現(xiàn)更好。

      圖3 不同算法在CelebA和FAMOUSFACE數(shù)據(jù)集上的收斂性分析

      對(duì)比DCGAN、WGAN、WGAN-GP和本文的PSWGAN-GP在CelebA和FAMOUSFACE數(shù)據(jù)集下生成的圖像,從圖4可以看出,DCGAN在2個(gè)數(shù)據(jù)集中均存在生成圖像模糊、細(xì)節(jié)缺失的問題,而WGAN和WGAN-GP在圖像背景模糊問題上有了改善,但仍存在圖像細(xì)節(jié)質(zhì)量不高的問題。而本文提出的PSWGAN-GP算法在2個(gè)數(shù)據(jù)集中圖像背景更加清晰,前景細(xì)節(jié)質(zhì)量更好,圖像所包含的噪聲更少。由此可以得出,本文所提算法PSWGAN-GP具有更好的性能。

      圖4 CelebA和FAMOUSFACE數(shù)據(jù)集上4種算法生成的圖像

      4 結(jié)束語

      本文基于WGAN-GP和感知損失、風(fēng)格損失提出了一種生成式對(duì)抗神經(jīng)網(wǎng)絡(luò)PSWGAN-GP。在WGAN-GP原有損失函數(shù)的基礎(chǔ)上,添加了感知損失和風(fēng)格損失,使判別器衡量生成圖像和真實(shí)圖像的細(xì)節(jié)差異,同時(shí)使生成器在生成圖像時(shí)更加注重圖像細(xì)節(jié)從而獲得判別器的高評(píng)分。在CelebA和FAMOUSFACE數(shù)據(jù)集中分別進(jìn)行實(shí)驗(yàn),采用IS和FID指標(biāo)評(píng)估所提算法的性能并與DCGAN、WGAN和WGAN-GP進(jìn)行對(duì)比,結(jié)果表明,PSWGAN-GP算法可以有效提升圖像的細(xì)節(jié)質(zhì)量,解決了背景模糊、圖像噪聲多等問題。

      本文算法PSWGAN-GP在一定程度上提升了圖像的細(xì)節(jié)質(zhì)量,但存在訓(xùn)練參數(shù)較多、訓(xùn)練速度低于其他算法的問題,主要是因?yàn)樗惴ㄐ枰ㄟ^VGG網(wǎng)絡(luò)來計(jì)算風(fēng)格損失和感知損失。因此,在后續(xù)的研究中將采用更合適的風(fēng)格損失及感知損失計(jì)算方法,進(jìn)一步提升訓(xùn)練速度和生成圖像質(zhì)量。

      猜你喜歡
      梯度損失卷積
      少問一句,損失千金
      一個(gè)改進(jìn)的WYL型三項(xiàng)共軛梯度法
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      胖胖損失了多少元
      一種自適應(yīng)Dai-Liao共軛梯度法
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      一類扭積形式的梯度近Ricci孤立子
      玉米抽穗前倒伏怎么辦?怎么減少損失?
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      一般自由碰撞的最大動(dòng)能損失
      郸城县| 湾仔区| 大新县| 麻城市| 阿巴嘎旗| 洪湖市| 炉霍县| 滦南县| 治县。| 南康市| 桦南县| 宿迁市| 明光市| 江永县| 鹤岗市| 灌南县| 沾益县| 苗栗县| 波密县| 晴隆县| 南溪县| 枣阳市| 嘉禾县| 张家界市| 沐川县| 芜湖市| 吴忠市| 清新县| 阜平县| 武山县| 通化市| 陕西省| 红安县| 安顺市| 宜春市| 连南| 贺兰县| 广灵县| 淮阳县| 济阳县| 荔波县|