• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于深度學(xué)習(xí)的水下圖像超分辨率重建方法

      2019-10-31 09:21:33陳龍彪諶雨章王曉晨鄒鵬胡學(xué)敏
      計(jì)算機(jī)應(yīng)用 2019年9期
      關(guān)鍵詞:映射卷積神經(jīng)網(wǎng)絡(luò)信噪比

      陳龍彪 諶雨章 王曉晨 鄒鵬 胡學(xué)敏

      摘 要:由于水體本身的特性以及水中懸浮顆粒對(duì)光的吸收和散射作用,水下圖像普遍存在信噪比(SNR)低、分辨率低等一系列問(wèn)題,但大部分方法傳統(tǒng)處理方法包含圖像增強(qiáng)、復(fù)原及重建,都依賴退化模型,并存在算法病態(tài)性問(wèn)題?;谏疃葘W(xué)習(xí)的圖像恢復(fù)技術(shù)近年來(lái)已成為研究的熱點(diǎn)。為進(jìn)一步提高水下圖像恢復(fù)算法的效果和效率,提出了一種改進(jìn)的基于深度卷積神經(jīng)網(wǎng)絡(luò)的圖像超分辨率重建方法。該方法網(wǎng)絡(luò)中引入了改良的密集塊結(jié)構(gòu)(IDB),能在有效解決深度卷積神經(jīng)網(wǎng)絡(luò)梯度彌散問(wèn)題的同時(shí)提高訓(xùn)練速度。該網(wǎng)絡(luò)對(duì)經(jīng)過(guò)配準(zhǔn)的退化前后的水下圖像進(jìn)行訓(xùn)練,得到水下低分辨率圖像和高分辨率圖像之間的一個(gè)映射關(guān)系。實(shí)驗(yàn)結(jié)果表明,在基于自建的水下圖像作為訓(xùn)練集上,較卷積神經(jīng)網(wǎng)絡(luò)的單幀圖像超分辨率重建算法(SRCNN),使用引入了改良的密集塊結(jié)構(gòu)(IDB)的深度卷積神經(jīng)網(wǎng)絡(luò)對(duì)水下圖像進(jìn)行重建,重建圖像的峰值信噪比(PSNR)提升達(dá)到0.38dB,結(jié)構(gòu)相似度(SSIM)提升達(dá)到0.013,能有效地提高水下圖像的重建質(zhì)量。

      關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);超分辨率重建;信噪比;水下圖像處理;映射

      中圖分類號(hào):TN911.73; TP183

      文獻(xiàn)標(biāo)志碼:A

      Underwater image super-resolution reconstruction method based on deep learning

      CHEN Longbiao, CHEN Yuzhang*, WANG Xiaochen, ZOU Peng, HU Xuemin

      School of Computer Science and Information Engineering, Hubei University, Wuhan Hubei 430062, China

      Abstract:

      Due to the characteristics of water itself and the absorption and scattering of light by suspended particles in the water, a series of problems, such as low Signal-to-Noise Ratio (SNR) and low resolution, exist in underwater images. Most of the traditional processing methods include image enhancement, restoration and reconstruction rely on degradation model and have ill-posed algorithm problem, and image restoration technology based on deep learning has become a hot topic in recent years. In order to further improve the effects and efficiency of underwater image restoration algorithm, an improved image super-resolution reconstruction method based on deep convolutional neural network was proposed. An Improved Dense Block structure (IDB) was introduced into the network of the method, which can effectively solve the gradient disappearance problem of deep convolutional neural network and improve the training speed at the same time. The network was used to train the underwater images before and after the degradation by registration and obtained the mapping relation between the low-resolution image and the high-resolution image. The experimental results show that on a self-built underwater image training set, the underwater image reconstructed by the deep convolutional neural network with IDB has the Peak Signal-to-Noise Ratio (PSNR) and Structural SIMilarity (SSIM) improved by 0.38dB and 0.013 respectively, compared with SRCNN (an image Super-Resolution method using Conventional Neural Network) and proposed method can effectively improve the reconstruction quality of underwater images.

      Key words:

      Convolutional Neural Network (CNN); super-resolution reconstruction; Signal-to-Noise Ratio (SNR); underwater image processing; mapping

      0 引言

      伴隨水下資源開發(fā)、水下環(huán)境監(jiān)測(cè)以及海洋軍事等諸多領(lǐng)域的興起與蓬勃發(fā)展,水下成像探測(cè)一直是研究的熱點(diǎn)。但鑒于水下環(huán)境與陸地環(huán)境之間的極大差異,水中存在的水體對(duì)光的吸收和散射等諸多因素,導(dǎo)致電子設(shè)備采集到的水下圖像質(zhì)量嚴(yán)重退化,存在對(duì)比度低、表面霧化等多方面不足,嚴(yán)重影響了信息的準(zhǔn)確獲取。傳統(tǒng)的水下圖像處理方法包含圖像的增強(qiáng)、復(fù)原及超分辨率重建算法[1-2],但普遍存在依賴退化模型及效率低的問(wèn)題,從而在應(yīng)用范圍及實(shí)時(shí)性方面受到了限制。因此,找到一種快速有效的方法來(lái)對(duì)水下圖像進(jìn)行處理,從而獲取到信噪比高、清晰度好的圖像是十分有必要且迫切的[3-5]。

      近年來(lái),學(xué)者們通過(guò)引入各種數(shù)學(xué)方法來(lái)優(yōu)化水下圖像復(fù)原及重建的質(zhì)量,并取得了一定的成效。針對(duì)水下圖像光照不均勻以及圖像的紋理細(xì)節(jié)模糊、對(duì)比度低的問(wèn)題,郭相鳳

      等[6]提出了一種基于水下圖像光學(xué)成像模型的清晰化算法,但該算法在實(shí)時(shí)性上的表現(xiàn)卻不夠好。也有學(xué)者針對(duì)特定的

      應(yīng)用場(chǎng)景設(shè)計(jì)了一些專門的圖像復(fù)原算法[7-8],這些算法在且僅在特定的場(chǎng)景下表現(xiàn)出對(duì)圖像復(fù)原良好的性能??紤]到水下光學(xué)條件復(fù)雜,張顥等[9]和Lu等[10]通過(guò)分析水下光學(xué)成像模型,針對(duì)噪聲去除,分別提出了自己的超分辨率重構(gòu)算法,使得到的超分辨率圖像有較好的噪聲水平,但對(duì)于光照不足、色彩偏離嚴(yán)重的水下圖像,他們的算法卻顯得乏力。Nakagawa等[11]提出一種基于kinect水下三維圖像重建方法,該方法考慮了水中泥沙的影響,采用水下暗通道先驗(yàn)去模糊、加權(quán)引導(dǎo)圖像超分辨率,有效克服了深度圖精度低的缺點(diǎn)。

      本文結(jié)合課題組近幾年在退化模型和恢復(fù)算法的研究成果,總結(jié)出目前圖像恢復(fù)算法的一些共性問(wèn)題:1)無(wú)法處理好降噪和進(jìn)行對(duì)比度增強(qiáng)之間的先后關(guān)系,進(jìn)而導(dǎo)致重建得到的圖像存在噪聲消除不夠完善或者細(xì)節(jié)受損的問(wèn)題;2)數(shù)字圖像多為二維或者三維數(shù)字矩陣,數(shù)據(jù)量十分龐大,算法的迭代耗時(shí)過(guò)長(zhǎng),從而無(wú)法實(shí)現(xiàn)實(shí)時(shí)性。因此采用經(jīng)典方法處理水下圖片無(wú)法快速準(zhǔn)確地得到高質(zhì)量的水下圖像復(fù)原圖。

      深度學(xué)習(xí)成為近年來(lái)圖像處理領(lǐng)域的研究熱潮,已有學(xué)者也在這股熱潮中提出了基于深度學(xué)習(xí)的水下圖像處理算法。Lu等[12]提出了一種解決低強(qiáng)度光環(huán)境下水下成像問(wèn)題的光場(chǎng)成像方法,該方法通過(guò)使用深度估計(jì)的深卷積神經(jīng)網(wǎng)絡(luò)來(lái)解決光場(chǎng)圖像的去散射問(wèn)題。而Perez等[13]提出了一種基于深度學(xué)習(xí)的水下圖像增強(qiáng)方法,通過(guò)圖像恢復(fù)技術(shù)對(duì)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,提高了神經(jīng)網(wǎng)絡(luò)的泛化能力。自從Dong等[14]提出應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)的單幀圖像超分辨率重建算法(an image Super-Resolution method using Conventional Neural Network, SRCNN)以后,就打開了深度學(xué)習(xí)通往圖像超分辨率重建的大門,同時(shí)解決了以前需要人為設(shè)計(jì)特征提取方式的不便,實(shí)現(xiàn)了端對(duì)端的學(xué)習(xí),提高了圖像重建的精度。但SRCNN算法卻也存在明顯不足,表現(xiàn)在當(dāng)SRCNN的層數(shù)較多時(shí),便會(huì)出現(xiàn)梯度彌散的現(xiàn)象;而且,SRCNN使用的是單一的模糊因子進(jìn)行訓(xùn)練的,會(huì)導(dǎo)致該網(wǎng)絡(luò)對(duì)其他模糊程度的圖像的復(fù)原效果不佳。針對(duì)SRCNN的上述不足,本文提出了一種改進(jìn)的深度卷積神經(jīng)網(wǎng)絡(luò),用以訓(xùn)練低分辨率水下圖像和高分辨率圖像之間的映射關(guān)系,從而達(dá)到對(duì)水下圖像進(jìn)行重建、提高圖像分辨率的目的。

      1 本文方法

      1.1 改進(jìn)的基于卷積神經(jīng)網(wǎng)絡(luò)的圖像超分辨率重建方法

      本文設(shè)計(jì)的改進(jìn)的深度密集卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

      改進(jìn)的網(wǎng)絡(luò)主要包含兩大部分,即:

      Z(X)=A(X)+B(X)(1)

      其中:Z(X)為最終的重建圖像HR;X為攝像頭采集的水下低分辨率圖像;A(X)為由低分辨率圖像進(jìn)行雙三次插值得到的圖像信息ILF,是圖像的低頻部分;B(X)表示低分辨率圖像經(jīng)過(guò)深度卷積神經(jīng)網(wǎng)絡(luò)后的輸出圖像信息IHF,是圖像的高頻信息部分。眾所周知,低分辨率圖像與高分辨率圖像的最大區(qū)別是在其基礎(chǔ)上損失了重要的高頻部分信息,而低頻部分的信息與原圖像基本一致,所以本文構(gòu)建的網(wǎng)絡(luò)能夠有效避免對(duì)低頻部分信息的重復(fù)學(xué)習(xí),從而加快模型的收斂速度。

      其中用于學(xué)習(xí)圖像高頻部分信息的深度卷積神經(jīng)網(wǎng)絡(luò)是圖1的上半部,該部分網(wǎng)絡(luò)由四大部分組成,包括:

      1)用于學(xué)習(xí)低層特征的卷積層,其中包含兩個(gè)Conv卷積層;

      2)用于學(xué)習(xí)高層特征的改良密集塊,包含12個(gè)IDB;

      3)用于將學(xué)習(xí)的密集特征融合的融合層;

      4)用于生成HR高頻特征的重構(gòu)塊,包含一個(gè)上采樣層和一個(gè)卷積層。

      1.2 數(shù)據(jù)集的建立及圖像預(yù)處理

      受張清博等[15]的研究啟發(fā),本實(shí)驗(yàn)使用自建數(shù)據(jù)集,為保證實(shí)驗(yàn)數(shù)據(jù)的多樣性,本次實(shí)驗(yàn)在長(zhǎng)江和東湖上進(jìn)行。圖2是此次實(shí)驗(yàn)成像系統(tǒng)原理以及采樣現(xiàn)場(chǎng)圖。

      圖3(a)是長(zhǎng)江水中測(cè)試靶1的圖像,圖3(b)是清水中測(cè)試靶1的圖像??梢钥闯觯呵逅械膱D像的成像質(zhì)量比較高,基本沒(méi)有噪聲;而長(zhǎng)江水中的圖像含較多噪聲,清晰度很低。

      為更好地體現(xiàn)出提取高頻信息進(jìn)行網(wǎng)絡(luò)訓(xùn)練的直觀效果,將測(cè)試靶1的高頻信息提取結(jié)果導(dǎo)出如圖4所示,可以看到,圖像的高頻細(xì)節(jié)部分信息展現(xiàn)更為突出,而低頻部分信息不再進(jìn)入網(wǎng)絡(luò)進(jìn)行訓(xùn)練,能極大地提高網(wǎng)絡(luò)訓(xùn)練的速度和效率。

      為了解決數(shù)據(jù)難以獲取的難點(diǎn),采集了大量用于訓(xùn)練的數(shù)據(jù)集。將在自然光下采集得到的訓(xùn)練靶退化前后的圖像進(jìn)行配準(zhǔn)得到尺寸為64×64的訓(xùn)練樣本對(duì)。仿照文獻(xiàn)[16]中對(duì)數(shù)據(jù)的處理辦法,對(duì)圖像先進(jìn)行 64×64顏色空間轉(zhuǎn)換并提取64×64通道,將得到的圖像按照步長(zhǎng)為10,處理為大小64×64的圖像塊。再利用旋轉(zhuǎn)、鏡像的方法擴(kuò)充訓(xùn)練集,選取90%作為訓(xùn)練集,10%作為校驗(yàn)集,再選取在東湖中得到的測(cè)試靶的圖像作為測(cè)試集。最后得到訓(xùn)練、校驗(yàn)、和測(cè)試圖片的數(shù)目及尺寸如表1所示。采集到的這些訓(xùn)練集圖像塊將用于特征提取步驟中,對(duì)本文設(shè)計(jì)的卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行交叉訓(xùn)練。

      采集到的這些訓(xùn)練集圖像塊將用于特征提取步驟中,對(duì)本文設(shè)計(jì)的卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行交叉訓(xùn)練。而所謂交叉訓(xùn)練,就是將訓(xùn)練集分為10份,每一輪訓(xùn)練都會(huì)選取9份作為訓(xùn)練集數(shù)據(jù),剩下的1份將用作校驗(yàn)集,并用其對(duì)網(wǎng)絡(luò)參數(shù)進(jìn)行調(diào)節(jié),每一輪的校驗(yàn)集都不同,以此種方式循環(huán)10輪,便構(gòu)成了交叉訓(xùn)練。通過(guò)此方式,能有效地篩選出對(duì)網(wǎng)絡(luò)訓(xùn)練更有利的數(shù)據(jù)集,防止因?yàn)椴糠钟?xùn)練集效果不佳而對(duì)網(wǎng)絡(luò)整體效果產(chǎn)生影響。

      1.3 特征提取

      式(1)中的A(X)可通過(guò)直接對(duì)低分辨率圖像進(jìn)行低通濾波,然后進(jìn)行雙三插值得到;而用于訓(xùn)練B(X) 的輸入則為通過(guò)高通濾波處理的低分辨率圖像。利用前層學(xué)習(xí)得到的特征圖與卷積核進(jìn)行卷積操作提取局部特征,卷積結(jié)果經(jīng)激活函數(shù)運(yùn)算后得到當(dāng)前層的特征圖。

      得到如下的輸出結(jié)果:

      xlj=f(∑i∈Mjxl-1i×Wlij+blj)(2)

      其中:x為特征圖中像素點(diǎn)的值,l為卷積層的層數(shù),i和j為像素點(diǎn)的位置, f為神經(jīng)網(wǎng)絡(luò)采取的激活函數(shù),M為卷積核,W和b分別為卷積核中的權(quán)值和常數(shù)偏置。本文提出的卷積神經(jīng)網(wǎng)絡(luò)中,受文獻(xiàn)[17]中提出方法的引導(dǎo),在每次卷積前都對(duì)圖像進(jìn)行補(bǔ)0操作,這樣保證了所有的特征圖和最終的輸出圖像在尺寸上都保持一致,避免出現(xiàn)圖像因通過(guò)逐步卷積而會(huì)變得越來(lái)越小的問(wèn)題。

      有研究表明,網(wǎng)絡(luò)層次越深,則對(duì)圖像的重建性能會(huì)有更好的體現(xiàn),見文獻(xiàn)[18]。但由于神經(jīng)網(wǎng)絡(luò)中梯度彌散現(xiàn)象,會(huì)導(dǎo)致深層次網(wǎng)絡(luò)的重建效果甚至不如簡(jiǎn)單的3層卷積神經(jīng)網(wǎng)絡(luò)。文獻(xiàn)[19]中提出了殘差網(wǎng)絡(luò)結(jié)構(gòu)的概念,殘差結(jié)構(gòu)在深層網(wǎng)絡(luò)中利用跨層將淺層和深層的卷積層連接,使卷積層對(duì)特征圖的殘差進(jìn)行擬合,大幅降低了訓(xùn)練過(guò)程的計(jì)算復(fù)雜度,同時(shí)也減少了梯度彌散的現(xiàn)象。

      本文對(duì)殘差網(wǎng)絡(luò)的中間層進(jìn)行改良,在其中引入了改良的密集塊結(jié)構(gòu)。而所謂密集塊結(jié)構(gòu),見文獻(xiàn)[20],就是一種具有密集連接的卷積神經(jīng)網(wǎng)絡(luò);在該網(wǎng)絡(luò)中,任何兩層之間都有直接的連接,也就是說(shuō),網(wǎng)絡(luò)每一層的輸入都是前面所有層輸出的并集,而該層所學(xué)習(xí)的特征圖也會(huì)被直接傳給其后面所有層作為輸入。

      而本文獨(dú)具匠心,將殘差塊與密集塊結(jié)構(gòu)相結(jié)合,提出了改良的密集塊結(jié)構(gòu)(Improved Dense Block, IDB),如圖5所示。

      1.4 誤差函數(shù)構(gòu)造

      前文中已有提及,輸入的低分辨率圖像與其對(duì)應(yīng)的高分辨圖像的低頻部分信息基本一致,從而導(dǎo)致兩者的殘差圖像的像素值大多數(shù)很小甚至很多為0。為了學(xué)習(xí)高頻部分端到端的映射函數(shù)F,本文方法中訓(xùn)練高頻部分信息的密集卷積神經(jīng)網(wǎng)絡(luò)采用了殘差學(xué)習(xí)的思想,在圖像重建過(guò)程中構(gòu)造了本網(wǎng)絡(luò)模型的重建誤差函數(shù)H(λ),定義為:

      H(λ)=1N∑Ni=1‖(Zi-Xi)-F(limx→∞ Xi;λ)‖2=

      1N∑Ni=1‖r-F(limx→∞ Xi;λ)‖2(3)

      其中:N是訓(xùn)練樣本的數(shù)量,Xi為輸入的第i幅低分辨率圖像,λ={W1,W2,…,Wn,b1,b2,…,bn},r是標(biāo)準(zhǔn)的高分辨率輸出Zi與低分辨率輸入Xi的殘差圖像信息。

      2 實(shí)驗(yàn)結(jié)果與分析

      由于超分辨率重建的任務(wù)是得到與原始高分辨率圖像盡可能相近的重建圖像,因此對(duì)于數(shù)據(jù)集{Xi,Zi}Ni=1訓(xùn)練的目標(biāo)為求解使得原始高分辨率圖像Zi和重建圖像i的平均歐氏距離最小的W和b,即為:

      W,b=arg minW,b12N‖Zi-i‖22(4)

      峰值信噪比(Peak Signal-to-Noise Ratio, PSNR)和結(jié)構(gòu)相似度(Structural SIMilarity, SSIM)是衡量圖像重建的質(zhì)量時(shí)用得較廣泛的兩個(gè)指標(biāo)[21],前者對(duì)處理后的結(jié)果跟原圖相比的誤差進(jìn)行定量計(jì)算,PSNR愈高,說(shuō)明失真愈小;SSIM越逼近1,說(shuō)明處理后的結(jié)構(gòu)與原圖結(jié)構(gòu)極為近似,即生成的結(jié)果圖更好。故本文采用這兩個(gè)指標(biāo)來(lái)客觀評(píng)價(jià)各類重建方法的優(yōu)劣,對(duì)于原始高分辨率圖像Zi和重建圖像i,PSNR和SSIM的表達(dá)式為:

      PSNR=10·lgMN‖Zi-i‖2(5)

      SSIM = (2ufuf⌒+ C1)(σff⌒+ C2)(uf 2+ uf⌒2+ C1)(σf2+ σf⌒2+ C2)(6)

      其中:M、N均為圖像的尺寸,Zi為原始高分辨率圖像, i為重建后的超分辨率圖像,uf和σf分別為真實(shí)高分辨率圖像的平均灰度值和方差, uf⌒和σf⌒分別為重建后圖像的灰度平均值和方差, σff⌒為原始高分辨率圖像和重建圖像的協(xié)方差,C1、C2均為常數(shù),且取C1=(k1L)2,C2=(k2L)2,k1=0.01,k2=0.03,L=255。

      2.1 實(shí)驗(yàn)配置

      本實(shí)驗(yàn)的訓(xùn)練平臺(tái)為:操作系統(tǒng)為 Ubuntu 14.04,CPU為Core i7-7700K(Quad-core 4.2GHz),顯卡為 NIVID GTX 1080ti。訓(xùn)練測(cè)試平臺(tái)為CUDA8.0,cuDNN5.1, Pytorch0.4,python3.5。在主要參數(shù)學(xué)習(xí)率的設(shè)置上,本文采用的是學(xué)習(xí)率衰減的辦法,這樣能有效防止訓(xùn)練時(shí)間過(guò)長(zhǎng)。設(shè)定初始學(xué)習(xí)率為0.001,每迭代100000次,學(xué)習(xí)率降為原來(lái)的1/10,采用隨機(jī)梯度下降法(Stochastic Gradient Descent, SGD)對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。

      網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)如表2所示,其中kerner_size為卷積核的尺寸,padding為輸入的每一條邊補(bǔ)充0的層數(shù),bias為是否添加偏置。

      為了更加全面地展示出本神經(jīng)網(wǎng)絡(luò)的效果,本文選取了4個(gè)相關(guān)的方法在相同的數(shù)據(jù)集中進(jìn)行比較,這些方法包括:雙三插值、A+[22]、Self-Exp[23]和SRCNN[14],對(duì)比中所用的方法的代碼,均從作者項(xiàng)目代碼的公開網(wǎng)頁(yè)上獲得,其中A+、Self-Exp以及SRCNN方法代碼網(wǎng)址分別為http://www.vision.ee.ethz.ch/~timofter/software/AplusCodes_SR.zip;

      [5]王鑫,朱行成,寧晨,等.融合暗原色先驗(yàn)和稀疏表示的水下圖像復(fù)原[J].電子與信息學(xué)報(bào),2018, 40(2):264-271.(WANG X, ZHU X C, NING C, et al. Combination of dark-channel prior with sparse representation for underwater image restoration [J]. Journal of Electronics and Information Technology, 2018, 40(2):264-271.)

      [6]郭相鳳,賈建芳,楊瑞峰,等.基于水下圖像光學(xué)成像模型的清晰化算法[J].計(jì)算機(jī)應(yīng)用,2012,32(10):2836-2839.(GUO X F, JIA J F, YANG R F, et al. Visibility enhancing algorithm based on optical imaging model for underwater images [J]. Journal of Computer Applications, 2012, 32(10): 2836-2839.)

      [7]QUEVEDO E, DELORY E, CALLIC G M, et al. Underwater video enhancement using multi-camera super-resolution [J]. Optics Communications, 2017, 404: 94-102.

      [8]LI J, LI Y. Underwater image restoration algorithm for free-ascending deep-sea tripods [J]. Optics and Laser Technology, 2019, 110: 129-134.

      [9]張顥,范新南,李敏,等.基于光學(xué)成像模型的水下圖像超分辨率重構(gòu)[J].計(jì)算機(jī)與現(xiàn)代化,2017(4):7-13.(ZHANG H, FAN X N, LI M, et al. Underwater image super-resolution reconstruction based on optical imaging model [J]. Computer and Modernization, 2017(4): 7-13.)

      [10]LU H, LI Y, NAKASHIMA S, et al. Underwater image super-resolution by descattering and fusion [J]. IEEE Access, 2017,5: 670-679.

      [11]NAKAGAWA Y, KIHARA K, TADOH R, et al. Super resolving of the depth map for 3D reconstruction of underwater terrain using kinect [C]// Proceedings of the 2016 IEEE 22nd International Conference on Parallel and Distributed Systems. Piscataway, NJ: IEEE, 2016, 1: 1237-1240.

      [12]LU H, LI Y, UEMURA T, et al. Low illumination underwater light field images reconstruction using deep convolutional neural networks [J]. Future Generation Computer Systems, 2018, 82: 142-148.

      [13]PEREZ J, ATTANASIO A C, NECHYPORENKO N, et al. A deep learning approach for underwater image enhancement [C]// Proceedings of the 2017 International Work-Conference on the Interplay Between Natural and Artificial Computation, LNCS 10338. Berlin: Springer, 2017: 183-192.

      [14]DONG C, LOY C C, HE K, et al. Learning a deep convolutional network for image super-resolution [C]// Proceedings of the 2014 European Conference on Computer Vision, LNCS 8692. Berlin: Springer, 2014: 184-199.

      [15]張清博,張曉暉,韓宏偉.一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的水下光電圖像質(zhì)量?jī)?yōu)化方法[J].光學(xué)學(xué)報(bào),2018,38(11):88-96.(ZHANG Q B, ZHANG X H, HAN H W. Optimization of underwater photoelectric image quality based on deep convolutional neural networks [J]. Acta Optica Sinica, 2018, 38(11): 88-96.)

      [16]LIM B, SON S, KIM H, et al. Enhanced deep residual networks for single image super-resolution [C]// Proceedings of the 2017 Computer Vision and Pattern Recognition Workshops. Washington, DC: IEEE Computer Society, 2017: 136-144.

      [17]KIM J, LEE J K, LEE K M. Accurate image super-resolution using very deep convolutional networks [C]// Proceedings of the? 2016 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2016: 1646-1654.

      [18]HE K, ZHANG X, REN S, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1904-1916.

      [19]HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2016, 1: 770-778.

      [20]TONG T, LI G, LIU X, et al. Image super-resolution using dense skip connections [C]// Proceedings of the 2017 IEEE International Conference on Computer Vision. Washington, DC: IEEE Computer Society, 2017: 4809-4817.

      [21]WANG Z, BOVIK A C, SHEIKH H R, et al. Image quality assessment: from error visibility to structural similarity [J]. IEEE Transactions on Image Processing, 2004, 13(4): 600-612.

      [22] ?TIMOFTE R, de SMET V, van GOOL L. A+: adjusted anchored neighborhood regression for fast super-resolution [C]// Proceedings of the 2014 Asian Conference on Computer Vision, LNCS 9006. Berlin: Springer, 2014: 111-126.

      [23]HUANG J-B, SINGH A, AHUJA N . Single image super-resolution from transformed self-exemplars [C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2015, 1: 5197-5206.

      This work is partially supported by Youth Science Foundation of National Natural Science Foundation of China (61806076), the Students Platform for Innovation and Entrepreneurship Training Program of Hubei Province (201710512051, 201810512051).

      CHEN Longbiao, born in 1997. His research interests include deep learning, image processing.

      CHEN Yuzhang, born in 1984, Ph. D., associate professor. His research interests include photoelectric detection, image processing.

      WANG Xiaochen, born in 1998. His research interests include deep learning, software engineering.

      ZOU Peng, born in 1997. His research interests include image processing, deep learning.

      HU Xuemin, born in 1985, Ph. D., associate professor. His research interests include computer vision, intelligent system.

      猜你喜歡
      映射卷積神經(jīng)網(wǎng)絡(luò)信噪比
      基于深度學(xué)習(xí)的無(wú)人機(jī)數(shù)據(jù)鏈信噪比估計(jì)算法
      低信噪比下LFMCW信號(hào)調(diào)頻參數(shù)估計(jì)
      低信噪比下基于Hough變換的前視陣列SAR稀疏三維成像
      RMI原則在代數(shù)學(xué)教學(xué)中的應(yīng)用
      基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
      論美國(guó)動(dòng)畫電影題材變化及現(xiàn)實(shí)映射意義
      試論泰國(guó)文化對(duì)外來(lái)廣告的映射
      東方教育(2016年3期)2016-12-14 20:50:00
      概念隱喻在構(gòu)建語(yǔ)篇連貫中的作用探析
      考試周刊(2016年85期)2016-11-11 00:44:35
      深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
      基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
      軟件工程(2016年8期)2016-10-25 15:47:34
      禹城市| 平果县| 保定市| 比如县| 扎囊县| 拜城县| 黑水县| 兰坪| 荃湾区| 镇远县| 达尔| 左贡县| 万山特区| 金秀| 勐海县| 天津市| 南投市| 吉木萨尔县| 定南县| 定西市| 石阡县| 蓬安县| 宝兴县| 尉氏县| 合肥市| 印江| 天峨县| 凉山| 神农架林区| 巨野县| 凌海市| 酉阳| 公主岭市| 张掖市| 上饶县| 高台县| 芷江| 安福县| 沙田区| 英吉沙县| 普兰店市|