• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于空間角度解耦融合網(wǎng)絡(luò)的光場(chǎng)重建

      2022-09-28 08:59:38張洪基鄧慧萍向森吳謹(jǐn)
      液晶與顯示 2022年10期
      關(guān)鍵詞:光場(chǎng)視圖卷積

      張洪基,鄧慧萍,向森,吳謹(jǐn)

      (武漢科技大學(xué) 信息科學(xué)與工程學(xué)院,湖北 武漢430081)

      1 引 言

      光場(chǎng)相機(jī)可以在一次攝影曝光中從多個(gè)視角捕捉一個(gè)場(chǎng)景,記錄場(chǎng)景的二維空間信息和二維角度信息,在深度估計(jì)、三維重建等領(lǐng)域具有重要的研究?jī)r(jià)值[1-2]。然而,由于光場(chǎng)相機(jī)內(nèi)部傳感器分辨率有限,捕獲的光場(chǎng)圖像在滿足空間分辨率需求時(shí)只能在角度域稀疏采樣。因此,通過(guò)稀疏采樣光場(chǎng)合成中間視圖的光場(chǎng)重建[3-5]成為光場(chǎng)應(yīng)用的關(guān)鍵技術(shù)。光場(chǎng)角度分辨率重建又稱為視點(diǎn)合成或視點(diǎn)繪制。依據(jù)是否依賴深度圖的輔助可分為直接三維重建和基于深度輔助的光場(chǎng)重建。

      傳統(tǒng)的三維重建常采用信號(hào)的頻域分析方法。Shi等人[6]只對(duì)邊界或?qū)蔷€子孔徑圖像進(jìn)行采樣,利用傅里葉域的稀疏性分析來(lái)恢復(fù)全光場(chǎng),然而這種方法需要以特定的模式捕獲光場(chǎng),這限制了它的應(yīng)用。Vagharshakyan等人[7]對(duì)光場(chǎng)極平面圖像(Epipolar Plane Image,EPI)進(jìn)行頻域分析,在傅里葉域中采用了一種自適應(yīng)的離散剪切變換來(lái)消除引入混疊效應(yīng)[8]的高頻光譜。Pendu等人[9]新提出了一種稱為傅里葉視差層的光場(chǎng)表示方法,通過(guò)移動(dòng)不同的視差層對(duì)光場(chǎng)進(jìn)行重建。以上從頻域重建的方法在一定程度上能獲取密集采樣的光場(chǎng),但是針對(duì)深度層次較多的復(fù)雜場(chǎng)景時(shí),光場(chǎng)的頻域特點(diǎn)難以分析,頻譜更加復(fù)雜,頻域混疊問(wèn)題難以解決。

      基于深度學(xué)習(xí)的三維重建方法,利用卷積神經(jīng)網(wǎng)絡(luò)強(qiáng)大的學(xué)習(xí)能力,通過(guò)堆疊的卷積層將稀疏采樣光場(chǎng)映射到密集采樣光場(chǎng)。Yeung等人[10]將整個(gè)四維光場(chǎng)輸入一個(gè)偽四維卷積網(wǎng)絡(luò),并提出了一種空間-角度交替卷積來(lái)迭代細(xì)化重建結(jié)果。Meng等人[11-12]使用密集連接的4D卷積對(duì)光場(chǎng)進(jìn)行上采樣和優(yōu)化,實(shí)現(xiàn)了在空間或角度維度的多個(gè)尺度上的重建。雖然4D卷積可以同時(shí)提取光場(chǎng)的空間和角度信息,但是會(huì)導(dǎo)致過(guò)擬合并且計(jì)算代價(jià)非常高。以上利用深度學(xué)習(xí)的直接重建方法雖然無(wú)需對(duì)頻譜進(jìn)行分析,但是以稀疏采樣的光場(chǎng),特別是大基線光場(chǎng)作為輸入時(shí),提供的信息十分有限,盡管使用了高維卷積來(lái)提取特征,仍然難以建立起稀疏輸入和密集光場(chǎng)之間的關(guān)系,需要復(fù)雜的優(yōu)化網(wǎng)絡(luò)進(jìn)行后處理。

      基于深度輔助的光場(chǎng)重建由于增加了光場(chǎng)的深度信息,往往能取得更好的重建質(zhì)量。經(jīng)典的3D warping算 法[13-14]就 是 通 過(guò)深度 信 息 的輔助,使參考視點(diǎn)與待合成視點(diǎn)建立幾何映射關(guān)系,從而合成新視點(diǎn)。目前,也有不少工作將深度信息利用到基于深度學(xué)習(xí)的光場(chǎng)重建框架中。Flynn等人[15]利用顏色、深度和紋理先驗(yàn),首次實(shí)現(xiàn)了使用神經(jīng)網(wǎng)絡(luò)來(lái)預(yù)測(cè)新視圖。Kalantari等人[16]采用順序卷積網(wǎng)絡(luò)估計(jì)深度和顏色,然后使用連續(xù)的二維空間卷積層融合從不同輸入視點(diǎn)映射到新視點(diǎn)的視圖來(lái)產(chǎn)生最終的重建。以上早期的重建網(wǎng)絡(luò)考慮到了使用顏色等先驗(yàn)信息輔助重建,但是顏色等信息只是光場(chǎng)空域特征的一部分,空間信息未能得到充分利用。Jin等人[17]首先估計(jì)出新視點(diǎn)的深度圖,然后通過(guò)空間角度交替細(xì)化進(jìn)行重構(gòu)。該網(wǎng)絡(luò)在細(xì)節(jié)方面能保持較好的效果,但由于是將所有子孔徑圖像一同輸入順序連接的卷積層來(lái)估計(jì)深度,忽略了光場(chǎng)視圖之間的方向信息,導(dǎo)致了嚴(yán)重的遮擋問(wèn)題。

      除了顯式的深度估計(jì)以外,Wu等人[18]利用編解碼網(wǎng)絡(luò)對(duì)不同剪切值的EPI進(jìn)行評(píng)估,網(wǎng)絡(luò)隱式地使用深度信息來(lái)選擇重建良好的EPI,然后使用金字塔分解重建技術(shù)融合多個(gè)剪切EPI來(lái)得到密集采樣EPI。該方法不需要顯式地估計(jì)出深度圖,但是EPI只是四維光場(chǎng)的二維采樣,使用EPI進(jìn)行重建沒(méi)有完全利用到光場(chǎng)的空間角度信息。Zhou等人[19]提出了一種新的基于學(xué)習(xí)的多平面圖表示方法,通過(guò)對(duì)不同圖像的alpha通道進(jìn)行融合來(lái)合成新的視圖。Mildenhall等人[20]進(jìn)一步提出利用多平面圖來(lái)合成一個(gè)局部光場(chǎng)?;诙嗥矫鎴D的方法對(duì)小基線視圖有著不錯(cuò)的重建效果,但這種未顯式估計(jì)出深度圖的方法由于受深度平面數(shù)量的限制,在面對(duì)大基線輸入時(shí)會(huì)超出極限外推范圍,使重建視圖邊緣產(chǎn)生偽影。

      綜上所述,利用深度輔助的光場(chǎng)重建算法由于引入了額外的深度信息,有利于提高大基線條件下稀疏光場(chǎng)的角度超分辨率重建質(zhì)量,但是現(xiàn)有的基于深度的方法還存在幾個(gè)方面的問(wèn)題與挑戰(zhàn)。首先,視點(diǎn)間基線增大會(huì)使深度估計(jì)面臨嚴(yán)重的遮擋問(wèn)題,遮擋區(qū)域的深度估計(jì)錯(cuò)誤將會(huì)導(dǎo)致重建視圖邊緣模糊;其次,現(xiàn)有的方法僅考慮了光場(chǎng)角維度的重建,沒(méi)有充分利用到光場(chǎng)空域信息,未能充分挖掘光場(chǎng)蘊(yùn)含的四維特征,使重建視圖在紋理重復(fù)區(qū)域發(fā)生錯(cuò)誤。因此,本文從提高深度估計(jì)的準(zhǔn)確性并充分利用空域信息的角度出發(fā),提出了一種基于空間角度解耦融合的光場(chǎng)重建網(wǎng)絡(luò)。該網(wǎng)絡(luò)主要包含一個(gè)多路輸入的深度估計(jì)模塊和一個(gè)整合光場(chǎng)空間角度信息的光場(chǎng)融合模塊,在獲得較為精確的重建視圖的同時(shí),保留了更多的紋理細(xì)節(jié)。該深度學(xué)習(xí)網(wǎng)絡(luò)具有以下特點(diǎn):

      (1)充分利用光場(chǎng)的多方向信息,采用多支路輸入方式,更好地解決遮擋問(wèn)題;對(duì)每條支路使用空洞空間卷積池化金字塔模塊(Atrous Spatial Pyramid Pooling,ASPP)以引入多尺度信息,通過(guò)增大感受野來(lái)捕捉更多的視差信息并獲取豐富的上下文信息,提高深度估計(jì)的準(zhǔn)確性。

      (2)設(shè)計(jì)了空間角度解耦融合模塊(Spatial-

      Angular Decouple and Fuse Module,SADFM),提取了光場(chǎng)空間維度蘊(yùn)含的紋理信息和角維度蘊(yùn)含的視差信息并使之融合。在模塊內(nèi)使用殘差連接方式將淺層特征與融合之后的深層特征連接,獲取更豐富的特征表示。引入空間信息輔助角度超分辨率,使重建結(jié)果在紋理重復(fù)區(qū)域更加清晰。

      2 光場(chǎng)重建算法

      2.1 整體網(wǎng)絡(luò)結(jié)構(gòu)

      一個(gè)4D光場(chǎng)可以表示為L(zhǎng)(x,u),其中x=(x,y)是空間坐標(biāo),u=(u,v)是角度坐標(biāo)。光場(chǎng)角度超分辨率可以解釋為:

      其中L(x,u)為輸入稀疏采樣的光場(chǎng),為密 集 采 樣 的 光 場(chǎng)=為 密 集 光 場(chǎng) 的 角 度坐標(biāo),f表示要學(xué)習(xí)的重建過(guò)程的函數(shù)。

      重建過(guò)程的整體框架如圖1所示。本文利用了具有多個(gè)特征提取支路的深度估計(jì)模塊來(lái)獲取密 集 采 樣 光 場(chǎng) 的 深 度 圖D(x,?),然 后 通 過(guò)3D warping將 輸 入 視 點(diǎn)L(x,u)映 射 到 深 度 圖D(x,?)上,映 射 得 到 的 初 始 光 場(chǎng) 記 為W(x,?,u)。再把W(x,?,u)輸入空間角度解耦融合模塊以充分探索光場(chǎng)空間角度之間的關(guān)系,最后通過(guò)3D卷積得到重建的殘差圖fb(W(x,?,u))。

      圖1 本文的整體框架Fig.1 Overall framework of the proposed network

      最終重建的密集采樣光場(chǎng)可以表示為:

      其中W(x,?,u1)是從第一個(gè)輸入視圖u1映射到深度圖D(x,?)的光場(chǎng),fb表示光場(chǎng)視圖融合過(guò)程的函數(shù)。

      2.2 深度估計(jì)模塊

      深度估計(jì)模塊利用輸入的稀疏采樣光場(chǎng)估計(jì)出待重建密集采樣光場(chǎng)各視點(diǎn)的深度,可以表示為:

      其中fd為表示深度估計(jì)過(guò)程的函數(shù)。

      深度估計(jì)的準(zhǔn)確性對(duì)光場(chǎng)重建的結(jié)果至關(guān)重要,但是在圖像邊緣等區(qū)域,特別是大基線輸入視圖的邊緣,估計(jì)出的深度圖往往具有嚴(yán)重的遮擋問(wèn)題。本文采用多路輸入形式,將每一個(gè)輸入子孔徑圖像單獨(dú)作為一個(gè)支路進(jìn)行特征提取,各個(gè)支路之間權(quán)重共享。多路輸入形式可以獲取每個(gè)子孔徑圖像獨(dú)特的位置信息和方向信息,在一定程度上解決了遮擋問(wèn)題。

      在每條支路上,為了獲取大基線輸入視圖之間的視差信息,需要一個(gè)具有密集像素采樣率的大接受域來(lái)提取層次特征。本文使用兩個(gè)交替的ASPP模塊和殘差塊作為特征提取模塊。ASPP模塊如圖2所示,首先對(duì)輸入的每張子孔徑圖像進(jìn)行1×1卷積,生成初始特征,然后輸入ASPP模塊進(jìn)行深度特征提取,在每個(gè)ASPP塊中,利用3個(gè)3×3空洞卷積(空洞率分別為1、2、4)并行合并,引入了多尺度信息并增大感受野,提取到豐富的上下文信息和有密集采樣率的層次特征。用參數(shù)為0.1的leaky ReLU層進(jìn)行激活后,將這三個(gè)分支的特征通過(guò)1×1的卷積連接和融合。

      圖2 空間空洞金字塔模塊Fig.2 ASPP module

      在4張子孔徑圖分別經(jīng)過(guò)特征提取之后,將提取的特征進(jìn)行拼接并使用6個(gè)連續(xù)的卷積層來(lái)重建深度圖,在加深網(wǎng)絡(luò)的同時(shí)增大了感受野,進(jìn)一步解決大基線問(wèn)題。

      2.3 視圖3D warping模塊

      基于得到的密集采樣光場(chǎng)各視點(diǎn)的深度圖,可以通過(guò)3D warping建立稀疏采樣光場(chǎng)和該深度圖的映射關(guān)系,獲取一系列從不同輸入視圖warping的光場(chǎng)圖像,具體過(guò)程如式(4)所示:

      由于不同的子孔徑圖像擁有各自的視點(diǎn)信息,對(duì)于待合成的目標(biāo)子孔徑視圖有著不同的視角貢獻(xiàn),本文使用了從輸入視點(diǎn)warping到其他待合成視點(diǎn)的所有視圖進(jìn)行融合。在框架中沒(méi)有使用真實(shí)深度圖,通過(guò)最小化warping光場(chǎng)的重建誤差為深度估計(jì)網(wǎng)絡(luò)提供適當(dāng)?shù)闹笇?dǎo)。此外,通過(guò)懲罰空間梯度來(lái)確保每個(gè)深度圖的平滑性。深度估計(jì)模塊的訓(xùn)練損失ld如式(5)所示:

      其中L(x,?)為真實(shí)光場(chǎng)圖像。

      2.4 光場(chǎng)融合模塊

      在3D warping之后,需要融合從不同輸入視點(diǎn)warping的光場(chǎng)視圖來(lái)得到殘差圖,然而,在warping過(guò)程中子孔徑圖像之間的視差不一致性將不可避免地造成高頻損失。為了緩解這種高頻損失,需要在角度重建過(guò)程中充分挖掘光場(chǎng)空域蘊(yùn)含的二維圖像信息?,F(xiàn)有的融合方式未能利用完整的光場(chǎng)空間信息[16],或者未能提取到光場(chǎng)空域的淺層特征[17]。這些方法不能充分利用光場(chǎng)所蘊(yùn)含的空間信息,造成重建視圖紋理重復(fù)區(qū)域的模糊。因此,在重構(gòu)光場(chǎng)的過(guò)程中除了要關(guān)注角度信息,還要注重光場(chǎng)的空域特性。

      本文利用空間卷積和角度卷積來(lái)分別提取光場(chǎng)的空間和角度信息,并設(shè)計(jì)了SADFM來(lái)充分探索光場(chǎng)空間角度之間的關(guān)系。在重構(gòu)過(guò)程中額外引入的空間信息可以增強(qiáng)空域細(xì)節(jié),使重建視圖的紋理重復(fù)區(qū)域更加清晰。SADFM如圖3所示,空間和角度卷積將特征張量分別變換為空間圖像的堆棧X×Y×UV和角塊堆棧U×V×XY,其中X、Y表示空間維度的大小,U、V表示角維度的大小,然后實(shí)行相應(yīng)的卷積操作。

      圖3 空間角度解耦融合塊Fig.3 Spatial-angular decouple and fuse module

      卷積核的大小設(shè)置為3×3,步長(zhǎng)為1,在空間卷積上設(shè)置空洞率為2以增大空間感受野,保證在較大基線光場(chǎng)中仍能捕獲細(xì)節(jié)特征。由于光場(chǎng)特征張量XY×UV中空間維度XY遠(yuǎn)大于角維度UV,在重建步驟中可利用的角度信息遠(yuǎn)小于空間信息,因此本文利用了一次空間卷積和兩個(gè)級(jí)聯(lián)的角度卷積來(lái)分別提取空間信息和角度特征,然后將所有特征進(jìn)行連接并輸入1×1卷積進(jìn)行深度特征融合。級(jí)聯(lián)的角度卷積權(quán)重共享,不僅能減小模型大小,還能加深網(wǎng)絡(luò),提取更深層次的角度特征。然后使用殘差連接方式將初始特征與融合之后的特征進(jìn)行連接,用淺層特征強(qiáng)化特征張量,形成層次表示。

      本文以殘差連接方式級(jí)聯(lián)6個(gè)SADFM加深網(wǎng)絡(luò),在空間角度信息不斷的解耦和融合步驟中整合信息流,充分探索光場(chǎng)視圖空間角度之間的關(guān)系,進(jìn)一步提高重建視圖的質(zhì)量。光場(chǎng)融合模塊的損失函數(shù)為lb,通過(guò)在最小化預(yù)測(cè)光場(chǎng)的重構(gòu)誤差來(lái)監(jiān)督光場(chǎng)后續(xù)的重建:

      考慮到高質(zhì)量的重建光場(chǎng)在EPI上應(yīng)有嚴(yán)格的線型結(jié)構(gòu),因此,本文使用了一種基于EPI梯度的損失函數(shù)le來(lái)對(duì)輸出EPI添加額外的約束[17],以進(jìn)一步保持光場(chǎng)的視差結(jié)構(gòu),增加新視點(diǎn)之間的視覺(jué)連續(xù)性。

      其中,le為重建EPI(?)和真實(shí)EPI(E)梯度之間的l1距離,梯度在水平和垂直EPI上沿空間和角度尺寸計(jì)算。

      3 實(shí)驗(yàn)結(jié)果及分析

      3.1 實(shí)驗(yàn)設(shè)置

      本文提出的網(wǎng)絡(luò)使用合成光場(chǎng)圖像HCI[21]、HCI old[22]和Lytro Illum相機(jī) 拍 攝 的 真實(shí) 光 場(chǎng) 圖像30 scenes[16]進(jìn)行訓(xùn)練和測(cè)試。從以上數(shù)據(jù)集的9×9個(gè)視點(diǎn)中選取左上角的7×7個(gè)視點(diǎn)作為真實(shí)密集采樣光場(chǎng),然后對(duì)其進(jìn)行稀疏下采樣,獲取7×7子孔徑陣列的4個(gè)角落的視圖作為稀疏輸入的光場(chǎng),實(shí)驗(yàn)采用提出的方法從2×2稀疏采樣光場(chǎng)重建出7×7的密集采樣光場(chǎng)。

      具體來(lái)說(shuō),使用來(lái)自HCI數(shù)據(jù)集的20張合成圖像進(jìn)行訓(xùn)練,使用HCI、HCI old中的測(cè)試集和來(lái)自LytroIllum相機(jī)拍攝的30 scenes進(jìn)行測(cè)試。這些數(shù)據(jù)集涵蓋了評(píng)價(jià)光場(chǎng)重建方法的幾個(gè)重要因素,合成數(shù)據(jù)集包含高分辨率的紋理,以測(cè)量保持高頻細(xì)節(jié)的能力。真實(shí)數(shù)據(jù)集30 scenes包含了豐富的遮擋場(chǎng)景,可以評(píng)估不同方法在自然照明和實(shí)際相機(jī)失真下對(duì)遮擋的處理能力。此外,合成光場(chǎng)數(shù)據(jù)集包含視差范圍為[-4,4]的大基線光場(chǎng)圖像。在7×7的光場(chǎng)中,視圖之間的基線范圍是視差的6倍,即在[-24,24]的范圍內(nèi),遠(yuǎn)遠(yuǎn)大于商業(yè)相機(jī)捕獲的光場(chǎng)的視差范圍。這驗(yàn)證了本文提出方法在大基線輸入的有效性。

      所有用于訓(xùn)練的圖像的空間分辨率為512×512。在訓(xùn)練過(guò)程中,為了解決數(shù)據(jù)量不足的問(wèn)題,把每張圖像隨機(jī)裁剪成96×96的塊進(jìn)行訓(xùn)練。為了保持空間分辨率不變,所有卷積層都使用了零填充。模型在NVIDIA GTX3080Ti GPU上運(yùn)行,采用PyTorch實(shí)現(xiàn)。實(shí)驗(yàn)使用了Adam優(yōu) 化 器[23]進(jìn) 行 優(yōu) 化。β1和β2分 別 設(shè) 置 為0.9,0.999。學(xué)習(xí)率最初設(shè)置為1e-4,每5e3個(gè)周期降低0.5倍。Batch size設(shè)為1,訓(xùn)練大約花了6天時(shí)間。最終的損失函數(shù)為min(ld+lb)+λle。其中,λ為EPI梯度損失的權(quán)重。

      為了驗(yàn)證本文所提方法的有效性,將本文的實(shí)驗(yàn)結(jié)果與一些利用深度信息的光場(chǎng)重建方法進(jìn)行了定性和定量的比較。對(duì)比的方法有Kalantari等人[16]、Wu等人[18]、Jin等人[17]的方法。為了公平比較,本文使用作者直接公布的光場(chǎng)重建結(jié)果或者使用它們公開(kāi)的參數(shù)和代碼進(jìn)行了測(cè)試。

      3.2 定量與定性分析

      本文采用峰值信噪比(Peak Signal to Noise Ratio,PSNR)和結(jié) 構(gòu) 相似 度 指 數(shù)(Structural Similarity,SSIM)來(lái)評(píng)估光場(chǎng)重建算法的性能。表1、2、3顯示了在HCI、HCI old以及30 scenes上的定量比較。每個(gè)場(chǎng)景的最優(yōu)值用加粗表示。

      從表1、2、3中可以看出,本文算法的PSNR和SSIM在除了stillLife的所有場(chǎng)景上均高于所比較的算法,在stillLife場(chǎng)景中略低于Jin等人[17]的方法,處于次優(yōu)值。在HCI、HCI old和30 scenes數(shù)據(jù)集上的平均PSNR比次優(yōu)算法分別提高了1.0,0.68,0.6 dB,平均SSIM提高了0.013,0.001,0.002。

      表1 不同方法在HCI數(shù)據(jù)集上的PSNR(dB)/SSIMTab.1 PSNR(dB)/SSIM of different methods over HCI datasets

      表2 不同方法在HCI old數(shù)據(jù)集上的PSNR(dB)/SSIMTab.2 PSNR(dB)/SSIM of different methods over HCI old datasets

      表3 不同方法在30 scenes數(shù)據(jù)集上的PSNR(dB)/SSIMTab.3 PSNR(dB)/SSIM of different methods over 30 scenes datasets

      實(shí)驗(yàn)在HCI、HCI old兩個(gè)大基線合成數(shù)據(jù)集中選取了具有豐富紋理信息的bicycle和buddha,在真實(shí)場(chǎng)景數(shù)據(jù)集30 scenes上選取了具有豐富遮擋的IMG1528和IMG1555來(lái)定性分析所提出算法的有效性。

      在具有豐富高頻特征的合成數(shù)據(jù)集上,對(duì)紋理重復(fù)區(qū)域的重建效果進(jìn)行比較,如圖4所示。由于引入了空間信息來(lái)指導(dǎo)角度重建,本文方法在bicycle的鏤空金屬網(wǎng)格區(qū)域和buddha的白色紋理區(qū)域都取得了較為清晰的重建效果。

      Kalantari等人[16]和Wu等人[18]未能充分利用光場(chǎng)空間信息,紋理重復(fù)區(qū)域重建模糊;Jin等人[17]在重建過(guò)程中引入了空間卷積,因此在上述紋理重復(fù)區(qū)域重建出較為清晰的結(jié)果。但是他們的方法未能使用淺層特征,在自行車(bicycle)的金屬網(wǎng)格區(qū)域產(chǎn)生了比本文方法模糊的效果。

      為了證明本文算法對(duì)遮擋的處理能力,在合成和真實(shí)世界數(shù)據(jù)集上對(duì)各個(gè)方法進(jìn)行比較,如圖4、圖5所示。Wu等人[18]隱式地利用了深度信息。受限于剪切值的數(shù)量,他們的方法不能應(yīng)對(duì)復(fù)雜遮擋的區(qū)域,會(huì)產(chǎn)生嚴(yán)重的模糊和偽影,如IMG1528和IMG1541;Kalantari等人[16]的方法雖然顯式地估計(jì)了深度圖,但是他們的網(wǎng)絡(luò)過(guò)于簡(jiǎn)單,僅使用4層順序連接的卷積,同樣在遮擋附近出現(xiàn)了模糊;Jin等人[17]使用了9層順序連接的卷積估計(jì)深度圖,在融合步驟使用了空間角度卷積來(lái)提取光場(chǎng)空間角度特征,在大多數(shù)場(chǎng)景取得了次優(yōu)的效果。但是他們的深度估計(jì)模塊未能利用光場(chǎng)子孔徑圖像蘊(yùn)含的多方向信息,不能很好地解決遮擋問(wèn)題。從自行車中的后座邊緣、IMG1528的樹枝和IMG1555的樹葉等場(chǎng)景可以看出,本文提出的方法能更好地應(yīng)對(duì)各種遮擋問(wèn)題。

      圖4 不同方法對(duì)合成光場(chǎng)數(shù)據(jù)集的重建結(jié)果Fig.4 Reconstruction results of synthetic light field data set by different methods

      圖5 不同方法對(duì)真實(shí)世界數(shù)據(jù)集的重建結(jié)果Fig.5 Reconstruction results of real-world data sets by different methods

      從所有場(chǎng)景的EPI結(jié)果可以看出,本文提出算法的EPI在物體邊緣等區(qū)域保留了更好的線型結(jié)構(gòu),進(jìn)一步驗(yàn)證了本文算法能較好地處理遮擋問(wèn)題。

      3.3 消融實(shí)驗(yàn)

      本文通過(guò)多個(gè)消融實(shí)驗(yàn)來(lái)驗(yàn)證本文所提出的多路輸入模式和空間角度解耦融合模塊在光場(chǎng)重建過(guò)程中所起到的作用和對(duì)最終結(jié)果的貢獻(xiàn)程度,定性和定量地評(píng)估了本文的多路輸入和空間角度解耦融合模塊的有效性,給出了消融不同模塊下重建光場(chǎng)的局部放大圖。

      表4 不同模塊的消融實(shí)驗(yàn)Tab.4 Ablation experiments of different modules

      圖6給出了重建中心子孔徑圖像局部放大圖??梢钥吹蕉嗦份斎胧怪亟ㄒ晥D在遮擋區(qū)域保持良好的效果,但是空間紋理部分產(chǎn)生較粗糙的結(jié)果,并且會(huì)出現(xiàn)一些不適定區(qū)域。多路輸入加上解耦融合模塊充分探索了光場(chǎng)空間角度內(nèi)在關(guān)系,并以空間信息輔助角度重建,使結(jié)果在紋理重復(fù)區(qū)域更加清晰,并且消除了不適定區(qū)域。

      圖6 消融不同模塊的對(duì)比效果Fig.6 Comparative effects of different ablation modules

      4 結(jié) 論

      本文提出了一種基于空間角度解耦融合的光場(chǎng)重建算法。本文方法充分利用光場(chǎng)蘊(yùn)含的深度信息和神經(jīng)網(wǎng)絡(luò)強(qiáng)大的學(xué)習(xí)能力,通過(guò)顯式估計(jì)場(chǎng)景深度和充分探索空間角度信息來(lái)實(shí)現(xiàn)有效的大基線光場(chǎng)重建。實(shí)驗(yàn)結(jié)果表明,本文方法對(duì)比Jin等人[17]的方法,在HCI、HCI old和30 scenes數(shù)據(jù)集上的平均PSNR分別提高了1.0、0.68和0.6 dB,平均SSIM提高了0.013、0.001和0.002。本文方法具有更高的重建質(zhì)量,在遮擋區(qū)域、紋理重復(fù)區(qū)域保持了更好的重建效果。

      猜你喜歡
      光場(chǎng)視圖卷積
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      利用新型光場(chǎng)顯微鏡高速記錄神經(jīng)元活動(dòng)和血流動(dòng)態(tài)變化
      科學(xué)(2020年5期)2020-01-05 07:03:12
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      5.3 視圖與投影
      視圖
      壓縮混沌光場(chǎng)的量子統(tǒng)計(jì)性質(zhì)研究
      Y—20重型運(yùn)輸機(jī)多視圖
      SA2型76毫米車載高炮多視圖
      集成光場(chǎng)三維顯示亮度均勻性校正方法
      和林格尔县| 抚顺县| 九江县| 仁化县| 唐山市| 洱源县| 九江县| 如皋市| 波密县| 调兵山市| 九龙坡区| 襄汾县| 临高县| 白城市| 韶山市| 紫云| 剑川县| 谷城县| 牟定县| 芜湖市| 内江市| 宣武区| 赤峰市| 上杭县| 萍乡市| 招远市| 梁平县| 长治市| 清水河县| 铁岭县| 凉城县| 尚志市| 涿鹿县| 石台县| 温州市| 绥棱县| 临邑县| 灌云县| 满城县| 镇远县| 和平县|