• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      一種裸眼3D 顯示中的多視點校正方案

      2022-04-27 06:21:38李寧馳于迅博顏玢玢桑新柱溫旭東
      液晶與顯示 2022年5期
      關(guān)鍵詞:光流視點光柵

      李寧馳,于迅博,高 鑫,顏玢玢,桑新柱,溫旭東,徐 斌

      (北京郵電大學 電子工程學院,北京100876)

      1 引 言

      我們身處在一個三維世界之中,當我們通過雙眼觀察周圍的景物時,不僅會接收到物體表面發(fā)出的顏色和光強信息,還可以獲取物體的空間深度信息,幫助我們理解物體的大小、遠近、位置關(guān)系。然而,傳統(tǒng)的平面顯示設(shè)備只能顯示三維場景中某個側(cè)面的二維投影圖像,丟失了三維場景的深度信息,嚴重影響了人們對三維空間信息的獲取、處理和表達。裸眼三維顯示技術(shù)可以為觀看者再現(xiàn)具有空間深度信息的立體圖像,而且觀看者無需佩戴任何助視設(shè)備。因此,裸眼3D 顯示技術(shù)被認為是未來顯示領(lǐng)域的重要發(fā)展方向[1-6]。光柵立體顯示技術(shù)是目前運用較廣泛的裸眼3D 顯示技術(shù)之一,能夠提供清晰的顯示效果和立體感,受到了各國研究人員和企業(yè)的廣泛關(guān)注[25]。

      光柵立體顯示器的基本原理是將多視點圖進行合成編碼,并加載到顯示器上顯示,通過柱透鏡光柵的折射在空間中形成不同的視點顯示區(qū)域,觀察者左右眼處在不同視點區(qū)域內(nèi)時,將看到具有立體效果的圖像[7-9]。多視點采集為光柵立體顯示器提供了顯示內(nèi)容,是光柵立體顯示的關(guān)鍵一步。多視點采集的關(guān)鍵在于采集位置要匹配顯示器視點分布,否則會出現(xiàn)錯誤顯示。傳統(tǒng)多視點采集方案包括真實采集[11]和虛擬采集兩種[10],這兩種方案均通過搭建均勻相機陣列對場景進行采集。經(jīng)研究發(fā)現(xiàn),由于柱透鏡光柵存在畸變,光柵立體顯示器構(gòu)建的視點實際上呈不均勻分布,這種分布和傳統(tǒng)的均勻采集方案發(fā)生沖突,顯示器空間視點將會被填充錯誤的視差圖像,導致視點圖像偏移、透視關(guān)系錯誤等問題,影響最終觀看質(zhì)量。因此,本文提出一種針對裸眼3D 中多視點圖像的校正方案,使采集視點匹配顯示器視點分布,并填充正確視點圖像,對提升光柵立體顯示器觀看效果是尤為必要的。

      利用相鄰視點生成對應位置的虛擬視點是校正的關(guān)鍵一步。基于深度信息的渲染(DIBR)[12-14]是目前比較主流的虛擬視點生成方法,該算法通過深度和RGB 圖像、通過3D 扭曲(3D warping)生成虛擬視點,有著計算速度快、算法輕便等優(yōu)勢,但生成效果存在空洞、重疊和偽影問題[13],不適用于光柵立體顯示的內(nèi)容生成[10]。神經(jīng)網(wǎng)絡(luò)光場(NeRF)[15]使用神經(jīng)網(wǎng)絡(luò)表征針對場景的光線采樣,以隱函數(shù)的方式計算新視圖,NeRF 可以合成復雜場景的高質(zhì)量虛擬視點,但存在網(wǎng)絡(luò)復雜、渲染速度慢、訓練時間長等問題,不適用于動態(tài)光柵立體顯示器的視點合成。光流記錄了時變或相鄰視點圖像中模式運動速度,包含了目標相對運動的信息[16-19],可以通過前后幀的光流經(jīng)過后向扭曲(Backward warping)預測時序中間幀。光流法在保證計算速度的同時的渲染效果同樣可觀,被廣泛的運用于視頻插幀中[19-22],受光流插幀的啟發(fā),本文提出了一種基于光流預測的中間視點合成模塊,該模塊調(diào)用RAFT 光流預測網(wǎng)絡(luò)[18]和一個融合校正網(wǎng)絡(luò)組成,以有效的生成相鄰視點間任意位置的高質(zhì)量中間視點。

      針對均勻采集的多視點圖像與顯示器視點分布不匹配的問題,本文在不改變顯示器硬件配置的前提下,提出了一種視點篩選算法和中間視點生成網(wǎng)絡(luò),以生成正確位置拍攝的虛擬視點,使之匹配顯示器視點分布:輸入均勻采集的一組多視點圖像陣列和顯示器相關(guān)參數(shù),利用視點篩選算法計算出正確空間視點位置分布,指導光流預測網(wǎng)絡(luò)生成雙向光流,并經(jīng)融合校正網(wǎng)絡(luò)進行光流校正,以提高中間光流生成質(zhì)量,通過后向扭曲生成對應位置的虛擬視點圖像,經(jīng)合成編碼后在光柵立體顯示器上顯示。實驗表明,該校正方案有效地解決了傳統(tǒng)采集和顯示器視點不匹配的問題,校正后的視點為顯示器視點填充了正確的視差圖,提升了觀看質(zhì)量。

      2 基本原理

      2.1 光柵立體顯示器和多視點圖像采集

      多視點圖像采集為光柵立體顯示器提供了顯示內(nèi)容,是光柵立體顯示的關(guān)鍵一環(huán),相機采集間距、采集距離等參數(shù)和光柵立體顯示器硬件參數(shù)是否匹配直接決定了最后的觀看質(zhì)量[10]。傳統(tǒng)多視點采集分為虛擬場景和真實場景采集兩種,這兩種方案都是通過搭建均勻相機陣列實現(xiàn)采集。在理想條件下,視差圖經(jīng)多視點編碼后經(jīng)過柱透鏡光柵被均勻偏折在空間中,所以只要根據(jù)顯示器參數(shù)設(shè)置好采集間隔進行均勻采集,采集視點圖像位置和空間視點位置就會正確貼合,并填充正確的視點圖。但實驗分析證明,如圖1(b)所示,因為柱透鏡光柵存在畸變,均勻排布的物點在經(jīng)過透鏡后,像點呈中間密集兩邊稀疏的分布狀態(tài),進而導致最終空間視點分布并不是均勻的(圖1(a)),而是和理想分布存在某種非線性映射關(guān)系。這就和理想狀態(tài)下推算的均勻采集參數(shù)產(chǎn)生矛盾,某些角度的視點沒有被填充正確的視差圖,進而導致視點圖像錯位、透視關(guān)系不正確等問題,使觀看者無法在視點位置上看到正確的視點圖像,降低了觀看效果。

      圖1 均勻采集和空間視點分布示意圖。(a)光柵立體顯示器的視點采集和顯示;(b)真實透鏡下的視點分布。Fig.1 Schematic diagram of uniform acquisition and spatial viewpoint distribution.(a)Viewpoint acquisition and display of auto stereo display;(b)View distribution under the real lenses.

      因此,本文提出一種基于軟件實現(xiàn)的多視點圖像校正方案:針對均勻采集的多視點圖像進行校正,利用視點間相關(guān)性預測出對應位置的多視點圖像,使之能夠正確匹配顯示器視點分布,提高觀看效果。

      多視點采集校正方案如圖2 所示。本文以812.8 mm(32 in)8K 分辨率的光柵立體顯示器為例;首先基于傳統(tǒng)的均勻采集方案采集待校正的多視點圖像陣列,設(shè)均勻采集位置為,根據(jù)光柵立體顯示器的特定光學參數(shù)基于Zemax 光學仿真軟件計算出空間視點的實際分布(圖2(b))。本方案設(shè)計了一種配套的視點篩選算法(算法細節(jié)將在2.3 節(jié)中詳細介紹),本算法計算了相對于的插幀指導序列,以指導視點生成模塊預測對應位置的多視點圖像,其中,視點生成模塊流程如圖3 所示:首先基于RAFT 光流預測網(wǎng)絡(luò)計算出相鄰視點間的光流F,輸入本文設(shè)計的融合校正網(wǎng)絡(luò)進行光流校正優(yōu)化,得到校正光流F’,結(jié)合上文的通過后向扭曲得到相應位置的虛擬視點V'n,組成針對位置采集的多視點陣列,校正工作完成。

      圖2 多視點采集校正原理。(a)多視點采集校正方案;(b)基于Zemax 的視點分布計算。Fig.2 Principle of multi-view acquisition and correction.(a)Multi-view acquisition and correction scheme;(b)Viewpoint distribution calculation based on Zemax.

      圖3 視點生成模塊流程圖Fig.3 Flow chart of the viewpoint generation module

      2.2 基于光流法的虛擬視點生成網(wǎng)絡(luò)

      2.2.1 網(wǎng)絡(luò)結(jié)構(gòu)分析

      給定兩個相鄰視點Vm、Vm+1和一個插值系數(shù)x∈(0,1),我們的目標是結(jié)合x預測水平方向上指定位置的中間視點V'n,一個可靠的中間視點預測網(wǎng)絡(luò)是至關(guān)重要的一部分,為了做到這一點,該網(wǎng)絡(luò)不僅要學會匹配Vm、Vm+1的相似像素點,還需學會解釋匹配點之間的運動路徑。受中間視頻幀插值[21-22]研究進展的啟發(fā),我們提出基于光流法和后向扭曲操作生成中間虛擬視點。

      相 鄰 視 點 間 的 光 流Fm→m+1、Fm+1→m記 錄 了像素點相對其他視點的位移矢量,假設(shè)我們已經(jīng)確定了雙向光流,在不考慮遮擋關(guān)系時,X=x處的中間視點可以表示為:

      或者

      其中,W(·)表示后向扭曲計算函數(shù),它應用單映性變換和雙線性插值來實現(xiàn),并且是可微的。

      為了得到光流Fm→m+1、Fm+1→m,我們采用了RAFT 光流預測網(wǎng)絡(luò)[19]作為初始光流提取模塊,該網(wǎng)絡(luò)設(shè)計了特征匹配和獨特的內(nèi)容提取網(wǎng)絡(luò)作為特征提取模塊,并直接計算預測視圖和原圖間所有像素之間的矢量距離搭建代價聚合體(Cost Volumn),無需人工設(shè)定搜索范圍,這大大提高了光流預測的精確性和魯棒性,最后引入凸上采樣(Convex Upsampling)的方法生成高分辨率光流,訓練時通過一個循環(huán)單元迭代地更新一個流場,該方案在光流估計領(lǐng)域取得了顯著的突破。

      由于缺乏中間視點的監(jiān)督,和遮擋關(guān)系的影響,單純的使用RAFT 網(wǎng)絡(luò)預測中間視點通常在接近x=0 和x=1 的位置上表現(xiàn)良好,在其他位置的預測效果得不到保障,且會在紋理突變的邊緣區(qū)域產(chǎn)生偽影和殘缺[19-20]。在Super SloMo 以及RIFE 等光流插幀網(wǎng)絡(luò)[20-21]的啟發(fā)下,我們提出了一種針對雙向光流的融合校正網(wǎng)絡(luò)來保證中間視點的預測質(zhì)量,其網(wǎng)絡(luò)結(jié)構(gòu)如圖4 所示。

      圖4 光流融合校正網(wǎng)絡(luò)結(jié)構(gòu)Fig.4 Optical-flow fusion-corrected network structure

      首先利用RAFT 光流預測網(wǎng)絡(luò)計算出Vm、Vm+1的雙向光流,依次輸入共享參數(shù)的融合校正網(wǎng)絡(luò)。鑒于U-Net 網(wǎng)絡(luò)在視點生成及優(yōu)化上有很可觀的表現(xiàn)[26],我們的融合網(wǎng)絡(luò)由U-Net 改進而來:采用最新提出的ConvNext 模塊[23]作為特征提取層,該模塊在圖像分割、特征提取等計算機視覺任務上表現(xiàn)出了強于Transformer 的計算能力,并保持了CNN 的計算速度;細節(jié)提取模塊由不同大小卷積核的卷積層構(gòu)成,主要負責在兼顧輪廓信息的同時提取細節(jié)特征,以解決光流在物體邊緣預測不準確的問題;最后經(jīng)反卷積和跳躍連接得到最終的輸出的校正光流F'm→m+1、F'm+1→m。

      2.2.2 訓練

      給定輸入圖像Vm、Vm+1,RAFT 光流預測網(wǎng)絡(luò)的采用自監(jiān)督訓練方式,拍攝中間視點Vc為融合校正網(wǎng)絡(luò)的監(jiān)督。將RAFT 網(wǎng)絡(luò)的輸出Fm→m+1、Fm+1→m輸 入 融 合 校 正 網(wǎng) 絡(luò),最 終 輸 出是 校正光流,經(jīng)過后向扭曲操 作后 得 到 預 測 中 間 視 點),我們最終的損失函數(shù)是種損失函數(shù)的線性組合:

      loss=λflf+λili+λsls, (3)

      其中:光流預測損失函數(shù)lf表征了來自RAFT 的光流F和校正光流F'的自監(jiān)督損失,可以約束兩個網(wǎng)絡(luò)更加精準地求解雙向光流:

      lb=d(W(Vm+1,F(xiàn)m→m+1),Vm)+

      d(W(Vm,F(xiàn)m+1→m),Vm+1) , (4)

      l'b=d(W(Vm+1,F(xiàn)m→m+1),Vm)+

      d(W(Vm,F(xiàn)m+1→m),Vm+1), (5)

      lf=lb+l'b, (6)

      其中,d(·,·)表示像素間的損失(Pixel-wised loss)。插值損失li表征了校正光流對中間視點的預測準確度:

      最后,我們添加了一個平滑度損失項ls[24],以鼓勵相鄰的像素具有相似的流值,并加速網(wǎng)絡(luò)收斂:

      設(shè)置經(jīng)驗性權(quán)重λf=0.8、λi=0.4、λs=1,我們的網(wǎng)絡(luò)的每個組成部分都是可微的,因此,我們的中間視點生成網(wǎng)絡(luò)可以進行端到端訓練。

      2.3 多視點篩選算法

      根據(jù)光柵立體顯示器的實際視點分布,我們提出了一種多視點篩選算法,本算法的目的是求得均勻采集視點到顯示器視點位置的映射關(guān)系,以指導虛擬視點生成模塊生成位于的虛擬視點,并將映射關(guān)系量化為插幀指導序列{(i,m,x,其中:

      m:m表示距離真實采集點最近且小于真實采集點序號的均勻視點序號,真實采集點將位于(m,m+1)之間,i和m的設(shè)置可以保證由最近的兩個相鄰視點生成,保證了生成質(zhì)量;

      i:i∈{-1,1},i表示采用的光流方向,當i=1時,取間正向光流,反 之 則 取反向光流

      x:x表 示 插 值 系 數(shù),x∈(0,1),它 指 導間的光流生成對應位置x=xn的中間虛擬視點。

      首先利用光學仿真計算針對特定的光柵立體顯示器的光學參數(shù)在最佳觀看距離處仿真出顯示器空間視點分布,設(shè)Vn的y坐標為yn、真實分布Rn的坐標為,均勻采集間隔為ΔT則有:

      Δ=ynfmod ΔT, (9)

      3 實驗結(jié)果

      3.1 基于光流法的虛擬視點生成測試

      為了結(jié)合實際應用場景,驗證本文提出的利用基于光流法的視點生成的有效性,我們分別選用了若干組真實、虛擬場景多視點圖像作為對視點生成模塊的測試集,選用兩組分辨率為960×540、視差角為6°的視差圖送入訓練好的網(wǎng)絡(luò)做插值預測,單視點平均生成時間為34 ms。

      圖5 分別展示了插值系數(shù)X為0.3、0.6 的針對真實、虛擬模型拍攝的中間視點預測以及對應光流圖,針對虛擬場景預測的PSNR指標平均值在30 以上。圖6 展示了本視點生成方案和NeRF[15]、DIBR[14]方案的對比效果。NeRF 生成視點的平均PSNR 為31.75,傳統(tǒng)DIBR 生成視點的平均PSNR 為25.73,本方案生成質(zhì)量明顯優(yōu)于傳統(tǒng)的DIBR 視點生成方案,與NeRF 生成質(zhì)量相當,但因傳統(tǒng)NeRF 重建了整個場景信息,導致訓練時間較長,對于現(xiàn)實單一場景需要8 h訓練時間,相比光流法難以應用于動態(tài)場景重建。以上對比表示基于光流法的虛擬視點生成方案可以有效、快速地生成任意位置的高質(zhì)量中間視點,可以用于多視點圖片的校正工作。

      圖5 中間視點生成效果Fig.5 Mid-viewpoint generates effect

      圖6 不同視點生成方案的生成效果Fig.6 Generation effects of different viewpoints genera tion schemes

      3.2 顯示效果測試

      將均勻采集后的多視點圖像陣列編碼后分別加載到本實驗室的光柵立體顯示器上顯示,分別在顯示器左右15°放置單反相機拍照記錄,最終顯示效果如圖7 所示。圖7(a)行的4 幅圖片是實驗的參考圖片,分別表示針對模型的左右15°采集效果;圖7(b)中圖片展示了均勻采集的多視點圖片未經(jīng)校正的顯示效果,由于采集視點和真實的空間視點分布不匹配,可以看出與參考圖片有明顯的角度偏差,產(chǎn)生了視點圖片錯位的現(xiàn)象;圖7(c)展示了校正后的顯示圖像。為了更直觀準確地表達校正效果,本文計算了顯示圖和參考圖之間的差值圖及PSNR。為了減小拍攝時雜光的影響,本文對顯示圖和參考圖進行濾波去噪后再進行相關(guān)計算。其中,樓房場景下的修正前后的平均PSNR 分別為23.34、28.65,內(nèi)臟場景下的平均PSNR 分別為25.64、30.21,校正后的顯示效果優(yōu)于校正前。將參考圖片圖7(a)與顯示圖像圖7(b)、圖7(c)分別做相減處理。為了更清晰地表示圖像間輪廓間的區(qū)別,在相減處理后需進行二值化處理,得到圖7(d)、(e)。通過圖7(d)、圖7(e)和PSNR 對比可以看出,傳統(tǒng)采集方案的顯示效果存在明顯的視點圖像偏移,而校正后的視點圖像分布比校正前更加貼近顯示器視點位置,視點錯位現(xiàn)象得到優(yōu)化。上述實驗說明,針對光柵立體顯示,本文的多視點校正方案可以有效解決傳統(tǒng)采集和顯示器視點不匹配的問題,校正后的視點為顯示器視點填充了正確的視差圖,提升了觀看質(zhì)量。

      圖7 顯示效果對比圖。(a)特定位置采集效果;(b)校正前特定角度顯示圖像;(c)校正后特定角度顯示圖像;(d)圖6(a)和圖6(b)間的差值圖;(e)圖6(a)和圖6(c)間的差值圖。Fig.7 Display effect comparison diagram. (a)Acquisition effect of specific location;(b)Display image at specific angle before correction;(c)Display image at specific angle after correction;(d)Difference between Fig. 6(a)and Fig. 6(b);(e)Difference between Fig. 6(a)and Fig.6(c).

      4 結(jié) 論

      在裸眼3D 顯示系統(tǒng)中,由于柱透鏡存在像差,使顯示器空間視點呈不均勻分布,存在空間視點分布和采集視點分布不匹配的現(xiàn)象,導致視點圖像錯位,透視關(guān)系不正確等問題,最終影響觀看效果。

      本文針對上述問題提出了一種多視點校正方案,旨在將均勻采集的多視點圖像校正為符合觀看角度的新圖像陣列,以提高光柵立體顯示效果。該校正方案包括視點篩選算法和中間視點生成模塊,通過光學仿真出真實空間視點分布,利用視點篩選算法指導光流法生成正確位置的中間視點陣列,使校正圖像匹配真實的空間視點位置。經(jīng)過實驗驗證,該方法有效校正了原本存在的空間視點分布和采集分布不匹配的問題,明顯地提升了觀看效果。

      猜你喜歡
      光流視點光柵
      利用掩膜和單應矩陣提高LK光流追蹤效果
      基于物理學的改善粒子圖像測速穩(wěn)健光流方法研究
      CDIO教學模式在超聲光柵實驗教學中的實踐
      基于LabView的光柵衍射虛擬實驗研究
      視點
      河南電力(2016年5期)2016-02-06 02:11:24
      讓你每天一元錢,物超所值——《今日視點—2014精萃》序
      新聞前哨(2015年2期)2015-03-11 19:29:22
      兩會視點
      中國水利(2015年5期)2015-02-28 15:12:40
      融合光流速度場與背景差分的自適應背景更新方法
      光柵衍射實驗教學中的體會
      物理與工程(2014年4期)2014-02-27 11:23:08
      利用PSO估算Lucas-Kanade光流模型的參數(shù)
      安乡县| 兴安县| 迁安市| 嵊泗县| 株洲县| 根河市| 荣昌县| 蒲江县| 崇义县| 临洮县| 陕西省| 嘉荫县| 昆明市| 长治市| 紫云| 丽水市| 湟中县| 霍城县| 抚州市| 合江县| 漳平市| 名山县| 松桃| 安平县| 石狮市| 亚东县| 西贡区| 比如县| 河津市| 通河县| 辽源市| 江津市| 江口县| 绿春县| 习水县| 灌阳县| 六枝特区| 松江区| 延安市| 北宁市| 晋州市|