• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      面向虛擬視點合成的深度圖編碼

      2013-10-15 05:07:32陳賀新黎昌明
      關(guān)鍵詞:宏塊深度圖視點

      高 凱, 陳賀新, 趙 巖, 王 鋼, 黎昌明

      (吉林大學(xué) 通信工程學(xué)院, 長春 130012)

      0 引 言

      隨著3D視頻顯示[1]和自由視點視頻(FTV: Free-Viewpoint Television)的發(fā)展[2], 虛擬視點合成成為構(gòu)建3D視頻和自由視點視頻的重要工具, 對于虛擬視點合成, 多視點視頻序列和相應(yīng)的深度圖序列的壓縮至關(guān)重要。通常, 對不精確的深度圖, 視點合成會受到繪制失真的影響, 尤其在目標邊緣處更加嚴重。通常在虛擬視點目標邊緣處, 不正確的深度值會導(dǎo)致繪制的相應(yīng)像素誤投影到3D空間中彩色圖像坐標的深度平面。對于深度數(shù)據(jù)的有損壓縮(例如H.264/AVC)不可避免地扭曲深度結(jié)構(gòu), 尤其是含有豐富高頻成分的深度邊緣[3]。通過分析視頻和深度序列的相關(guān)性直方圖, 可知深度圖的結(jié)構(gòu)特征不同于相應(yīng)視頻序列的結(jié)構(gòu)特征[4], 當前的H.264/AVC的擴展部分JMVC (Joint Multi-view Video Coding)多視點視頻聯(lián)合編碼框架并不適合深度圖編碼。另外, 對感興趣區(qū)域的編碼可提高圖像的主觀質(zhì)量[5]。針對上述問題, 筆者提出在編碼深度圖當前塊之前, 使用Sobel算子確定當前塊中感興趣目標邊界, 基本塊尺寸大小為16×16。

      1 使用Sobel算子對深度圖進行邊緣檢測

      Sobel算子是進行邊緣檢測的典型工具, 根據(jù)相應(yīng)像素的梯度判斷目標邊緣的位置, 通過比較梯度值和預(yù)設(shè)置門限值Th確定邊緣的置, 當超過預(yù)設(shè)門限值時, 邊緣被確定。使用簡單有效的8方向的掩模確定邊緣位置, 掩模模板如下所示

      圖1a為視頻序列Breakdancers視點2的第1幀的深度圖, 對其進行邊緣檢測, 通過設(shè)置門限閾值, 獲得Sobel算子檢測后的邊緣圖像(見圖1b), 之后通過分析邊緣檢測后的圖像塊狀態(tài), 對深度圖進行編碼。

      在編碼當前宏塊(MB: MacroBlock)前, 判斷當前MB是否含有目標邊界。圖2是個16×16的宏塊(MB)示意圖, 它能分割為4個8×8的子宏塊, 每個8×8的子宏塊又可分為4個4×4塊。索引號0,1,2,…,15代表16個4×4塊。如圖2所示, 當前宏塊內(nèi)部含有目標邊界時, 若在索引號為0,1,2的8×8子宏塊內(nèi), 則進一步分布在索引號為3,5~9,12的4×4塊中, 文中定義了標志位SobelFlag16, SobelFlag8[4], SobelFlag4[16], 描述當前16×16宏塊、 4個8×8子宏塊、 16個4×4塊是否含有目標邊緣的狀態(tài)。根據(jù)圖2, 通過SobelFlag16={0}; SobelFlag8[4]={0,0,0,1}; SobelFlag4[16]={1,1,1,0,1,0,0,0,0,0,1,1,0,1,1,1}描述圖2中塊的狀態(tài), 其中‘0’代表塊內(nèi)含有目標邊界, ‘1’代表塊內(nèi)不含有目標邊界。

      a 深度圖像 b 邊緣檢測圖像

      2 編碼端bit分配

      本節(jié)詳細描述了率失真優(yōu)化編碼中的bit分配, 分別定義編碼中的16×16宏塊, 8×8子宏塊, 4×4塊的標志位分別為

      Flag16=SobelFlag16;

      Flag8[i]=SobelFlag16|SobelFlag8[i],i=0,1,2,3

      Flag4[j]=SobelFlag16|SobelFlag8[i]|SobelFlag4[j],i=0,1,2,3;j=0,1,2,…,15。

      Flag16表示當前MB的預(yù)測模式是16×16時, 編碼器量化參數(shù)QP的選擇標志位; Flag8[i]表示當前宏塊的預(yù)測模式是8×8時, 對應(yīng)的每個8×8子宏塊編碼器QP的選擇標志位; Flag4[j]表示當前宏塊的預(yù)測模式是4×4時, 對應(yīng)的每個4×4塊編碼器QP的選擇標志位。每個標志位分配1 bit。當Flag16或Flag8[i]或Flag4[j]為0, LumaQP=QP+ΔQP, 則ΔQP=-5, 否則, ΔQP=5。對每個塊, 比特流中增加了相應(yīng)的標志位, 但由于調(diào)整了量化參數(shù), 平均碼流僅稍有增加。圖3給出了16×16宏塊中各標志位賦值狀態(tài)及編碼流程。

      圖3 16×16宏塊中標志位賦值及編碼流程圖

      3 仿真實驗

      實驗中使用的計算機配置為Intel Core2處理器, 2.93 GHz主頻, 2.0 GByte內(nèi)存, 軟件編程環(huán)境為VC++6.0。

      該方法是在H.264/AVC的擴展部分多視點視頻聯(lián)合編碼參考軟件JMVC[6-10]中進行試驗的, 配置中應(yīng)用視點間預(yù)測, 采用Breakdancers和Ballet兩個深度測試序列[11], 分辨率為1 024×768像素, YUV4 ∶2 ∶0格式, 幀率為15 Hz, 編碼幀數(shù)為100幀, GOPSize值取1, 1幀周期為12, 序列幀間預(yù)測結(jié)構(gòu)由視點2的所有幀通過視點0所有幀經(jīng)過視點間預(yù)測得出, 而視點1的所有幀是通過視點0和視點2的所有幀經(jīng)過視點間雙向預(yù)測得到的[12,13], 對于Ballet序列, 采用視點4,5,6進行實驗, 預(yù)測結(jié)構(gòu)和Breakdancers序列一致。

      虛擬視點合成使用由MPEG(Moving Pictures Experts Group)組織發(fā)布的VSRS3.0 (View Synthesis Reference Software)[14], 配置采用半像素精度。對于Breakdancers序列, 彩色紋理視頻使用視點0和視點2未經(jīng)壓縮的原始彩色紋理視頻, 深度圖序列使用視點0和視點2的解碼深度圖序列, 視點1由視點0和視點2通過VSRS3.0虛擬合成。實驗中對比了由筆者方法合成的虛擬視點1和原JMVC方法中合成的虛擬視點1。對Ballet序列采用同樣的配置, 使用視點4和視點6虛擬合成視點5。

      4 結(jié)果分析

      4.1 Sobel算子門限閾值及適合序列分析

      Sobel算子門限閾值Th的確定, 決定了邊緣檢測的效果, 進而影響到整體碼流的大小。為選取最佳的Th, 實驗中測試了Th值, 分別為9,11,13,15,17和19共6種情況。同樣為了能測試算法在不同序列中的有效性, 對視頻中目標運動快的Breakdancers和目標運動慢的Pantomime序列進行了測試, 進而尋找合適的Th和視頻序列。

      圖4是對應(yīng)不同序列不同Th情況下的bitrate和虛擬視點峰值信噪比曲線。圖4a為Breakdancers序列量化參數(shù)為36時, 不同門限閾值情況下的bitrate。從圖4a可看出, 當Th≥11時, 筆者的算法產(chǎn)生的bitrate基本趨于穩(wěn)定, 且均高于JMVC產(chǎn)生的bitrate。當Th繼續(xù)增大, 筆者算法產(chǎn)生的bitrate會逐漸減小, 最終與JMVC產(chǎn)生的bitrate相同。由圖4b中不同的Th情況下虛擬視點的PSNR(Peak Signal to Noise Ratio,RPSNR)可看出, 在Th=13時, 虛擬視點的RPSNR低于原JMVC算法, 在其他采樣Th情況下, 筆者的算法合成視點的RPSNR高于JMVC算法。由于筆者的最終目標是提高虛擬視點的質(zhì)量, 所以對目標運動較快的序列如Breakdancers和Ballet, 使用產(chǎn)生最不理想的虛擬視點峰值信噪比的閾值(Th)進行測試。

      圖4c為Pantomime序列量化參數(shù)為36時, 不同門限閾值情況下的bitrate。圖4d為Pantomime序列不同Th情況下虛擬視點的高度分量RPSNR。從圖4c和圖4d可看出, 筆者的方法不僅降低了虛擬視點的RPSNR, 而且總體編碼bitrate高出58%, 顯然筆者的方法不適合目標運動慢的序列, 如Pantomime和Champagne-tower。

      a Th vs bitrate of Breakdancers b Th vs PSNR of Breakdancers

      c Th vs bitrate of Pantomime d Th vs PSNR of Pantomime

      4.2 虛擬視點質(zhì)量評析

      JMVC和筆者方法對Breakdancers序列的RPSNR和Bitrate結(jié)果比較如表1所示, 相比于原JMVC, 在5組不同QP值的情況下, 該方法的視點0和視點2比特率之和平均增加1.39%, 虛擬視點1亮度分量RPSNR(Y)平均減少0.016 dB。圖5a顯示了使用JMVC方法解碼后的深度圖虛擬合成后的視點圖像及部分區(qū)域放大圖像, 使用筆者方法解碼后的深度圖虛擬合成后的視點圖像及部分區(qū)域放大圖像如圖5b所示。由各自的部分區(qū)域放大圖像可看出, 使用原JMVC方法合成后的視點圖像, 在第1幅局部放大圖像中的帽檐處存在缺陷, 在第2幅局部放大圖像的人臉部、 額頭及頭發(fā)存在空洞, 而經(jīng)筆者方法合成后的視點圖像很好地保留了帽檐的邊緣, 且不存在空洞, 從主觀質(zhì)量上明顯優(yōu)于使用原始JMVC方法生成的視點圖像。

      表1 Breakdancers在JMVC和筆者方法中的結(jié)果對比

      a Virtual synthesis of JMVC

      b Virtual synthesis of our method

      表2是使用JMVC和筆者方法針對Ballet測試序列進行的PSNR和Bitrate對比結(jié)果, 相比于原JMVC, 在5組不同的QP值情況下,S4和S6視點比特率之和平均增加0.743 4%, 虛擬視點S5的亮度分量RPSNR(Y)平均減小0.078 dB。圖6a為使用JMVC解碼后的深度圖虛擬合成后的視點圖像及其部分放大圖像, 圖6b為使用筆者提出方法解碼后的深度圖虛擬合成后的視點圖像及其部分放大圖像。由部分放大圖像可看出, JMVC生成的虛擬視點圖像的頭部及背部邊緣存在嚴重鋸齒形缺陷, 而使用筆者方法則能很好地保留頭部及背部邊緣, 因此通過主觀的對比分析, 筆者方法優(yōu)于原JMVC方法。

      表2 Ballet序列使用JMVC和筆者方法的結(jié)果對比

      從實驗仿真結(jié)果分析, 可得到如下結(jié)論: 對于目標運動相對較快的序列, 通過調(diào)整了深度圖中平坦區(qū)和邊緣區(qū)的量化參數(shù), 能很好地保留深度序列的目標邊緣, 由圖5和圖6可以看出, 筆者方法生成的虛擬視點結(jié)果的主觀效果優(yōu)于JMVC方法。由此得出, 有選擇性地最大程度保留深度圖中的目標邊緣對于合成虛擬視點是有利的, 也是值得進一步深入研究的。

      5 結(jié) 語

      筆者針對深度圖中的深度值的分布特性, 對H.264/AVC標準擴展部分多視點編碼框架進行改進, 提出了對深度圖進行邊緣檢測, 以當前塊是否有深度圖邊緣為依據(jù), 調(diào)整壓縮標準的量化參數(shù)而達到保護深度圖邊緣的目的, 以確保在使用解碼后的深度圖虛擬合成的視點的主客觀質(zhì)量。雖然應(yīng)用該算法, 使虛擬視點的質(zhì)量有所提高, 但在如何更加精確地確定塊中是否含有邊緣以及提高壓縮性能, 仍是亟待解決的問題。因此, 未來的工作致力于在保證虛擬視點合成質(zhì)量的前提下, 尋找更加出色的壓縮方法, 以提高深度圖的壓縮性能。

      參考文獻:

      [1]ONURAL L. Television in 3-D: What Are the Prospects? [J]. Proceedings of IEEE, 2007, 95(6): 1143-1145.

      [2]TANIMOTO M. Overview of Free Viewpoint Television [C]∥Multimedia and Expo, 2009. ICME 2009. IEEE International Conference on. [s.l.]: IEEE, 2009: 1552-1553.

      [3]ZHAO Yin, ZHU Ce, CHEN Zhen-zhong, et al. Boundary Artifact Reduction in View Synthesis of 3D Video: From Perspective of Texture-Depth Alignment [J]. IEEE Transactions on Broadcasting, 2011, 57(2):510-522.

      [4]PHILIPP MERKLE, JORDI BAYO SINGLA, KARSTEN MULLER, et al. Correlation Histogram Analysis of Depth-Enhanced 3D Video Coding [C]∥Proceedings of 2010 IEEE 17th International Conference on Image Processing. Hong Kong: ICIP, 2010: 2605-2608.

      [5]付文秀, 王世剛, 劉占聲. 基于四叉樹分割視頻對象的可伸縮編碼算法 [J]. 吉林大學(xué)學(xué)報: 信息科學(xué)版, 2003, 21(5): 1-6.

      FU Wen-xiu, WANG Shi-gang, LIU Zhan-sheng. Scalable Video Object Coding Algorithm Based on Quadtree Segmentation [J]. Journal of Jilin University: Information Science Edition, 2003, 21(5): 1-6.

      [6]DESDVS X, FERNANDO W A C, KODIKAEAAEACHCHI H, et al. Adaptive Sharpening of Depth Maps for 3D-TV [J]. Electronics Letters, 2010, 46(23): 1546-1548.

      [7]GLENN VAN WALLENDAEL, SEBASTIAAN VAN LEUVEN, JAN DE COCK, et al. IEEE 3D Video Compression Based on High Efficiency Video Coding [J]. IEEE Transactions on Consumer Electronics, 2012, 58(1): 137-145.

      [8]CHEN Y, PABDIT P, YEA S, et al. Draft Reference Software for MVC [EB/OL]. [2012-08-21]. http:∥wftp3.itu.int/av-arch/jvt-site/200906London.

      [9]MERKLE P, SMOLIC A, MULLER K, et al. Multi-View Video Plus Depth Representation and Coding [C]∥ICIP 2007. San Antonio, TX: ICIP, 2007: 201-204.

      [10]WEIGAND T, SULLIVAN G J, BJONTEGARD G, et al. Overview of the H.264/AVC Video Coding Standard [J]. IEEE Trans Circuits System Video Technology, 2003, 13(7): 560-576.

      [11]KANG S B, ZITNICK L. MSI Sequences with Corresponding Calibration Parameters [DB/OL]. [2012-10]. http://research.microsoft.com/en-us/um/people/sbkang/3dvideodownload/.

      [12]MERKLE P, SMOLIC A, MULLER K, et al. Efficient Prediction Structures for Multi-View Video Coding [J]. IEEE Trans on CSVT, 2007, 17(11): 1461-1473.

      [13]ISO/IEC MPEG, ITU-T VCEG, Doc. N6909. Survey of Algorithms Used for Multi-View Video Coding (MVC) [S]. 2005.

      [14]TANIMOTO M, FUJII T, SUZUKI K. View Synthesis Algorithm in View Synthesis Reference Software 3.0(VSRS3.0) [EB/OL]. [2012-08-21]. http:∥www.itscj.ipsj.or.jp/sc29/29w129∥.htm.

      猜你喜歡
      宏塊深度圖視點
      基于深度圖的3D-HEVC魯棒視頻水印算法
      一種基于局部直方圖匹配的深度編碼濾波算法
      疊加速度譜在鉆孔稀少地區(qū)資料解釋中的應(yīng)用
      科技視界(2016年2期)2016-03-30 11:17:03
      視點
      河南電力(2016年5期)2016-02-06 02:11:24
      基于選擇特征宏塊的快速視頻穩(wěn)像
      讓你每天一元錢,物超所值——《今日視點—2014精萃》序
      新聞前哨(2015年2期)2015-03-11 19:29:22
      兩會視點
      中國水利(2015年5期)2015-02-28 15:12:40
      基于宏塊合并的H.264模式選擇算法
      Kinect深度圖像快速修復(fù)算法
      一種適合硬件實現(xiàn)的低復(fù)雜度MAD預(yù)測算法
      潍坊市| 鱼台县| 湟中县| 河间市| 余姚市| 河池市| 宜章县| 龙陵县| 东安县| 志丹县| 新宁县| 疏附县| 云南省| 和顺县| 南宁市| 长宁区| 万山特区| 凤阳县| 泽州县| 德安县| 武胜县| 青神县| 宁都县| 融水| 乐平市| 饶阳县| 永济市| 静宁县| 嘉义市| 古蔺县| 万年县| 积石山| 丰台区| 西乡县| 龙岩市| 吉安市| 个旧市| 光泽县| 启东市| 漠河县| 吉林市|