• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于視覺(jué)重要區(qū)域的立體圖像視覺(jué)舒適度客觀評(píng)價(jià)方法

      2014-11-22 08:00:56姜求平楓蔣剛毅彭宗舉
      電子與信息學(xué)報(bào) 2014年4期
      關(guān)鍵詞:空間頻率視差舒適度

      姜求平 邵 楓蔣剛毅 郁 梅 彭宗舉

      (寧波大學(xué)信息科學(xué)與工程學(xué)院 寧波 315211)

      1 引言

      3維/立體視頻技術(shù)能夠提供多感知性,深度沉浸和臨場(chǎng)體驗(yàn),極大地提升觀看者的視覺(jué)體驗(yàn)質(zhì)量(Quality of Experience, QoE)。視覺(jué)舒適度(Visual Comfort, VC)是影響立體視頻 QoE的重要因素之一。目前對(duì)立體視頻/圖像的評(píng)價(jià)主要考慮內(nèi)容失真對(duì)圖像質(zhì)量的影響,而較少考慮立體視頻內(nèi)容制作等因素導(dǎo)致的視覺(jué)不舒適度。因此,建立有效的立體視頻/圖像的視覺(jué)舒適度客觀評(píng)價(jià)模型對(duì) 3維內(nèi)容制作和后期處理具有十分重要的意義。

      在觀看立體視頻時(shí),過(guò)大的雙目視差,雙眼不對(duì)稱,以及立體失真等因素都會(huì)導(dǎo)致視覺(jué)疲勞,引起視覺(jué)疲勞的根本原因是由于立體視頻本身的制作原理導(dǎo)致觀看者雙眼焦點(diǎn)調(diào)節(jié)和輻輳的嚴(yán)重沖突[1,2]。一般來(lái)說(shuō),立體圖像的視差是決定人眼感知深度大小的重要因素,視差過(guò)大使得立體視頻/圖像的深度感增強(qiáng),而當(dāng)感知深度大小在大腦的Panum融合區(qū)之外時(shí),就會(huì)導(dǎo)致雙眼調(diào)節(jié)和輻輳的沖突,進(jìn)而產(chǎn)生眼部甚至身體上的一系列疲勞癥狀。主觀實(shí)驗(yàn)表明,隨著立體視頻/圖像視差的增大,觀看時(shí)的視覺(jué)舒適度會(huì)降低[35]-。同時(shí),圖像的空間頻率也影響著人眼的深度感知和雙目融合極限[6]。Schor等人[7]利用高斯差分函數(shù)(Difference of Gauss, DoG)處理得到不同空間頻率的立體圖像,探究了圖像的空間頻率對(duì)雙目融合極限的影響,圖像的空間頻率越低,雙目的融合極限就越高。對(duì)于具有較大視差的立體圖像,空間頻率越低,觀看的視覺(jué)舒適度越高[8]。應(yīng)當(dāng)注意到,不同立體圖像具有不同的空間頻率特征,導(dǎo)致視覺(jué)舒適程度也不一致。

      傳統(tǒng)的視覺(jué)舒適度客觀評(píng)價(jià)方法主要基于全局的視差統(tǒng)計(jì)特性預(yù)測(cè)視覺(jué)舒適度,例如整幅視差圖像的均值、方差、分布范圍等特征[911]-。然而,根據(jù)人眼立體視覺(jué)注意力特性,人眼只對(duì)部分視覺(jué)重要區(qū)域的視覺(jué)舒適/不舒適比較敏感,如果以此全局的視差統(tǒng)計(jì)特征來(lái)預(yù)測(cè)視覺(jué)重要區(qū)域的視覺(jué)舒適程度,會(huì)導(dǎo)致無(wú)法精確預(yù)測(cè)得到客觀評(píng)價(jià)值。文獻(xiàn)[12]在傳統(tǒng)舒適度評(píng)價(jià)算法的基礎(chǔ)上,提出一種基于相對(duì)視差和前景對(duì)象尺寸的立體圖像視覺(jué)舒適度客觀評(píng)價(jià)方法。該方法首先利用mean-shift分割法對(duì)視差圖進(jìn)行分割,有效地提取出對(duì)象的輪廓,然后計(jì)算到鄰近對(duì)象間的相對(duì)視差和前景對(duì)象的尺寸,并將其作為舒適度感知特征,最后結(jié)合傳統(tǒng)的全局視差統(tǒng)計(jì)特征,可以較大程度地提高視覺(jué)舒適度預(yù)測(cè)的準(zhǔn)確性。然而,該方法并未考慮空間頻率特征對(duì)人眼深度感知的影響,此外,該方法也未考慮立體視覺(jué)顯著/重要區(qū)域?qū)σ曈X(jué)舒適度評(píng)價(jià)的影響。因此,如何在評(píng)價(jià)過(guò)程中有效地根據(jù)視覺(jué)重要區(qū)域來(lái)提取視覺(jué)舒適度特征信息,使得客觀評(píng)價(jià)結(jié)果更加符合人類視覺(jué)系統(tǒng),是立體圖像視覺(jué)舒適度客觀評(píng)價(jià)需要研究解決的問(wèn)題。

      2 基于視覺(jué)重要區(qū)域的立體圖像視覺(jué)舒適度評(píng)價(jià)方法

      根據(jù)人眼立體視覺(jué)注意力特性,人眼只對(duì)部分視覺(jué)重要區(qū)域的視覺(jué)舒適/不舒適比較敏感,為了更準(zhǔn)確地預(yù)測(cè)立體圖像視覺(jué)舒適度,如何在評(píng)價(jià)過(guò)程中有效地根據(jù)視覺(jué)重要區(qū)域來(lái)提取出視覺(jué)舒適度特征信息十分關(guān)鍵。本文提出了一種基于視覺(jué)重要區(qū)域(Visual Important Regions, VIR)的立體圖像視覺(jué)舒適度客觀評(píng)價(jià)模型,其框架圖如圖1所示。首先,利用平面圖像顯著圖模型和視差信息得到視覺(jué)重要區(qū)域;然后,提取視覺(jué)重要區(qū)域的視差幅度特征、視差梯度邊緣特征和空間頻率特征,并以這些特征的組合作為反映立體圖像舒適度的感知特征信息;最后,通過(guò)支持向量回歸(Support Vector Regression, SVR)預(yù)測(cè)得到客觀評(píng)價(jià)值,避免了對(duì)人類視覺(jué)系統(tǒng)的相關(guān)特征與機(jī)理的復(fù)雜模擬過(guò)程。由于獲得的立體圖像的特征信息具有較強(qiáng)的穩(wěn)定性,且能較好地反映圖像的視覺(jué)舒適度變化情況,有效提高了客觀評(píng)價(jià)情況與主觀感知的相關(guān)性。

      2.1 視覺(jué)重要區(qū)域提取

      圖1 立體圖像視覺(jué)舒適度客觀評(píng)價(jià)模型框圖

      現(xiàn)有的研究表明,立體圖像的視差特征和空間頻率都會(huì)影響視覺(jué)舒適度。立體圖像視覺(jué)重要區(qū)域由兩部分構(gòu)成:2維圖像的視覺(jué)顯著圖和深度顯著圖。圖像顯著圖利用人眼視覺(jué)注意力模型計(jì)算圖像的顯著度,其代表性算法有Itti算法[13],Hou算法[14],GBVS算法[15]等。本文采用GBVS算法計(jì)算得到右視點(diǎn)圖像的視覺(jué)顯著圖,記為,并采用線性方式將視覺(jué)顯著圖和右視差圖像進(jìn)行結(jié)合,得到立體顯著圖,記為

      為了檢測(cè)立體顯著圖的VIR,采用閾值法提取出掩模圖像,VIR掩膜圖像定義為

      2.2 視差幅度特征提取

      一般來(lái)說(shuō),觀看立體視頻導(dǎo)致雙眼的焦點(diǎn)調(diào)節(jié)和輻輳的沖突是產(chǎn)生視覺(jué)疲勞的主要原因。當(dāng)人眼觀看現(xiàn)實(shí)世界的場(chǎng)景,人眼的焦點(diǎn)調(diào)節(jié)和輻輳機(jī)制是一致的,而觀看立體視頻時(shí),若左右視點(diǎn)的視差大小在融合區(qū)域內(nèi),盡管經(jīng)過(guò)大腦融合仍可形成清晰的單視圖像,但此時(shí)人眼的焦點(diǎn)調(diào)節(jié)處于屏幕上,而輻輳卻處于因人腦融合而產(chǎn)生的“躍出”屏幕或“陷入”屏幕的虛擬立體圖像上,造成焦點(diǎn)調(diào)節(jié)和輻輳的不一致,與人類長(zhǎng)久形成的視覺(jué)生理特性相違背。為了減小這種因焦點(diǎn)調(diào)節(jié)和輻輳的沖突而引起的視覺(jué)疲勞,應(yīng)該將立體圖像感興趣區(qū)域的視差大小控制在 Percival舒適區(qū)域(Percival’s Zone of Comfort, PZC)范圍內(nèi)[17],因此本文提取視覺(jué)重要區(qū)域的視差均值μ,視差方差δ,最大交叉視差υ和視差范圍τ共 4個(gè)特征,作為立體圖像視差幅度特征矢量,記為,各特征的計(jì)算公式如下:

      圖2 立體圖像視覺(jué)重要區(qū)域分割結(jié)果

      (1)VIR視差均值μ:

      (2)VIR視差方差δ:

      2.3 視差梯度邊緣特征提取

      基于視覺(jué)重要區(qū)域的視差邊緣特征具有良好的穩(wěn)定性,且能很好地反映立體圖像視覺(jué)舒適度。本文通過(guò)計(jì)算右視差圖像的視差梯度幅值圖像和梯度方向圖像,利用空間域高斯函數(shù)和梯度方向距離的高斯函數(shù)對(duì)視差梯度幅值進(jìn)行加權(quán),得到視差梯度邊緣圖像,最終利用VIR掩膜加權(quán)得到視覺(jué)重要區(qū)域的視差梯度邊緣特征征的具體計(jì)算公式如式(5)~式(8):,作為立體圖像視差梯度邊緣特征記為F2,該特

      2.4 空間頻率特征提取

      立體圖像的空間頻率與人眼對(duì)視差的融合極限成反比,立體圖像的低空間頻率所致的模糊會(huì)增大人眼對(duì)焦點(diǎn)調(diào)節(jié)和輻輳沖突的融合范圍。本文通過(guò)計(jì)算右視點(diǎn)圖像的水平方向頻率值,垂直方向頻率值,對(duì)角方向頻率值,得到的空間頻率圖像,然后提取視覺(jué)重要區(qū)域的空間頻率均值η,空間頻率方差ρ,空間頻率范圍ζ和空間頻率敏感因子λ共4個(gè)特征,作為立體圖像空間頻率特征矢量記為 F3,,該特征矢量具體計(jì)算過(guò)程如下:

      (2)VIR空間頻率均值η:

      (3)VIR空間頻率方差ρ:

      2.5 立體圖像視覺(jué)舒適度感知特征融合

      本文在VIR掩膜圖像的基礎(chǔ)上,提取基于VIR的視差幅度特征矢量 F1、視差梯度邊緣特征矢量F2和空間頻率特征矢量 F3,然后將特征矢量 F1,F2,F3連接起來(lái)形成一個(gè)新的特征矢量,作為待評(píng)價(jià)立體圖像的特征矢量X,即有

      接著,通過(guò) SVR訓(xùn)練得到視覺(jué)舒適度預(yù)測(cè)函數(shù),基于SVR的立體圖像視覺(jué)舒適度感知特征融合過(guò)程主要包含以下兩個(gè)階段。

      2.5.1 訓(xùn)練階段 (1)隨機(jī)選擇立體圖像集合中(9×n)/10對(duì)立體圖像構(gòu)成訓(xùn)練樣本數(shù)據(jù)集合,記為,其中,n表示立體圖像集合中立體圖像的對(duì)數(shù),q表示訓(xùn)練樣本數(shù)據(jù)集合qΩ中包含的立體圖像的對(duì)數(shù),表示訓(xùn)練樣本數(shù)據(jù)集合qΩ中的第對(duì)立體圖像的特征矢量,MOSk'表示訓(xùn)練樣本數(shù)據(jù)集合qΩ中的第對(duì)立體圖像的平均主觀評(píng)分值(Mean Opinion Score, MOS),。

      (2)構(gòu)造k'X 的回歸函數(shù),其中,w為權(quán)重矢量,為w的轉(zhuǎn)置矩陣,b為偏置量,為徑向基核函數(shù),,為訓(xùn)練樣本數(shù)據(jù)集合qΩ中的第對(duì)立體圖像的特征矢量,γ為核參數(shù),用于反映輸入樣本值的范圍,本文取γ=54。

      (3)利用支持向量回歸對(duì)訓(xùn)練樣本數(shù)據(jù)集合qΩ進(jìn)行訓(xùn)練,使得經(jīng)過(guò)訓(xùn)練后回歸的函數(shù)值集合與MOS集合之間的誤差最小,擬合得到最優(yōu)的權(quán)重矢量wopt和最優(yōu)的偏置量bopt,從而構(gòu)造最優(yōu)支持向量回歸訓(xùn)練模型。

      2.5.2 測(cè)試階段 (1)立體圖像數(shù)據(jù)庫(kù)中剩下的n/10對(duì)立體圖像構(gòu)成測(cè)試樣本數(shù)據(jù)集合,記為tΩ,t表示測(cè)試樣本數(shù)據(jù)集合tΩ中包含的立體圖像的對(duì)數(shù)。根據(jù)支持向量回歸訓(xùn)練模型,對(duì)測(cè)試樣本數(shù)據(jù)集中每一對(duì)立體圖像進(jìn)行測(cè)試,預(yù)測(cè)得到該子集中每一對(duì)立體圖像的客觀視覺(jué)舒適度評(píng)價(jià)值。對(duì)于該組子集中第 i對(duì)立體圖像的客觀視覺(jué)舒適度評(píng)價(jià)預(yù)測(cè)值,將其記為,其中,Xi表示該組子集中第i對(duì)立體圖像的特征矢量。

      (2)重復(fù)以上過(guò)程N(yùn)次,將得到的N組客觀參量的平均值作為最終該視覺(jué)舒適度客觀評(píng)價(jià)模型的評(píng)價(jià)性能,本文取N=200。

      3 實(shí)驗(yàn)結(jié)果與分析

      為驗(yàn)證該客觀評(píng)價(jià)模型的性能,采用韓國(guó)先進(jìn)科學(xué)學(xué)院提供的立體圖像庫(kù)作為立體圖像樣本數(shù)據(jù)集合[19]。該立體圖像庫(kù)由120幅分辨率為1920×1080的立體圖像組成,該數(shù)據(jù)庫(kù)包含了各種室內(nèi)場(chǎng)景和室外場(chǎng)景圖像,其右圖像如圖3所示。同時(shí),該數(shù)據(jù)庫(kù)提供了每幅立體圖像的 MOS, MOS值越大表示立體圖像的視覺(jué)舒適度越高。該立體圖像庫(kù)的主觀測(cè)試按照ITU-R BT.1438規(guī)定的標(biāo)準(zhǔn)進(jìn)行,實(shí)驗(yàn)中采用Redrover SDM-400 3維顯示器,主觀實(shí)驗(yàn)人數(shù)為18人,觀看者的觀測(cè)距離為顯示器高度的3倍,測(cè)試環(huán)境均符合ITU-R BT.500-11標(biāo)準(zhǔn)。實(shí)驗(yàn)中要求觀察者根據(jù)自身的生理癥狀或者疲勞反應(yīng)(例如眼睛疲勞,全身不適,頭痛,聚焦困難,惡心等癥狀)的嚴(yán)重程度,對(duì)立體圖像按照5個(gè)等級(jí)(5表示非常舒適,4表示舒適,3表示一般舒適,2表示比較不舒適,1表示非常不舒適)進(jìn)行主觀打分,然后通過(guò)統(tǒng)計(jì)分析得到每幅立體圖像的 MOS值。此外,該測(cè)試庫(kù)采用深度估計(jì)軟件計(jì)算得到右視差圖像,視差分布范圍為0~285個(gè)像素點(diǎn)。

      本文采取 10折交叉驗(yàn)證方法來(lái)評(píng)估立體圖像視覺(jué)舒適度感知特性的預(yù)測(cè)性能。所謂10折交叉驗(yàn)證,就是隨機(jī)地將立體圖像樣本數(shù)據(jù)集合等分成10個(gè)互不相交的子集,將其中的9份立體圖像子集作為訓(xùn)練樣本集,構(gòu)造支持向量回歸訓(xùn)練模型,剩余的1份立體圖像子集作為測(cè)試樣本集,根據(jù)訓(xùn)練模型,預(yù)測(cè)測(cè)試樣本集中所有立體圖像的視覺(jué)舒適度客觀評(píng)價(jià)分值 Q。由于在主觀質(zhì)量評(píng)價(jià)實(shí)驗(yàn)中會(huì)引入一系列非線性因素,為避免非線性因素對(duì)客觀評(píng)價(jià)模型性能的影響,需要將模型的客觀評(píng)價(jià)分值 Q做非線性擬合,本文采用5參數(shù)Logistic函數(shù)進(jìn)行非線性擬合,從而預(yù)測(cè)得到客觀模型預(yù)測(cè)值MOSp。

      圖3 立體圖像數(shù)據(jù)庫(kù)右視點(diǎn)圖像

      然后計(jì)算得到客觀預(yù)測(cè)值 MOSp與平均主觀評(píng)分值 MOS的相關(guān)性來(lái)度量客觀模型的性能,在本文中采用 Pearson相關(guān)系數(shù)(Pearson Linear Correlation Coefficient, PLCC), Spearman相關(guān)系數(shù)(Spearman Rank-order Correlation Coefficient,SRCC), Kendall相關(guān)系數(shù)(Kendall Rank-order Correlation Coefficient, KRCC)和均方根誤差(Root Mean Squared Error, RMSE)4組客觀參量,其中,PLCC, RMSE反映客觀評(píng)價(jià)模型預(yù)測(cè)值的準(zhǔn)確性,SRCC和KRCC反映客觀評(píng)價(jià)模型預(yù)測(cè)值的單調(diào)性和一致性;PLCC, SRCC, KRCC越大,RMSE越小說(shuō)明客觀評(píng)價(jià)預(yù)測(cè)值與平均主觀評(píng)分值的相關(guān)性越好。

      3.1 客觀性能評(píng)價(jià)

      表 1給出了本文方法與文獻(xiàn)[9]和文獻(xiàn)[12]方法在相同測(cè)試庫(kù)上的各項(xiàng)性能指標(biāo),由表中數(shù)據(jù)可以看出,本文方法的PLCC在0.87以上,SRCC在0.83以上,均方根誤差RMSE接近0.39,均優(yōu)于文獻(xiàn)[9]和文獻(xiàn)[12]的各評(píng)價(jià)指標(biāo)。此外,表1還給出了采用本文所提取的視差幅度特征矢量F1、視差梯度邊緣特征矢量 F2、空間頻率特征矢量 F3不同特征組合的評(píng)價(jià)性能指標(biāo)。由表中數(shù)據(jù)可以看出,只采用兩個(gè)特征矢量組合得到的評(píng)價(jià)預(yù)測(cè)值與主觀評(píng)分值間的相關(guān)性并不是最佳的,并且視差幅度特征矢量 F1對(duì)評(píng)價(jià)性能的影響比視差梯度邊緣特征矢量F2和空間頻率特征矢量 F3更大,而結(jié)合 F1,F2和F3得到的評(píng)價(jià)性能最佳,說(shuō)明本文的特征描述方法有效。

      表1 不同方法視覺(jué)舒適度客觀評(píng)價(jià)模型評(píng)價(jià)性能指標(biāo)比較

      3.2 各特征對(duì)性能的影響

      圖4(a),圖4(b)和圖 4(c)分別給出了只采用兩種特征矢量組合得到的客觀評(píng)價(jià)值與 MOS值的散點(diǎn)圖,從圖中可以看出,只采用視差梯度邊緣特征矢量F2與空間頻率特征矢量F3組合得到的散點(diǎn)圖最分散,與主觀評(píng)價(jià)值之間的吻合度最低,而采用視差幅度特征矢量 F1與視差梯度邊緣特征矢量F2組合或者視差幅度特征矢量F1與空間頻率特征矢量F3組合得到的散點(diǎn)圖較為集中,說(shuō)明視差幅度特征矢量F1對(duì)評(píng)價(jià)性能的影響最大。圖4(d),圖 4(e)和圖 4(f)分別給出了文獻(xiàn)[9]和文獻(xiàn)[12]以及本文方法的散點(diǎn)圖,從圖中可以看到,本文評(píng)價(jià)方法的客觀評(píng)價(jià)值Q與MOS值的散點(diǎn)圖較為集中,更加符合人眼的主觀感知。

      4 結(jié)束語(yǔ)

      圖4 采用不同方法得到的客觀視覺(jué)舒適度評(píng)價(jià)預(yù)測(cè)值與MOS值的散點(diǎn)圖

      本文根據(jù)人眼的視覺(jué)注意力機(jī)制,提出了一種基于視覺(jué)重要區(qū)域的立體圖像視覺(jué)舒適度客觀評(píng)價(jià)方法。該方法通過(guò)利用圖像顯著圖模型和視差信息得到視覺(jué)重要區(qū)域,然后提取視覺(jué)重要區(qū)域的視差幅度特征,視差梯度邊緣特征和空間頻率特征,作為反映立體圖像舒適度的感知特征信息,并通過(guò)支持向量回歸預(yù)測(cè)得到客觀評(píng)價(jià)值。實(shí)驗(yàn)結(jié)果表明,該方法能夠精確地預(yù)測(cè)人眼對(duì)立體圖像的視覺(jué)舒適程度。接下來(lái),我們將在本文的基礎(chǔ)上,考慮建立更為精確的立體顯著圖模型,從而進(jìn)一步提高預(yù)測(cè)的準(zhǔn)確性。

      [1] Lambooij M, Ijsselsteijn W A, and Heynderickx I. Visual discomfort and visual fatigue of stereoscopic displays : a review[J]. Journal of Imaging Science and Technology, 2009,53(3): 030201-1-030201-14.

      [2] Kim D, Choi S, Sohn K, et al.. Effect of vergenceaccommodation conflict and parallax difference on binocular fusion for random dot stereogram[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2012, 22(5):811-816.

      [3] Jung Y J, Sohn H, and Ro Y M. Visual discomfort visualizer using stereo vision and time-of-flight depth cameras[J]. IEEE Transactions on Consumer Electronics, 2012, 58(2): 246-254.[4] Jung Y J, Kim D, Sohn H, et al.. Subjective and objective measurements of visual fatigue induced by excessive disparities in stereoscopic images[J]. SPIE, 8648, 2013: DOI:10. 1117/12.2005818.

      [5] Tam W J, Speranza F, Yano S, et al.. Stereoscopic 3D-TV:visual comfort[J]. IEEE Transactions on Broadcasting, 2011,57(2): 335-346.

      [6] Patterson R. Human factors of stereo displays: an update[J].Journal of the Society for Information Display, 2009, 17(12):987-996.

      [7] Schor C, Wood I, and Ogawa J. Binocular sensory fusion is limited by spatial resolution[J]. Vision Research, 1984, 24(7):661-665.

      [8] 王勤, 王瓊?cè)A, 劉春玲. 視差與空間頻率對(duì)自由立體顯示器觀看舒適度的影響[J]. 光電子·激光, 2012, 23(8): 1604-1608.Wang Qin, Wang Qiong-hua, and Liu Chun-ling. Effects of parallax and spatial frequency on visual comfort in autostereoscopic display[J]. Journal of Optoelectronics, 2012,23(8): 1604-1608.

      [9] Lambooij M, IJsselsteijn W A, and Heynderickx I. Visual discomfort of 3-D TV: assessment methods and modeling[J].Displays, 2011, 32(4): 209-218.

      [10] Choi J H, Yun M J, Kim A R, et al.. Visual comfort measurement for 2D/3D converted stereo video sequence[C].2012 3DTV-Conference: The True Vision - Capture,Transmission and Display of 3D Video (3DTV-CON 2012),Zurich, Switzerland, 2012: 1-4.

      [11] Kim D and Sohn K. Visual fatigue prediction for stereoscopic image[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2011, 21(2): 231-236.

      [12] Sohn H, Jung Y J, Lee S, et al.. Predicting visual discomfort using object size and disparity information in stereoscopic images[J]. IEEE Transactions on Broadcasting, 2013, 59(1):28-37.

      [13] Itti L, Koch C, and Niebur E. A model of saliency based visual attention for rapid scene analysis[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,1998, 20(11): 1254-1259.

      [14] Hou X D and Zhang L. Saliency detection: a spectral residual approach[C]. IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Minnesota, USA,2007: 1-8.

      [15] Harel J, Koch C, and Perona P. Graph-based visual saliency[J]. Advances in Neural Information Processing Systems, 2007, 19: 545-552.

      [16] Wang J L, Silva M, Callet P L, et al.. A computational model of stereoscopic 3D visual saliency[J]. IEEE Transactions on Image Processing, 2013, 22(6): 2151-2165.

      [17] Percival A. The zone of comfort: predicting visual discomfort with stereo displays[J]. Journal of Vision, 2011, DOI:10.1167/11.8.11.

      [18] 馬恒, 賈傳熒, 劉爽. 基于空間頻率的圖像融合方法[J]. 計(jì)算機(jī)工程與應(yīng)用, 2005, 41(31): 215-218.Ma Heng, Jia Chuan-ying, and Liu Shuang. Image fusion based on spatial frequency[J]. Computer Engineering and Applications, 2005, 41(31): 215-218.

      [19] Sohn H, Jung J Y, Lee S, et al.. Korea Advanced Institute of Science and Technology. IVY Lab Stereoscopic Image Database[OL]. http://ivylab.kaist.ac.kr/demo/3DVCA/3DVCA.htm, 2013.

      猜你喜歡
      空間頻率視差舒適度
      基于自適應(yīng)窗的立體相機(jī)視差圖優(yōu)化方法研究
      基于用戶內(nèi)衣穿著舒適度的彈性需求探討
      改善地鐵列車運(yùn)行舒適度方案探討
      基于稀疏貝葉斯的多跳頻信號(hào)二維波達(dá)方向估計(jì)
      基于梯度域引導(dǎo)濾波的視差精煉迭代算法
      某異形拱人行橋通行舒適度及其控制研究
      基于分割樹(shù)的視差圖修復(fù)算法研究
      空間頻率變化對(duì)不同年齡段正常眼圖形視覺(jué)誘發(fā)電位的影響
      立體視差對(duì)瞳孔直徑影響的研究
      基于人眼視覺(jué)特性的濾波器空間頻率的計(jì)算方法及其在彩色圖像上的應(yīng)用
      遂溪县| 浪卡子县| 甘洛县| 津南区| 乌鲁木齐县| 迁西县| 塔城市| 白银市| 焦作市| 恩施市| 罗山县| 海盐县| 乌兰察布市| 乐至县| 九龙城区| 雅安市| 东安县| 盱眙县| 富锦市| 凉山| 邓州市| 额尔古纳市| 苍山县| 宁武县| 会理县| 隆德县| 汤原县| 成安县| 蓝山县| 措勤县| 嫩江县| 苍梧县| 得荣县| 北碚区| 西畴县| 马关县| 麻江县| 琼结县| 报价| 丁青县| 思茅市|