• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      一種區(qū)域立體快速自適應(yīng)重建方法

      2016-11-25 01:19:55范大昭
      測(cè)繪學(xué)報(bào) 2016年10期
      關(guān)鍵詞:壓縮率視差射影

      董 楊,范大昭,紀(jì) 松,雷 蓉

      信息工程大學(xué),河南 鄭州 450000

      ?

      一種區(qū)域立體快速自適應(yīng)重建方法

      董 楊,范大昭,紀(jì) 松,雷 蓉

      信息工程大學(xué),河南 鄭州 450000

      傳統(tǒng)的正射立體影像制作對(duì)于地形復(fù)雜區(qū)域易受到大高差的影響,產(chǎn)生局部立體感不足或者復(fù)視現(xiàn)象,從而造成視覺疲勞。針對(duì)這一問題,本文引入了深度映射模型,設(shè)計(jì)了非線性映射函數(shù)依據(jù)實(shí)際地形自適應(yīng)地進(jìn)行高程變換,利用視差函數(shù)進(jìn)行逐像元迭代求解生成立體影像。提供了一種能夠自適應(yīng)快速生成符合人眼視覺感受的立體影像對(duì)的算法和流程。

      立體影像;深度映射;映射函數(shù);視差函數(shù)

      當(dāng)前,攝影測(cè)量影像數(shù)據(jù)不斷向著多元化和海量化的方向發(fā)展,攝影測(cè)量大數(shù)據(jù)時(shí)代已悄然來臨[1-2]。如何高效地利用這些影像數(shù)據(jù)是一個(gè)亟待解決的問題。其中,利用影像數(shù)據(jù)進(jìn)行地表的三維顯示與表達(dá)是攝影測(cè)量一個(gè)持續(xù)發(fā)展的重要研究方向。利用立體影像,借助于三維觀測(cè)工具,可實(shí)現(xiàn)目標(biāo)區(qū)域的真三維顯示與量測(cè)。傳統(tǒng)的立體影像大多是基于影像獲取時(shí)形成的天然視差直接構(gòu)建。然而,在大多數(shù)情況下,得到的天然視差信息并不理想,左右視差與上下視差可能同時(shí)存在,不符合立體觀測(cè)的最佳條件。此時(shí),往往需要利用一定的方法,重新生成更合適人眼觀測(cè)的人工視差。另外,隨著影像共享網(wǎng)站的不斷涌現(xiàn),現(xiàn)如今已能免費(fèi)下載到較高分辨率的正射影像、數(shù)字高程模型(digital elevation model,DEM)或者數(shù)字表面模型(digital surface model,DSM),如何將這些數(shù)據(jù)轉(zhuǎn)換為立體影像,使其更易于人眼觀測(cè)和地形分析,是值得研究的問題。

      文獻(xiàn)[3]對(duì)基于正射影像構(gòu)建立體模型進(jìn)行了研究,提出生成立體正射影像對(duì)的概念。立體正射影像對(duì)的研究對(duì)象是單獨(dú)立體像對(duì),原理是將左影像和右影像分別生成正射影像,由此組成立體正射影像對(duì)。文獻(xiàn)[4]對(duì)立體正射影像對(duì)的三維量測(cè)性進(jìn)行了研究。文獻(xiàn)[5]則對(duì)基于航空影像的無縫正射影像對(duì)的生成進(jìn)行了研究。文獻(xiàn)[6]對(duì)利用正射影像生成立體匹配片從而構(gòu)建三維立體模型進(jìn)行了研究。然而,這些方法雖能夠生成立體像對(duì),但對(duì)人眼的視覺感受顧及較少,并不能自適應(yīng)地生成符合人眼視覺感受的立體影像,這一問題對(duì)于地形復(fù)雜區(qū)域的立體構(gòu)建尤為明顯。由此,本文對(duì)利用多種數(shù)據(jù)源自適應(yīng)生成符合人眼視覺感受的立體影像進(jìn)行了相關(guān)研究。

      構(gòu)建立體影像的實(shí)質(zhì)是影像間視差的控制。視差的大小與整體分布直接決定了人眼的視覺感受。在大區(qū)域復(fù)雜地形下,較大的相對(duì)高差對(duì)應(yīng)著較大的視差范圍,由此雙眼產(chǎn)生了較大的深度感知范圍。通過人眼疲勞產(chǎn)生的機(jī)制[7-10]可以知道,這是造成視覺不適的最主要原因之一。近年來,計(jì)算機(jī)視覺理論的不斷發(fā)展為解決這一問題提供了有效途徑。在計(jì)算機(jī)視覺領(lǐng)域,將影像視差調(diào)節(jié)到適合人眼感知的范圍之內(nèi)稱為深度映射[11-13]。深度映射一般通過兩種途徑進(jìn)行實(shí)現(xiàn):①在成像時(shí)進(jìn)行參數(shù)調(diào)整;②在成像后進(jìn)行影像處理[14]。針對(duì)成像后影像處理,計(jì)算機(jī)視覺經(jīng)典方法是首先計(jì)算出新視差,然后通過對(duì)應(yīng)局部影像的變形平移或灰度內(nèi)插形成立體影像[15-16]。這種途徑的主要任務(wù)之一是進(jìn)行視差的重新映射。針對(duì)實(shí)時(shí)處理系統(tǒng),文獻(xiàn)[17]提出場(chǎng)景分塊處理的思想,對(duì)于不同的區(qū)域采用不同的深度壓縮率進(jìn)行映射,但不同區(qū)域的壓縮比率變化是非連續(xù)的。文獻(xiàn)[18]研究了一種隨場(chǎng)景深度范圍動(dòng)態(tài)改變深度壓縮率的方法,用于減小變形帶來的瑕疵。文獻(xiàn)[14]提出了一種非均勻深度壓縮方法,保證了壓縮率的連續(xù)變化。

      在以上研究的基礎(chǔ)上,本文提出了一種區(qū)域立體快速自適應(yīng)重建方法,能夠改進(jìn)復(fù)雜地形條件下的視差變形,生成符合人眼視覺感受的立體影像。該方法可以對(duì)多種數(shù)據(jù)源進(jìn)行處理,基于DEM(或DSM)數(shù)據(jù),利用映射函數(shù)對(duì)高差進(jìn)行深度映射,通過視差函數(shù)得到視差值,生成立體配對(duì)片,借助立體顯示設(shè)備完成立體視覺重建。

      1 立體快速自適應(yīng)重建

      1.1 立體配對(duì)片制作方法

      立體配對(duì)片可通過對(duì)正射影像引入人工視差的方法進(jìn)行制作,一般包括斜平行投影法、對(duì)數(shù)投影法和變角度投影法[5,20]。

      斜平行投影法利用角度為α的平行光線對(duì)DEM(或DSM)進(jìn)行投影,得到僅有左右視差的配對(duì)片,求解過程簡(jiǎn)單,計(jì)算較為方便。如圖1所示,以地面點(diǎn)A為例,其高程值為Z,垂直投影點(diǎn)為P0,斜投影點(diǎn)為P1。圖1(a)為求解的正射影像,圖1(b)為斜平行投影求解的立體配對(duì)片。選取斜平行投影方向平行于XZ平面,使得正射影像和立體配對(duì)片的同名像點(diǎn)只存在左右視差,避免上下視差,同時(shí)使得左片和右片的比例尺相同,從而滿足立體觀測(cè)的先決條件。此時(shí),立體觀測(cè)的左右視差P為

      P=Ztanα=kZ

      (1)

      為了便于量測(cè),α的角度須盡量與原始立體模型的視差保持一致,一般取tanα=B/H,B為立體像對(duì)的攝影基線,H為攝影時(shí)的航高,因此,

      (2)

      此時(shí)將立體正射影像對(duì)上量測(cè)的左右視差P除以系數(shù)k=tanα,便可以獲得該點(diǎn)的高程

      (3)

      圖1 斜平行投影法斷面示意圖Fig.1 The section of the oblique parallel projection method

      圖2 斜平行投影交點(diǎn)計(jì)算Fig.2 Intersection calculation of the oblique parallel projection method

      由圖中的幾何關(guān)系可知

      (4)

      式中,k=tanα。

      對(duì)數(shù)投影法和變角度投影法都是斜平行投影法的進(jìn)一步改進(jìn),目的都是盡量使得引入的視差與原始視差相符合,其核心都是對(duì)視差函數(shù)P=ψ(Z)的改進(jìn)。其中,對(duì)數(shù)投影法改善了斜平行投影法生成的人工視差與原始像對(duì)天然視差不一致的情況,采用的視差函數(shù)為:P=B·ln(H/(H-Z));變角度投影法降低了對(duì)數(shù)投影法中的求解復(fù)雜度,采用的視差函數(shù)為:P=B·Z/(H-Z)[5,20]。

      1.2 深度映射模型

      研究表明,人眼的調(diào)節(jié)和匯聚是緊密耦合的過程[14,21],但觀看立體影像時(shí),會(huì)導(dǎo)致調(diào)節(jié)和匯聚分離,而較大的調(diào)節(jié)匯聚沖突會(huì)導(dǎo)致視覺不適或疲勞。文獻(xiàn)[7,9]提出適宜的感知深度應(yīng)當(dāng)在一定閾值之內(nèi)。從調(diào)節(jié)與匯聚沖突和感知深度的角度來看,計(jì)算視差時(shí),應(yīng)在盡量保持原有立體效果的情況下,將視差控制在最大視差感知深度范圍內(nèi),以減小視覺疲勞。基于這個(gè)思想,可通過深度映射將場(chǎng)景深度壓縮到適宜的范圍之內(nèi)。

      根據(jù)壓縮率的變化情況,深度映射可分為非連續(xù)型處理和連續(xù)型處理[14,17,22]。圖3(a)表示場(chǎng)景深度整體以一個(gè)壓縮率進(jìn)行映射,能夠保持場(chǎng)景的相對(duì)深度關(guān)系;圖3(b)表示場(chǎng)景深度的不同區(qū)域以不同的壓縮率進(jìn)行映射,能夠突出重點(diǎn)區(qū)域,減小重點(diǎn)區(qū)域物體的壓縮變形,但整體的相對(duì)深度關(guān)系存在較大變形;圖3(c)表示場(chǎng)景深度以非均勻連續(xù)壓縮率進(jìn)行映射,能夠在減小重點(diǎn)區(qū)域壓縮變形的同時(shí)盡量保持相對(duì)深度關(guān)系。進(jìn)行深度映射的核心思想可表述如下:對(duì)于場(chǎng)景深度區(qū)域Ri=(sdi,sdi+1),按照視覺感知深度得到映射范圍φi=(gpdi,gpdi+1),確定映射函數(shù){Yi=Fi(Xi)|Xi∈Ri,Yi∈φi}進(jìn)行映射(見圖4)。對(duì)于整個(gè)場(chǎng)景R={R1,R2,…,Rn}映射到合適的視覺深度φ={φ1,φ2,…,φn},若F={F1,F2,…,F(xiàn)n}不連續(xù)則為非連續(xù)型處理,反之,若其連續(xù)則為連續(xù)型處理。由此,可以看出,深度映射中影響人眼視覺效果的兩個(gè)重要因素分別是感知深度φ與映射函數(shù)F。一般而言,人眼感知較為舒適的深度范圍是固定的,因此,研究的重點(diǎn)應(yīng)為映射函數(shù)F的確定,這也是本文研究的關(guān)鍵。

      圖3 深度映射方法示意圖Fig.3 Depth mapping method

      1.3 基于深度映射的區(qū)域立體重建

      區(qū)域立體制作應(yīng)遵循以下兩點(diǎn)原則:①立體深度的相對(duì)關(guān)系應(yīng)盡可能地與實(shí)際相似。②立體深度應(yīng)在人眼視覺感知深度范圍之內(nèi)。前者保證了立體整體畸變較小,能夠真實(shí)地反映實(shí)際地形、地物;后者則保證了觀看立體時(shí)能夠盡可能地減小人眼疲勞。依據(jù)正射影像及DEM(或DSM)制作區(qū)域立體,實(shí)質(zhì)是視差的確定,可以看作是進(jìn)行深度映射的過程。區(qū)域立體的場(chǎng)景深度可由計(jì)算視差進(jìn)行控制,而視差由高程計(jì)算而得。因此,可利用映射函數(shù)對(duì)高程進(jìn)行變換,以實(shí)現(xiàn)深度映射。

      假設(shè)給定區(qū)域內(nèi)的最高高程為hmax,最低高程為hmin,由此可得到最大高差Δhmax=hmax-hmin。依據(jù)影像分辨率確定適合人眼感知的最大高差限為φmax=n×Dis,Dis為影像分辨率,n為人眼所能感知的較為舒適的最大深度(以視差形式表示)。由此,依據(jù)人眼感知視差限制,可以確定以下對(duì)應(yīng)關(guān)系:實(shí)際最大高差Δhmax對(duì)應(yīng)著感知最大高差φmax,實(shí)際最小高差0對(duì)應(yīng)著感知高差0。更進(jìn)一步地,對(duì)于實(shí)際的大區(qū)域影像而言,最大高差對(duì)應(yīng)的最大高程區(qū)域一般為山地地形,最小高差對(duì)應(yīng)的最小高程區(qū)域一般為平地或居民地。因此,對(duì)應(yīng)關(guān)系可進(jìn)一步確定為:實(shí)際最大高差Δhmax對(duì)應(yīng)著壓縮率為fmax=φmax/Δhmax,實(shí)際最小高差0對(duì)應(yīng)著壓縮率為f0=1。即較高的地形使用一定的壓縮使其限制在人眼視覺感知范圍之內(nèi),較低的地形盡量較小地壓縮以保持立體的局部細(xì)節(jié)。在得到兩點(diǎn)的值fmax和f0之后,再確定壓縮率函數(shù)f=F(Δh)的具體形式,就可以確定每一高差點(diǎn)對(duì)應(yīng)的壓縮率值,然后由φ=f·Δh可確定每一高差點(diǎn)的映射值。但在非線性情況下,壓縮率函數(shù)f=F(Δh)的單調(diào)性與映射函數(shù)φ=f·Δh的單調(diào)性間并不存在特定聯(lián)系,為了保證映射關(guān)系的單調(diào)性,可直接進(jìn)行映射函數(shù)的設(shè)計(jì)。為了達(dá)到預(yù)期效果,這里使用一種非線性的函數(shù)形式

      y=aexp(bx)+c

      (5)

      式中,a、b、c為參數(shù)值。由于映射函數(shù)的先驗(yàn)條件僅有兩點(diǎn)坐標(biāo)(0,0)、(Δhmax,φmax),故求解的映射函數(shù)應(yīng)包含一個(gè)參數(shù)變量,其中一種具體形式為

      (6)

      式中,a為參數(shù)變量。將a取不同的值,觀察函數(shù)φ的性質(zhì)變化,具體如圖4所示。

      其中,取n=120,Dis=5,hmin=0,hmax=1000,h∈[0,1000]。圖4中,線A對(duì)應(yīng)a=e時(shí)的非均勻映射函數(shù)φ;線B對(duì)應(yīng)a=-e時(shí)的非均勻映射函數(shù)φ;線C對(duì)應(yīng)原始未映射值;線D對(duì)應(yīng)均勻映射函數(shù);線E對(duì)應(yīng)分塊均勻映射函數(shù)??梢园l(fā)現(xiàn),均勻映射函數(shù)以統(tǒng)一固定比率同時(shí)映射所有高程,并不能突出表述目標(biāo)高程區(qū)域(突出目標(biāo)高程區(qū)域是指將目標(biāo)高程區(qū)域映射到較寬的視覺感受區(qū),即“拉伸”目標(biāo)區(qū)域高程,“壓縮”非目標(biāo)區(qū)域高程);分塊非均勻映射函數(shù)以不同的比率映射對(duì)應(yīng)高程,達(dá)到了突出表述目標(biāo)高程區(qū)域的目的,但映射曲線并不光滑,不利于人眼的視覺感受;非均勻映射函數(shù)以變化的比率映射高程,映射曲線光滑,可通過控制參數(shù)值以突出表述目標(biāo)高程區(qū)域,具有較好的性質(zhì)。因此,在具體運(yùn)用中一般選擇非均勻映射函數(shù)進(jìn)行映射操作。對(duì)于本文運(yùn)用的非均勻映射函數(shù),當(dāng)a=e時(shí),由曲線A可以發(fā)現(xiàn),“低”高程被分配了較窄的映射區(qū)域,“高”高程分配了較寬的映射區(qū)域,將“高”高程目標(biāo)區(qū)域進(jìn)行了突出表述;當(dāng)a=-e時(shí),由曲線A可以發(fā)現(xiàn),“低”高程被分配了較寬的映射區(qū)域,“高”高程分配了較窄的映射區(qū)域,將“低”高程目標(biāo)區(qū)域進(jìn)行了突出表述。本文試驗(yàn)中,選擇a=-e,以突出表述“低”高程目標(biāo)區(qū)域。

      由式(6),輸入每一點(diǎn)高程h即可得到相應(yīng)的映射高程φ,式中最低高程點(diǎn)對(duì)應(yīng)的映射高程為0,人眼感知為無立體,但若最低高程點(diǎn)為負(fù)值,則此時(shí)的人眼感知并未能真實(shí)地反映“凹立體”的實(shí)際地形,因此,可對(duì)式(6)改進(jìn)如下

      (7)

      得到映射高程后,可通過視差函數(shù)來計(jì)算影像點(diǎn)的同名點(diǎn)??紤]到算法的計(jì)算復(fù)雜度,這里使用一種線性的視差函數(shù)形式p=kφ,即斜平行投影法。此時(shí),可直接取得k=1。在具體計(jì)算中可通過迭代法進(jìn)行求解。迭代流程是立體配對(duì)片上A1點(diǎn)的映射高程為φ1,根據(jù)已知k求得A2點(diǎn)X坐標(biāo)為X1+k·φ1;同理,根據(jù)A2點(diǎn)的映射高程值為φ2,依次迭代出A3、A4等,直到φA滿足閾值,得到A1點(diǎn)的同名像點(diǎn)A的X坐標(biāo),然后,將影像上A點(diǎn)灰度值賦給立體配對(duì)片上A1點(diǎn)。最后,逐像元求解出立體輔助影像。迭代過程如圖5所示。

      圖5 映射高程求解視差示意圖Fig.5 Parallax solving by mapping elevation

      綜上所述,區(qū)域立體快速重建過程如下:首先,利用DEM(或DSM)對(duì)原始影像進(jìn)行微分糾正,得到正射影像;其次,通過DEM(或DSM)和映射函數(shù)φ=F(h),計(jì)算映射高程;然后,利用計(jì)算的映射高程和視差函數(shù)P=ψ(Z)迭代求解同名點(diǎn)坐標(biāo),逐像元計(jì)算出配對(duì)片;最后,利用正射影像及相應(yīng)的配對(duì)片,根據(jù)實(shí)際的立體顯示設(shè)備合成立體影像。其制作流程見圖6。

      圖6 立體影像制作流程Fig.6 Stereo image making process

      2 試驗(yàn)及其結(jié)果分析

      2.1 試驗(yàn)設(shè)計(jì)

      為了驗(yàn)證本文方法的有效性,選取某區(qū)域進(jìn)行立體影像生成試驗(yàn)。影像及對(duì)應(yīng)DEM(或DSM)已根據(jù)地理信息進(jìn)行了重疊區(qū)域的裁剪,地理范圍完全一致。試驗(yàn)數(shù)據(jù)包括4組(見表1)第1組為“天繪一號(hào)”衛(wèi)星三線陣影像,大小適中,包含有山地、居民地等,整體起伏明顯;第2組為“天繪一號(hào)”衛(wèi)星高分辨率影像,范圍較小,包含土丘、平地等,地形較為簡(jiǎn)單;第3組為從互聯(lián)網(wǎng)上獲取的大區(qū)域正射影像及對(duì)應(yīng)的SRTM,范圍較大,包含山地、居民地、湖泊等,地形復(fù)雜;第4組數(shù)據(jù)為30m分辨率SRTM,包含山地、平地等,地形豐富,主要進(jìn)行本文方法中深度映射的特性檢驗(yàn)。對(duì)于第2組與第3組數(shù)據(jù),試驗(yàn)前首先對(duì)DSM或SRTM進(jìn)行了內(nèi)插處理,得到對(duì)應(yīng)分辨率的高程數(shù)據(jù)。試驗(yàn)采用VisualStudio2012開發(fā)環(huán)境,采用IntelE5620 2.4GHz雙處理器、16GB內(nèi)存的運(yùn)行環(huán)境,采用紅藍(lán)影像的方式進(jìn)行立體顯示。試驗(yàn)中為了實(shí)現(xiàn)區(qū)域立體的快速重建,采用16個(gè)線程進(jìn)行并行加速處理。

      表1 試驗(yàn)數(shù)據(jù)信息

      2.2 結(jié)果分析

      基于本文方法,利用上述設(shè)計(jì)方案,對(duì)第1組數(shù)據(jù)進(jìn)行試驗(yàn),試驗(yàn)結(jié)果如圖7所示。從圖7(a)、圖7(b)和圖7(c)中可以看出,立體影像能夠符合人眼的視覺感受,并未產(chǎn)生復(fù)視現(xiàn)象(雙眼競(jìng)爭(zhēng))。由圖7(a)的整體圖可以看出,立體影像中山區(qū)部分立體感較強(qiáng),整體能夠真實(shí)地反映實(shí)際的地形情況;由圖7(b)的局部圖可以看出,對(duì)于居民地等細(xì)節(jié)部分,觀看時(shí)仍有較強(qiáng)的立體感,能夠較好地表現(xiàn)局部地形細(xì)節(jié);由圖7(c)的局部圖可以看出,對(duì)于山地部分,觀看時(shí)有較強(qiáng)的立體感,能夠很好地突顯出山體變化。

      圖4 映射函數(shù)性質(zhì)示意圖Fig.4 Mapping function properties

      圖7 三線陣影像紅藍(lán)立體圖Fig.7 Red and blue stereo image of three linear array images

      為了檢驗(yàn)深度映射后的高程變化特點(diǎn),采用第4組數(shù)據(jù)進(jìn)行本文方法中的映射,結(jié)果如圖8所示,具體信息如表2所示。圖8(a)是某一區(qū)域原始DEM渲染圖,該區(qū)域最高高程為1361 m,最低高程為77 m,最大高差為1284 m;圖8(b)是設(shè)置最大映射高程為3600 m后的結(jié)果渲染圖,可以看出該映射對(duì)高差進(jìn)行了拉伸;圖8(c)是設(shè)置最大映射高程為600 m后的結(jié)果渲染圖,可以看出該映射對(duì)高差進(jìn)行了壓縮。由高程統(tǒng)計(jì)圖8(d)—(i)可以看出,處于映射上邊界(即高差較大處)的壓縮率較大,變形較大,而映射下邊界的變形較小,這是由于選取的映射函數(shù)的特性所造成的,與預(yù)期效果相同。其中圖8(g)—(i)的局部統(tǒng)計(jì)圖是取原始高程統(tǒng)計(jì)中前1000個(gè)高程點(diǎn)統(tǒng)計(jì)而成。圖8(j)—(k)是原始高程、原始高差、拉伸高程和壓縮高程4組數(shù)據(jù)的復(fù)合統(tǒng)計(jì)圖??梢悦黠@看出,“拉伸”或者“壓縮”映射最主要的是對(duì)較高區(qū)域(一般為山地部分)的處理,給人的最終感官變化是山地變高或山地變低,更加符合視覺感受。

      圖8 映射高程示意圖Fig.8 Mapping elevation

      但是,由于映射函數(shù)的非線性特性,使得相對(duì)地形發(fā)生了形變,造成了觀看效果與真實(shí)地形有所偏差。若要避免這種情況的發(fā)生,將映射函數(shù)定義為線性函數(shù)即可,但這樣會(huì)使得局部細(xì)節(jié)變化同時(shí)受到較大壓縮率的影響,不利于高差較小部分(一般為平地或居民地部分)的立體呈現(xiàn)。因此,對(duì)于不同的側(cè)重情況可選擇不同的映射函數(shù)進(jìn)行處理:若側(cè)重于視覺效果的表現(xiàn),可選擇非線性函數(shù)進(jìn)行映射;若側(cè)重于對(duì)真實(shí)地形的還原,可選擇線性函數(shù)進(jìn)行映射。本文僅給出了非線性函數(shù)的變換形式與結(jié)果。

      為了與其他算法進(jìn)行比較,這里采用本文方法與均勻映射高程法、斜平行投影法分別對(duì)第2組和第3組數(shù)據(jù)進(jìn)行處理,兩種高程映射方法處理后,均采用斜平行投影法進(jìn)行視差求解,3種方法中的k=1.0,結(jié)果如圖9所示。由圖9(a)—(f)可以看出,對(duì)于地形起伏不明顯的區(qū)域,經(jīng)過本文的高程映射之后,將視差非均勻變大,使得影像立體感更加強(qiáng)烈。均勻映射高程法將整體高程以固定比率壓縮,損失了“低”高程處的細(xì)節(jié)部分,不能較好地突出“低”高程處的房屋細(xì)節(jié)。斜平行投影法未進(jìn)行高程映射,不能突出表述細(xì)節(jié)部分,同時(shí)由于試驗(yàn)區(qū)域地形起伏不明顯,立體效果與均勻映射法效果相似。由圖9(g)—(m)可以看出,對(duì)于大區(qū)域復(fù)雜地形下,整幅影像高差變化較大,已超出人眼感知范圍,觀看圖9(h)已產(chǎn)生明顯的復(fù)視現(xiàn)象,經(jīng)過本文的高程映射之后,將視差非均勻變小,復(fù)視消失,使得立體影像符合人眼視覺感受;均勻映射高程法由于進(jìn)行了高程映射,同樣消除了復(fù)視現(xiàn)象;而斜平行投影法未進(jìn)行高程映射,部分區(qū)域復(fù)視現(xiàn)象明顯。

      圖9 對(duì)比試驗(yàn)Fig.9 Comparative experiment chart

      因此,從視覺質(zhì)量上綜合來看,本文方法制作出立體的深度感與舒適感都要優(yōu)于斜平行投影法或均勻映射方法制作的立體。從效率上看,本文方法處理2、3組數(shù)據(jù)分別耗時(shí)7.6 s、89.8 s,斜平行投影分別耗時(shí)5.0 s、77.5 s,均勻映射方法分別耗時(shí)7.5 s、90.1 s,本文方法時(shí)間稍多于斜平行投影法,但總體耗時(shí)仍舊很短,能夠達(dá)到快速重建的時(shí)間要求。從地形適應(yīng)上而言,本文制作方法在地形簡(jiǎn)單或復(fù)雜區(qū)域都有著良好的表現(xiàn),總體上優(yōu)于斜平行投影法或均勻映射方法制作的立體。同時(shí)從理論上分析,依據(jù)DSM制作的立體影像對(duì)不會(huì)降低呈現(xiàn)復(fù)雜地形和現(xiàn)規(guī)則邊界地物的立體效果,已經(jīng)作過的大量試驗(yàn)的試驗(yàn)效果也證明了這一點(diǎn),即利用本文方法、基于DSM生成的立體影像對(duì)具有較強(qiáng)的立體呈現(xiàn)效果。

      表2 映射信息統(tǒng)計(jì)表

      3 總 結(jié)

      本文研究的區(qū)域立體自適應(yīng)重建有其特殊的背景含義及應(yīng)用。一方面,就便攜性而言,本文方法生產(chǎn)的立體影像可打印成圖,相對(duì)于正射影像和DEM(或DSM)直接構(gòu)建透視三維,其攜帶相對(duì)方便,在設(shè)備相對(duì)簡(jiǎn)陋時(shí)仍能發(fā)揮較好的效用;另一方面,本文在改善目視效果的同時(shí),將影像糾正為真北方向,更加利于用戶的實(shí)際應(yīng)用,這是目前衛(wèi)星核線影像對(duì)所不能達(dá)到的效果。另外,雖然本文方法運(yùn)用高程映射進(jìn)行了視覺感官的調(diào)整,但在進(jìn)行立體量測(cè)和立體測(cè)圖時(shí),實(shí)際應(yīng)用數(shù)據(jù)仍是原始DEM(或DSM)的高程值,故理論上而言,并未丟失其原始高程精度。同時(shí),由于改善了人眼觀測(cè)環(huán)境,使其有利于人工量測(cè)誤差的減小,從而有可能使立體量測(cè)的平面精度得到提升。

      試驗(yàn)表明,本文方法能夠自適應(yīng)生成滿足人眼視覺感受的立體影像,實(shí)現(xiàn)區(qū)域立體的快速重建。同時(shí),本文在試驗(yàn)中給出了一種非線性的映射函數(shù)形式以及一種線性的視差函數(shù)形式,在實(shí)際應(yīng)用中可根據(jù)具體情況對(duì)映射函數(shù)與視差函數(shù)進(jìn)行重定義。

      [1] 李德仁,張良培,夏桂松.遙感大數(shù)據(jù)自動(dòng)分析與數(shù)據(jù)挖掘[J].測(cè)繪學(xué)報(bào),2014,43(12): 1211-1216.DOI: 10.13485/j.cnki.11-208.2014.0187.LI Deren,ZHANG Liangpei,XIA Guisong.Automatic Analysis and Mining of Remote Sensing Big Data[J].Acta Geodaetica et Cartographica Sinica,2014,43(12): 1211-1216.DOI: 10.13485/j.cnki.11-208.2014.0187.

      [2] 李德仁,姚遠(yuǎn),邵振峰.智慧城市中的大數(shù)據(jù)[J].武漢大學(xué)學(xué)報(bào)(信息科學(xué)版),2014,39(6): 631-640.

      LI Deren,YAO Yuan,SHAO Zhengfeng.Big Data in Smart City[J].Geomatics and Information Science of Wuhan University,2014,39(6): 631-640.

      [3] COLLINS S H.The Stereo-Orthophoto Pair[J].Photogrammetric Engineering,1972,38(12): 1195-1202.

      [4] 劉鳳德,邱懿.基于左右正射影像的三維量測(cè)方法的研究[J].測(cè)繪科學(xué),2004,29(S): 47-49.LIU Fengde,QIU Yi.Study on Three-Dimensional Measurement Method with Orthoimage[J].Science of Surveying and Mapping,2004,29(S): 47-49.

      [5] 李德仁,王密.一種基于航空影像的高精度可量測(cè)無縫正射影像立體模型生成方法及應(yīng)用[J].鐵道勘察,2004,30(1): 1-6.LI Deren,WANG Mi.A Method for Generating Measurable Seamless Orthoimage Stereo Model with High Accuracy and Its Application Based on Aerial Images[J].Railway Investigation and Surveying,2004,30(1): 1-6.

      [6] 張祖勛,鄭順義,張劍清.三維可視化工程設(shè)計(jì)的研究[J].武漢大學(xué)學(xué)報(bào)(信息科學(xué)版),2004,27(4): 337-342.

      ZHANG Zuxun,ZHENG Shunyi,ZHANG Jianqing.Three-Dimensional Visualization Engineering Design[J].Geomatics and Information Science of Wuhan University,2004,27(4): 337-342.

      [7] PATTERSON R.Review Paper: Human Factors of Stereo Displays: An Update[J].Journal of the Society for Information Display,2009,17(12): 987-996.

      [8] SHIBATA T,KIM J,HOFFMAN D M,et al.The Zone of Comfort: Predicting Visual Discomfort with Stereo Displays[J].Journal of Vision,2011,11(8): 11.

      [9] SPERANZA F,TAM W J,RENAUD R,et al.Effect of Disparity and Motion on Visual Comfort of Stereoscopic Images[C]∥Proceedings of SPIE 6055,Stereoscopic Displays and Virtual Reality Systems XIII.San Jose,CA: SPIE,2006

      [10] REICHELT S,HAUSSLER R,FüTTERER G,et al.Depth Cues in Human Visual Perception and Their Realization in 3D Displays[C]∥Proceedings of SPIE7690,Three-Dimensional Imaging,Visualization,and Display 2010 and Display Technologies and Applications for Defense,Security,and Avionics IV.Orlando,Florida: SPIE,2010: 281-290.

      [11] FREEDMAN B,SHPUNT A,MACHLINE M,et al.Depth Mapping Using Projected Patterns: US,WO/2008/120217[P].2008-10-09.

      [12] OLESEN S M,LYDER S,KRAFT D,et al.Real-time Extraction of Surface Patches with Associated Uncertainties by Means of Kinect Cameras[J].Journal of Real-Time Image Processing,2015,10(1): 105-118.

      [13] HOLLIMAN N S.Smoothing Region Boundaries in Variable Depth Mapping for Real-Time Stereoscopic Images[C]∥Proceedings of SPIE5664,Stereoscopic Displays and Virtual Reality Systems XII.San Jose,CA: SPIE,2005: 281-992.

      [14] 李大錦,白成杰.實(shí)時(shí)立體視覺系統(tǒng)中的深度映射[J].中國(guó)圖像圖形學(xué)報(bào),2015,20(3): 366-373.LI Dajin,BAI Chengjie.Depth Mapping in Real-time Stereoscopic Systems[J].Journal of Image and Graphics,2015,20(3): 366-373.

      [15] XI Ming,WANG Lianghao,YANG Qingqing,et al.Depth-image-based Rendering with Spatial and Temporal Texture Synthesis for 3DTV[J].EURASIP Journal on Image and Video Processing,2013,2013(1): 9.

      [16] AFLAKI P,HANNUKSELA M M,GABBOUJ M.Subjective Quality Assessment of Asymmetric Stereoscopic 3D Video[J].Signal,Image and Video Processing,2015,9(2): 331-345.

      [17] HOLLIMAN N S.Mapping Perceived Depth to Regions of Interest in Stereoscopic Images[C]∥Proceedings of SPIE 5291,Stereoscopic Displays and Virtual Reality Systems XI.San Jose,CA: SPIE,2004: 117-128.

      [18] SUN Geng,HOLLIMAN N.Evaluating Methods for Controlling Depth Perception in Stereoscopic Cinematography[C]∥Proceedings of SPIE 7237,Stereoscopic Displays and Applications XX.San Jose,CA: SPIE,2009: 1-12.

      [19] 耿則勛,張保明,范大昭.數(shù)字?jǐn)z影測(cè)量學(xué)[M].北京: 測(cè)繪出版社,2010.

      GENG Zhexun,ZHANG Baoming,FAN Dazhao.Digital Photogrammetry[M].Beijing: Surveying and Mapping Press,2010.

      [20] 周楊,騰飛,徐青,等.基于正射影像的地形雙模立體景觀構(gòu)建方法[J].測(cè)繪科學(xué)技術(shù)學(xué)報(bào),2013,30(2): 162-167.

      ZHOU Yang,TENG Fei,XU Qing,et al.A Method of Building Dual Mode Stereo Terrain Scene Based on Orthophoto[J].Journal of Geomatics Science and Technology,2013,30(2): 162-167.

      [21] HOFFMAN D M,GIRSHICK A R,AKELEY K,et al.Vergence-accommodation Conflicts Hinder Visual Performance and Cause Visual Fatigue[J].Journal of Vision,2008,8(3): 33.

      [22] JONES G R,LEE D,HOLLIMAN N S,et al.Controlling Perceived Depth in Stereoscopic Images[C]∥Proceedings of SPIE 4297,Stereoscopic Displays and Virtual Reality Systems VIII.San Jose,CA: SPIE,2001.

      (責(zé)任編輯:陳品馨)

      A Rapid Adaptive Reconstruction Method for Stereoscopic Images

      DONG Yang,F(xiàn)AN Dazhao,JI Song,LEI Rong

      Information Engineering University,Zhengzhou 450000,China

      Influenced by large elevation variation,traditional ortho stereo image production method for complex terrain regions usually results in insufficient local stereoscopic or diplopia,and thus causes visual fatigue.In order to solve the problem,we introduce a depth mapping model,design a nonlinear mapping function,and according to the actual area elevations,adaptive preprocess height transformation.And then,through iterative and per-pixel solution with parallax function,stereo images are finally generated.Finally,we provide an algorithm or a process which can adaptive fast generate stereoscopic images.

      stereoscopic images;depth mapping;mapping function;parallax function

      The National Natural Science Foundation of China (No.41401534); State Key Laboratory of Geographic Information Engineering (No.SKLGIE2013-M-3-1)

      FAN Dazhao

      董楊,范大昭,紀(jì)松,等.一種區(qū)域立體快速自適應(yīng)重建方法[J].測(cè)繪學(xué)報(bào),2016,45(10):1241-1249.

      10.11947/j.AGCS.2016.20150651.

      DONG Yang,F(xiàn)AN Dazhao,JI Song,et al.A Rapid Adaptive Reconstruction Method for Stereoscopic Images[J].Acta Geodaetica et Cartographica Sinica,2016,45(10):1241-1249.DOI:10.11947/j.AGCS.2016.20150651.

      P236

      A

      1001-1595(2016)10-1241-09

      國(guó)家自然科學(xué)基金(41401534);地理信息工程國(guó)家重點(diǎn)實(shí)驗(yàn)室開放基金(SKLGIE2013-M-3-1)

      2015-12-28

      修回日期:2016-09-05

      董楊(1992—),男,碩士生,研究方向?yàn)閿?shù)字?jǐn)z影測(cè)量。First author:DONG Yang(1992—),male,postgraduate,majors in digital photogrammetry.

      E-mail:wenku34@163.com

      范大昭

      E-mail:fdzcehui@163.com

      猜你喜歡
      壓縮率視差射影
      基于自適應(yīng)窗的立體相機(jī)視差圖優(yōu)化方法研究
      水密封連接器尾部接電纜的優(yōu)化設(shè)計(jì)
      纏繞墊片產(chǎn)品質(zhì)量控制研究
      基于梯度域引導(dǎo)濾波的視差精煉迭代算法
      三參數(shù)射影平坦芬斯勒度量的構(gòu)造
      多載波通信系統(tǒng)中CQI無損壓縮法研究
      分布式多視點(diǎn)視頻編碼在應(yīng)急通信中的應(yīng)用
      基于分割樹的視差圖修復(fù)算法研究
      立體視差對(duì)瞳孔直徑影響的研究
      基于已有控制資料的正射影像自動(dòng)更新
      遙感信息(2015年3期)2015-12-13 07:26:50
      澜沧| 武平县| 堆龙德庆县| 富锦市| 丘北县| 沂源县| 开原市| 古丈县| 方山县| 江油市| 叙永县| 安庆市| 北川| 五家渠市| 铁岭市| 双鸭山市| 临清市| 富源县| 巍山| 雷州市| 石楼县| 翼城县| 类乌齐县| 嫩江县| 黎平县| 苍溪县| 塘沽区| 平顶山市| 华池县| 尉氏县| 伊宁市| 读书| 梅河口市| 太康县| 泰和县| 沁水县| 凤台县| 湘潭县| 连平县| 永州市| 平陆县|