• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      直接體繪制中增強(qiáng)深度感知的網(wǎng)格投影算法

      2015-11-25 01:06:06馮曉萌吳玲達(dá)于榮歡
      電子與信息學(xué)報 2015年11期
      關(guān)鍵詞:輔助線光線投影

      馮曉萌 吳玲達(dá) 于榮歡 楊 超

      ?

      直接體繪制中增強(qiáng)深度感知的網(wǎng)格投影算法

      馮曉萌*①吳玲達(dá)②于榮歡②楊 超②

      ①(裝備學(xué)院研究生管理大隊(duì) 北京 101416)②(裝備學(xué)院復(fù)雜電子系統(tǒng)仿真實(shí)驗(yàn)室 北京 101416)

      體繪制技術(shù)生成的圖像中丟失了深度信息,已有的增強(qiáng)深度感知方法通常只針對某些結(jié)構(gòu)區(qū)域,犧牲其它結(jié)構(gòu)信息的同時又直接修改體繪制算法。面向光線投射體繪制算法,該文提出一種增強(qiáng)深度感知的方法,不直接修改光線投射算法。投影均勻網(wǎng)格到體數(shù)據(jù)表面,網(wǎng)格跟隨表面變形后經(jīng)光線投射繪制在結(jié)果圖像中,用戶根據(jù)變形網(wǎng)格能夠感知圖像中的深度信息。同時,為突顯變形網(wǎng)格所反映的深度信息,對投影后的網(wǎng)格線進(jìn)行深度相關(guān)的著色,并添加投影輔助線以連接不同深度表面上的投影網(wǎng)格。算法在統(tǒng)一計(jì)算設(shè)備架構(gòu)下并行執(zhí)行后,不僅能夠?qū)崟r生成圖像支持用戶的交互控制,且圖像中增強(qiáng)深度感知的效果明顯,特別是當(dāng)體數(shù)據(jù)包含多個分離或者交叉物體時。

      體繪制;深度感知;網(wǎng)格投影;并行執(zhí)行;統(tǒng)一計(jì)算設(shè)備架構(gòu)

      1 引言

      體繪制技術(shù)[1]將3維體數(shù)據(jù)映射為2維圖像,而圖像中丟失了深度信息,這對理解體數(shù)據(jù)是一種阻礙。針對這一問題,本文研究了增強(qiáng)體繪制結(jié)果中深度信息感知的方法。

      已有的增強(qiáng)體繪制結(jié)果中深度感知的方法中,比較常用的是在生成圖像中繪制提示信息[2],例如在某些結(jié)構(gòu)周圍繪制光環(huán)[3,4]和陰影[5,6]等,能較好地表現(xiàn)出這些結(jié)構(gòu)區(qū)域的深度信息,但同時卻遮擋了其它結(jié)構(gòu)區(qū)域的信息[7]。計(jì)算景深效果的方法[8]在一定程度上增強(qiáng)了人對繪制物體的深度感知,但是其只增強(qiáng)了對焦點(diǎn)物體的感知同時還模糊了其它物體的顯示。焦點(diǎn)與上下文[9]的可視化方法能夠在一定程度上增強(qiáng)對焦點(diǎn)區(qū)域的感知,但其明顯降低了對背景信息的顯示。

      上述方法均在犧牲其它信息的情況下增強(qiáng)了深度感知。Zheng等人[7]通過調(diào)整不透明度和亮度,對體數(shù)據(jù)中的十字交叉區(qū)域(X-junction areas)進(jìn)行了深度重排序,增強(qiáng)了半透明狀態(tài)下交叉物體間的深度順序感知。但是,此方法不允許用戶交互,無法按照用戶的需求進(jìn)行繪制。Bair等人[10,11]深入研究了網(wǎng)格紋理對表面形狀的感知效果,雖有討論應(yīng)用于體繪制,但其側(cè)重于同時表現(xiàn)兩個相互遮擋表面的形狀,未將網(wǎng)格紋理應(yīng)用于表現(xiàn)體繪制中的相對深度信息,特別是不同物體或結(jié)構(gòu)間的相對深度。

      針對上述方法的不足,研究了在不犧牲其它信息的條件下可交互的增強(qiáng)體繪制中深度感知的方法:將均勻網(wǎng)格投影到體數(shù)據(jù)表面,根據(jù)均勻網(wǎng)格投影后的形變情況感知體數(shù)據(jù)表面的深度變化。研究表明,紋理是影響人眼對圖像感知的因素之一[12],投影后的網(wǎng)格繪制到圖像中即為網(wǎng)格紋理[13],影響人眼對圖像信息的感知。為增強(qiáng)網(wǎng)格投影的深度感知效果,將網(wǎng)格投影線按深度進(jìn)行著色,并添加了網(wǎng)格投影輔助線等。本方法不僅適用于單個物體表面,對體數(shù)據(jù)中包含多個物體的情況也有很好的增強(qiáng)深度感知的能力。

      2 均勻網(wǎng)格投影

      人能夠根據(jù)先驗(yàn)知識理解圖像中的信息,特別是當(dāng)圖像中存在提示信息時,能夠更好地理解圖像內(nèi)容。本文研究的目標(biāo)是在不犧牲其它信息和不改變原體繪制算法的情況下增強(qiáng)深度信息感知。圖1顯示了均勻網(wǎng)格投影在空間表面后不同視角下的觀察效果,其中:側(cè)視圖能夠提供一定的可視深度信息感知,顯示出了表面的起伏及其延伸方向;俯視圖則未表現(xiàn)出表面的起伏信息。

      圖1 不同視角下的網(wǎng)格投影效果

      對比圖1中的兩個視圖,說明觀察網(wǎng)格在表面的投影時需要一定的觀察視角。文獻(xiàn)[13]通過在繪制的物體表面映射紋理顯示表面的形狀信息,使用了網(wǎng)格紋理,但是其觀察視角固定為俯視,沒有較好地抓住網(wǎng)格所能表現(xiàn)的深度信息。同時其研究使用的體數(shù)據(jù)為一個簡單物體,未對更復(fù)雜的情況進(jìn)行研究。本文則充分利用了網(wǎng)格對表面深度信息的感知作用,使用均勻網(wǎng)格投影對體數(shù)據(jù)中的物體表面以及物體間的相對距離等進(jìn)行了感知增強(qiáng)。

      2.1 網(wǎng)格投影流程

      光線投射算法[14]是繪制質(zhì)量最好的體繪制算法[15],其是從一定角度對體數(shù)據(jù)的觀察。由圖1可知,光線投射方向與網(wǎng)格投影方向不能平行,對體數(shù)據(jù)進(jìn)行均勻網(wǎng)格投影與光線投射的關(guān)系如圖2所示。這里定義光線投射算法中使用的體素為有效體素,即光線對有效體素進(jìn)行了數(shù)據(jù)采樣、顏色轉(zhuǎn)換等操作,網(wǎng)格只投影到其遇到的第1個有效體素上,即投影到參與繪制的體數(shù)據(jù)表面。

      圖2 均勻網(wǎng)格投影示意圖

      算法流程如圖3所示,其虛線框中是網(wǎng)格投影與光線投射的并行。光線投射算法中,每條光線的操作都相同,因此圖3的虛線框中只顯示了一條光線的投射操作流程。虛線框外的網(wǎng)格投影信息來自所有截止的光線,投影輔助線生成階段獨(dú)立于光線投射,將在3.3節(jié)進(jìn)行介紹。

      圖3 網(wǎng)格投影算法流程

      將均勻網(wǎng)格投影到其遇到的第1個有效體素上,若此體素同時又是某條光線投射時遇到的第1個體素,則截止此光線并將其對應(yīng)的像素設(shè)置為網(wǎng)格著色后的顏色,否則網(wǎng)格投影對光線投射無任何影響。被截止的所有光線對應(yīng)網(wǎng)格的投影點(diǎn),根據(jù)所有網(wǎng)格投影點(diǎn)的信息生成投影輔助線并繪制到光線投射生成的圖像中,即獲得算法最終的生成圖像。最終生成圖像中,根據(jù)均勻網(wǎng)格投影后的變形情況能夠觀察出網(wǎng)格所投影到的表面的起伏變化,增強(qiáng)對繪制結(jié)果的深度感知。

      2.2 網(wǎng)格著色

      根據(jù)網(wǎng)格變形情況感知深度信息的同時,為投影后的網(wǎng)格進(jìn)行深度相關(guān)的著色有利于增強(qiáng)深度對比。每個網(wǎng)格點(diǎn)的投影距離如圖4所示,是網(wǎng)格上點(diǎn)到其投影點(diǎn)之間的距離且不同的距離對應(yīng)不同的深度。網(wǎng)格的顏色根據(jù)投影距離進(jìn)行變化,在顏色上對網(wǎng)格的深度進(jìn)行對比顯示,使體數(shù)據(jù)的深度信息更加突顯。

      圖4 網(wǎng)格投影距離

      一般情況下,光線投射體繪制算法會用到許多顏色值,為避免顏色沖突導(dǎo)致網(wǎng)格線不明顯的情況發(fā)生,網(wǎng)格著色時函數(shù)式應(yīng)該保持顏色值與體繪制使用顏色不同。因此,網(wǎng)格顏色應(yīng)盡量在3個分量上與繪制體數(shù)據(jù)使用的顏色保持較大差異,以便設(shè)置顏色值與投影距離的函數(shù)關(guān)系。

      2.3投影輔助線

      網(wǎng)格投影時若相鄰兩點(diǎn)分別投影到了深度不同的兩個表面,由圖2所示的光線投射與網(wǎng)格投影的關(guān)系可知,最終生成的圖像中此兩點(diǎn)將不相鄰從而導(dǎo)致投影網(wǎng)格間斷。投影網(wǎng)格間斷將影響其對表面深度的感知效果,因此,應(yīng)該盡量避免此現(xiàn)象。將網(wǎng)格上相鄰而投影后不相鄰的兩個網(wǎng)格投影點(diǎn)使用虛直線連接,此條直線定義為投影輔助線。投影輔助線最終顯示在繪制圖像中,避免網(wǎng)格線投影的間斷現(xiàn)象。當(dāng)投影后的網(wǎng)格點(diǎn)與視點(diǎn)之間存在有效體素時,此網(wǎng)格點(diǎn)將被遮擋。同理,一些投影輔助線也可能會被遮擋,在生成圖像中只繪制兩端均不被遮擋的投影輔助線。

      3 算法執(zhí)行

      光線投射算法易于并行實(shí)現(xiàn),而圖3所示的本算法流程并未改變光線間的獨(dú)立性。因此,算法依然能夠并行實(shí)現(xiàn),在其具體執(zhí)行中應(yīng)保持其可并行性。

      3.1 光線投射

      圖3中,網(wǎng)格投影附加在光線投射過程中,通過對光線投射路徑上第1個有效體素的判斷,決定對光線投射的影響。并行執(zhí)行過程中,所有光線均需對其遇到的第1個有效體素進(jìn)行網(wǎng)格投影的判斷,判斷過程分為以下幾個步驟:

      步驟7 結(jié)束判斷過程。

      經(jīng)過上述步驟后,若光線未被截止,將繼續(xù)完成其投射過程并生成對應(yīng)的像素值。網(wǎng)格投影只影響部分光線,而不影響光線投射過程中的具體操作,因此保持了原光線投射算法的生成效果,只是在其基礎(chǔ)上覆蓋了網(wǎng)格。

      3.2 著色函數(shù)設(shè)置

      估計(jì)的投影距離值域有冗余,分布在值域兩端。因此,設(shè)置式(1)中的函數(shù)時,保持的自變量值域固定,且對應(yīng)此值域的兩端函數(shù)變化緩慢而中間部分則變化明顯。根據(jù)投影距離著色是為了增強(qiáng)網(wǎng)格投影后的深度感知,無精確要求,可以進(jìn)行粗略估計(jì)和設(shè)置,以能夠看到投影后網(wǎng)格線的顏色變化為佳。圖5所示為一個示例函數(shù)的曲線,下方是對應(yīng)曲線值的顏色條帶,顏色取值對應(yīng)于投影距離值域。

      圖5 網(wǎng)格線著色示例

      3.3投影輔助線生成

      圖像中的每個網(wǎng)格投影點(diǎn)均對應(yīng)一條光線,所有光線投射結(jié)束后處理投影點(diǎn)生成投影輔助線。如圖6所示,經(jīng)過像素點(diǎn)和的光線分別對應(yīng)網(wǎng)格投影點(diǎn)和,記錄這兩個投影點(diǎn)在網(wǎng)格平面的對應(yīng)點(diǎn)和。與記錄和兩點(diǎn)的原理相同,在光線投射完成后獲得所有圖像中的網(wǎng)格投影點(diǎn)在網(wǎng)格平面的對應(yīng)位置點(diǎn)集。在點(diǎn)集中若存在相鄰兩點(diǎn)對應(yīng)的投影距離差別較大,則此兩點(diǎn)對應(yīng)的網(wǎng)格投影點(diǎn)之間存在投影輔助線:以圖6為例,和為相鄰網(wǎng)格點(diǎn)時,由于到的投影距離與到的投影距離差別較大,投影點(diǎn)和之間存在投影輔助線,直接在圖像中使用虛直線連接和兩個像素點(diǎn)以繪制此投影輔助線。中兩點(diǎn)是否相鄰由兩點(diǎn)間的距離決定,距離不大于則視為相鄰;兩點(diǎn)的投影距離差大于時視為差別較大。默認(rèn)值為2,默認(rèn)值為光線采樣步長,執(zhí)行時均可進(jìn)行調(diào)整。

      圖6 生成投影輔助線示意圖

      為保持算法的可并行性,投影輔助線需并行生成,將網(wǎng)格均勻離散為個點(diǎn),保證在網(wǎng)格的4個角和所有網(wǎng)格線的交叉點(diǎn)處均有離散點(diǎn),各離散點(diǎn)對應(yīng)的處理過程均為:(1)判斷此離散點(diǎn)的臨域內(nèi)是否存在中的兩個以上點(diǎn),若存在則繼續(xù)下一步,否則結(jié)束此過程;(2)將這兩個以上點(diǎn)兩兩組合,判斷每個組合中的兩點(diǎn)和對應(yīng)的投影距離是否差別較大,是則生成和對應(yīng)的投影輔助線。

      3.4交互設(shè)置

      算法中,拖動鼠標(biāo)可以使網(wǎng)格中心點(diǎn)在以體數(shù)據(jù)中心為中點(diǎn)半徑為的球面上移動。如此,圖2所示的光線投射和網(wǎng)格投影的方向均可交互控制,便于用戶根據(jù)需要調(diào)節(jié)兩者的角度從而達(dá)到更好的增強(qiáng)深度感知的效果。同時,算法中還允許用戶對網(wǎng)格自身的參數(shù)進(jìn)行交互設(shè)置,可以控制網(wǎng)格中網(wǎng)孔的大小,以及整個網(wǎng)格的大小。

      3.5并行執(zhí)行

      上述算法執(zhí)行中保持了可并行性,算法能夠并行實(shí)現(xiàn)從而提高執(zhí)行效率?,F(xiàn)有的繪制技術(shù)研究中,統(tǒng)一計(jì)算設(shè)備架構(gòu)[16](Compute Unified Device Architecture, CUDA)是使用最多的并行實(shí)現(xiàn)基礎(chǔ)。本算法同樣使用CUDA并行實(shí)現(xiàn),充分利用CUDA對通用計(jì)算的支持,提高算法的執(zhí)行效率,為用戶交互提供時間支持。在4節(jié)的基礎(chǔ)上,加入網(wǎng)格投影后光線投射的具體執(zhí)行偽代碼如表1所示。

      表1中,函數(shù)isCoverGrid(pos)根據(jù)有效體素的位置參數(shù)pos判斷網(wǎng)格是否能夠投影到此位置,具體步驟見3.1節(jié);函數(shù)getGirdColor(pos)根據(jù)參數(shù)pos對應(yīng)的有效體素的投影距離進(jìn)行網(wǎng)格著色,并返回此顏色值;函數(shù)rayCasting(pos)對參數(shù)pos處的有效體素進(jìn)行光線投射的相關(guān)計(jì)算,并返回光線投射到pos位置時獲得的當(dāng)前像素值。表1中生成的圖像還需要進(jìn)行投影輔助線生成,具體操作步驟見3.3節(jié),其較簡單不再列出其偽代碼。在CUDA架構(gòu)下投射光線時,為提高光線對體數(shù)據(jù)的采樣效率,將體數(shù)據(jù)綁定到3維紋理,利用紋理采樣器實(shí)現(xiàn)對數(shù)據(jù)場內(nèi)數(shù)據(jù)點(diǎn)的高效插值采樣。

      表1光線投射內(nèi)核函數(shù)偽代碼

      內(nèi)核函數(shù):網(wǎng)格投影下光線投射的執(zhí)行線程 pixX = blockIdx.x*blockDim.x + threadIdx.x; //像素X坐標(biāo)pixY = blockIdx.y*blockDim.y + threadIdx.y; //像素Y坐標(biāo)IF (pixX, pixY) is in the Image THEN pixValue = {0,0,0,0};// 初始化像素記錄值為零 theRay = genRayforPix (pixX, pixY); //生成對應(yīng)光線WHILE theRay not terminate DO//計(jì)算當(dāng)前循環(huán)中光線在數(shù)據(jù)場中遇到的有效體素位置rayPos = getRayPosition(theRay, dataVolume); IF rayPos is out of the data volume BREAK WHILE;IF rayPos is the first THEN IF isCoverGrid(rayPos) is true THEN //被網(wǎng)格覆蓋 pixValue = getGirdColor(rayPos); //網(wǎng)格著色ELSE pixValue = rayCasting(rayPos); //執(zhí)行光線投射END IFELSE pixValue = rayCasting(rayPos); //執(zhí)行光線投射END IFEND WHILEImage [pixX, pixY] = pixValue; //獲得對應(yīng)的像素值END IF

      4 具體應(yīng)用與分析

      算法未改變光線投射的操作,因而無需對光線投射算法進(jìn)行限定。實(shí)驗(yàn)中,為檢驗(yàn)算法的實(shí)際效果,實(shí)現(xiàn)了一個簡單的光線投射算法(DVR算法),在其基礎(chǔ)上進(jìn)行網(wǎng)格投影并生成最終圖像。使用多個體數(shù)據(jù)進(jìn)行繪制,對使用和未使用網(wǎng)格投影兩種情況所得到的繪制效果進(jìn)行了對比展示。同時,統(tǒng)計(jì)了實(shí)驗(yàn)中的算法執(zhí)行時間,以說明算法并行執(zhí)行的高效性。

      4.1算法應(yīng)用效果

      圖7是算法應(yīng)用于體數(shù)據(jù)的繪制結(jié)果。圖7(a)中繪制的是Sphere體數(shù)據(jù),圖7(a1), (a2)和圖7(a3), (a4)均對比顯示了使用和未使用網(wǎng)格投影的繪制結(jié)果:沒有網(wǎng)格投影的兩幅圖無法獲得其表面的深度信息;而有網(wǎng)格投影的兩幅圖,體數(shù)據(jù)表面的起伏情況能夠被網(wǎng)格的變形情況反映出來,輔助用戶感知體數(shù)據(jù)的表面深度信息。對比圖7(a2)和圖7(a3),根據(jù)網(wǎng)格變形及其著色情況可以看出:圖7(a2)中部的9個網(wǎng)格顏色一致且形狀無變形,可以判定其覆蓋區(qū)域?yàn)槠矫?,即中間部位是平面周圍是曲面;圖7(a3)中則不存在此種情況,根據(jù)網(wǎng)格的變形情況可判定其覆蓋的表面是曲面。根據(jù)圖7(a)中的實(shí)驗(yàn)結(jié)果可以看出,網(wǎng)格投影能夠反映出體數(shù)據(jù)表面的深度信息,特別是根據(jù)網(wǎng)格變形及著色情況的對比能夠得出較詳細(xì)的表面深度信息。

      圖7(b)是BackpackScan體數(shù)據(jù)的繪制結(jié)果,對某些區(qū)域的對比進(jìn)行了細(xì)節(jié)展示:豎框中顯示了體數(shù)據(jù)中的線束和圓柱形物體兩者的遮擋關(guān)系不明,而進(jìn)行網(wǎng)格投影后,線束所在區(qū)域的網(wǎng)格投影波動較大,可以判定此區(qū)域網(wǎng)格投影在了線束上而非圓柱體表面,說明網(wǎng)格投影后可知線束在前;橫框中同樣顯示出圓柱形物體和另一個物體間存在遮擋關(guān)系,網(wǎng)格在另一物體的對應(yīng)像素區(qū)域未按其形狀進(jìn)行改變,說明網(wǎng)格投影在圓柱形物體表面,圓柱形物體遮擋另一物體。

      圖8是Neghip體數(shù)據(jù)的繪制結(jié)果,在沒有網(wǎng)格投影的繪制圖像中,用數(shù)字標(biāo)識了6個區(qū)域,這6個區(qū)域的相對位置在繪制結(jié)果中無法辨識。但是,加入網(wǎng)格投影后,這6個區(qū)域的相對深度及相對位置較易辨識:網(wǎng)格投影線從綠色到藍(lán)色表示深度從淺到深。對比標(biāo)號“4”和“5”的兩個區(qū)域,雖然投影的網(wǎng)格間沒有相連,但是根據(jù)兩個區(qū)域的網(wǎng)格線顏色可以得知區(qū)域“5”的深度較淺。在區(qū)域“1”,“2”和區(qū)域“2”,“4”之間均存在投影輔助線,通過這些投影輔助線很容易區(qū)分其兩端連接的不同結(jié)構(gòu)表面的深度:深度由淺到深依次為區(qū)域“1”,“2”,“4”。與圖7(b)中相同,在圖8中標(biāo)號為“1”的區(qū)域處,存在遮擋情況,根據(jù)網(wǎng)格的投影情況很容易判斷兩個物體的遮擋關(guān)系。

      圖7 算法應(yīng)用效果

      由圖7和圖8中網(wǎng)格投影的對比效果可知,使用網(wǎng)格投影后的繪制結(jié)果能夠顯示出很多體數(shù)據(jù)中原有的深度信息,便于用戶對體數(shù)據(jù)的觀察和深度感知。算法中使用了3種輔助手段增強(qiáng)繪制結(jié)果中的深度感知,分別是投影變形后的網(wǎng)格、網(wǎng)格投影線的顏色以及投影輔助線,以投影變形后的網(wǎng)格為主,另外兩種對其進(jìn)行補(bǔ)充:變形網(wǎng)格提示其所覆蓋表面的起伏信息,網(wǎng)格投影線顏色區(qū)分網(wǎng)格所在的不同深度區(qū)域,投影輔助線連接不同區(qū)域的網(wǎng)格并增強(qiáng)這些區(qū)域的深度對比。獲得深度感知效果的同時應(yīng)注意,當(dāng)投影網(wǎng)格密度過大時(比圖7和圖8中的密度大很多),網(wǎng)格的存在將嚴(yán)重影響繪制圖像的顯示效果。因此,進(jìn)行網(wǎng)格投影時,為獲得較好的顯示效果應(yīng)避免投影密度過大的網(wǎng)格。

      相比文獻(xiàn)[7]中的方法,本文算法通過投影后網(wǎng)格的變形情況感知物體間的遮擋層次,不必調(diào)整物體結(jié)構(gòu)的不透明度,較簡單且保持了光線投射體繪制算法的獨(dú)立性。相比Bair等人[10,11]的方法,本文算法深入研究了網(wǎng)格投影在體繪制中增強(qiáng)深度感知的效用,不僅能夠感知表面形狀,還能夠辨明物體間的遮擋關(guān)系等,針對分離物體使用投影輔助線能夠較好地感知物體之間的相對深度。算法中,網(wǎng)格顯隱可以控制,當(dāng)不繪制網(wǎng)格投影時即為光線投射算法的繪制結(jié)果,網(wǎng)格投影能夠輔助用戶增強(qiáng)對繪制結(jié)果中的深度感知。同時,網(wǎng)格的參數(shù)可以被用戶交互控制,便于觀察繪制結(jié)果中的不同區(qū)域及其深度細(xì)節(jié)。

      圖8 相對深度感知效果

      4.2算法執(zhí)行效率

      算法并行執(zhí)行的硬件環(huán)境為:Intel Core i5-2400 CPU 3.10 GHz、4 GB內(nèi)存、NVIDIA GeForce GTX 470顯卡;軟件環(huán)境為集成NVIDIA GPU Computing SDK 4.2的Microsoft Visual Studio 2005。為驗(yàn)證算法的執(zhí)行效率,在交互改變網(wǎng)格參數(shù)、投影方向及光線投射方向的情況下,連續(xù)統(tǒng)計(jì)了算法執(zhí)行500次的時間。交互過程中,網(wǎng)格大小為圖像大小的整數(shù)倍(從1到6任意調(diào)整),格孔寬度在10到100個像素之間變化,3.1節(jié)中的閾值為0.5倍的單像素寬度,3.3節(jié)中的設(shè)置為2,設(shè)置為光線采樣步長即數(shù)據(jù)場中同一維度上相鄰兩數(shù)據(jù)點(diǎn)之間的距離。由于執(zhí)行過程伴有交互控制,執(zhí)行時間會隨之變化,表2中只列出了這500次執(zhí)行的平均時間及其中的最短時間和最長時間。實(shí)驗(yàn)使用了4個體數(shù)據(jù),生成圖像分辨率為800×800。表2中統(tǒng)計(jì)了兩種執(zhí)行類型的繪制時間,分別是:(a)只執(zhí)行投影網(wǎng)格的操作,不進(jìn)行光線投射,即不執(zhí)行圖3中判斷為“否”的分支;(b)完全按照圖3所示流程執(zhí)行并生成最終圖像。

      通過表2中列出的500次執(zhí)行時間的值域及均值可以看出,基于CUDA架構(gòu)并行執(zhí)行后算法的效率完全能夠達(dá)到實(shí)時。因此,算法在交互控制下能夠?qū)崟r更新繪制結(jié)果,便于用戶觀察其交互結(jié)果從而獲得更佳的深度感知效果。對比表2中(a)和(b)兩種類型的執(zhí)行時間,不進(jìn)行光線投射時的執(zhí)行時間明顯較短,說明網(wǎng)格投影算法的執(zhí)行效率很高,不僅為其實(shí)時應(yīng)用于其它光線投射算法提供了時間裕度上的支持,還可以添加其它操作等。

      算法在CPU中串行執(zhí)行時,繪制表2中4個體數(shù)據(jù)的最短時間均在1 s以上,基本不可用,因此不再列出算法的串行執(zhí)行時間統(tǒng)計(jì)。同時,這也說明算法設(shè)計(jì)時保持其可并行性是非常必要的,能夠最大限度地提高執(zhí)行效率,保證其可用。

      表2算法執(zhí)行時間統(tǒng)計(jì)

      體數(shù)據(jù)最短時間(ms)最長時間(ms)平均時間(ms)執(zhí)行類型 Sphere64×64×641.391.861.64(a) 5.866.326.09(b) BackpackScan512×512×3732.0918.949.00(a) 24.0237.6031.24(b) Neghip64×64×641.333.111.98(a) 4.786.485.34(b) Engine256×256×1101.334.982.92(a) 9.5913.3811.00(b)

      5 結(jié)束語

      本文提出了一種使用網(wǎng)格投影增強(qiáng)體繪制中深度感知的方法,該方法在保持光線投射體繪制算法獨(dú)立性的同時能夠很好地輔助用戶增強(qiáng)對繪制結(jié)果中深度信息的感知,使用戶能夠更好地理解體數(shù)據(jù)。算法與光線投射算法一樣可并行執(zhí)行,在CUDA架構(gòu)下并行實(shí)現(xiàn)后能夠達(dá)到實(shí)時繪制,便于用戶交互使用。在圖7和圖8所示的實(shí)驗(yàn)結(jié)果中,網(wǎng)格投影線在某些區(qū)域不夠平滑,將在以后的研究中進(jìn)行改進(jìn)。同時,體數(shù)據(jù)表面起伏會影響網(wǎng)格投影線的視覺效果,當(dāng)表面起伏劇烈到一定程度后將導(dǎo)致網(wǎng)格投影線的視覺混亂以至于無法顯示深度信息。該方法是一種新的增強(qiáng)體繪制中深度感知的方法,存在的上述不足將在未來的工作中進(jìn)一步研究和完善。

      [1] Zhang Q, Eagleson R, and Peters T M. Volume visualization: A technical overview with a focus on medical applications[J]., 2011, 24(4): 640-664.

      [2] Kersten-Oertel M, Chen S J, and Collins D L. An evaluation of depth enhancing perceptual cues for vascular volume visualization in neurosurgery[J]., 2014, 20(3): 391-403.

      [4] Everts M H, Bekker H, Roerdink J B,.. Depth-dependent halos: illustrative rendering of dense line data[J]., 2009, 15(6): 1299-1306.

      [5] Soltészvá V, Patel D, and Viola I. Chromatic shadows for improved perception[C]. Proceedings of the ACM SIGGRAPH/Eurographics Symposium on Non- Photorealistic Animation and Rendering, Vancouver, Canada, 2011: 105-116.

      [6] Ament M, Sadlo F, Dachsbacher C,.. Low-pass filtered volumetric shadows[J]., 2014, 20(12): 2437-2446.

      [7] Zheng Lin, Wu Ying-cai, and Ma Kwan-liu. Perceptually- based depth-ordering enhancement for direct volume rendering[J]., 2013, 19(3): 446-459.

      [8] Schott M, Grosset A V P, Martin T,.. Depth of field effects for interactive direct volume rendering[C]. Proceedings of the Eurographics/IEEE Symposium on Visualization 2011, Bergen, Norway, 2011: 941-950.

      [9] Berge C S Z, Baust M, Kapoor A,.. Predicate-based focus-and-context visualization for 3D ultrasound[J]., 2014, 20(12): 2379-2387.

      [10] Bair A S, House D H, and Ware C. Texturing of layered surfaces for optimal viewing[J]., 2006, 12(5): 1125-1132.

      [11] Bair A and House D. A grid with a view: optimal texturing for perception of layered surface shape[J]., 2007, 13(6): 1656-1663.

      [12] 蔣剛毅, 朱亞培, 郁梅, 等. 基于感知的視頻編碼方法綜述[J]. 電子與信息學(xué)報, 2013, 35(2): 474-483.

      Jiang Gang-yi, Zhu Ya-pei, Yu Mei,.. Perceptual video coding: a survey[J].&, 2013, 35(2): 474-483.

      [13] Interrante V, Fuchs H, and Pizer S M. Conveying the 3D shape of smoothly curving transparent surfaces via texture[J]., 1997, 3(2): 98-117.

      [14] Xie Jin-rong, Yu Hong-feng, and Ma Kwan-liu. Interactive ray casting of geodesic grids[C]. Proceedings of the Eurographics Conference on Visualization 2013, Leipzig, Germany, 2013: 481-490.

      [15] 馬千里, 李思昆, 白曉征, 等. CFD非結(jié)構(gòu)化網(wǎng)格格心格式數(shù)據(jù)高質(zhì)量體繪制方法[J]. 計(jì)算機(jī)學(xué)報, 2011, 34(3): 508-516.

      Ma Qian-li, Li Si-kun, Bai Xiao-zheng,.. High-quality volume rendering of unstructured-grid cell-centered data in CFD[J]., 2011, 34(3): 508-516.

      [16] NVIDIA. About CUDA[OL]. https://developer.nvidia.com/ about-cuda, 2015.

      [17] Rosen P. A visual approach to investigating shared and global memory behavior of CUDA kernels[C]. Proceedings of the Eurographics Conference on Visualization 2013, Leipzig, Germany, 2013: 161-170.

      [18] Zhang Yu-bo, Dong Zhao, and Ma Kwan-liu. Real-time volume rendering in dynamic lighting environments using precomputed photon mapping[J]., 2013, 19(8): 1317-1330.

      [19] 曾理, 倪風(fēng)岳, 劉寶東, 等. 計(jì)算機(jī)統(tǒng)一設(shè)備架構(gòu)加速外部計(jì)算機(jī)斷層圖像重建[J]. 電子與信息學(xué)報, 2011, 33(11): 2665-2671.

      Zeng Li, Ni Feng-yue, Liu Bao-dong,.. Image reconstruction of exterior computed tomography accelerated by computer unified device architecture[J].&, 2011, 33(11): 2665-2671.

      Enhanced Depth Perception Grid-projection Algorithm for Direct Volume Rendering

      Feng Xiao-meng①Wu Ling-da②Yu Rong-huan②Yang Chao②

      ①(,,101416,)②(,,101416,)

      The depth information in volume data is lost in the image rendered by volume rendering technique. The existing methods of depth perception enhancement only enhance some structures in the volume data at the cost of other structures details, and they directly edit the volume rendering algorithm. For ray-casting algorithm, a method of depth perception enhancement is presented, and it does not directly edit the algorithm. Specifically, an inerratic grid is projected to the surface of volume data, and then the grid changing along surface is rendered in the final image. Users can apperceive the depth information of surface from the changed grid. Meanwhil, two methods are used to enhance the depth information of the grid projection lines, one is coloring the grid lines based on the depth, and the other one is adding accessorial lines to join the grid lines on two surfaces with different depths. When implemented using compute unified device architecture, the image is rendered in real-time under user interaction. The effect of depth perception enhancement in the final image is obvious especially when the volume data contains some disjunct or intersectant objects.

      Volumerendering; Depth perception; Grid-projection; Parallel implementation; Compute unified device architecture

      TP391 獻(xiàn)標(biāo)識碼: A

      1009-5896(2015)11-2548-07

      10.11999/JEIT150303

      2015-03-13;改回日期:2015-06-29;

      2015-08-27

      馮曉萌 130123feng@163.com

      國家自然科學(xué)基金(61202129)資助課題

      The National Natural Science Foundation of China (61202129)

      馮曉萌: 男,1986年生,博士生,研究方向?yàn)榭茖W(xué)計(jì)算可視化.

      吳玲達(dá): 女,1962年生,教授,研究方向?yàn)樘摂M現(xiàn)實(shí)與可視化、多媒體技術(shù).

      于榮歡: 男,1983年生,助理研究員,研究方向?yàn)榭茖W(xué)計(jì)算可視化、集群計(jì)算.

      猜你喜歡
      輔助線光線投影
      春日暖陽
      怎樣添輔助線證全等
      解變分不等式的一種二次投影算法
      兩種重要的輔助線
      基于最大相關(guān)熵的簇稀疏仿射投影算法
      淺談輔助線在數(shù)控切割中的應(yīng)用
      找投影
      找投影
      “你看不見我”
      中外文摘(2019年8期)2019-04-30 06:47:36
      淘氣的光線
      望江县| 苍梧县| 镇赉县| 霍林郭勒市| 琼结县| 玉林市| 简阳市| 斗六市| 波密县| 宁河县| 扎鲁特旗| 富阳市| 高州市| 开江县| 道孚县| 尼勒克县| 外汇| 中宁县| 申扎县| 贵定县| 泸溪县| 绍兴县| 铁岭市| 黔东| 泸水县| 南平市| 太原市| 大荔县| 黄石市| 常熟市| 南木林县| 南通市| 中西区| 桃源县| 香港 | 五常市| 长宁区| 永川市| 汝城县| 山阴县| 固安县|