• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于自適應(yīng)權(quán)重的立體匹配優(yōu)化算法

      2021-04-29 03:21:42斌,朱
      計(jì)算機(jī)工程 2021年4期
      關(guān)鍵詞:立體匹配視差代價(jià)

      文 斌,朱 晗

      (三峽大學(xué)電氣與新能源學(xué)院,湖北宜昌 443000)

      0 概述

      立體匹配是指通過雙攝像頭中的二維場景,利用視差匹配獲取三維場景的深度信息,被廣泛地應(yīng)用于移動(dòng)機(jī)器人技術(shù)、3D 建模技術(shù)、航空航天[1]等領(lǐng)域,是雙目立體視覺的重點(diǎn)和難點(diǎn),立體匹配的精確度決定了立體視覺的最終效果。因此,研究更加高效、精確的立體匹配算法具有重要意義。

      目前,立體匹配主要分為全局匹配和局部匹配兩大類[2-3],文獻(xiàn)[4]根據(jù)雙目立體匹配算法的特點(diǎn)進(jìn)行歸納總結(jié),將立體匹配算法分為匹配代價(jià)計(jì)算、代價(jià)聚合、視差計(jì)算和視差優(yōu)化4 個(gè)部分。全局匹配是利用圖像的全局約束信息構(gòu)建全局能量函數(shù),通過優(yōu)化算法使得全局能量函數(shù)最小從而構(gòu)建稠密視差圖。雖然全局匹配精確度較高,但是全局匹配存在運(yùn)算復(fù)雜、能量函數(shù)不易構(gòu)建等問題。而對于局部匹配,由于其運(yùn)算速度快、算法的復(fù)雜度低、能量函數(shù)易構(gòu)建等優(yōu)勢,因此更加受到研究人員的青睞。

      局部立體匹配主要是通過局部像素的代價(jià)聚合實(shí)現(xiàn)的,具有代表性的傳統(tǒng)的代價(jià)聚合算法有SAD[5]、SSD[6]和NCC 歸一化[7]匹配算法。SAD 和SSD 匹配算法計(jì)算量小、運(yùn)算速度快,但是該算法的匹配準(zhǔn)確度完全依賴于中心點(diǎn)的灰度值,并且由于其代價(jià)聚合是等價(jià)聚合,易受到低紋理區(qū)域以及視差不連續(xù)區(qū)域的干擾,產(chǎn)生大片的誤匹配區(qū)域和視差空洞。NCC 歸一化算法可以有效地降低光照對匹配的影響,但傳統(tǒng)的NCC 算法運(yùn)行較慢,且其匹配率對于SAD 算法而言沒有優(yōu)勢。

      BM 匹配算法是基于字符串搜索規(guī)則和SAD 匹配算法的代價(jià)聚合實(shí)現(xiàn)的,采用壞字符與好后綴的原則進(jìn)行匹配[8],相對于SAD 算法,低紋理區(qū)域的匹配有了一定的完善,但對于復(fù)雜環(huán)境的視差不連續(xù)區(qū)域的匹配依舊存在較大缺陷。

      立體匹配的核心思想是將特定區(qū)域內(nèi)的多個(gè)像素點(diǎn)的相互聯(lián)系歸一化到一個(gè)能量函數(shù)的框架之下,將立體匹配的最優(yōu)匹配問題轉(zhuǎn)換成能量函數(shù)最小化問題。為構(gòu)建更好的能量函數(shù),提高匹配精度,國內(nèi)外學(xué)者對立體匹配進(jìn)行了研究。文獻(xiàn)[9]提出了自適應(yīng)權(quán)重的立體匹配算法,將自適應(yīng)的概念引入到代價(jià)聚合中,根據(jù)Lab 顏色空間的相似性和歐式空間距離的接近性自定義代價(jià)權(quán)重,結(jié)合雙邊濾波器,表現(xiàn)出了較好的性能。文獻(xiàn)[10]介紹了一種新穎的基于三邊濾波器的ASW 方法,該方法使用了RGB 顏色空間的相似性,并將匹配代價(jià)改為灰度差異值和X方向上梯度差異值之和。文獻(xiàn)[11]融合權(quán)重的思想,實(shí)現(xiàn)灰度、漢明距離、梯度三者代價(jià)的非等比例聚合,在聚合代價(jià)前加入濾波權(quán)重,以期降低立體匹配代價(jià)體積濾波計(jì)算成本。文獻(xiàn)[12]將基于灰度空間的自適應(yīng)權(quán)重算法與Census 變化融合,提高算法在實(shí)際場景的穩(wěn)健性。文獻(xiàn)[13]將權(quán)重系數(shù)的Lab 空間顏色相似性改為RGB 顏色空間相似性,以滿足機(jī)器人平臺實(shí)際應(yīng)用中廣泛使用的攝像機(jī)模式。

      本文提出一種基于自適應(yīng)權(quán)重的立體匹配優(yōu)化算法,該算法基于自適應(yīng)權(quán)重算法的核心框架,并保留了Lab 空間顏色的相似性和歐式空間距離的接近性。為使得自適應(yīng)權(quán)重算法能與其他處理算法有良好的兼容性,對初始匹配代價(jià)進(jìn)行修改,將RGB 顏色空間差異與高斯差分圖像差異進(jìn)行聚合來設(shè)置截?cái)嚅撝担⑦x擇邊緣約束對遮擋部分進(jìn)行視差同化。此外,為并保證自適應(yīng)權(quán)重算法運(yùn)行時(shí)不受窗口大小的影響,提出基于高斯差分圖像判斷的自適應(yīng)窗口算法,以保證匹配算法的最優(yōu)性能。

      1 自適應(yīng)權(quán)重的匹配算法

      1.1 ASW 算法

      自適應(yīng)支撐權(quán)重(Adaptive Support Weight,ASW)立體匹配算法一種經(jīng)典局部匹配算法,該算法是在SAD算法的基礎(chǔ)上進(jìn)行的改進(jìn),修改了SAD 匹配算法的匹配代價(jià)并增加了自適應(yīng)權(quán)重。因此,與SAD 匹配算法不同,ASW 算法在代價(jià)聚合時(shí)是根據(jù)格式塔理論,并不是簡單地將窗口內(nèi)所有像素的匹配代價(jià)等價(jià)聚合,其核心思想是為窗口內(nèi)每一個(gè)像素分配一個(gè)合適的權(quán)重,計(jì)算單個(gè)像素的權(quán)重,然后進(jìn)行加權(quán)匯總代價(jià)。根據(jù)格式塔理論的接近性與相似性原理,距離越小,分配的權(quán)重越大,顏色越相似,其分配的權(quán)重也會更大。假設(shè)q是以p像素點(diǎn)為中心的窗口內(nèi)的任意一點(diǎn),其空間的接近性定義為:

      其中,λd為距離差異系數(shù),ΔDpq為p和q在歐式空間中的距離:

      其顏色的相似性定義為:

      其中,λc為顏色差異系數(shù),ΔCpq為p和q在Lab 顏色空間中的距離:

      那么,p和q之間的權(quán)重定義為:

      則匹配代價(jià)E(p,)的計(jì)算公式為:

      其中,是在視差范圍內(nèi),像素點(diǎn)p、q匹配的被搜索圖像中的像素點(diǎn),Np是以p點(diǎn)為中心的窗口,e(q,)表示q點(diǎn)與點(diǎn)之間的初始匹配代價(jià),Ic表示像素點(diǎn)所在顏色空間的色度值,c屬于RGB 顏色空間分量,T是截?cái)嚅撝怠?/p>

      1.2 ASW 改進(jìn)算法

      針對立體匹配中低紋理區(qū)域和視差不連續(xù)區(qū)域,ASW 算法的匹配效果表現(xiàn)一般。本文通過改進(jìn)ASW 算法來優(yōu)化低紋理區(qū)域和視差不連續(xù)區(qū)域的匹配。

      低紋理區(qū)域和視差不連續(xù)區(qū)域的匹配問題普遍存在于立體匹配中,低紋理區(qū)域的誤匹配易造成視差空洞,視差不連續(xù)區(qū)域的誤匹配問題很容易造成忽略圖像細(xì)節(jié)區(qū)域。因此,本文算法從初始匹配代價(jià)上著手改進(jìn),在求RGB 顏色空間分量差分和的基礎(chǔ)上加入高斯差分圖的差分值:

      其中,A為RGB 顏色空間分量差分權(quán)重,B為高斯差分圖差分權(quán)重,本文取A=0.1,B=0.1。ΔDOGq為像素點(diǎn)q和的高斯差分圖像差分的絕對值:

      假設(shè)是一對待匹配點(diǎn),則DOGq、DOGq分別為參考圖像和搜索圖像的高斯差分圖像[14-15]。

      1.3 自適應(yīng)窗口

      低紋理區(qū)域的匹配問題一直是立體匹配中的難點(diǎn)。低紋理區(qū)域的匹配窗口選擇過小,就無法得到更多的特征像素點(diǎn),難以準(zhǔn)確匹配,紋理豐富的區(qū)域匹配窗口選擇過大,易造成前景膨脹效應(yīng)和匹配計(jì)算復(fù)雜度過高。針對上述問題,文獻(xiàn)[16]提出了通過測算局部灰度和視差變化來選取適當(dāng)窗口的方法,但該方法效率低下,對視差初值的要求較高。文獻(xiàn)[17]針對文獻(xiàn)[16]中存在的問題,提出一種僅利用灰度信息確定窗口的方法,該方法解決了文獻(xiàn)[16]中效率低下、初值敏感的問題,但該方法的計(jì)算量仍不能滿足實(shí)際需求。文獻(xiàn)[18]采用灰度信息的自適應(yīng)窗口算法,根據(jù)窗口內(nèi)像素灰度值的平均值選擇窗口,但其算法的主要作用是用于降低運(yùn)算時(shí)間,圖像的誤匹配率沒有降低,反而略有升高。

      本文提出的自適應(yīng)窗口的優(yōu)化匹配算法主要解決低紋理區(qū)域的匹配及降低誤匹配率,而在時(shí)間上不做過多要求。該方法的原理是基于圖像特征在尺度空間[15,19]的“模糊”特性。所謂尺度空間的“模糊”特性,是假設(shè)從不同的距離觀察一個(gè)物體,物體上的特征并不會因?yàn)橛^察距離的遠(yuǎn)近而在視角中消失,只是特征變模糊,而稍弱的特征則會因?yàn)檫^度模糊并不能被人們所捕捉,相當(dāng)于“消失“。在圖像處理中,通過不同尺度的高斯函數(shù)“觀察”圖像,不同強(qiáng)度的特征點(diǎn)受到尺度空間變化的影響也就較小。因此,根據(jù)式(10)計(jì)算高斯差分圖像:

      其中,I(x,y) 為圖像的灰度值,Gσ1(x,y) 和Gσ2(x,y) 分別為σ為σ1 和σ2 時(shí)的高斯函數(shù),*為卷積符號,g1(x,y)和g2(x,y)分別為濾波后的灰度圖像。

      σ1、σ2 分別取0.1 和255 時(shí)的高斯函數(shù)圖如圖1所示。

      圖1 二維高斯函數(shù)圖Fig.1 Two-dimensional Gaussian function diagram

      對標(biāo)準(zhǔn)圖像的高斯差分處理結(jié)果如圖2 所示。

      圖2 高斯差分圖像Fig.2 Gaussian difference images

      以圖2(a)Tsukuba 圖像為例可以明顯看出,圖中右上角以及臺燈、桌子等低紋理區(qū)域在高斯差分圖像中的像素點(diǎn)的像素值很低,而書架、攝像機(jī)等紋理豐富區(qū)域在高斯差分圖像中像素點(diǎn)的像素值較大。因此,根據(jù)式(11)、式(12)可以很明顯地區(qū)分出區(qū)域的紋理豐富程度,對于低紋理區(qū)域:

      其中,D(x,y)為圖像DOG(x,y) 的二值化圖像,TD為閾值,統(tǒng)計(jì)大小為K×K窗口內(nèi)大于閾值TD的像素點(diǎn)個(gè)數(shù),若個(gè)數(shù)小于ε,則為低紋理區(qū)域,選擇較大窗口。

      基于高斯差分圖像的自適應(yīng)窗口算法實(shí)現(xiàn)簡單,算法復(fù)雜度較低,能夠直觀地判斷區(qū)域的紋理豐富性。

      2 視差計(jì)算

      2.1 WTA 算法

      采用勝者為王(Winner-Takers-All,WTA)[20]算法計(jì)算最優(yōu)視差,假設(shè)視差范圍是0~n,E0,E1,…,En是在視差范圍內(nèi)搜索到的像素點(diǎn)的匹配代價(jià),取匹配代價(jià)最小值Eσ(σ∈[0,n])所在的點(diǎn)作為待匹配點(diǎn)的最優(yōu)匹配點(diǎn),則該點(diǎn)的視差為σ。

      WTA 算法示意圖如圖3 所示。

      圖3 WTA 算法示意圖Fig.3 Schematic diagram of WTA algorithm

      2.2 遮擋區(qū)域的優(yōu)化

      在得到初始視差圖后,仍存在一些遮擋區(qū)域的誤匹配點(diǎn)。應(yīng)用左右一致性原則,找到遮擋區(qū)域的誤匹配點(diǎn)。

      其中,點(diǎn)是p點(diǎn)的匹配點(diǎn),d(x,y)為p點(diǎn)所在圖像的視差圖,dp為p點(diǎn)的視差值,為點(diǎn)的視差值。如果兩點(diǎn)的視差差分小于等于T,則認(rèn)為是正確匹配點(diǎn);如果兩點(diǎn)的視差差分大于T,則是誤匹配點(diǎn)。

      在得到遮擋區(qū)域的誤匹配點(diǎn)后,再利用鄰點(diǎn)法,以誤匹配點(diǎn)為中心對4 個(gè)方向進(jìn)行搜尋,找出距離誤匹配點(diǎn)最近的正確匹配點(diǎn),將最近的正確匹配點(diǎn)的視差值作為遮擋點(diǎn)的視差值。

      其中,df為誤匹配點(diǎn)的視差值,da、db、dl、dr和da-d、db-d、dl-d、dr-d分別為上下左右方向上的最近正確視差點(diǎn)的視差值以及最近像素距離。

      3 基于邊緣約束的視差聚類

      對遮擋區(qū)域的誤匹配點(diǎn)優(yōu)化完成以后,視差圖中在低紋理區(qū)域以及光線過亮區(qū)域仍存在大量的誤匹配點(diǎn),并且這些區(qū)域還存在視差空洞的問題。針對上述情況,本文引入邊緣作為約束條件,分區(qū)域?qū)吘壖s束內(nèi)的視差點(diǎn)進(jìn)行聚類處理,減小誤匹配點(diǎn)的誤差,消除視差空洞。主要步驟如下:1)將邊緣圖像加入到視差圖中;2)將邊緣作為約束條件,對視差在橫縱方向上進(jìn)行處理;3)清除邊緣;4)圖像濾波;5)迭代優(yōu)化。

      3.1 邊緣算子的選取

      本文引入圖像邊緣對視差圖進(jìn)行邊緣約束,選取的是Canny 算子[21],原因如下:1)Canny 算子在圖像預(yù)處理階段使用高斯濾波平滑圖像,有效地去除了噪聲,降低了偽邊緣的識別;2)Canny 算子使用非極大值抑制技術(shù),通過尋找像素點(diǎn)的局部最大值,對非極大值的像素點(diǎn)進(jìn)行抑制,有效地剔除了大部分非邊緣像素點(diǎn);3)采用滯后閾值法,設(shè)置高閾值DH與低閾值DL,有效地去除了大部分噪聲。

      針對Canny 算子高斯濾波以及高低閾值設(shè)置,可以根據(jù)取主去次的原則,即保留主要的邊緣區(qū)域,省略掉一些不重要的邊緣,圖像的整體大概輪廓保留即可。

      在得到參考圖像的邊緣圖像后,將邊緣圖像與視差圖進(jìn)行相加得到新的圖像,本文將該圖像稱之為視差邊緣圖像。

      3.2 邊緣約束視差聚類

      針對邊緣約束區(qū)域內(nèi)存在的誤匹配點(diǎn)和視差空洞,分別從橫、縱兩個(gè)方向?qū)σ暡铧c(diǎn)進(jìn)行處理。對橫軸方向上的處理如下:

      在式(16)~式(19)中,先求得橫軸方向上相鄰邊緣點(diǎn)約束的非邊緣視差點(diǎn)的視差值之和sumX0,x0表示左邊緣點(diǎn)所在的橫坐標(biāo)的值,countP表示相鄰邊緣點(diǎn)約束的非邊緣視差點(diǎn)個(gè)數(shù),dg(x,y)表示視差邊緣圖像,值255 表示邊緣上的點(diǎn)的像素值,然后再根據(jù)統(tǒng)計(jì)的點(diǎn),求得橫軸方向上相鄰邊緣點(diǎn)約束的非邊緣視差點(diǎn)視差的平均值davgX0,count表示相鄰邊緣點(diǎn)約束的非邊緣視差點(diǎn)以及非視差空洞點(diǎn)的個(gè)數(shù)。

      但上述方法在計(jì)算平均視差值時(shí)包含了一些離群點(diǎn),這些點(diǎn)往往是一個(gè)視差值遠(yuǎn)小于正常值的誤匹配點(diǎn),導(dǎo)致該方向上整體視差值減小。運(yùn)用式(20)消除離群點(diǎn),得到正確視差:

      其中,sumX表示橫軸方向上非異常視差點(diǎn)的視差值之和,當(dāng)視差圖中的某點(diǎn)dg(x,y)與先前求得的視差平均值davgX0的絕對差大于φ時(shí),認(rèn)為dg(x,y)是離群點(diǎn),不統(tǒng)計(jì)該點(diǎn)的像素值,countQ表示相鄰邊緣點(diǎn)約束的非離群點(diǎn)以及非視差空洞點(diǎn)的個(gè)數(shù),davgX表示剔除離群點(diǎn)后橫軸方向上視差的平均值。運(yùn)用上述方法,遍歷整幅視差邊緣圖像。

      同理,對于縱軸方向上的處理方法,參考橫軸方向上的處理方法,遍歷整幅圖像。

      完成上述操作后,優(yōu)化后的視差中還留有邊緣,應(yīng)用式(22)、式(23)進(jìn)行消除邊緣:

      其中,g(x,y)為邊緣圖像閾值分割后的二值圖像,dg(x,y)為消去邊緣后的視差邊緣圖像。將閾值分割后的邊緣圖像與得到的初始視差圖進(jìn)行與運(yùn)算,得到被邊緣所覆蓋視差點(diǎn)的視差圖,再將該圖像與消去邊緣的視差邊緣圖像相加,復(fù)原視差圖d(x,y)。

      由于同一邊緣區(qū)域內(nèi)的視差幾乎是相同的,應(yīng)用上述邊緣約束視差的方法,有效地修正了視差圖中的誤匹配點(diǎn)以及視差空洞。

      3.3 存在問題及解決方法

      上述方法存在以下3 個(gè)問題:1)橫向和縱向的單獨(dú)處理會出現(xiàn)類似于動(dòng)態(tài)規(guī)則算法的水平條紋;2)被邊緣覆蓋重現(xiàn)的視差點(diǎn)存在壞點(diǎn);3)由于d(x,y)是由邊緣約束處理而來,因此視差圖中存在明顯的邊緣特征,一些同處于背景區(qū)域的物體,由于邊緣約束的存在,使得不同物體之間的視差值存在微小差異。

      針對上述問題,本文引入中值濾波消除條紋和部分壞點(diǎn)。而對于視差圖中存在明顯邊緣特征的問題,本文提出基于視差圖邊緣約束的迭代聚類算法。

      迭代聚類算法的核心在于邊緣更新與迭代精度,假設(shè)d0(x,y)為初始視差圖,取視差圖d0(x,y)的邊緣作為新的約束條件,重復(fù)3.2 節(jié)的步驟得到一次迭代下的視差圖d1(x,y);取視差圖d1(x,y) 的邊緣更新約束條件,重復(fù)3.2 節(jié)。

      假設(shè)第n次迭代后的視差圖為dn(x,y),該視差圖的誤匹配率為Edn,若視差圖的誤匹配率滿足:

      則表明第n次的迭代結(jié)果滿足要求,ξ為允許的最大精度。

      迭代前后對比如圖4 所示。從圖4 可以看出,一些帶有邊緣特征的區(qū)域和視差壞點(diǎn)被消除。

      圖4 迭代前后視差對比Fig.4 Parallax comparison before and after iteration

      4 實(shí)驗(yàn)結(jié)果與分析

      實(shí)驗(yàn)使用的計(jì)算機(jī)操作系統(tǒng)為Win10 專業(yè)版,處理器為AMD Ryzen 5 2600X,主頻為3.6 GHz,內(nèi)存為16 GB,顯卡為Nvidia GeForce GT 730(2 GB)?;谲浖S2013 和Opencv2.4.11 函數(shù)庫進(jìn)行仿真實(shí)驗(yàn)。實(shí)驗(yàn)所用標(biāo)準(zhǔn)圖片均來源于國際公認(rèn)的Middlebury[22-23]數(shù)據(jù)集。其中,Tsukuba 圖像主要測試算法前向平行平面的匹配效果,Venus主要測試對不同斜面的匹配效果,Teddy 測試的是復(fù)雜場景下算法的魯棒性,Cones 測試的是算法的整體性能。

      將所得到的視差圖與理想視差圖進(jìn)行比較,逐一判斷像素點(diǎn)是否為正確的匹配點(diǎn),得到視差圖的誤匹配率為:

      其中,N為總的像素點(diǎn)個(gè)數(shù),dc(x,y) 為計(jì)算得到的視差圖,dT(x,y)為真實(shí)視差圖,δ為誤差閾值。

      4.1 實(shí)驗(yàn)1

      為體現(xiàn)本文算法相對于其他匹配算法在匹配中的優(yōu)勢,本文選擇在大小為7 的固定匹配窗口下,分別用SAD 算法、BM 算法、傳統(tǒng)ASW 算法以及本文提出算法匹配代價(jià)改進(jìn)的ASW 算法(Improved ASW),對Tsukuba、Venus、Teddy、Cones 4 幅標(biāo)準(zhǔn)圖像進(jìn)行匹配,并逐一比較,匹配結(jié)果如圖5 所示。其中,從左到右依次為原圖、SAD、BM、Traditional ASW 和Improved ASW。各算法誤匹配率如表1 所示。

      圖5 不同算法的匹配結(jié)果Fig.5 Matching results of different algorithms

      表1 各算法誤匹配率Table 1 Mismatch rate of each algorithm %

      從表1 的數(shù)據(jù)可以看出,Tsukuba 圖像由于其場景的復(fù)雜性,匹配效果最差,各算法都沒有取得很好的匹配效果,SAD 算法與BM 算法對右上角的低紋理區(qū)域都沒有很好地進(jìn)行處理,產(chǎn)生了大量的誤匹配點(diǎn)。另外,BM 算法在臺燈燈桿的視差不連續(xù)區(qū)域匹配效果很差。針對上述兩種情況,傳統(tǒng)ASW 算法克服了視差不連續(xù)區(qū)域的匹配問題,誤匹配率相對于前兩種算法而言,分別下降了7.07%和21.73%,但是對低紋理區(qū)域的誤匹配并沒有做到很好的抑制,而改進(jìn)的ASW 算法則將兩者都進(jìn)行優(yōu)化,相對于傳統(tǒng)的ASW 算法誤匹配率下降了1.26%。

      Venus 圖像的場景比較簡單,低紋理區(qū)域也較少,各算法的誤匹配率都相對較低,傳統(tǒng)的ASW 算法對斜面的適應(yīng)性不是很強(qiáng),改進(jìn)后的ASW 算法克服了這一問題,極大地提升了算法對斜面的適應(yīng)性,使得誤匹配率下降了近一半,僅有17.17%。

      Teddy 與Cones 圖像的視差范圍都比較大,SAD算法不適合處理視差范圍較大的匹配,因此,該算法的誤匹配率較高。與傳統(tǒng)的ASW 算法相比,改進(jìn)的ASW 算法優(yōu)化了視差圖中存在的大量噪聲點(diǎn)與少量的視差空洞,提升了性能,降低了誤匹配率。

      4.2 實(shí)驗(yàn)2

      為體現(xiàn)本文算法對ASW 算法改進(jìn)的有效性,選擇了在大小為7 的匹配窗口下,代價(jià)改進(jìn)的ASW 算法(Improved ASW)、代價(jià)改進(jìn)+自適應(yīng)窗口的ASW 算法(Improved ASW+Adaptive W)、代價(jià)改進(jìn)+邊緣約束與迭代聚類的ASW 算法(Improved ASW+edge)、代價(jià)改進(jìn)+邊緣約束與迭代聚類+自適應(yīng)窗口的ASW 算法(Improved ASW+edge+Adaptive W)對Tsukuba、Venus、Teddy、Cones 4 幅標(biāo)準(zhǔn)圖像進(jìn)行匹配,并逐一比較。實(shí)驗(yàn)得到的匹配結(jié)果如圖6 所示,從上到下依次為Improved ASW、Improved ASW+Adaptive W、Improved ASW+edge 和Improved ASW+edge+adaptive W。各改進(jìn)算法誤匹配率如表2 所示。

      圖6 改進(jìn)算法的實(shí)驗(yàn)結(jié)果Fig.6 Experimental results of improved algorithm

      表2 各改進(jìn)算法的誤匹配率Table 2 Mismatch rate of each improved algorithm %

      從表2 的數(shù)據(jù)可以看出,自適應(yīng)窗口算法無論是對于色彩多變,還是背景光照強(qiáng)度不一的復(fù)雜場景都有一定的提升作用,從Teddy 圖像的匹配結(jié)果可以看出,與僅改進(jìn)匹配代價(jià)算法的視差圖相比,視差圖中的空洞區(qū)域明顯減小,這表明自適應(yīng)窗口的ASW 算法優(yōu)化了該低紋理區(qū)域的匹配?;谶吘壖s束的視差聚類算法以及基于視差圖邊緣約束的迭代聚類算法表現(xiàn)出了較好的性能,基于邊緣約束的視差聚類算法消除了視差圖中大部分的視差空洞以及異常點(diǎn),提升了視差圖的整體可靠性。迭代聚類算法從Tsukuba 圖像與其他圖像誤匹配率的對比中可以看出(Tsukuba 圖像經(jīng)過5 次迭代,其他圖像僅經(jīng)過1 次迭代),經(jīng)過多次迭代的視差圖,其誤匹配率的降低量明顯要低于其他圖像,表明了迭代聚類算法的適用性。

      與文獻(xiàn)[12-13]進(jìn)行比較,文獻(xiàn)[12]中Tsukuba圖像的視差圖在視差不連續(xù)區(qū)域出現(xiàn)了大量的誤匹配點(diǎn),圖片中的物體失去了應(yīng)有的邊緣特征,邊緣變形嚴(yán)重,得到的視差圖效果極差。文獻(xiàn)[13]中視差圖的情況與其大致相同,并且在低紋理區(qū)域還存在一些視差空洞。在Teddy 圖像的視差圖中,文獻(xiàn)[12]在小熊左下部分的低紋理區(qū)域出現(xiàn)小片的視差空洞。而文獻(xiàn)[13]中的圖像則表現(xiàn)相對良好,在Cones 圖像中,文獻(xiàn)[13]的視差圖較為標(biāo)準(zhǔn),文獻(xiàn)[12]的視差圖在圓錐尖峰處,筆筒上部出現(xiàn)少量誤匹配的條紋區(qū)域。針對上述研究視差圖中所存在的問題,本文的改進(jìn)算法都對這些問題有了很好的解決方案,體現(xiàn)了算法較好的魯棒性。

      各算法及改進(jìn)算法平均誤匹配率如圖7 所示。

      圖7 各算法及改進(jìn)算法平均誤匹配率Fig.7 Average mismatch rate of each algorithm and its improvement algorithm

      綜上所述,本文算法無論是在算法的魯棒性還是整體性能上,都取得了一定程度上的提升。與SAD算法相比,誤匹配率整體上下降了36.19%,相對于BM算法和傳統(tǒng)的ASW 算法,整體上分別下降了18.03%和15.05%,表明了本文改進(jìn)算法的正確性。

      4.3 實(shí)驗(yàn)3

      為體現(xiàn)本文中所提算法對低紋理區(qū)域匹配的有效性,以標(biāo)準(zhǔn)圖像Teddy為例,選取一塊具有代表性的低紋理區(qū)域,驗(yàn)證算法對低紋理區(qū)域的匹配具有提升作用,其匹配結(jié)果對比如圖8所示。

      圖8 不同改進(jìn)算法的低紋理區(qū)域匹配實(shí)驗(yàn)結(jié)果Fig.8 Experimental results of low-texture regions matching of different improved algorithms

      從圖8 可以看出,選取的標(biāo)記區(qū)域是一塊具有代表性的低紋理區(qū)域,在實(shí)驗(yàn)中選取不同算法對該區(qū)域進(jìn)行匹配,匹配效果如表3 所示。

      表3 低紋理區(qū)域匹配效果分析Table 3 Analysis of matching effect of low-texture regions

      結(jié)合圖8 和表3 可以看出,匹配代價(jià)的優(yōu)化、自適應(yīng)窗口算法以及基于邊緣約束的迭代聚類算法都對低紋理區(qū)域的匹配效果有著提升作用。其中,基于邊緣約束的迭代聚類算法效果最為明顯,使低紋理區(qū)域的匹配效果得到顯著提高。

      4.4 實(shí)驗(yàn)4

      在本文提出的自適應(yīng)權(quán)重立體匹配算法中,分為以下3 個(gè)計(jì)算步驟:1)匹配代價(jià)計(jì)算;2)視差計(jì)算;3)邊緣約束與視差聚類。假設(shè)N表示圖像大小,代表全體像素,那么匹配代價(jià)計(jì)算的復(fù)雜度為O(N),視差計(jì)算WTA 算法的復(fù)雜度為O(1),因此,獲得基本視差圖的算法復(fù)雜度為O(N)=O(N)×O(1)。邊緣約束與視差聚類屬于視差圖的后處理部分,獨(dú)立運(yùn)行于視差計(jì)算部分,其算法復(fù)雜度為O(N),因此,本文所提算法總的復(fù)雜度為O(N)。各標(biāo)準(zhǔn)圖像的算法運(yùn)行時(shí)間如表4所示。

      表4 算法運(yùn)行時(shí)間Table 4 Algorithms running timemin

      本文算法基于傳統(tǒng)的自適應(yīng)權(quán)重立體匹配算法進(jìn)行修改,雖然效率略低于傳統(tǒng)算法,但是立體匹配的誤匹配率明顯降低,算法運(yùn)行時(shí)間略微增加,主要是計(jì)算匹配代價(jià)時(shí)加入高斯差分以及后面的處理過程。

      5 結(jié)束語

      本文在傳統(tǒng)自適應(yīng)權(quán)重匹配算法的基礎(chǔ)上,提出一種新的立體匹配優(yōu)化算法。通過修改初始匹配代價(jià),將高斯差分信息引入到代價(jià)匹配中,并加入邊緣約束和視差邊緣約束迭代聚類以及基于高斯差分圖的自適應(yīng)窗口算法,修補(bǔ)視差空洞與誤匹配點(diǎn)。實(shí)驗(yàn)結(jié)果表明,該算法能夠有效改善傳統(tǒng)局部匹配算法不能較好地處理低紋理區(qū)域和視差不連續(xù)區(qū)域的匹配問題。下一步將使用GPU 對算法進(jìn)行并行運(yùn)算,加快程序的運(yùn)行速度,滿足實(shí)時(shí)性需求,并采用卷積神經(jīng)網(wǎng)絡(luò),結(jié)合本文匹配代價(jià)的改進(jìn)方法優(yōu)化損失函數(shù),利用訓(xùn)練好的網(wǎng)絡(luò)模型,加快視差圖的生成速度與復(fù)雜環(huán)境的處理能力。

      猜你喜歡
      立體匹配視差代價(jià)
      基于自適應(yīng)窗的立體相機(jī)視差圖優(yōu)化方法研究
      基于梯度域引導(dǎo)濾波的視差精煉迭代算法
      愛的代價(jià)
      海峽姐妹(2017年12期)2018-01-31 02:12:22
      影像立體匹配中的凸優(yōu)化理論研究
      基于互補(bǔ)不變特征的傾斜影像高精度立體匹配
      代價(jià)
      基于分割樹的視差圖修復(fù)算法研究
      改進(jìn)導(dǎo)向?yàn)V波器立體匹配算法
      立體視差對瞳孔直徑影響的研究
      成熟的代價(jià)
      洪湖市| 锡林郭勒盟| 新余市| 米易县| 富顺县| 聂荣县| 和硕县| 景德镇市| 马龙县| 临沭县| 房山区| 丰顺县| 东平县| 霞浦县| 利辛县| 留坝县| 原平市| 广昌县| 长岭县| 邹城市| 乐昌市| 九台市| 剑阁县| 滨州市| 东阿县| 腾冲县| 普陀区| 湘潭县| 比如县| 阿鲁科尔沁旗| 永修县| 伊金霍洛旗| 慈溪市| 曲阳县| 金川县| 新乐市| 渑池县| 泽库县| 赤峰市| 桦甸市| 方城县|