• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      融合霧線先驗與對比度增強的圖像去霧研究

      2024-01-01 00:00:00景竑元陳嘉星周昊宏晨陳艾東

      [摘 要]經(jīng)傳統(tǒng)大氣散射模型及霧線先驗算法處理后的圖像出現(xiàn)濃霧區(qū)域邊緣模糊、物體邊緣有光暈及顏色失真等現(xiàn)象,由此提出一種融合霧線先驗與對比度增強技術(shù)的去霧算法。該算法首先基于霧線先驗?zāi)P痛致怨烙嬘徐F圖像的透射率系數(shù);然后采用軟摳圖技術(shù)對粗略估計的結(jié)果進行校準(zhǔn),得到相對準(zhǔn)確的透射率,并選取區(qū)域的亮點作為大氣環(huán)境光值,通過大氣散射模型獲得初步圖像;再結(jié)合邊緣信息,通過高斯濾波器對初步結(jié)果進行優(yōu)化;最后用Frankle-McCann Retinex算法調(diào)節(jié)圖像的對比度,獲得優(yōu)化后的去霧圖像。實驗結(jié)果表明:在客觀評價結(jié)果中,與霧線先驗算法相比,PSNR值平均提升了1.63左右,SSIM值平均提升了3%左右。由此可知,該算法與傳統(tǒng)去霧算法相比,圖像去霧效果顯著,在改善圖像細節(jié)的同時,也減小了圖像色彩失真的影響。

      [關(guān)鍵詞]單幅圖像去霧;霧線先驗;軟摳圖;非均質(zhì)霧;Retinex理論

      [中圖分類號]TP 391.41 [文獻標(biāo)志碼]A [文章編號]1005-0310(2024)04-0051-10

      Research on Image Dehazing by Integrating Haze Line Prior and Contrast Enhancement

      JING" Hongyuan, CHEN" Jiaxing, ZHOU" Hao, HONG" Chen, CHEN" Aidong

      (College of Robotics, Beijing Union University, Beijing 100020, China)

      Abstract:" After processing with traditional atmospheric scattering models and haze line prior algorithms, images often exhibit phenomena such as blurred edges in dense fog areas, halo effects around object edges, and color distortion. Consequently, a dehazing algorithm that integrates haze line prior with contrast enhancement techniques has been introduced. This algorithm initially provides a rough estimation of the transmission projection ratio coefficient of the hazy image based on the haze line prior model. Subsequently, soft matting technology is applied to calibrate the preliminary estimation results, yielding a relatively accurate transmittance. The bright spots within the region are chosen as the atmospheric light value, and a preliminary image is obtained through the atmospheric scattering model. Then, by incorporating edge information and employing a Gaussian filter, the preliminary results are optimized. Finally, the Frankle-McCann Retinex algorithm is used to adjust the contrast of the image, resulting in an optimized dehazed image. Experimental results show that, in objective evaluation metrics, the PSNR values have increased by an average of about 1.63, and the SSIM values have improved by an average of about 3%, compared to the haze line prior algorithms. This indicates that compared to existing mainstream traditional dehazing algorithms, this algorithm significantly improves the dehazing effect of images, enhancing image details while reducing the impact of color distortion.

      Keywords: single image dehazing;fog line prior;soft matting;nonhomogeneous haze;Retinex theory

      0 引言

      戶外圖像的獲取常受到空氣中懸浮粒子(如霧、霾等)的影響,導(dǎo)致成像設(shè)備輸出的圖像出現(xiàn)對比度降低、飽和度下降、色調(diào)偏移等退化現(xiàn)象。在霧霾天氣條件下,由于圖像發(fā)生退化,大部分像素特征被霧氣干擾或覆蓋,進而影響目標(biāo)的檢測、識別、追蹤等高級視覺任務(wù)算法的性能[1]。 因此,對由霧霾等天氣條件導(dǎo)致的退化圖像進行處理,具有重要的現(xiàn)實意義。

      1 國內(nèi)外研究現(xiàn)狀

      目前,圖像去霧技術(shù)的研究包括基于視頻流的圖像去霧[2]、基于多目視覺的圖像去霧[3]和基于單幅圖像的去霧[4]等方向。其中,基于單幅圖像的去霧算法由于缺乏時間連續(xù)信息和多視角空間信息等特征,因此更具有挑戰(zhàn)性。目前, 基于單幅圖像的去霧算法主要用于均質(zhì)霧氣的條件,但在真實的應(yīng)用場景中,霧霾等懸浮粒子通常不符合均勻分布規(guī)律[5],因此,針對非均質(zhì)有霧圖像的去霧算法更具有應(yīng)用價值。

      基于單幅圖像的去霧算法主要包括基于圖像增強的去霧算法、基于物理模型和先驗知識的圖像去霧算法及基于端到端神經(jīng)網(wǎng)絡(luò)的圖像去霧算法等3個主流方向。

      基于圖像增強的去霧算法主要通過頻域濾波、小波變換及對比度調(diào)節(jié)等方法銳化圖像在霧霾處的局部特征,提升圖像邊緣的對比度,進而實現(xiàn)圖像的視覺增強。該類算法的典型代表有基于Retinex的方法[6]和基于小波迭代融合的方法[7]等。該類算法在均質(zhì)霧氣條件下的表現(xiàn)結(jié)果相對較好,但對于非均質(zhì)有霧圖像中霧氣濃度的分布并不敏感,因此在實際應(yīng)用中通常會造成對圖像無霧部分的過度調(diào)節(jié),進而導(dǎo)致去霧效果下降。

      基于物理模型和先驗知識的圖像去霧算法通常是對霧霾條件下的真實場景、大氣環(huán)境光值及透射率進行建模,構(gòu)建大氣散射模型[8],并依據(jù)一定的先驗信息對大氣散射模型進行條件約束,通過估算大氣環(huán)境光值及透射率反推出無霧圖像。目前,被廣泛應(yīng)用的先驗理論包括暗通道先驗[9]、霧線先驗[10]及顏色衰減先驗[11]等。該類算法具有較好的物理解釋性,且對均質(zhì)有霧圖像及非均質(zhì)有霧圖像都有較好的適應(yīng)性。

      隨著機器學(xué)習(xí)及深度學(xué)習(xí)技術(shù)的發(fā)展,研究者提出了一些基于端到端神經(jīng)網(wǎng)絡(luò)的去霧算法。例如,楊燕等為了解決現(xiàn)有網(wǎng)絡(luò)去霧不徹底和細節(jié)保持不佳等問題,提出了一種分離特征和協(xié)同網(wǎng)絡(luò)下的端到端圖像去霧模型[12]。該類算法通過收集或合成大量匹配的有霧圖像與無霧圖像對,進行卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,并使用對應(yīng)的測試集與驗證集對訓(xùn)練后的模型進行評估與優(yōu)化。該類算法的典型代表有一體化去霧網(wǎng)絡(luò)(all-in-one dehazing network,AOD-Net[13])、特征融合網(wǎng)絡(luò)(feature fusion attention network,F(xiàn)FA-Net[14])、基于編解碼的圖像去霧網(wǎng)絡(luò)(雙視覺注意網(wǎng)絡(luò)的聯(lián)合圖像去霧和透射率估計[15])及多尺度卷積神經(jīng)網(wǎng)絡(luò)(multi-scale convolutional neural network,MSCNN[16])等。該類算法的去霧效果往往依賴于大量匹配的真實數(shù)據(jù),然而采集有效的匹配數(shù)據(jù)具有一定難度,因此該類算法主要對合成的均質(zhì)有霧數(shù)據(jù)集進行訓(xùn)練和測試。大部分基于端到端神經(jīng)網(wǎng)絡(luò)的去霧算法在均質(zhì)有霧圖像數(shù)據(jù)集上表現(xiàn)較好,但訓(xùn)練結(jié)果對訓(xùn)練集的依賴性較強,且去霧算法的泛化性較差,不能很好地應(yīng)用于實際場景之中。

      基于物理模型的去霧算法以傳統(tǒng)大氣散射模型為主要研究對象,如He等提出的暗通道先驗假設(shè):假設(shè)在有霧圖像中的非天空區(qū)域始終存在某些像素點,至少在一個顏色通道上具有很低的亮度值,基于該先驗知識建立關(guān)于大氣環(huán)境光 值與透射率之間的關(guān)系,進而通過大氣散射模型還原出清晰圖像[9]。該算法處理的去霧圖像結(jié)果整體偏暗,且天空區(qū)域會出現(xiàn)失真及光暈等現(xiàn)象。鑒于此問題,研究者提出了一些改進方法。楊燕等提出一種結(jié)合最小通道區(qū)間估計與透射率約束的方法,有效解決了復(fù)原圖像的光暈和顏色偏移等問題,但部分圖像的處理結(jié)果仍存在顏色飽和度失真的問題[17]。韓昊男等提出一種基于四叉樹細分的改進大氣光估計方法以及一種改進的引導(dǎo)濾波,來解決圖像過度增強或增強不足等問題[18]。該方法獲得的去霧圖像的顏色較為可靠,邊緣區(qū)域光暈效應(yīng)減弱。Zhu等提出顏色衰減先驗方法,假設(shè)霧氣的濃度與圖像亮度和飽和度之差呈正比關(guān)系,通過梯度下降法對場景深度與霧氣濃度進行線性回歸,進而獲取相對準(zhǔn)確的透射率值,再通過大氣散射模型完成圖像去霧過程[11]。然而,該方法在處理部分色調(diào)鮮艷的圖像時存在明顯的色彩失真問題。Berman等通過觀察圖像顏色受到霧氣影響而發(fā)生的變換,得出霧線的概念,并通過霧線先驗的方法計算透射率和大氣環(huán)境光值,從而生成去霧后的圖像[10]。該方法在均質(zhì)霧氣條件下對戶外多色彩的場景比較敏感,但對非均質(zhì)有霧圖像仍然存在部分區(qū)域去霧效果較差、去霧后圖像邊緣不光滑及引入光暈等問題。

      2 大氣散射模型與相關(guān)理論

      2.1 大氣散射模型

      在霧霾天氣條件下,無人駕駛感知系統(tǒng)的成像原理可以由大氣散射模型[8]概括,其表達式如式(1)所示:

      式中:x為圖像中像素點的索引;I(x)為無人駕駛系統(tǒng)實際觀測的圖像;J(x)為理想的清晰圖像;t(x)為介質(zhì)的傳輸率,也稱為透射率;A為全局大氣環(huán)境光值。當(dāng)假定大氣環(huán)境光值A(chǔ)在某一場景中為固定值時,介質(zhì)的透射率t(x)可以由場景深度d(x)和大氣衰減系數(shù)β來表示,具體關(guān)系如式(2)所示:

      式中:β為大氣衰減系數(shù);d(x)為場景深度。由式(1)和(2)可知,使用大氣散射模型進行圖像去霧處理的主要任務(wù)為估計透射率t(x)或場景深度d(x),以及大氣環(huán)境光值A(chǔ)。目前常用的方法為:基于不同先驗知識對t(x)、I(x)與A之間的關(guān)系進行約束,進而完成對I(x)的復(fù)原。

      2.2 霧線先驗

      Berman等于2016年提出的霧線先驗方法表明,在自然條件下采集的清晰圖像中,具有相似顏色的像素點在RGB空間中成團狀分布[10]。清晰圖像在經(jīng)過霧氣的退化后,原本成團狀分布的像素簇會被拉伸成一條直線,該直線 被稱為霧線。隨著霧氣濃度的增加,變化后的像素點與原像素簇的歐式距離隨之 增大。不同像素簇的霧線相交于一點,該點為霧氣濃度的理論最大值,即為無窮遠處的大氣環(huán)境光值。霧線先驗原理[10]如圖1所示,其中:A為全局大氣環(huán)境光值;C0為單幅圖片中理想黑色光強霧線的邊界約束點;C1為單幅圖片中理想白色光強霧線的邊界約束點;I(x1)和I(x2)分別為不同顏色簇在受到不同程度的霧氣影響后的衰減值,即為實際觀測像素值,當(dāng)霧氣完全覆蓋該像素點時,該像素值為大氣環(huán)境光值。

      基于霧線先驗可以對大氣散射模型進行同等變換,得到式(3):

      式中:假設(shè)圖像在無霧條件下傳輸過程中的損失為0,即t(x)為1,則J(x)-A與I(x)-A相等,即采集圖像為真實圖像。由霧線先驗可知,有霧條件下的I(x)將轉(zhuǎn)變?yōu)镴(x)與A點連線上的某一個點,此時,透射率t(x)也隨之發(fā)生變化。為了更直觀地表達霧線先驗,本文將RGB空間坐標(biāo)系轉(zhuǎn)換為以A為原點的球面坐標(biāo)系,如式(4)所示:

      式中:IA(x)為無人駕駛系統(tǒng)實際觀測的圖像;r(x)為像素點到球心A的距離;θ和Φ分別為像素點在球面坐標(biāo)系下的經(jīng)度角和緯度角。對于同一對的J(x)和I(x)像素點,θ和Φ大致相同,由此可計算出大致的透射率t(x),如式(5)所示:

      式中:rmax為像素點距離球心A的最遠距離。假設(shè)有霧圖像中的每一個顏色索引都存在某些受霧氣影響微弱的點,這些點可被看作不受霧氣影響的圖像采樣點,即在以A值為中心的球面坐標(biāo)系中,這些點為距離原點最遠的點。由此可推出理想的清晰圖像J(x),如式(6)所示:

      式中:t~(x) 為透射率。在已知大氣環(huán)境光值A(chǔ)的條件下,可通過此方法估計不同顏色簇的透射率,進而通過大氣散射模型對有霧圖像進行回歸。

      2.3 Retinex理論

      Retinex理論,即視網(wǎng)膜皮層理論[19],于20世紀60年代由Land等提出。該理論認為,人腦對色彩的感知是光與物質(zhì)相互作用的結(jié)果[20]。由該理論衍生出的Retinex模型如圖2所示,它是一種基于光照的物理成像模型,被廣泛應(yīng)用于圖像復(fù)原算法中。

      由圖2可知,物體成像結(jié)果僅受物體反射光和環(huán)境光的影響,由此將Retinex模型表示為式(7):

      式中:S(x,y)為環(huán)境光的照射分量;R(x,y)為成像目標(biāo)物體的反射分量;L(x,y)為成像設(shè)備接收到的圖像信號。由Retinex理論可知,如在有霧圖像中對霧氣部分的像素進行適當(dāng)變換,即可優(yōu)化圖像的對比度,進而生成感知意義上的無霧圖像。在Retinex模型中,通常使用L(x,y)表示有霧圖像,R(x,y)表示待求的無霧圖像。將式(7)變換至對數(shù)域后,可以通過式(8)完成圖像去霧處理過程:

      式中:r(x,y)為像素點到球心A的距離。基于Retinex理論及其模型,衍生出了大量的圖像去霧算法,其典型代表為single-scale Retinex(SSR)算法和multi-scale Retinex(MSR)算法。SSR算法和MSR算法都是將圖像的入射分量假定為高斯函數(shù)與圖像進行卷積的結(jié)果,并帶入式(8)中完成去霧處理。

      3 本文算法

      本文在Berman等提出的先驗算法的基礎(chǔ)上進行改進,流程圖如圖3所示。該算法首先估計大氣光值和初始透射率,利用軟扣圖對初始透射率進行細化,然后通過大氣散射模型對有霧圖像進行粗略處理,再使用高斯濾波器減少圖像邊緣光暈,最后利用Frankle-McCann Retinex算法[21]優(yōu)化圖像的視覺效果,從而有效解決傳統(tǒng)基于霧線先驗去霧算法產(chǎn)生的邊緣退化問題。

      3.1 透射率估計的優(yōu)化

      圖像透射率的估計是使用大氣散射模型設(shè)計圖像去霧算法的核心步驟,精確的透射率估計方法可以有效提升去霧后圖像的質(zhì)量。通常情況下采用的優(yōu)化方法為He等提出的導(dǎo)向濾波技術(shù)[22],該算法通過引入嶺回歸的思想,有效優(yōu)化了透射率估計的方法。但該算法在提升處理速度的同時,舍棄了部分圖像邊緣的細節(jié)信息,導(dǎo)致圖像質(zhì)量下降。

      本文選取更為傳統(tǒng)的軟摳圖方法對圖像透射率進行優(yōu)化,該方法由Levin等于2006 年提出,是一種封閉式摳圖算法[23]。該算法基于顏色線性模型及圖像前景與背景顏色值局部平滑的先驗條件,推導(dǎo)出像素點的透射率值與該點的顏色呈線性相關(guān)關(guān)系,由此得出透射率的代價函數(shù)如式(9)所示: E(t)=tTLt+λ(t-t~)T(t-t~) 。(9) 式中: t為細化透射率,t~為粗略估計的透射率; L為拉普拉斯矩陣;λ為正則化系數(shù),本文將其取值為0.000 1。對式(9)進行求解可得式(10): t=λt~L+λU 。(10) 式中: U為與 L大小相同的單位矩陣,本文中 L與 U的大小均取值3×3。

      3.2 邊緣光暈的處理

      在基于霧線先驗算法的去霧處理過程中,物體的邊緣部分通常會產(chǎn)生光暈效應(yīng),導(dǎo)致邊緣比較模糊,難以對其進行精確估計。該現(xiàn)象主要是由透射率估計過程中引入的噪聲導(dǎo)致局部視覺對比度降低等問題引起的,因此對去霧后圖像進行高斯平滑處理,可以有效減少物體邊緣的光暈效應(yīng)。

      另外,去霧圖像中的物體邊緣光暈效應(yīng)還受到物體邊界顏色對比度變化的不確定性等問題的影響。本文通過改進Frankle-McCann Retinex算法[21],緩解物體邊界偏色效應(yīng)。Frankle-McCann Retinex算法是一種基于螺旋結(jié)構(gòu)路徑的像素比較算法,其路徑選擇考慮了整幅圖像的全局明暗關(guān)系,可以有效避免局部光分量迅速變化所導(dǎo)致的偏色效應(yīng),其示意圖如圖4所示。

      在圖4中,F(xiàn)rankle-McCann Retinex算法選取圖像中的最大亮度值點作為核心,圍繞該核心進行螺旋迭代,并估計其路徑上其他點的理論像素值,進而完成圖像的優(yōu)化。該算法的核心公式如式(11)所示:

      式中:NP為當(dāng)前像素點;OP為路徑前一像素點;R為圓心點;(x,y)為算法的估計值;(xs,ys) 為圖像的初始值。

      4 實驗結(jié)果與分析

      為驗證本文算法的可行性,將其與常用的圖像去霧算法進行對比,并從主觀和客觀兩個方面給出分析結(jié)果。本文算法采用的軟件為Matlab 2019b,計算機CPU為Intel(R) Core(TM) i5-7200@2.50~2.70 GHz,操作系統(tǒng)為Windows 10。經(jīng)多次實驗后,本文選取Non-local算法中的gramma值為1.09,正則化透射率的取值范圍為[0.1,0.95],高斯濾波器的窗口大小為5×5。本文選取公共數(shù)據(jù)集RESIDE[24]中的ITS(indoor training set)數(shù)據(jù)子集和OTS(outdoor training set)數(shù)據(jù)子集中的約1 500對有霧圖像、公共數(shù)據(jù)集NYU-Depth-V2[25]中的約800張合成有霧圖像及公共數(shù)據(jù)集O-Haze[5]中的45張真實有霧圖像 組成實驗驗證的數(shù)據(jù)集。本文選取He等的暗通道先驗(DCP)算法[9]、Fattal等的顏色線先驗算法[26]、Berman等的Non-local算法[10]、Ren等的IDE算法[27]及Qin等的FFA算法[14]作為對比驗證方法。

      4.1 主觀評價

      主觀評價通常以觀測者的主觀感受為基準(zhǔn),將紋理是否清晰、顏色是否有明顯的失真及細節(jié)是否可見等作為圖像評價的準(zhǔn)則。主觀評價方法相對片面,不同觀察者對同一幅去霧后圖像的主觀感受可能不同,所以主觀評價存在著不確定性。本文通過選取測試圖庫中的幾幅圖像進行對比說明,去霧后的效果如圖5所示。

      在圖5中,圖(a)為有霧圖像,圖(b)~(f)為對比算法的去霧結(jié)果,圖(g)為本文算法的去霧結(jié)果。 從上至下,第1幅圖像為RESIDE-ITS數(shù)據(jù)集中的室內(nèi)生成圖像,由去霧結(jié)果可以看出:DCP算法和Non-local算法使物體邊緣處出現(xiàn)Halo現(xiàn)象;Fattal算法使圖像整體偏黑;IDE算法使墻體的整體亮度偏高,局部色彩失真;FFA算法使物體顏色出現(xiàn)明顯的失真;本文算法無論是在圖像邊緣處還是顏色對比度方面,效果都比較穩(wěn)定 。第2幅圖像為O-Haze數(shù)據(jù)集中的戶外非均質(zhì)有霧圖像,其中:DCP算法在圖像上半部分濃霧區(qū)域的去霧效果不佳;Fattal算法使圖像的上半部分整體呈偏灰色;Non-local算法對濃霧部分的處理相對較好,但圖像近景和遠景的邊緣相對較差;IDE算法的去霧效果不明顯;FFA算法的全局對比度較低;經(jīng)本文算法去霧后,圖像對比度較高,右上濃霧區(qū)的處理效果一般,但仍高于其他算法。第3幅圖像為RESIDE數(shù)據(jù)集中的室內(nèi)偏白背景圖像,其中:經(jīng)DCP算法和Fattal算法去霧后,圖像都存在偽影問題;Non-local算法使圖像右側(cè)出現(xiàn)較嚴重的光暈效應(yīng);IDE算法使圖像中床面部分的色彩失真;FFA算法存在曝光過度現(xiàn)象;本文算法雖然使圖像右上部分的色彩失真,但整體效果相對較好。第4幅圖像為NYU-Depth-V2數(shù)據(jù)集中的室內(nèi)合成有霧圖像,其中:DCP的去霧效果不佳;Fattal算法使圖像整體偏黑;Non-local算法存在嚴重的偽影效應(yīng);IDE算法存在黑色物體失真的問題;FFA算法存在局部顏色失真的問題;經(jīng)本文算法去霧后的圖像,整體效果更佳。第5幅圖像為RESIDE-OTS數(shù)據(jù)集中的戶外實景霧圖,其中:DCP算法和Fattal算法都存在嚴重的天空區(qū)域色彩失真問題,尤其是經(jīng)Fattal算法去霧后的圖像,天空區(qū)域呈偏紫色;Non-local算法在遠景處表現(xiàn)不佳;IDE算法在彩色部分的顏色飽和度相對較高,出現(xiàn)了局部失真現(xiàn)象;本文算法在視覺上優(yōu)于Non-local算法。綜上所述,本文算法對圖像進行去霧處理后,圖像對比度明顯優(yōu)于其他算法,并減輕了圖像邊緣處的Halo現(xiàn)象,在主觀評價中取得了較好的效果。

      4.2 客觀評價

      目前,圖像去霧領(lǐng)域的客觀評價指標(biāo)主要包括兩類,分別是圖像的清晰度評價和圖像的結(jié)構(gòu)相似性評價,其典型代表為峰值信噪比(peak signal-to-noise ratio,PSNR)[28]、 結(jié)構(gòu)相似性(structural similarity,SSIM)[29]和學(xué)習(xí)圖像感知塊相似度(learned perceptual image patch similarity,LPIPS)[30]。本文選取這3種評價指標(biāo)對本文算法在不同數(shù)據(jù)集上的處理結(jié)果進行客觀評價。通常來說,PSNR值越高、SSIM值越高及LPIPS值越低,圖像去霧后的質(zhì)量越好。PSNR主要用于衡量去霧后圖像的整體信息含量,其值越大,圖像的細節(jié)信息越豐富,整體視覺效果越 好。PSNR的計算方法如式(12)和(13)所示:

      式(12)中:I為去霧參考圖;K為去霧結(jié)果;圖像尺寸為m×n;MSE(mean square error)為兩張圖像的均方誤差。式(13)中:MAXI為圖像中可能存在的最大像素值,由于本文使用8 bit全彩色圖像,因此MAXI取值為255。

      SSIM主要用于衡量去霧結(jié)果圖像與參考圖像的相似程度,其結(jié)果范圍為[-1,1]。一般認為,SSIM值越大,去霧效果越理想,當(dāng)去霧結(jié)果與參考圖像完全一致時,SSIM值為1。SSIM的計算方法如式(14)所示:

      式中:ux、uy分別為圖像x和y的均值;σx、σy分別為圖像x和y的標(biāo)準(zhǔn)差;σ2x、σ2y分別為圖像x和y的方差;σxy為圖像x和y的協(xié)方差;c1、c2為維持穩(wěn)定的常數(shù),本文取值為0.000 1。

      LPIPS主要用于衡量去霧圖像與無霧圖像之間的差異性,相較于傳統(tǒng)評估方法,LPIPS更符合人類的感知情況。LPIPS的表達式如式(15)所示:

      是空間中平均每一層網(wǎng)絡(luò)輸出的特征圖之間的距離,對其進行通道求和,然后將得到的兩個距離 值輸入評分網(wǎng)絡(luò)中;wl是與通道數(shù)同維度的可訓(xùn)練權(quán)重參數(shù)。

      表1為本文算法與目前常用的單幅圖像去霧算法在不同數(shù)據(jù)集上的客觀評價結(jié)果。由表1可知,本文提出的算法在RESIDE-ITS、OTS、偏白圖像集及NYU-Depth-V2合成圖像集中整體表現(xiàn)優(yōu)秀。在O-Haze戶外真實有霧圖像集中,本文算法的圖像清晰度略低于DCP算法和Fattal算法,其主要原因為部分濃霧區(qū)域存在色彩失真的問題,但在圖像結(jié)構(gòu)相似性上優(yōu)于其他算法,整體去霧質(zhì)量較高。

      算法運行時間是衡量算法實時性的重要指標(biāo),較少的運行時間可以使算法具有較多的應(yīng)用領(lǐng)域。本文選取多張分辨率為256×256的圖像,在相同的硬件條件下,對比不同算法的運行時間,其結(jié)果如表2所示。

      由表2可知,運行時間最短的算法為DCP算法,該算法引入了導(dǎo)向濾波技術(shù),使運行時間大幅縮短。本文算法是在Non-local算法的基礎(chǔ)上對圖像質(zhì)量進行改進,因此,運算時間略長于原算法。

      圖像復(fù)原方法的運行時間受硬件設(shè)備的計算性能、輸入圖像的尺寸及圖像結(jié)構(gòu)等多方面因素的影響。盡管本文算法的運行時間略長于原算法,但可通過一系列優(yōu)化措施應(yīng)對實時性方面的挑戰(zhàn)。首先,采用塊處理策略和快速近似方法對算法進行優(yōu)化,以減少計算復(fù)雜度,提高處理速度。其次,充分利用多核處理器的并行處理功能,進一步加速算法的執(zhí)行。最后,引入數(shù)據(jù)預(yù)處理和后處理步驟,包括直方圖均衡化、灰度歸一化、邊緣增強和細節(jié)增強等,從而提高圖像質(zhì)量。

      4.3 無人駕駛識別系統(tǒng)評估

      為驗證本文算法嵌入無人駕駛系統(tǒng)中的可行性,本文選取文獻[24]中的有霧圖像生成方法,對KITTI數(shù)據(jù)集[31]中的部分交通圖像進行霧圖的合成。本文利用YoLoV3圖像檢測方法[32],在KITTI數(shù)據(jù)集中公開的預(yù)訓(xùn)練模型上,分別對原始圖像、有霧圖像及不同算法去霧后的圖像進行檢測對比,結(jié)果如圖6所示。

      圖6中:圖(a)為采用RESIDE數(shù)據(jù)集中使用的有霧圖像合成方法進行 處理后的圖像,圖(h)為KITTI數(shù)據(jù)集中原始無霧圖像的檢測結(jié)果。由此可知,在受到霧氣影響的條件下,無人駕駛檢測系統(tǒng)的檢測精度會降低。圖(b)~(g)為采用本文算法及對比算法的檢測結(jié)果,通過對比車輛檢測數(shù)量及準(zhǔn)確度可知,本文算法優(yōu)于大部分對比算法。

      表3為本文算法與其他算法在使用相同YoLoV3模型前提下的目標(biāo)檢測數(shù)量對比結(jié)果。由表3可知,在使用本文算法對圖像進行復(fù)原后,目標(biāo)檢測數(shù)量基本與無霧情況下相同。本文算法可以有效提升檢測效果,適用于惡劣條件下無人駕駛的視覺檢測系統(tǒng)。

      5 結(jié)論

      本文提出了一種融合霧線先驗與對比度增強技術(shù)的非均質(zhì)圖像去霧算法,針對其他算法中常見的濃霧邊緣去霧效果模糊、去霧后物體邊緣存在光暈及色彩失真等問題進行改進。本文算法在霧線先驗算法的基礎(chǔ)上,使用軟摳圖技術(shù)替代原有的雙邊約束條件,使用高斯濾波及Frankle-McCann Retinex算法提高圖像質(zhì)量。實驗結(jié)果表明,與其他常見的單幅圖像去霧算法相比,改進后的算法在主觀及客觀評價上均比較理想。本文算法在O-Haze戶外真實非均質(zhì)數(shù)據(jù)集上的結(jié)果表現(xiàn)優(yōu)秀,與Non-local算法相比,SSIM值提升了0.08,PSNR值提升了1.03。本文算法在自組建的RESIDE偏白背景數(shù)據(jù)集中也取得了優(yōu)秀的效果,其中:PSNR值為21.44,比霧線先驗算法平均提升了1.63左右;SSIM值為0.85,比其他算法也有一定的提升。

      另外,本文算法還存在一些不足。首先,該算法需要消耗較多的計算資源并涉及多個煩瑣的處理步驟,導(dǎo)致算法在實時性方面存在不足,需要在后續(xù)研究中對算法步驟進一步優(yōu)化,以滿足無人駕駛場景下對實時性的要求。其次,在使用Frankle-McCann Retinex算法處理圖像后,圖像的局部顏色出現(xiàn)失真現(xiàn)象。因此,未來的研究重點將集中在如何使用自適應(yīng)Retinex算法來優(yōu)化圖像邊緣,從而有效解決邊緣失真的問題,進一步提升算法的整體性能和應(yīng)用效果。

      [參考文獻]

      [1]QU Y Y,CHEN Y Z,HUANG J Y,et al.Enhanced pix2pix dehazing network[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition.Beach: IEEE,2019:8160-8168.

      [2]PENG S J,ZHANG H,LIU X,et al.Real-time video dehazing via incremental transmission learning and spatial-temporally coherent regularization[J].Neurocomputing,2021,458:602-614.

      [3]PANG Y W,NIE J,XIE J,et al.BidNet: binocular image dehazing without explicit disparity estimation[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition.Seattle:IEEE,2020:5931-5940.

      [4]ZHANG X Q,JIANG R H,WANG T,et al. Single image dehazing via dual-path recurrent network[J].IEEE Transactions on Image Processing,2021,30:5211-5222.

      [5]ANCUTI C O,ANCUTI C,TIMOFTE R,et al.O-haze:a dehazing benchmark with real hazy and haze-free outdoor images[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops.Lake City:IEEE,2018:754-762.

      [6]TANG Q F,YANG J,HE X J,et al.Nighttime image dehazing based on Retinex and dark channel prior using Taylor series expansion[J].Computer Vision and Image Understanding,2021,202:103086.

      [7]KHAN H,SHARIF M,BIBI N,et al.Localization of radiance transformation for image dehazing in wavelet domain[J].Neurocomputing, 2020,381:141-151.

      [8]NARASIMHAN S G,NAYAR S K.Contrast restoration of weather degraded images[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2003,25(6):713-724.

      [9]HE K M,SUN J,TANG X O.Single image haze removal using dark channel prior[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(12):2341-2353.

      [10]BERMAN D,TREIBITZ T,AVIDAN S.Non-local image dehazing[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Vegas: IEEE,2016:1674-1682.

      [11]楊燕,梁小珍,張金龍.分離特征和協(xié)同網(wǎng)絡(luò)下的端到端圖像去霧[J].光學(xué)精密工程,2021,29(8):1931-1941.

      [12]ZHU Q S, MAI J M, SHAO L. A fast single image haze removal algorithm using color attenuation prior[J].IEEE Transactions on Image Processing, 2015, 24(11):3522-3533.

      [13]LI B Y, PENG X L, WANG Z Y, et al. AOD-NET: all-in-one dehazing network[C]//Proceedings of the IEEE International Conference on Computer Vision.Venice:IEEE,2017:4770-4778.

      [14]QIN X, WANG Z L, BAI Y C, et al. FFA-Net: feature fusion attention network for single image dehazing[C]//Proceedings of the AAAI Conference on Artificial Intelligence.New York:AAAI,2020:11908-11915.

      [15]馮燕茹.雙視覺注意網(wǎng)絡(luò)的聯(lián)合圖像去霧和透射率估計[J].光學(xué)精密工程,2021,29(4):854-863.

      [16]FU Q L, LI S Q, WANG X. MSCNN-AM: a multi-scale convolutional neural network with attention mechanisms for retinal vessel segmentation[J].IEEE Access,2020,8:163926-163936.

      [17]楊燕,李一菲,岳輝.一種自適應(yīng)線性透射率估計去霧算法[J].應(yīng)用光學(xué),2019,40(3):447-453.

      [18]韓昊男,錢鋒,呂建威,等.改進暗通道先驗的航空圖像去霧[J].光學(xué)精密工程,2020,28(6):1387-1394.

      [19]JOBSON D J,RAHMAN Z,WOODELL G A.A multiscale Retinex for bridging the gap between color images and the human observation of scenes[J].IEEE Transactions on Image Processing,1997,6(7):965-976.

      [20]LAND E H,MCCANN J J.Lightness and Retinex theory[J].Journal of the Optical Society of America,1971, 61(1): 1-11.

      [21]COOPER T J, BAQAI F A. Analysis and extensions of the Frankle-McCann Retinex algorithm[J].Journal of Electronic Imaging, 2004,13(1): 85-92.

      [22]HE K M, SUN J, TANG X. Guided image filtering[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,35(6): 1397-1409.

      [23]LEVIN A,LISCHINSKI D,WEISS Y.A closed-form solution to natural image matting[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,30(2):228-242.

      [24]LI B Y, REN W Q, FU D P, et al. Benchmarking single-image dehazing and beyond[J].IEEE Transactions on Image Processing, 2018,28(1):492-505.

      [25]SILBERMAN N,HOIEM D,KOHLI P,et al.Indoor segmentation and support inference from RGBD images[C]// Proceedings of the 12th European Conference on Computer Vision.Florence:Springer,2012:746-760.

      [26]FATTAL R. Dehazing using color-lines[J].ACM Transactions on Graphics (TOG),2014,34(1):1-14.

      [27]JU M Y, DING C, REN W Q, et al. IDE: image dehazing and exposure using an enhanced atmospheric scattering model[J].IEEE Transactions on Image Processing,2021,30:2180-2192.

      [28]PIRAHANSIAH F, ABDULLAH S N H S, SAHRAN S.Peak signal-to-noise ratio based on threshold method for image segmentation[J].Journal of Theoretical and Applied Information Technology,2013,57(2):158-168.

      [29]WANG Z, BOVIK A C, SHEIKH H R, et al. Image quality assessment: from error visibility to structural similarity[J].IEEE Transactions on Image Processing,2004,13(4):600-612.

      [30]ZHANG R, ISOLA P, EFROS A A, et al.The unreasonable effectiveness of deep features as a perceptual metric[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Lake City:IEEE,2018:586-595.

      [31]GEIGER A, LENZ P, STILLER C,et al.Vision meets robotics:the KITTI dataset[J].International Journal of Robotics Research,2013,32(11):1231-1237.

      [32]REDMON J, FARHADI A.Yolov3:an incremental improvement [EB/OL].(2018-04-08)[2023-11-05].https://arxiv.org/abs/1804.02767.

      (責(zé)任編輯 白麗媛;責(zé)任校對 柴 智)

      [收稿日期]2023-11-09

      [基金項目]北京市教育委員會科研計劃項目(KM202111417008),北京聯(lián)合大學(xué)科研項目(ZK20202401、ZK80202005),北京聯(lián)合大學(xué)教改項目(JJ2021Q006)。

      [作者簡介]景竑元(1988—),男,遼寧葫蘆島人,北京聯(lián)合大學(xué)機器人學(xué)院講師,博士,主要研究方向為機器視覺及圖像復(fù)原;陳嘉星(2001—),女,江西新余人,北京聯(lián)合大學(xué)機器人學(xué)院本科生,主要研究方向為圖像處理;周昊(1998—),男,江西吉安人,北京聯(lián)合大學(xué)機器人學(xué)院本科生,主要研究方向為圖像去霧及數(shù)據(jù)分析;宏晨(1974—),男,寧夏青銅峽人,北京聯(lián)合大學(xué)機器人學(xué)院副教授,博士,主要研究方向為多智能體系統(tǒng)、智能決策;陳艾東(1978—),女,遼寧鞍山人,北京聯(lián)合大學(xué)機器人學(xué)院教授、碩士研究生導(dǎo)師,博士,主要研究方向為信息與網(wǎng)絡(luò)安全、AI安全、圖像處理。E-mail: jqrhongyuan@buu.edu.cn

      松溪县| 徐水县| 政和县| 紫云| 龙胜| 伊金霍洛旗| 郧西县| 五莲县| 黑山县| 宁远县| 鱼台县| 延长县| 南阳市| 南澳县| 灵宝市| 永胜县| 黄山市| 乌兰县| 永丰县| 东山县| 五指山市| 祁东县| 广汉市| 星子县| 虹口区| 克什克腾旗| 合肥市| 方正县| 湾仔区| 堆龙德庆县| 福贡县| 竹山县| 乳源| 冷水江市| 中山市| 泸溪县| 天等县| 沁源县| 平武县| 塔城市| 华容县|