楊翠倩,周亞同,何 昊,崔 燾,王 楊
(1.河北工業(yè)大學(xué)電子信息工程學(xué)院,天津300401;2.中海油田服務(wù)股份有限公司物探事業(yè)部,天津300451)
地震勘探正向深層勘探以及地面地質(zhì)條件復(fù)雜區(qū)發(fā)展,對(duì)地震數(shù)據(jù)采集質(zhì)量的要求不斷提高[1]。在地震勘探中,地震數(shù)據(jù)不可避免被隨機(jī)噪聲干擾,從而影響地震數(shù)據(jù)后續(xù)處理。因此,有效消除隨機(jī)噪聲,最大限度保留有效信息是地震數(shù)據(jù)處理的關(guān)鍵步驟之一。
根據(jù)地震數(shù)據(jù)中噪聲的特點(diǎn),人們提出了多種壓制噪聲的方法。傳統(tǒng)的去噪方法主要包括空間域去噪方法[2]、變換域去噪方法[3]、字典學(xué)習(xí)[4]和混合域去噪方法[5]。其中,空間域去噪方法主要利用塊之間的相似性去噪,例如非局部均值濾波[6],但是由于塊之間的權(quán)重計(jì)算代價(jià)過(guò)大、耗時(shí)過(guò)多,導(dǎo)致該方法不實(shí)用?;谧儞Q域的去噪方法包括傅里葉變換、小波變換[7]和Shearlet變換[8]等,其基本思想是假設(shè)地震數(shù)據(jù)在變換域是稀疏的或可壓縮的,將地震數(shù)據(jù)轉(zhuǎn)換到其它域提高稀疏性。在變換域中,地震數(shù)據(jù)可以用一組稀疏基來(lái)表示。李民等[9]在Shearlet變換域中引入非局部均值對(duì)地震數(shù)據(jù)去噪,可以有效處理細(xì)節(jié)部分。上述方法需要估計(jì)噪聲水平,然而噪聲水平通常很難準(zhǔn)確估計(jì),并且可能產(chǎn)生不需要的偽影?;谧值鋵W(xué)習(xí)的方法主要依賴稀疏編碼和字典更新。NAZARI SIAHSAR等[10]提出了一種用于地震數(shù)據(jù)降噪的相干約束字典學(xué)習(xí)方法,該方法不需要先驗(yàn)噪聲,但復(fù)雜度較高?;诨旌嫌虻娜ピ敕椒ɡ枚嘤騼?yōu)勢(shì),能夠在克服每個(gè)域的局限性的同時(shí)提高去噪效果。LI等[11]將小波域中高階相關(guān)疊加合并到Curvelet變換中,用于消除地震隨機(jī)噪聲,但可能丟失復(fù)雜細(xì)節(jié)信息。
考慮到傳統(tǒng)去噪方法的不足,有必要進(jìn)一步探索新方法獲得高質(zhì)量的地震數(shù)據(jù)。卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)采用獨(dú)特的卷積結(jié)構(gòu),在特征學(xué)習(xí)[12]、目標(biāo)檢測(cè)[13]和圖像去噪[14]等領(lǐng)域均取得了顯著的應(yīng)用效果。CNN作為一種數(shù)據(jù)驅(qū)動(dòng)的學(xué)習(xí)方法,在壓制復(fù)雜地震數(shù)據(jù)的隨機(jī)噪聲方面起著至關(guān)重要的作用,將含噪地震數(shù)據(jù)映射到無(wú)噪聲的地震數(shù)據(jù),從而恢復(fù)地震數(shù)據(jù)。ZHAO等[15]將改進(jìn)的去噪卷積神經(jīng)網(wǎng)絡(luò)(de-noising convolutional neural network,DnCNN)用于壓制沙漠低頻噪聲,能夠在無(wú)需人工調(diào)節(jié)參數(shù)的情況下獲得無(wú)噪聲的地震剖面。然而,機(jī)械地疊加卷積層會(huì)使網(wǎng)絡(luò)更難學(xué)習(xí)到有效特征,可能導(dǎo)致過(guò)度擬合或性能飽和[16]。ZHANG等[17]利用基于塊的深度卷積神經(jīng)網(wǎng)絡(luò)去噪方法,訓(xùn)練多種CNN模型對(duì)數(shù)據(jù)塊進(jìn)行聚類和去噪,在壓制隨機(jī)噪聲方面具有出色性能。然而,上述方法將所有通道一視同仁,忽略了關(guān)鍵特征的重要性。由于卷積運(yùn)算局部感知的特點(diǎn),導(dǎo)致感受野受限,無(wú)法獲得輸入特征圖的全局信息。CAO等[18]提出了一種基于全局上下文的建??蚣?其感受野能夠覆蓋整個(gè)特征圖,從而克服了卷積神經(jīng)網(wǎng)絡(luò)關(guān)注局部特征的缺點(diǎn),能夠提取豐富的局部和全局信息。TIAN等[19]將注意力機(jī)制與CNN結(jié)合提出了ADNet網(wǎng)絡(luò),并且利用擴(kuò)張卷積增大感受野,能夠在復(fù)雜背景中提取噪聲信息,獲得了很好的去噪效果。
受全局上下文模塊和注意力機(jī)制的啟發(fā),本文提出了一種基于全局上下文和注意力機(jī)制的深度卷積神經(jīng)網(wǎng)絡(luò)(global context and attention-based deep convolutional neural network,GC-ADNet)。其中,全局上下文模塊對(duì)輸入特征圖進(jìn)行全局上下文建模,能夠獲得豐富的深、淺層特征;注意力模塊有助于網(wǎng)絡(luò)從復(fù)雜背景中提取噪聲。除此之外,還利用殘差學(xué)習(xí)[20]避免梯度消失,批量規(guī)范化[21](Batch Normalization,BN)加速網(wǎng)絡(luò)收斂,擴(kuò)張卷積[22]增加感受野。地震數(shù)據(jù)的去噪實(shí)驗(yàn)結(jié)果表明,GC-ADNet在特定噪聲水平和未知噪聲水平兩種情況下均優(yōu)于其它去噪方法,比如三維塊匹配濾波(BM3D)[23]、加權(quán)核范數(shù)最小化(WNNM)[24]、去噪卷積神經(jīng)網(wǎng)絡(luò)(DnCNN)[25]、盲去噪卷積神經(jīng)網(wǎng)絡(luò)(DnCNN-B)等的去噪效果。
含隨機(jī)噪聲的地震數(shù)據(jù)表示如下:
y=x+n
(1)
式中:x表示無(wú)噪聲地震數(shù)據(jù);n代表隨機(jī)噪聲;y代表含噪地震數(shù)據(jù)。其中,x與n不相關(guān)。由于本文主要關(guān)注隨機(jī)噪聲的壓制,所以假設(shè)噪聲n為高斯噪聲,且服從方差為σ,均值為0的正態(tài)分布,即n∈N(0,σ)。
地震數(shù)據(jù)去噪是從含噪地震數(shù)據(jù)中恢復(fù)無(wú)噪聲的地震數(shù)據(jù)。使用均方誤差訓(xùn)練網(wǎng)絡(luò),即使用以下?lián)p失函數(shù)來(lái)訓(xùn)練網(wǎng)絡(luò)中的參數(shù):
(2)
1.1.1 殘差學(xué)習(xí)
在深度CNN中,一般認(rèn)為,網(wǎng)絡(luò)越深,性能越好。然而,當(dāng)網(wǎng)絡(luò)深度到達(dá)一定程度后,隨著網(wǎng)絡(luò)繼續(xù)加深,會(huì)出現(xiàn)梯度消失/爆炸。雖然正則初始化解決了梯度消失/爆炸的問(wèn)題,但會(huì)導(dǎo)致網(wǎng)絡(luò)退化,即隨著網(wǎng)絡(luò)層數(shù)的增加,在訓(xùn)練集上的準(zhǔn)確率趨于飽和,甚至下降。之后,殘差學(xué)習(xí)解決了網(wǎng)絡(luò)退化的問(wèn)題,增強(qiáng)了網(wǎng)絡(luò)的適應(yīng)性。在本文中,利用殘差學(xué)習(xí)將含有噪聲的地震數(shù)據(jù)映射到殘差數(shù)據(jù)中。為了得到無(wú)噪聲地震數(shù)據(jù)x,只需從含噪地震數(shù)據(jù)y中減去預(yù)測(cè)到的噪聲n,即
x=y-n
(3)
1.1.2 批量規(guī)范化
批量規(guī)范化類似于CNN中的卷積層,屬于網(wǎng)絡(luò)中的層間機(jī)制[26]。在網(wǎng)絡(luò)訓(xùn)練過(guò)程中,輸入數(shù)據(jù)的分布可能會(huì)發(fā)生變化,導(dǎo)致內(nèi)部協(xié)變量偏移[27]。因此,在各層非線性激活前加入BN層對(duì)數(shù)據(jù)規(guī)范化處理,使每一層的輸入數(shù)據(jù)具有近似相同的分布,從而能夠有效避免梯度消失,并且加快網(wǎng)絡(luò)訓(xùn)練,提高網(wǎng)絡(luò)的收斂速度。
首先將每批訓(xùn)練樣本大小設(shè)置為m,并且BN層的輸出被規(guī)范化為:
yk=BNγ,β(xk)
(4)
(5)
(6)
(7)
(8)
1.1.3 擴(kuò)張卷積
在CNN中,增大感受野是獲取更多上下文信息的常用方法。一般來(lái)說(shuō),在CNN中擴(kuò)大感受野的方法有兩種:增加網(wǎng)絡(luò)深度和擴(kuò)大濾波器尺寸。然而,增加網(wǎng)絡(luò)深度會(huì)導(dǎo)致網(wǎng)絡(luò)性能下降,而擴(kuò)大濾波器尺寸會(huì)增加參數(shù)數(shù)量和計(jì)算量。但是,擴(kuò)張卷積能夠在不增加計(jì)算量的同時(shí)增加感受野。若擴(kuò)張因子f=2,對(duì)于卷積核大小為3×3,步長(zhǎng)為1,層數(shù)為n的擴(kuò)張卷積,其感受野大小可表示為(4n+1)×(4n+1)。而對(duì)于深度為n的普通卷積層網(wǎng)絡(luò),其感受野大小為(2n+1)×(2n+1)。例如,當(dāng)f=2,n=10時(shí),擴(kuò)張卷積神經(jīng)網(wǎng)絡(luò)的感受野大小為41×41,相當(dāng)于20層普通的CNN卷積層?;谝陨显?一些學(xué)者在CNN中使用擴(kuò)張卷積增大感受野。例如,PENG等[28]利用對(duì)稱跳躍連接和擴(kuò)張卷積進(jìn)行去噪,能夠顯著提高網(wǎng)絡(luò)的訓(xùn)練效率;TIAN等[29]利用兩個(gè)并行的網(wǎng)絡(luò)和擴(kuò)張卷積在增加網(wǎng)絡(luò)寬度的同時(shí)增加感受野,提取更多特征,表現(xiàn)出了優(yōu)異的去噪效果。
1.1.4 全局上下文模塊
由于卷積具有局部感知的特點(diǎn),只能對(duì)局部區(qū)域進(jìn)行上下文建模,導(dǎo)致感受野受限。因此,堆疊多層卷積層進(jìn)行建模,不僅計(jì)算量大,而且難以優(yōu)化。全局上下文模塊(GCBlock),可以克服卷積神經(jīng)網(wǎng)絡(luò)關(guān)注局部特征的缺點(diǎn),對(duì)整個(gè)輸入特征圖進(jìn)行上下文建模。全局上下文模塊融合了非局部均值網(wǎng)絡(luò)(Non-Local Network)[30]、壓縮和激勵(lì)網(wǎng)絡(luò)(squeeze-and-excitation networks,SENet)[31]兩種方法,其中,Non-Local Network采用自注意力機(jī)制建模,利用其它位置的信息增強(qiáng)當(dāng)前位置的信息,但是計(jì)算量大;SENet對(duì)不同通道進(jìn)行權(quán)值重標(biāo)定,用于強(qiáng)調(diào)不同通道的重要性,但其不能充分利用全局上下文信息。所以,融合了兩種方法的GCBlock不僅可以對(duì)全局上下文建模,提取全局信息,而且能夠降低計(jì)算量。所以,增加GCBlock到網(wǎng)絡(luò)中,用于提取全局上下文信息,從而獲得更多、更豐富的淺層和深層特征。
1.1.5 注意力機(jī)制
提取合適的特征和關(guān)鍵的信息非常重要。然而,背景越復(fù)雜,提取特征越困難。注意力機(jī)制[32]使網(wǎng)絡(luò)將注意力集中于感興趣的區(qū)域,有利于提取特征。目前,注意力機(jī)制主要包括通道注意力和空間注意力。通道注意力著眼于強(qiáng)調(diào)不同通道對(duì)關(guān)鍵信息的貢獻(xiàn),若每個(gè)通道的數(shù)據(jù)都增加一個(gè)權(quán)重,該權(quán)重表示該通道與關(guān)鍵信息的相關(guān)度,那么權(quán)重越大,相關(guān)度越高。空間注意力機(jī)制用于強(qiáng)調(diào)特征圖的關(guān)鍵區(qū)域,提取重要特征。然而,在地震數(shù)據(jù)去噪方面,注意力機(jī)制的研究還很少。在本文中,注意力模塊包括卷積和相乘兩部分,作用在空間尺度上。將注意力模塊集成到CNN中進(jìn)行地震數(shù)據(jù)去噪,建立遠(yuǎn)程依賴,即利用當(dāng)前階段指導(dǎo)前一階段學(xué)習(xí)噪聲信息,能夠有效提取噪聲。
通常,不同的網(wǎng)絡(luò)結(jié)構(gòu)可以提取不同的特征。本文采用基于注意力的卷積神經(jīng)網(wǎng)絡(luò)為基礎(chǔ),結(jié)合GCBlock形成一個(gè)新的網(wǎng)絡(luò),即GC-ADNet,其網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。該網(wǎng)絡(luò)包含兩部分:主網(wǎng)絡(luò)和GCBlock。
主網(wǎng)絡(luò)包含17層,主要包括:Conv,ReLU,BN,Tanh和Dilated Conv。第1~15層包含Dilated Conv+BN+ReLU和Conv+BN+ReLU,其中,Dilated Conv的擴(kuò)張因子為2。網(wǎng)絡(luò)第1層的濾波器尺寸為1×3×3×64,2~15層的輸入和輸出通道為64,卷積核大小為3×3。第16層輸入通道為64,輸出通道為1,卷積核大小為3×3,即64×3×3×1。采用級(jí)聯(lián)運(yùn)算將含噪地震數(shù)據(jù)與第16層的輸出特征圖進(jìn)行融合,以增強(qiáng)網(wǎng)絡(luò)的特征表示能力。另外,Tanh可以將獲得的特征轉(zhuǎn)換為非線性特征的同時(shí)進(jìn)行歸一化。
圖1中虛線框內(nèi)為注意力模塊,用來(lái)增強(qiáng)網(wǎng)絡(luò)提取噪聲的能力。主要包含兩步:第一步利用第17層的1×1卷積將通道數(shù)轉(zhuǎn)換為1,進(jìn)行特征壓縮;第二步利用所獲得結(jié)果乘以第16層的輸出,以提取更顯著的噪聲特征。最后利用殘差學(xué)習(xí)將輸入的含噪地震數(shù)據(jù)減去提取到的噪聲,得到去噪后的地震數(shù)據(jù)。并且,在卷積過(guò)程中,采用零填充確保輸出特征圖大小與輸入特征圖大小一致。其中,?代表乘運(yùn)算,⊕表示殘差學(xué)習(xí)思想的實(shí)現(xiàn),即實(shí)踐中的減法運(yùn)算。
圖1 GC-ADNet網(wǎng)絡(luò)結(jié)構(gòu)
GCBlock的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,位于主網(wǎng)絡(luò)第七、八層之間,用來(lái)增強(qiáng)網(wǎng)絡(luò)獲得全局上下文信息的能力。首先采用1×1卷積和Softmax函數(shù),即濾波器尺寸為64×1×1×1,緊接著執(zhí)行相乘操作,獲得全局上下文信息。然后依次采用1×1卷積、LayerNorm、ReLU和1×1卷積進(jìn)行特征轉(zhuǎn)換,經(jīng)過(guò)兩個(gè)卷積后濾波器尺寸分別為64×1×1×16和16×1×1×64,其中LN表示在通道方向?qū)斎氲卣饠?shù)據(jù)進(jìn)行歸一化,最后利用相加操作進(jìn)行特征融合,即將全局上下文特征聚合到每個(gè)位置的特征上。其中,H和W分別表示特征圖的高和寬,C表示特征圖數(shù)目。
圖2 GCBlock網(wǎng)絡(luò)結(jié)構(gòu)
為了評(píng)估GC-ADNet的性能,訓(xùn)練了若干種不同的模型,包括已知噪聲水平的模型和未知噪聲水平的模型,對(duì)不同模型的去噪效果進(jìn)行比較。通過(guò)計(jì)算峰值信噪比(peak signal-to-noise ratio,PSNR)和結(jié)構(gòu)相似性(structural similarity index measurement,SSIM)來(lái)評(píng)估網(wǎng)絡(luò)的降噪能力和局部細(xì)節(jié)的保持能力。
1.3.1 已知噪聲水平的地震數(shù)據(jù)
基于CNN去噪方法的性能在很大程度上依賴于訓(xùn)練集的多樣性。為了加強(qiáng)GC-ADNet的泛化能力,有必要利用盡可能豐富的訓(xùn)練集對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。所以,利用人工合成和海上地震數(shù)據(jù)構(gòu)造訓(xùn)練集,部分訓(xùn)練樣本如圖3所示。訓(xùn)練集的地震數(shù)據(jù)共有128道,每道128個(gè)采樣點(diǎn),即大小為128×128,共535個(gè)訓(xùn)練樣本。由于不同窗口內(nèi)的地震數(shù)據(jù)包含不同細(xì)節(jié),因此在訓(xùn)練網(wǎng)絡(luò)時(shí),使用塊大小為50×50、步長(zhǎng)為10的滑動(dòng)窗口來(lái)截取數(shù)據(jù),同時(shí)采取旋轉(zhuǎn)和翻轉(zhuǎn)操作進(jìn)行數(shù)據(jù)增強(qiáng),在幅度歸一化后生成包含88275個(gè)樣本的數(shù)據(jù)集。在數(shù)據(jù)集中選取不同于訓(xùn)練集的14個(gè)地震數(shù)據(jù)作為測(cè)試集,包含人工合成和海上地震數(shù)據(jù),測(cè)試集中的地震數(shù)據(jù)共有128道,每道128個(gè)采樣點(diǎn)。
圖3 訓(xùn)練集中部分樣本
1.3.2 未知噪聲水平的地震數(shù)據(jù)
對(duì)于未知噪聲水平的地震數(shù)據(jù),GC-ADNet遵循DnCNN盲去噪的訓(xùn)練策略,除執(zhí)行與已知噪聲水平相同的步驟外,噪聲水平范圍設(shè)置為σ∈[0,55]。使用β1=0.900,β2=0.999的Adam優(yōu)化器,批大小設(shè)置為64,對(duì)于50個(gè)epoch,學(xué)習(xí)率從1×10-3(1~30),1×10-4(30~40)到1×10-5(40~50)變化,網(wǎng)絡(luò)訓(xùn)練參數(shù)如表1所示。利用Pytorch訓(xùn)練網(wǎng)絡(luò),實(shí)驗(yàn)在華為云平臺(tái)運(yùn)行,配置為8核64GiB CPU,32GB的nvidia-v100 GPU。
表1 網(wǎng)絡(luò)訓(xùn)練參數(shù)
分析全局上下文模塊在主網(wǎng)絡(luò)中不同位置的去噪效果。在噪聲水平為15的情況下,考慮3個(gè)位置:主網(wǎng)絡(luò)的第1層之后;第7層之后,即網(wǎng)絡(luò)的中間位置;第15層之后。去噪結(jié)果如表2所示。從表2中可知,當(dāng)全局上下文模塊位于主網(wǎng)絡(luò)的中間位置時(shí),去噪效果最好,此時(shí)網(wǎng)絡(luò)對(duì)全局上下文建模能力最強(qiáng)。
表2 不同位置上插入全局上下文模塊的測(cè)試結(jié)果
為了驗(yàn)證GCBlock和注意力模塊在網(wǎng)絡(luò)中的作用,在噪聲水平為15的情況下,將GC-ADNet與不含GCBlock、不含注意力模塊的網(wǎng)絡(luò)進(jìn)行比較,測(cè)試集上的PSNR和SSIM的性能曲線如圖4所示。由圖4可知,隨著時(shí)期(epoch)的增加,不含GCBlock的網(wǎng)絡(luò)和不含注意力模塊的網(wǎng)絡(luò)去噪后信噪比低于GC-ADNet。表3總結(jié)了不同模塊組合對(duì)測(cè)試集去噪效果的影響。與GC-ADNet相比,不含GCBlock網(wǎng)絡(luò)的PSNR和SSIM分別降低了0.22dB和0.0003;同時(shí),不含注意力模塊網(wǎng)絡(luò)的PSNR和SSIM分別降低了0.19dB和0.0006,表明GCBlock和注意力模塊在不同程度上增強(qiáng)了網(wǎng)絡(luò)的去噪性能。
圖4 不同模塊對(duì)測(cè)試集去噪效果的影響a 測(cè)試集上的PSNR性能曲線; b 測(cè)試集上的SSIM性能曲線
表3 不同模塊組合對(duì)測(cè)試集去噪效果的影響
2.3.1 不同深度學(xué)習(xí)模型收斂速度和去噪效果比較
圖5展示了GC-ADNet和DnCNN在噪聲水平為15時(shí)訓(xùn)練過(guò)程中的收斂速度。其中,loss代表由(2)式計(jì)算所得的損失函數(shù)值。由圖5可見(jiàn),GC-ADNet不僅起始值最小,且一直低于DnCNN,并持續(xù)下降趨于穩(wěn)定。圖6a和圖6b分別顯示了在σ=15時(shí)不同模型在測(cè)試集上的平均PSNR和平均SSIM。
圖5 GC-ADNet和DnCNN在噪聲水平為15時(shí)訓(xùn)練過(guò)程中的收斂速度
由圖6可以看出,GC-ADNet的PSNR和SSIM高于DnCNN,去噪效果更好。
圖6 σ=15時(shí)不同模型在測(cè)試集上的平均PSNR(a)和平均SSIM(b)
2.3.2 人工合成地震數(shù)據(jù)去噪結(jié)果
為了驗(yàn)證GC-ADNet的優(yōu)越性,圖7給出了測(cè)試集中的某人工合成地震數(shù)據(jù)及其采用不同方法得到的去噪結(jié)果。圖7a為無(wú)噪聲的人工合成地震數(shù)據(jù);圖7b為向圖7a中加入噪聲水平為25的高斯噪聲所得地震數(shù)據(jù),其PSNR為20.27dB,SSIM為0.5663;圖7c至圖7f分別為采用不同的去噪方法得到的結(jié)果,其PSNR和SSIM分別為35.11dB、0.9783,37.96dB、0.9884,40.57dB、0.9976,41.26dB、0.9979。觀察圖7可以發(fā)現(xiàn),圖7c和圖7d中地震數(shù)據(jù)不同程度地出現(xiàn)了模糊、邊緣不清晰的現(xiàn)象;圖7e和圖7f中地震數(shù)據(jù)質(zhì)量很高,圖7f中地震數(shù)據(jù)的同相軸最清晰,表明去噪后的地震數(shù)據(jù)與原始地震數(shù)據(jù)高度相似,說(shuō)明了GC-ADNet去除噪聲的有效性。
圖7 某人工合成地震數(shù)據(jù)及采用不同方法得到的去噪結(jié)果a 無(wú)噪聲地震數(shù)據(jù); b 含噪地震數(shù)據(jù); c BM3D去噪結(jié)果; d WNNM去噪結(jié)果; e DnCNN去噪結(jié)果; f GC-ADNet去噪結(jié)果
2.3.3 海上地震數(shù)據(jù)去噪結(jié)果
為了進(jìn)一步驗(yàn)證GC-ADNet的去噪能力和保持局部細(xì)節(jié)的能力,針對(duì)測(cè)試集中的某海上地震數(shù)據(jù),圖8給出了不同方法的去噪結(jié)果。
圖8a為不含噪聲的地震數(shù)據(jù);圖8b為對(duì)圖8a 添加方差σ=50的高斯噪聲所得地震數(shù)據(jù),其PSNR為14.08dB,SSIM為0.5500;圖8c至圖8f分別顯示了采用不同去噪方法得到的去噪結(jié)果,其PSNR和SSIM分別為23.29dB、0.7642,23.53dB、0.9104,25.00dB、0.9547,25.50dB、0.9598。觀察圖8c和圖8d 可知,BM3D和WNNM去噪后的地震數(shù)據(jù)不同程度出現(xiàn)模糊,同時(shí)邊緣不清晰,無(wú)法保持地震數(shù)據(jù)的紋理和細(xì)節(jié);從圖8e和圖8f可知,去噪后地震數(shù)據(jù)的紋理和細(xì)節(jié)都得到了較好的恢復(fù);DnCNN去噪后的地震數(shù)據(jù)邊緣部分出現(xiàn)了輕微的模糊,GC-ADNet去噪后的地震數(shù)據(jù)邊緣清晰,并且PSNR和SSIM值比其它方法高。通過(guò)人工觀察和客觀評(píng)價(jià)指標(biāo)可知,GC-ADNet能夠在壓制隨機(jī)噪聲的同時(shí),保留更多的局部細(xì)節(jié)。
為了更清楚地觀察去噪后的結(jié)果,對(duì)圖8中紅框部分采用變面積的方式顯示,如圖9所示。
圖8 某海上地震數(shù)據(jù)及采用不同去噪方法得到的結(jié)果a 無(wú)噪聲地震數(shù)據(jù); b 含噪地震數(shù)據(jù); c BM3D去噪結(jié)果; d WNNM去噪結(jié)果; e DnCNN去噪結(jié)果; f GC-ADNet去噪結(jié)果
圖9a表示無(wú)噪聲的地震數(shù)據(jù);圖9b表示含噪地震數(shù)據(jù);圖9c至圖9f分別為采用不同去噪方法得到的去噪結(jié)果。從圖9可以看出,4種去噪方法均能較好地壓制隨機(jī)噪聲,然而,圖9c和圖9d中紅色圓圈內(nèi)的同相軸未完全恢復(fù),并且邊緣部分恢復(fù)效果相較于無(wú)噪聲的地震數(shù)據(jù)相差較大。從圖9e和圖9f可以看出,兩種深度學(xué)習(xí)去噪方法均較好地恢復(fù)了地震數(shù)據(jù),圖9e紅色圓圈內(nèi)仍有少部分噪聲殘留,邊緣部分同樣不清晰;圖9f不僅恢復(fù)了地震數(shù)據(jù),并且保持了地震數(shù)據(jù)的細(xì)節(jié)和紋理,進(jìn)一步展示了GC-ADNet的優(yōu)勢(shì)。
為了更直觀地分析去噪結(jié)果,圖10給出了不同方法去噪后的殘差剖面。在圖10a和圖10b中有較多地震數(shù)據(jù)殘留,其噪聲壓制效果差;圖10d中殘留的地震數(shù)據(jù)較圖10c少,這表明GC-ADNet具有更好的噪聲壓制能力和局部細(xì)節(jié)保持能力。
圖10 海上地震數(shù)據(jù)不同去噪方法得到的殘差剖面a BM3D; b WNNM; c DnCNN; d GC-ADNet
2.3.4 與其它去噪方法結(jié)果對(duì)比
為了進(jìn)一步驗(yàn)證GC-ADNet去噪方法的優(yōu)越性,將BM3D,WNNM,DnCNN,GC-ADNet 4種去噪方法應(yīng)用于噪聲水平為5,15,25,50的地震數(shù)據(jù)測(cè)試集,得到平均PSNR和平均SSIM,結(jié)果見(jiàn)表4。從表4可知,GC-ADNet得到的PSNR和SSIM較傳統(tǒng)方法均有明顯提高,與DnCNN相比,GC-ADNet的去噪效果更優(yōu)。
表4 將不同去噪方法應(yīng)用于噪聲水平為5,15,25,50的地震數(shù)據(jù)測(cè)試集得到的平均PSNR和SSIM
采用GC-ADNet和DnCNN分別對(duì)噪聲進(jìn)行盲去噪。圖11列出了GC-ADNet和DnCNN在訓(xùn)練過(guò)程中的收斂速度。從圖11可以看出,隨著epoch的增加,GC-ADNet的loss值始終低于DnCNN。在測(cè)試集上分別計(jì)算不同噪聲水平下的平均PSNR和SSIM,所得實(shí)驗(yàn)結(jié)果如圖12所示。
圖11 GC-ADNet和DnCNN在訓(xùn)練過(guò)程中的收斂速度
由圖12可見(jiàn),隨著噪聲水平的增大,GC-ADNet的平均PSNR值和平均SSIM值始終高于DnCNN。表明對(duì)于盲去噪,GC-ADNet的去噪效果優(yōu)于DnCNN。
圖12 不同模型在不同噪聲水平下的平均PSNR(a)和平均SSIM(b)
為了驗(yàn)證GC-ADNet的實(shí)用性,選取另一野外海上單炮數(shù)據(jù)進(jìn)行測(cè)試,如圖13a所示,該數(shù)據(jù)共有128道,每道250個(gè)采樣點(diǎn),道間距為12m,時(shí)間采樣率為2ms??梢钥闯?地震數(shù)據(jù)受到隨機(jī)噪聲的干擾,同相軸不清晰。圖13b至圖13e分別顯示了對(duì)該單炮數(shù)據(jù)采用不同方法得到的去噪結(jié)果;圖13f顯示了GC-ADNet去除的隨機(jī)噪聲。對(duì)比圖13b、圖13c、圖13d和圖13e 可知,BM3D去噪后的地震數(shù)據(jù)仍有噪聲殘留;WNNM去噪后地震數(shù)據(jù)過(guò)于平滑,部分同相軸沒(méi)有被恢復(fù);DnCNN和GC-ADNet去噪后的結(jié)果中局部同相軸保留更加完整,GC-ADNet比DnCNN去噪后的結(jié)果更加清晰,保持了地震數(shù)據(jù)的紋理和細(xì)節(jié),進(jìn)一步展示了GC-ADNet的有效性和實(shí)用性。
圖13 某野外海上單炮數(shù)據(jù)及采用不同去噪方法得到的結(jié)果a 含噪地震數(shù)據(jù); b BM3D去噪結(jié)果; c WNNM去噪結(jié)果; d DnCNN去噪結(jié)果; e GC-ADNet去噪結(jié)果; f GC-ADNet去除的隨機(jī)噪聲
傳統(tǒng)的地震數(shù)據(jù)去噪方法受頻譜分布和方法調(diào)優(yōu)的限制,去噪結(jié)果中往往存在噪聲殘留和數(shù)據(jù)模糊等問(wèn)題。本文在ADNet的基礎(chǔ)上加入了全局上下文模塊,提出了一種壓制隨機(jī)噪聲的深度卷積神經(jīng)網(wǎng)絡(luò)。GC-ADNet可以使網(wǎng)絡(luò)獲取更多的全局上下文信息,提取豐富的淺層和深層特征;同時(shí),注意力模塊能夠有效提取復(fù)雜背景中的噪聲。與傳統(tǒng)去噪方法和其它深度學(xué)習(xí)方法相比,GC-ADNet不僅能夠壓制噪聲,而且能夠保留更多的局部細(xì)節(jié)。
通過(guò)對(duì)地震數(shù)據(jù)去噪及分析得出GC-ADNet比BM3D、WNNM和DnCNN等方法去噪效果更好,PSNR和SSIM值更高;同時(shí)盲去噪結(jié)果也優(yōu)于DnCNN。從野外地震數(shù)據(jù)去噪結(jié)果來(lái)看,GC-ADNet能夠壓制隨機(jī)噪聲,保持地震數(shù)據(jù)細(xì)節(jié)和紋理。但本文方法在提取多尺度特征等方面存在不足,暫時(shí)無(wú)法充分利用地震數(shù)據(jù)的自相似性。在未來(lái)的工作中,我們將探索并改進(jìn)方法以提取多尺度特征,增強(qiáng)去除隨機(jī)噪聲的能力。