• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于特征融合和動態(tài)多尺度空洞卷積的超聲甲狀腺分割網絡

      2021-03-18 13:45:58*
      計算機應用 2021年3期
      關鍵詞:空洞尺度卷積

      *

      (1.山西省醫(yī)學影像與數(shù)據(jù)分析工程研究中心(中北大學),太原 030051;2.中北大學大數(shù)據(jù)學院,太原 030051;3.山西省醫(yī)學影像人工智能工程技術研究中心(中北大學),太原 030051)

      0 引言

      甲狀腺是人體內分泌系統(tǒng)的腺體,也是最大的內分泌腺體之一,甲狀腺的分割對于診斷甲狀腺相關疾病至關重要。現(xiàn)如今人們主要通過超聲影像來確定甲狀腺結節(jié)的位置和大?。?]。伴隨著計算機視覺技術的發(fā)展,計算機輔助診斷技術也逐步應用于廣大現(xiàn)實醫(yī)療場景中。語義分割是計算機視覺中一項重要但具有挑戰(zhàn)性的任務,通過對圖像中每個像素分配類別標簽從而區(qū)分不同目標區(qū)域。目前醫(yī)學圖像分割主要有兩種思路:一種是依靠啟發(fā)式先驗(例如顏色、紋理和對比度)分析圖像各像素值間的差異性來劃分區(qū)域分割線;另一種是采用深度神經網絡捕獲圖像高級語義關系和上下文信息,從而劃分圖像前背景信息。Quan 等[2]將歸一化切割(Normalized cuts,Ncut)方法應用于合并過分割的區(qū)域,處理超聲圖像的強噪聲、斑點及弱邊緣問題。Zhuang 等[3]采用基于超聲的模糊增強技術與分數(shù)布朗運動(Fractional Brownian Motion,F(xiàn)BM)模型相結合,增強其超聲圖像的對比度與分割效果;但僅依據(jù)紋理信息可能導致最終分割結果并不完整,并且由于超聲影像反饋的斑點強度并非唯一的隨機模式,采用啟發(fā)式先驗的方法對于復雜場景還不夠健壯。Alom 等[4]將U型網絡(U Network,U-Net)、殘差網絡結構與循環(huán)神經網絡結構結合,提出了殘差U-Net(Residual U-Net,RU-Net)和循環(huán)殘差U-Net(Recurrent Residual U-Net,R2U-Net),并使用該網絡進行了視網膜圖像中的血管分割、皮膚癌分割和肺損傷分割。Nandamuri等[5]通過一種全卷積神經網絡SUMNet實現(xiàn)對超聲甲狀腺的快速分割。遲劍寧等[6]融合深度網絡和淺層紋理特征診斷甲狀腺結節(jié)癌變情況。這些模型采用編碼器-解碼器結構,其結構簡單且計算效率高。編碼器通常由預先訓練的分類模型組成,例如殘差網絡(Residual Network,ResNet)和超分辨率測試序列(Visual Geometry Group,VGG),該編碼器可以提取出不同語義級別的多個抽象特征。在解碼器中,提取的特征被組合生成圖像中的目標響應區(qū)域。就超聲甲狀腺圖像來說,甲狀腺組織分布于肌肉和支氣管之間的組織間隙,因其超聲掃描時通常是采用手持式掃描儀對甲狀腺進行掃描,導致其在超聲影像中大小、形狀及周邊組織存在明顯差異,同時甲狀腺組織周邊復雜器官干擾使得圖像分割不理想。

      針對甲狀腺超聲圖像中甲狀腺組織差異性大以及圖像非顯著性目標分割不明確的問題,探究深度學習技術對于甲狀腺超聲影像分割方面的準確性,根據(jù)卷積神經網絡高低維特征的信息量不同以及增強感受野獲取多尺度語義特征的方法,本文設計動態(tài)多尺度空洞卷積模塊(Dynamic Multi-Scale Dilated Convolution,DMDC)與特征融合注意力模塊(Fusion Attention Module,F(xiàn)AM),能較好地處理超聲圖像復雜目標多尺度變化及顯著性分割問題。本文的主要工作有以下幾點:

      1)設計動態(tài)多尺度空洞卷積模塊,利用多尺度空洞卷積獲取的不同感受野的語義特征,采用動態(tài)卷積模塊,處理形態(tài)大小差異較大的目標區(qū)域,增強網絡提取不同尺度目標特征的語義信息,有效解決分割目標形態(tài)差異性較大的問題。

      2)設計混合上采樣模塊(Hybrid UpSampling Module,HUSM),根據(jù)神經網絡高低維度特征所包含的信息量不同,在解碼器中對于高維度信息還原時增強其位置信息,對于低維度信息則增強其空間語義信息,提高網絡分割效果。

      3)設計特征融合注意力模塊,針對淺層網絡提取特征背景冗余特征干擾及高低維度特征統(tǒng)計差異較大,采用空間注意力機制激活響應低維度特征中的顯著性目標區(qū)域,弱化背景信息,同時采用高低維度特征融合的方式,增強高低維度特征的重要特征、摒棄冗余噪聲,大幅度提升網絡對于前背景區(qū)域的分割能力。

      1 相關工作

      1.1 高低維度特征分析

      基于醫(yī)學圖像的語義分割主要是通過深度卷積層不斷抽象圖像的高級語義特征,再逐步還原圖像細節(jié)及邊緣信息,最終達到前背景分離的效果。對于卷積神經網絡來說,文獻[7-8]提出不同深度的特征對于圖像內容的抽象程度不同,隨著卷積神經網絡層數(shù)的增加,特征逐漸由低級表示演化成高級表示。對于低維度特征來說,主要包含了圖像的紋理信息及空間位置信息;而對于高維特征來說,將特征降維可視化后可獲取目標區(qū)域的近似范圍,表明圖像的語義信息和內在含義。采用解碼器-編碼器的U型結構,通過自上而下抽象圖像語義再由下而上地還原細節(jié)特征,同時采用跳層連接的方式用低維度的特征引導細化高維信息特征還原。這種方式對于醫(yī)學影像的語義分割任務能起到很好的效果。如圖1 所示,低維特征在提供豐富細節(jié)信息的同時也充滿了背景噪聲,導致在由深至淺的過程中,來自深層的信息會逐步被來自淺層的信息所淹沒。如果無法對模型中的特征進行一定的篩選控制,某些冗余的特征(包括來自低層的噪聲和高層的粗糙邊界)將可能導致圖像分割效果性能下降。使用注意力引導網絡來選擇和提取補充特征并將其集成來增強顯著性目標區(qū)域[9]。對于低維度特征來說,應對對象的位置信息進行篩查過濾,盡可能關注響應目標區(qū)域,弱化其他非目標區(qū)域的噪聲干擾。對于高維度信息來說,應彌補不斷下采樣而缺失的空間位置信息以及忽略降維時引入的冗余特征。高低層特征應在保留自身有效信息的同時相互細化并摒棄冗余信息,便于對高維特征解碼降維時降低其他噪聲的干擾。

      1.2 多尺度特征提取

      由圖1 可以看出,對于同一個超聲甲狀腺數(shù)據(jù)集來說,因甲狀腺組織的分布位置及超聲掃描的問題,其目標區(qū)域在圖像中的尺寸、形態(tài)及數(shù)量上有明顯差異。由于物體在復雜場景中有大規(guī)模的變化,因此有必要采用多尺度特征提取來準確有效地分割像素級圖像[10]。設計Encoder-Decoder 模塊[11]來融合不同層級間的特征,整合不同接受場的不同網絡層的結果從而捕獲不同的比例特征[12],這些方法忽略了不同比例尺上特征的一致性。空洞空間卷積池化金字塔模塊(Atrous Spatial Pyramid Pooling,ASPP)[13]并行采用不同膨脹率的空洞卷積(如圖2 所示),融合不同感受野下的特征獲取多尺度的特征信息。金字塔場景解析網絡(Pyramid Scene Parsing Network,PSPNet)[14]采用池化金字塔模塊對不同尺寸圖像執(zhí)行池化操作,這些操作在一定程度上會稀疏圖像特征信息,導致無法捕獲相鄰信息和圖像的詳細信息。因此,使用不同膨脹率的空洞卷積在獲取不同感受野下的圖像語義特征時,還可捕獲與輸入特征相關的不同比例尺下的特征信息來彌補因空洞卷積而缺失的細節(jié)信息。

      圖1 甲狀腺超聲影像及特征提取圖Fig.1 Thyroid ultrasound images and feature extraction images

      圖2 不同空洞率的空洞卷積感受野對比Fig.2 Comparison of receptive fields of dilated convolutions with different dilation rates

      2 特征融合和動態(tài)多尺度空洞卷積網絡

      2.1 網絡架構

      本文提出的超聲圖像分割模型整體結構如圖3 所示。整體為編碼-解碼的U 型結構。采用ResNet34 的預訓練模型作為網絡編碼器,利用遷移學習的方法提取圖像紋理信息及空間信息特征;同時在編碼器和解碼器中添加動態(tài)多尺度空洞卷積模塊,獲取不同尺度下的特征信息和不同感受野下的全局信息。解碼時根據(jù)高低維度特征所包含的信息量不同,采用混合上采樣模型,彌補高維特征的位置信息及低維特征中像素點間的上下文信息。在U-Net 的跳層結構中添加特征融合注意力模塊,細化高低維度信息特征減少冗余信息干擾,增強目標區(qū)域的顯著性,再用編碼器的抽象特征引導解碼器特征還原,獲取較為完整和精準的目標區(qū)域。本文網絡主要包含3 部分結構:動態(tài)多尺度空洞卷積模塊、混合上采樣模塊和特征融合注意力模塊。動態(tài)多尺度空洞卷積模塊采用空洞卷積和動態(tài)卷積獲取不同感受野下的特征信息和不同比例下的區(qū)域特征信息,采用信息融合的方式獲取多尺度的特征信息,增強網絡對于多尺度目標的分割能力;混合上采樣模塊采用最大上池化和反卷積的方式,增強不同維度特征信息的空間信息及語義信息,提高網絡的分割準確性;特征融合注意力模塊采用特征融合方法優(yōu)化高低維度特征信息摒棄冗余信息,同時采用注意力機制增強網絡對于關鍵信息的獲取,提升網絡對于顯著性目標區(qū)域的分割能力。

      圖3 網絡總體結構Fig.3 Overall network structure

      2.2 動態(tài)多尺度空洞卷積

      在深度卷積網絡中具有不同接受場的過濾器可以捕獲不同比例的物體,如果感受野只能覆蓋目標區(qū)域的一小部分,可能會導致分割結果不一致;如果感受野遠大于小規(guī)模的目標區(qū)域,使得網絡對背景信息關注更多,導致小物體分割不理想??梢允褂枚喾N不同感受野的卷積來捕獲尺寸變化范圍較大的對象??斩淳矸e在擴大感受野的同時不需要增加額外的參數(shù)和計算成本,通過對空洞卷積膨脹率的設置即可獲取不同感受野下的特征信息。ASPP 通過采用并行不同膨脹率的空洞卷積來捕獲多尺度信息,整合不同感受野下的特征信息來處理圖像多尺度問題。該方法在一定程度上可以處理尺寸變化,但因采用不同擴張率的卷積無法衡量其對目標尺度變化范圍,這樣稀疏采樣的方式也可能丟失圖像像素間的關聯(lián)性,使用較大擴張率的卷積也可能導致網格化偽影,該結構對于圖像尺寸較為敏感,可能導致小尺寸目標邊界效應甚至分割退化[14]。因此,本文結合ASPP 結構的優(yōu)缺點,提出了動態(tài)多尺度空洞卷積模塊,通過動態(tài)濾波器生成不同尺度區(qū)域大小的過濾器獲取不同尺度下的特定圖像特征,與該感受野下的特征信息相融合,降低網絡對于圖像尺寸的敏感度,同時避免網格化和邊界消失的問題。如圖4 所示,對于動態(tài)多尺度空洞卷積模塊來說,其主體分為兩條支路:第一條采用空洞卷積獲取全局不同感受野下的特征,第二條根據(jù)輸入圖像的區(qū)域上下文動態(tài)生成不同尺寸的卷積核,捕獲輸入圖像的內部變化及高級語義特征,最后采用融合的方法將全局信息與內部變化進行融合,獲取更為準確有效的多尺度目標信息。

      對于輸入特征x∈RW×H×C,首先采用空洞率為k、卷積核為3×3的空洞卷積獲取不同感受野下的全局特征fk,同時對輸入特征采用自適應平均池化層(Adaptive Average Pooling,AAP)獲取區(qū)域大小為k×k的上下文信息,再采用1×1 卷積整合上下文感知區(qū)域特征gk,然后與不同感受野下的全局特征使用1×1 的深度卷積來融合兩者的特征信息,獲取該特定比例下的特征信息。本文k選取為1、3、5,因特定比例下特征信息的尺寸大小并未發(fā)生改變,最后將不同比例下的特征在通道維度上拼接,獲取通道數(shù)擴張4 倍的特征向量,最后采用卷積壓縮通道數(shù)至原始輸入大小,所獲特征即為捕獲圖像多尺度內容。

      其中:Fk為空洞率為k、卷積核為3×3 的空洞卷積與1×1 卷積;Gk包含一個自適應平均池化層(AAP)、1×1 卷積和k×k的卷積核;?為深度卷積;hk采用1×1的卷積融合特征通道信息。對于原始圖像而言,輸入尺寸大小為256×384,經過6 個編碼器后,其輸出特征尺寸為8×12,對于空洞率為k=1、3、5的空洞卷積來說,可分別獲取3、7、11 大小的感受野信息,該感受野的大小基本近似于全局特征的尺寸大小。同樣選用卷積核大小為1、3、5 的過濾器,也能更好地獲取不同卷積大小下的特定目標區(qū)域信息。因此,該模塊能較好地獲取全局特征下的不同感受野下的特征和不同尺寸下的詳細特征信息,降低對于圖像目標區(qū)域形態(tài)、大小尺寸的敏感性。

      圖4 動態(tài)多尺度空洞卷積Fig.4 Dynamic multi-scale dilated convolution

      2.3 混合上采樣模塊

      在深度神經網絡中,隨著網絡層的不斷加深,特征逐漸由低級可視紋理信息逐步抽象為高級全局語義信息。對于低維度特征信息來說,其主要獲取的是圖像的紋理信息及細節(jié)信息,但也包含了較多的背景特征及噪聲信息,所以對低維度特征信息應該增強圖像全局信息獲取,同時弱化圖像噪聲干擾。對于高級語義信息來說,在網絡不斷下采樣的過程中,高級信息具有豐富的語義但也逐漸缺乏原始圖像的空間位置信息。為了彌補因不斷下采樣而缺失空間信息特征的高維信息以及降低維度特征還原時噪聲干擾,本文設計了混合上采樣模塊,通過采用最大反池化上采樣及反卷積上采樣兩種方式處理解碼層中特征還原細節(jié)信息。構建解碼器時,對于高維度特征,獲取其在編碼器進行最大池化操作而傳輸?shù)某鼗饕鶕?jù)最大池化索引來引導還原高維特征信息進行上采樣,增強特征的空間信息特征。對于低維度特征上采樣時,為增強其全局信息的特征,采用膨脹率為3 的反卷積對圖像進行上采樣,弱化圖像的復雜紋理信息同時增強圖像的全局特征信息。本文網絡采用編碼器-解碼器結構,編碼器中采用ResNet34 的前4 個提取塊作為特征提取器,其采用卷積進行下采樣獲取圖像抽象信息,經過4 次下采樣后圖像的位置信息和紋理信息已明顯抽象化,對于其高維特征的下采樣應更多關注其位置響應的變化,故再添加兩個提取塊,采用最大池化的下采樣方式提取特征中的顯著位置特征,并保存該位置信息。因此對于解碼器來說,本文沿用U-Net 的對稱結構,采用與編碼器對稱的上采樣方式,即對于較高維度的前2 個解碼器中的特征通過對應的最大池化索引坐標采用最大上池化的方式進行上采樣,增強特征還原時位置信息的引入;其余解碼器的特征還原則主要采用反卷積的方式,還原特征全局的信息。

      2.4 特征融合注意力模塊

      在編碼器-解碼器網絡中,跳層結構可視為遠程的殘差塊結構,使用解碼器中抽象特征逐步引導還原高維語義特征的細節(jié)紋理信息。對于網絡前幾層而言其更多獲取的是邊界紋理特征,如果跳層結構僅是簡單地采用元素相加來合并高級語義信息和低級信息特征,也會傳遞雜亂和嘈雜的背景和噪聲信息,降低圖像分割效果。隨著卷積神經網絡層數(shù)的增加,圖像特征通道數(shù)不斷增加而尺寸逐步縮小,特征也逐步由低維空間特征轉換為高維語義特征,高維語義特征包含了全局的內在含義,盡管丟失了較多的詳細信息,但其本身還是有一致的語義和背景信息,高低維特征之間還是存在較大的統(tǒng)計差異。因此,為了能更好地緩解高低維度特征間的差異性,使之能夠在保留自身重要特征的同時抑制特征中的冗余信息以避免特征間相互污染。本文在空間注意力的基礎上進一步分析特征融合的方法,設計特征融合注意力模塊,將高低維特征融合與空間注意力機制相結合,增強低維信息關鍵區(qū)域的獲取以及優(yōu)化高低維特征信息的重要特征,提升網絡劃分前背景信息和圖像顯著性目標檢測的能力。

      如圖5 所示,為關注特征圖中的目標區(qū)域,降低其他復雜環(huán)境下其他顯著性目標區(qū)域的影響,同時增強圖像邊緣的信息和特征本身的邊界信息,本文采用增強圖像邊界信息和感興趣區(qū)域的空間注意力模塊。在注意力機制中,通常采用全局平均池化或是全局最大池化的方式來獲取圖像的顯著性目標響應,但是全局平均池化將位置響應賦予相同的權重值可能高估目標區(qū)域,而全局最大池化僅響應圖像中最大響應位置無法拓展完整對象?,F(xiàn)有注意力結構通常采用將兩者并聯(lián)或串聯(lián)來激活響應圖像特征,但兩者均未對圖像邊界信息進行考慮,因此本文在原有全局最大池化的基礎上進一步增加對圖像的顯著性邊緣的關注。對于低維特征信息fl∈RW×H×C采用全局最大池化(Global Max Pooling,GMP)獲取關鍵位置的響應區(qū)域fGMP,同時為了拓寬圖像完整對象信息,采用1×k和k×1的卷積核獲取圖像中的關鍵邊緣信息和關注點[15]。為彌補因1×k卷積而丟失圖像某一維度上的信息,采用k×1和1×k的卷積核作為信息補充,融合兩個特征向量即可獲取圖像中的關鍵邊緣信息和關注點,再通過疊加融合響應區(qū)域和邊緣信息獲取增強邊緣的顯著性目標特征,最后采用Sigmoid激活函數(shù)歸一化激活響應映射,最終獲取增強的低維特征fl'。其中,σ表示Sigmoid 激活函數(shù),conv1和conv2分別表示1×k和k×1卷積層,在實驗中設置k=5。

      圖5 特征融合注意力模塊Fig.5 Feature fusion attention module

      為減少特征之間的差異性,優(yōu)化其中的一致性特征信息,本文將顯著性激活的低維信息與高維信息通過逐個元素相乘融合不同級別的特征,與加法和串聯(lián)方式的區(qū)別在于,相乘的方法可以抑制冗余信息并增強一致性的重要特征,從而完善高低維度特征。采用3×3 卷積層分別提取高維特征信息fh∈RW×H×C和顯著性激活低維特征fl'∈RW×H×C,再通過乘法進行特征融合,融合的特征則包含了清晰的邊界和一致的語義信息,最后將統(tǒng)一的增強信息采用3×3 卷積還原圖像信息再添加至原來的特征用以細化高低維特征信息。

      其中:M、G均由卷積層、歸一化層和激活層組成,采用3×3 卷積來壓縮和還原圖像信息,增強高低維特征融合的泛化能力,避免高低維特征直接相乘而導致公共部分提取有誤以及直接將公共部分添加至原有特征而引入的不必要的誤差。將fl'的細節(jié)信息添加到fh中從而銳化高維特征邊界信息,使用fh過濾fl的噪聲信息。

      2.5 損失函數(shù)

      圖像分割任務主要是判斷各個像素點是否為目標像素點,也就是說分割問題是分類問題在像素點間的演化?,F(xiàn)如今大多數(shù)模型均是采用交叉熵損失函數(shù)來衡量圖像各個像素點的分割效果。但是就超聲甲狀腺圖像而言,其分割邊界所占圖像整體比例較小,圖像前背景多尺度差異性大,如果采用交叉熵損失判斷圖像前景像素的損失可能被背景的損失所稀釋[16],同時它僅考慮各個像素本身的損失結果,平等地對待每個元素而忽略了圖像整體的結構性。對于不用的像素應具有不同的權重,同時對于圖像目標多尺度差異性大的問題,也應關注圖像分割目標整體的差異性損失。因此本文采用加權交叉熵損失(Weighted Binary Cross Entropy,WBCE)和結構相似損失(Structural SIMilarity,SSIM)[17]設計了一個評估邊界分割效果的損失函數(shù),如下所示,定義的損失L為:

      其中:超參數(shù)α為平衡系數(shù),用于平衡細節(jié)損失及輪廓損失對最終結構的影響,在本文中選取α=0.6;LWBCE與LSSIM分別定義為加權交叉熵損失和結構相似損失。

      加權交叉熵用于評估像素的重要性,通過為每個像素分配權重,重要像素分配較大權重,而簡單像素將分配較小的權重。根據(jù)中心像素與其周圍環(huán)境之間的差異計算像素對于周邊環(huán)境的影響因素。

      其中:1(?)為指標函數(shù);γ為超參數(shù);l∈{0,1}定義為像素前背景標簽值;gij與pij分別表示像素的預測值與真實值;Pr(pij=l|ψ)表明網絡的預測概率;ψ為模型中所有參數(shù);Aij代表像素的周邊區(qū)域;αij∈[0,1]定義為像素的權重值,如果值較大說明該像素與周邊環(huán)境區(qū)別大,可能為邊緣像素點應更加關注,相反若值較小,則可較少關注。

      SSIM 損失通過分配較高權重給邊界鄰域,使得邊界的損失權重增加,使邊界上的預測概率與前景其余部分相同。讓x={xj:j=1,2,…,N2}與y={yj:j=1,2,…,N2}為從預測圖像S和二值真實圖像G分別裁取的兩個相關的區(qū)域(大小N×N),有:

      圖6 不同方法分割組織結果對比Fig.6 Comparison of issue segmentation results of different methods

      其中:μx、μy和σx、σy分別為x、y的均值和標準方差;σxy為它們的協(xié)方差;C1、C2為設置的常量參數(shù)。

      3 實驗與結果分析

      本文采用的數(shù)據(jù)集為公開數(shù)據(jù)集[18],該數(shù)據(jù)集是以11~16 MHz 探針成像的16 個手繪標記的甲狀腺超聲圖像掃描序列圖像。在本次實驗中主要采用3 423 張標注輪廓信息完整的超聲甲狀腺圖像,因其圖像為序列圖像,故選用其中兩個超聲掃描圖像為測試集(約350~400 張圖像)。為符合實際醫(yī)學圖像的知識,圖像數(shù)據(jù)增廣方式僅采用左右隨機對稱的形式。訓練時采用1 臺NVIDIA P100 圖形處理器(Graphic Processing Unit,GPU),本文采用ResNet34預訓練網絡作為編碼器抽象圖像高維語義特征,通過Fine-tune 的方法調整特征提取參數(shù),在第5 個epoch 時凍結編碼器的網絡參數(shù),最終網絡訓練約8 個epoch 時可以達平穩(wěn)效果,總訓練時長約100 min。本文采用以下定量指標來說明分割的準確度及精度:準確率(Accuracy)、召回率(Recall)、精準率(Precision)、Dice 分數(shù)(Dice coefficient)。本文設計以下的方法對比實驗及網絡消融實驗證明網絡結構的合理性。

      3.1 方法對比實驗

      將本文提出算法與其他醫(yī)學圖像分割算法進行性能對比,采用傳統(tǒng)基于ResNet34 為特征提取器的U-Net 作為實驗基準,在多種醫(yī)學圖像分割泛化能力較強的CE-Net[19]以及在目標分割和邊緣細化任務相對具有代表性的BASNet[20]和針對超聲甲狀腺分割的SUMNet[5]作為實驗效果對比,結果如表1所示。

      表1 不同方法的實驗結果對比Tab.1 Comparison of experimental results of different methods

      相較其他方法,本文方法在各項評估指標下均有較好的提升,尤其在召回率上,本文算法在分割超聲圖像的精準度較高。如圖6不同算法分割組織結果對比所示。

      對于甲狀腺組織較為顯著且有明顯的分界邊界,所選網絡均能劃分出甲狀腺組織的大致區(qū)域,U-Net 和BASNet 更多關注于明顯邊界的分割結果導致分割結果受周邊邊界紋理信息影響較大,而CE-Net、SUMNet 和本文算法在分割結果明顯更接近于真實框。但對于甲狀腺組織小尺寸且周邊干擾因素較大的圖像,所選對比網絡均存在將相似區(qū)域誤認為是目標區(qū)域的情況,而本網絡能較好地區(qū)分前背景信息從而能無誤地分割目標區(qū)域;對于分割的目標區(qū)域而言,由于目標形態(tài)、尺寸差異性大,本算法的分割精度較其他網絡對于關鍵區(qū)域的分割精度有所提升。因此對比其他網絡,本網絡對于超聲甲狀腺圖像分割問題有較好的解決效果。

      3.2 消融對比實驗

      本文采用消融對比實驗說明本文結構的合理性與有效性,所有實驗訓練配置均相同。針對本文設計的動態(tài)多尺度空洞卷積模塊(DMDC)、混合上采樣模塊(HUSM)與特征融合注意力模塊(FAM)采用以下的消融對比實驗,驗證該結構在實驗中的有效性。設計如下消融對比實驗,在編碼器-解碼器連接處添加動態(tài)多尺度空洞卷積模塊否則直接將編碼器特征傳給解碼器模塊作為實驗對比;因上采樣時如果僅采用反池化進行上采樣可能會導致圖像網格化嚴重,故對解碼器上采樣僅采用反池化或是混合上采樣方式作為實驗對比;解碼器特征采用跳層連接的方式引導編碼器還原細節(jié)信息時使用特征融合注意力模塊否則僅采用特征疊加的方式作為實驗對比。圖7 為本文消融相應模塊后的分割結果圖,通過與未消融的網絡分割結果圖對比,動態(tài)多尺度空洞卷積對尺度變化明顯的目標圖像有較好分割效果,混合上采樣能進一步優(yōu)化網絡分割結果,特征融合注意力能有效地避免冗余信息增多。

      圖7 消融實驗模塊對比Fig.7 Comparison of ablation experimental modules

      為進一步說明網絡各個模塊的有效性,本文采用十折交叉驗證選用隨機的2 個超聲序列作為測試集驗證各個模塊的合理性。如表2 所示,特征融合注意力模塊可以明顯地提升網絡分割性能;動態(tài)多尺度空洞卷積增強圖像對于多尺度特征獲取可能會降低分割結果的精準率,若只關注不同尺度下的特征可能會導致圖像冗余信息增多,通過特征融合注意力塊篩選過濾特征中的冗余信息,能進一步提升網絡的分割精度與準確性;混合上采樣模塊對于原始分割網絡有一定的提升,在一定程度上能細化網絡的分割結果。通過消融實驗證明本文所設計的模塊能有效地提高網絡分割的準確性和精準度。

      表2 網絡結構消融結果的對比Tab.2 Comparison of network structure ablation results

      4 結語

      本文根據(jù)高低維度特征對圖像抽象信息不同的特點,采用高低維特征信息相互融合的方法,保證高低維特征在保留自身的同時相互細化,摒棄冗余信息對網絡的干擾;同時,采用動態(tài)多尺度空洞卷積層來獲取不同形態(tài)、大小的目標區(qū)域特征,減少圖像數(shù)據(jù)源間差異性對網絡的影響。本文方法實現(xiàn)了端到端的訓練和預測,并在標準的數(shù)據(jù)集中實現(xiàn)了0.963±0.026的準確率,0.84±0.03的召回率,0.92±0.02的精準率以及0.79±0.03的Dice系數(shù);并且本文方法靈活簡單,可以用于其他非顯著性目標分割任務中。此外,考慮醫(yī)學圖像領域圖像復雜其目標不明確的情況,我們將繼續(xù)嘗試將該方法拓展至其他的醫(yī)學任務中,以獲取更為廣泛的應用。

      猜你喜歡
      空洞尺度卷積
      基于3D-Winograd的快速卷積算法設計及FPGA實現(xiàn)
      財產的五大尺度和五重應對
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      基于傅里葉域卷積表示的目標跟蹤算法
      空洞的眼神
      宇宙的尺度
      太空探索(2016年5期)2016-07-12 15:17:55
      用事實說話勝過空洞的說教——以教育類報道為例
      新聞傳播(2015年20期)2015-07-18 11:06:46
      9
      一種基于卷積神經網絡的性別識別方法
      電視技術(2014年19期)2014-03-11 15:38:20
      臭氧層空洞也是幫兇
      世界科學(2013年11期)2013-03-11 18:09:47
      阿拉善盟| 高陵县| 顺义区| 琼中| 子洲县| 镇宁| 凤翔县| 台东县| 秀山| 中西区| 海林市| 新蔡县| 沅江市| 郑州市| 伊宁县| 鹤庆县| 渝北区| 祁东县| 武定县| 额尔古纳市| 福州市| 宁武县| 平塘县| 三亚市| 衡南县| 揭东县| 侯马市| 张家口市| 永定县| 新干县| 登封市| 锦屏县| 湘阴县| 嘉善县| 久治县| 巨野县| 手游| 祁阳县| 龙胜| 兴安盟| 依兰县|