孟慶成 ,李明健 ,萬達(dá) ,胡壘 ,吳浩杰 ,齊欣
(1.西南石油大學(xué) 土木工程與測繪學(xué)院,成都 610500;2.西南交通大學(xué) 土木工程學(xué)院,成都 610031)
在混凝土自身材料特性影響及多重因素作用下,混凝土結(jié)構(gòu)服役期間會不可避免地產(chǎn)生裂縫。裂縫是混凝土結(jié)構(gòu)病害的一種初期表現(xiàn),若初期裂縫得不到即時(shí)修補(bǔ),在外力的作用下,裂縫的長度、寬度、深度會不斷地增加,使得混凝土構(gòu)件的有效截面面積減小,承載力降低,繼而可能會導(dǎo)致事故的發(fā)生[1]。早期的裂縫檢測主要是人工檢測方法,人工檢測可以直接對裂縫的特征進(jìn)行判斷,較為簡便靈活,但人工檢測的結(jié)果受限于主觀判斷,依賴檢測人員的經(jīng)驗(yàn)儲備,且人力物力消耗大,容易發(fā)生安全事故,導(dǎo)致人工檢測難以完成大量的裂縫檢測任務(wù)[2]。后來出現(xiàn)了基于傳統(tǒng)圖像處理技術(shù)的裂縫檢測方法,常見的有基于閾值的裂縫圖像分割方法和邊緣檢測方法[3]。傳統(tǒng)圖像處理技術(shù)促進(jìn)了混凝土裂縫檢測技術(shù)的發(fā)展,取得了一定的成就,但在解決復(fù)雜裂縫以及背景噪聲多的圖像時(shí),傳統(tǒng)圖像處理技術(shù)存在較多的局限性,使其無法獲得穩(wěn)定的檢測結(jié)果,無法適應(yīng)復(fù)雜的實(shí)際場景[4]。
深度學(xué)習(xí)(Deep Learning,DL)算法具有強(qiáng)大的特征提取能力,早期受限于計(jì)算機(jī)硬件設(shè)備的性能而沒有得到普遍的應(yīng)用[5]。隨著計(jì)算機(jī)硬件設(shè)備性能的提升和現(xiàn)代科技的飛速發(fā)展,深度學(xué)習(xí)算法的應(yīng)用得到了普及并促進(jìn)了圖像識別技術(shù)的發(fā)展。深度學(xué)習(xí)算法是一種包含多隱含層和多感知層的網(wǎng)絡(luò)結(jié)構(gòu),相比于傳統(tǒng)算法能更好地描述物體抽象的和深層次的信息,在圖像識別領(lǐng)域表現(xiàn)突出,因此越來越多的科研人員將其應(yīng)用于結(jié)構(gòu)損傷檢測任務(wù)中[6]。胡文魁等[7]針對傳統(tǒng)方法去除裂縫圖像噪聲不明顯以及輸出結(jié)果中裂縫不連續(xù)的問題提出一種BCI-AS 方法,在像素級水平上的裂縫分割精度達(dá)到了94.45%。李良福等[8]先利用滑動窗口算法對裂縫圖像切割成多個區(qū)域,再用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)對切割后圖像分類,最后用改進(jìn)的滑動窗口算法檢測裂縫,取得良好的檢測效果。Liu 等[9]采用U-Net 方法識別混凝土裂縫,與全卷積網(wǎng)絡(luò)(Fully Convolutional Networks,F(xiàn)CN)相比,該方法的效率更高、準(zhǔn)確性更好,但存在邊緣平滑、細(xì)節(jié)丟失的問題。Ren 等[10]提出了一種改進(jìn)的深度全卷積網(wǎng)絡(luò) CrackSegNet,可有效地消除噪聲的干擾,可從復(fù)雜背景的裂縫圖像中執(zhí)行端到端的裂縫分割。Xue 等[11]提出基于RFCN 的隧道襯砌裂縫圖像檢測方法,獲得了比GoogLeNet 和VGG 等模型更好的檢測效果。王森等[12]提出一種深度全卷積神經(jīng)網(wǎng)絡(luò)用于裂縫圖像的分割,該算法準(zhǔn)確率達(dá)92.46%,但沒有用其他數(shù)據(jù)對算法的有效性進(jìn)行測試,缺乏對模型泛化能力的驗(yàn)證。
上述網(wǎng)絡(luò)模型均取得了較好的裂縫分割效果,但所需的計(jì)算量大、缺乏對裂縫分割速度的考慮,在裂縫檢測量巨大和設(shè)備計(jì)算資源有限的前提下,難以滿足裂縫檢測實(shí)時(shí)性的要求。提出一種結(jié)合改進(jìn)的MobileNet_V2 輕量網(wǎng)絡(luò)和U-Net 網(wǎng)絡(luò)的裂縫語義分割模型M-Unet,利用改進(jìn)的MobileNet_V2 網(wǎng)絡(luò)替換U-Net 網(wǎng)絡(luò)的下采樣部分,減少參數(shù)量,達(dá)到網(wǎng)絡(luò)輕量化的效果,并設(shè)置多組對比實(shí)驗(yàn)以驗(yàn)證方法的有效性。
圖像采集于已投入使用的包括橋梁、擋土墻、大壩和隧道等各種混凝土結(jié)構(gòu),經(jīng)過一周的采集,共計(jì)采集到1 226 張分辨率為4 032×3 024 的三通道RGB 原始混凝土裂縫圖像。為了讓網(wǎng)絡(luò)學(xué)習(xí)到更多不同背景噪聲條件下的裂縫特征,反映混凝土結(jié)構(gòu)在服役期間所處的真實(shí)環(huán)境,采集到的裂縫圖像包含了不同時(shí)間段、不同光照條件、不同污漬情況、不同清晰度等情況的圖像,采集到的部分裂縫圖像如圖1 所示。
圖1 混凝土裂縫圖像Fig.1 Image of concrete cracks
從1 226 張裂縫圖像中挑選出250 張效果較好的裂縫圖像,利用語義分割標(biāo)注軟件Labelme 對250張裂縫圖像進(jìn)行標(biāo)注,標(biāo)注過程如圖2 所示,不同于目標(biāo)檢測任務(wù)中的數(shù)據(jù)標(biāo)注,在目標(biāo)檢測中對圖像數(shù)據(jù)的標(biāo)注僅需用矩形框?qū)⒛繕?biāo)區(qū)域框住,而在語義分割任務(wù)的圖像標(biāo)注過程中,需要將裂縫圖像放大,并沿著目標(biāo)的輪廓逐點(diǎn)標(biāo)注,實(shí)現(xiàn)亞像素級別的裂縫標(biāo)注,標(biāo)注點(diǎn)間的線寬與裂縫尺寸相比是微不足道的,不會對裂縫幾何尺寸測量造成影響。將所有標(biāo)注點(diǎn)閉合成環(huán)即完成對裂縫的標(biāo)注,閉合區(qū)域以外的其他區(qū)域?yàn)楸尘皡^(qū)域。
圖2 混凝土裂縫標(biāo)注過程Fig.2 Labeling process of concrete cracks
對標(biāo)注后的裂縫圖像進(jìn)行切分,將每一張裂縫圖像切分成分辨率大小為512×512 的不重疊區(qū)域,并從中剔除缺乏裂縫特征的圖像。使用Labelme 標(biāo)注的圖像會生成記錄標(biāo)注過程中關(guān)鍵點(diǎn)位置信息的json 文件,但json 文件并不能作為裂縫語義分割網(wǎng)絡(luò)訓(xùn)練所需的直接數(shù)據(jù),為了將其用于訓(xùn)練,通過編寫的Python 腳本將json 文件中的位置信息轉(zhuǎn)換為可直接訓(xùn)練的掩碼位圖GroundTruth 圖像,圖3為轉(zhuǎn)換后的部分圖像。
圖3 已標(biāo)注的裂縫圖像Fig.3 Labeled crack images
對標(biāo)注好的裂縫圖像進(jìn)行數(shù)據(jù)增強(qiáng),使用數(shù)據(jù)擴(kuò)增工具Augmentor 對裂縫數(shù)據(jù)集擴(kuò)增操作,如旋轉(zhuǎn)、放大、扭曲等,最終得到5 160 張帶有掩碼位圖的裂縫圖像,將數(shù)據(jù)集命名為SegCracks,將SegCracks 按7∶2∶1 劃分成訓(xùn)練集、驗(yàn)證集和 測試集。
MobileNet_V2[13]是一種適用于移動設(shè)備的輕量級的卷積神經(jīng)網(wǎng)絡(luò),其核心是采用反向殘差的深度可分卷積代替了普通卷積,使用深度可分卷積可顯著降低網(wǎng)絡(luò)計(jì)算復(fù)雜度,減少參數(shù)量。MobileNet_V2 在網(wǎng)絡(luò)訓(xùn)練中使用的激活函數(shù)為ReLU6,并采用批量標(biāo)準(zhǔn)化Batch Normalization 和Dropout 操作,以達(dá)到加快網(wǎng)絡(luò)收斂速度和防止過擬合現(xiàn)象。對MobileNet_V2 的改進(jìn)主要有以下兩方面。
一是對網(wǎng)絡(luò)結(jié)構(gòu)層進(jìn)行修剪,減少線性瓶頸結(jié)構(gòu)bottleneck 的重復(fù)次數(shù),以減少網(wǎng)絡(luò)復(fù)雜度并且進(jìn)一步輕量化模型,改進(jìn)后的MobileNet_V2 網(wǎng)絡(luò)結(jié)構(gòu)如表1 所示。
表1 改進(jìn)后的MobileNet_V2 網(wǎng)絡(luò)結(jié)構(gòu)Table 1 Network structure of improved MobileNet_V2
二是優(yōu)化了原始網(wǎng)絡(luò)的激活函數(shù)。激活函數(shù)是神經(jīng)網(wǎng)絡(luò)處理非線性問題的關(guān)鍵,在MobileNet_V2 網(wǎng)絡(luò)中使用的是ReLU6 激活函數(shù),函數(shù)圖像如圖4(a)所示,雖然ReLU6 激活函數(shù)可以顯著提高網(wǎng)絡(luò)非線性映射能力,但由其函數(shù)圖象也可看出,當(dāng)x<0 時(shí),激活函數(shù)的梯度為零,并且在其后面的神經(jīng)元梯度也將變?yōu)榱?,神?jīng)元壞死后不會對傳入的數(shù)據(jù)響應(yīng),參數(shù)也得不到更新。因此,對原網(wǎng)絡(luò)激活函數(shù)進(jìn)行優(yōu)化,引入LeakeyReLU 激活函數(shù),其表達(dá)式如式(1)所示,其函數(shù)圖像如圖4(b)所示。與ReLU6 激活函數(shù)相比,使用LeakeyReLU 不僅能有效解決ReLU6 梯度消失和神經(jīng)元壞死等問題,而且因其函數(shù)圖象左側(cè)的軟飽和性使其具備更強(qiáng)的噪聲干擾抵抗能力。
圖4 原激活函數(shù)和改進(jìn)的激活函數(shù)Fig.4 Original and improved activation function
式中:α 為偏移量,默認(rèn)值為0.01。
U-Net[14]網(wǎng)絡(luò)主要是由左邊的壓縮路徑和右邊的擴(kuò)展路徑兩部分組成,是一種典型的編碼-解碼結(jié)構(gòu),如圖5 所示。壓縮路徑由3×3 的卷積層和2×2的池化層組成,主要用于對裂縫圖像特征信息的逐層提取和壓縮,而擴(kuò)展路徑由卷積層和反卷積層組成,用于還原裂縫圖像特征的位置信息,從而實(shí)現(xiàn)端到端的裂縫檢測。U-Net 網(wǎng)絡(luò)的壓縮路徑在池化操作前都會自動保存裂縫特征圖像,并以跳躍連接的方式將裂縫圖像特征傳輸給對應(yīng)的擴(kuò)展路徑部分,這樣可以有效彌補(bǔ)因池化操作而丟失的裂縫特征信息。
圖5 U-Net 網(wǎng)絡(luò)結(jié)構(gòu)Fig.5 Network structure of U-Net
U-Net 網(wǎng)絡(luò)的下采樣部分通常是參數(shù)量很大的VGG16 網(wǎng)絡(luò),在裂縫分割任務(wù)中會消耗大量的計(jì)算資源,難以滿足在實(shí)際工程應(yīng)用中的實(shí)時(shí)性要求。輕量級卷積神經(jīng)網(wǎng)絡(luò)MobileNet_V2 的模型參數(shù)量僅為VGG16 網(wǎng)絡(luò)的1/41,為了進(jìn)一步降低對設(shè)備性能的要求和提高裂縫語義分割速度,對U-Net 網(wǎng)絡(luò)進(jìn)行優(yōu)化,采用改進(jìn)后MobileNet_V2 網(wǎng)絡(luò)替換U-Net 網(wǎng)絡(luò)的下采樣部分,以實(shí)現(xiàn)模型的輕量化、減少計(jì)算復(fù)雜度并提高裂縫的語義分割效果,將優(yōu)化后的輕量級語義分割網(wǎng)絡(luò)命名為M-Unet。
實(shí)驗(yàn)硬件環(huán)境為第10 代英特爾處理器i7-10700,32 GB 的運(yùn)行內(nèi)存,NVIDIA GeForce RTX 2060 顯卡,顯存為6 GB。軟件環(huán)境為64 位Windows 10 操作系統(tǒng),使用高級程序設(shè)計(jì)語言Python,在深度學(xué)習(xí)框架Pytorch 下運(yùn)行。
實(shí)驗(yàn)使用的數(shù)據(jù)集為SegCracks 數(shù)據(jù)集,經(jīng)過超參數(shù)的調(diào)優(yōu),最終選取批量大小為4、Adam 自適應(yīng)學(xué)習(xí)率優(yōu)化器和指數(shù)衰減學(xué)習(xí)率的組合。共設(shè)置4 組實(shí)驗(yàn):第1 組實(shí)驗(yàn)為對比3 種損失函數(shù),選取1種最適用于裂縫語義分割任務(wù)的損失函數(shù);第2 組實(shí)驗(yàn)是對提出的M-Unet 網(wǎng)絡(luò)進(jìn)行迭代訓(xùn)練,通過多種指標(biāo)對網(wǎng)絡(luò)的性能進(jìn)行分析;第3 組實(shí)驗(yàn)是將M-Unet 網(wǎng)絡(luò)與3 種主流的深度學(xué)習(xí)語義分割網(wǎng)絡(luò)和傳統(tǒng)圖像處理方法的裂縫分割結(jié)果進(jìn)行對比分析,以驗(yàn)證提出方法的有效性;第4 組實(shí)驗(yàn)是為驗(yàn)證網(wǎng)絡(luò)的泛化能力,在CFD[15]、CRACK500[16]、GAPS384[17]3 個開源數(shù)據(jù)集進(jìn)行交叉驗(yàn)證。
通常情況下,單一的準(zhǔn)確率評判標(biāo)準(zhǔn)不一定能全面反映網(wǎng)絡(luò)的裂縫分割效果,為更加全面準(zhǔn)確地評估網(wǎng)絡(luò)性能而引入混淆矩陣?;煜仃囀且环N可視化工具,其中每一行表示網(wǎng)絡(luò)預(yù)測值,每一列表示真實(shí)值,通過將網(wǎng)絡(luò)的預(yù)測結(jié)果和真實(shí)結(jié)果放在同一個表中,混淆矩陣能清楚地表示出每個類別識別正確和錯誤的數(shù)量,如表2 所示。
表2 混淆矩陣Table 2 Confusion matrix
由混淆矩陣可以定義裂縫語義分割網(wǎng)絡(luò)的重要評價(jià)指標(biāo),包括交并比(IoU)、精確率(Precision)、召回率(Recall)和F1_Score,其值越高,表示網(wǎng)絡(luò)的裂縫語義分割越好、綜合性能越優(yōu),計(jì)算公式如式(2)~式(5)。
式中:TP、FP、FN分別為表2 中的TP、FP、FN;I為模型的預(yù)測窗口與原來標(biāo)記窗口的交疊率,是語義分割中常用的一種度量標(biāo)準(zhǔn);Pr為正確預(yù)測為裂縫占全部預(yù)測為裂縫的比值;R為正確預(yù)測為裂縫占全部實(shí)際為裂縫的比值;F1為精確率和召回率的調(diào)和指標(biāo)。
損失函數(shù)用于衡量預(yù)測值和真實(shí)值之間的誤差,其決定了網(wǎng)絡(luò)的訓(xùn)練方法,在網(wǎng)絡(luò)訓(xùn)練優(yōu)化過程中起指導(dǎo)性作用,可通過損失函數(shù)的反饋來調(diào)整和改進(jìn)模型的權(quán)重系數(shù)。第1 組實(shí)驗(yàn)是對比語義分割領(lǐng)域常用的Dice Loss、BCE Loss 和BCEWithLogits Loss 損失函數(shù)的性能,在其余參數(shù)相同的情況下,經(jīng)過10 輪的迭代,3 種損失函數(shù)的訓(xùn)練集損失曲線如圖6 所示、驗(yàn)證集損失曲線如7 所示。可以看出,在訓(xùn)練集損失曲線圖中,選用不同損失函數(shù)的損失值隨著迭代次數(shù)不斷增加而逐漸降低,網(wǎng)絡(luò)逐漸收斂。在驗(yàn)證集損失曲線圖中,選用Dice Loss 損失函數(shù)的模型損失值明顯小于其余兩種,對網(wǎng)絡(luò)的優(yōu)化有更好的指導(dǎo)作用。因此,選用Dice Loss 作為搭建網(wǎng)絡(luò)的損失函數(shù)。
圖6 訓(xùn)練集損失曲線Fig.6 Loss curves of training set
圖7 驗(yàn)證集損失曲線Fig.7 Loss curves of verification set
采用構(gòu)建的SegCracks 數(shù)據(jù)集對搭建的MUnet 網(wǎng)絡(luò)進(jìn)行訓(xùn)練,經(jīng)過50 次迭代后,網(wǎng)絡(luò)損失值變化曲線如圖8 所示,可以看出,迭代35 次以后損失值變化波動趨于穩(wěn)定,網(wǎng)絡(luò)開始收斂,且驗(yàn)證集準(zhǔn)確率小于訓(xùn)練集準(zhǔn)確率,未產(chǎn)生過擬合現(xiàn)象。IoU_Score 變化曲線和F1_Score 變化曲線如圖9 和圖10 所示,量化結(jié)果如表3 所示,提出的網(wǎng)絡(luò)在訓(xùn)練集和驗(yàn)證集上獲得的IoU_Score 分別為97.34%和96.10%,F(xiàn)1_Score 分別為98.65% 和97.99%,在SegCracks 數(shù)據(jù)集上取得了較好的裂縫分割結(jié)果,表明所提出的網(wǎng)絡(luò)模型具有良好的性能。使用完成訓(xùn)練后保存的最優(yōu)網(wǎng)絡(luò)權(quán)重對測試集進(jìn)行測試,結(jié)果表明分割一張裂縫圖像所需時(shí)間為0.211 s,滿足了實(shí)際工程應(yīng)用中對實(shí)時(shí)性的要求。
表3 網(wǎng)絡(luò)評價(jià)指標(biāo)結(jié)果Table 3 Results of network evaluation indicators
圖8 損失值變化曲線Fig.8 Variation curves of loss value
圖10 F1_Score 變化曲線Fig.10 Variation curves of F1_Score
將搭建的M-Unet 網(wǎng)絡(luò)與U-Net、FCN8 和SegNet 主流語義分割網(wǎng)絡(luò)模型進(jìn)行對比分析,采用建立的數(shù)據(jù)集進(jìn)行訓(xùn)練,經(jīng)過50 次迭代后4 種網(wǎng)絡(luò)的評價(jià)指標(biāo)如表4 所示,模型權(quán)重文件大小和每輪迭代所需時(shí)間如圖11 所示。由圖11 可知,F(xiàn)CN8 網(wǎng)絡(luò)模型權(quán)重文件較大且運(yùn)行時(shí)間長,難以應(yīng)用于現(xiàn)場檢測移動端平臺并滿足實(shí)時(shí)檢測的需求,SegNet網(wǎng)絡(luò)雖然權(quán)重文件最小,但其迭代時(shí)間和預(yù)測時(shí)間均比M-Unet 網(wǎng)絡(luò)長,且裂縫分割效果不如U-Net 網(wǎng)絡(luò)和M-Unet 網(wǎng)絡(luò)。搭建的網(wǎng)絡(luò)迭代時(shí)間最短,相比于U-Net 網(wǎng)絡(luò),由于M-Unet 網(wǎng)絡(luò)采用改進(jìn)后的MobileNet_V2 替換了原U-Net 網(wǎng)絡(luò)中參數(shù)量巨大的下采樣部分,使得權(quán)重文件大小減少了7%,迭代時(shí)間縮短63.3%。
表4 不同網(wǎng)絡(luò)結(jié)果對比Table 4 Comparison of results for different networks
圖11 權(quán)重文件大小及迭代時(shí)間Fig.11 Weight file size and iteration time
由表4 可以看出,在4 個網(wǎng)絡(luò)模型中,M-Unet網(wǎng)絡(luò)在訓(xùn)練集和驗(yàn)證集上的IoU_Score 和F1_Score均最高,網(wǎng)絡(luò)損失值最小,對裂縫的語義分割效果最好,且對裂縫的預(yù)測時(shí)間最短,分割一張裂縫的時(shí)間僅為SegNet 的43.88%、U-Net 的31.40%、FCN8 的13.38%。與未改進(jìn)的U-Net 網(wǎng)絡(luò)相比,M-Unet 網(wǎng)絡(luò)在測試集上分割一張裂縫圖像時(shí)間僅需0.211 s,比U-Net 縮短了68.6%,且IoU_Score和F1_Score 有較大的提升,在訓(xùn)練集上分別提升2.94%和1.55%,在驗(yàn)證集上分別提升5.79%和3.14%。綜上,M-Unet 網(wǎng)絡(luò)在實(shí)現(xiàn)模型輕量化的同時(shí)提升了對裂縫的分割精度,驗(yàn)證了改進(jìn)方法的有效性。
除與幾種主流深度學(xué)習(xí)語義分割網(wǎng)絡(luò)進(jìn)行對比外,還將傳統(tǒng)圖像處理方法中基于Prewitt 算子、Canny 算子、Sobel 算子3 種邊緣檢測方法[18]以及大津閾值法Otsu[19]與網(wǎng)絡(luò)分割結(jié)果進(jìn)行對比分析,不同方法的裂縫分割效果如圖12 所示。由圖12 可以看出,傳統(tǒng)圖像處理方法受噪聲影響較大,分割結(jié)果中噪聲干擾點(diǎn)較多,其中大津閾值法Otsu 受噪聲和光照不均的影響最大,只能分割出部分裂縫,漏檢問題較嚴(yán)重,難以滿足實(shí)際需求?;谶吘墮z測方法能分割出裂縫大致形狀,分割效果優(yōu)于大津閾值法,但抵抗噪聲能力差,分割結(jié)果中也存在較多噪聲點(diǎn),裂縫分割效果一般。其中基于Canny 算子在分割細(xì)小的裂縫時(shí)難以保證裂縫邊緣的連續(xù)性,存在部分漏檢問題。相比于以上4 種傳統(tǒng)圖像處理裂縫分割方法,基于深度學(xué)習(xí)的M-Unet 網(wǎng)絡(luò)通過堆疊多層卷積層,可更好地提取裂縫更抽象的和更高層的特征,能夠獲得豐富的裂縫信息,且具有較強(qiáng)的去噪能力,提出的M-Unet 網(wǎng)絡(luò)分割結(jié)果中僅有極少量的噪聲干擾點(diǎn),且裂縫的連續(xù)性好,邊緣分割結(jié)果清晰,表明該方法具有比傳統(tǒng)圖像處理方法更好的裂縫語義分割效果。
圖12 不同方法語義分割結(jié)果Fig.12 Semantic segmentation results of different methods
為進(jìn)一步驗(yàn)證網(wǎng)絡(luò)的性能,在 CFD、CRACK500 和GAPS384 三個開源數(shù)據(jù)集上進(jìn)行交叉驗(yàn)證。3 個數(shù)據(jù)集上包含多種不同背景,不同噪聲和不同形態(tài)特征的裂縫,契合混凝土結(jié)構(gòu)服役運(yùn)營期間所處的實(shí)際環(huán)境。M-Unet 網(wǎng)絡(luò)在3 種不同數(shù)據(jù)集上的模型評價(jià)指標(biāo)如表5 所示,其中IoU_Score 均達(dá)到了97%以上,F(xiàn)1_Score 均達(dá)到了98%以上,表明優(yōu)化后的M-Unet 網(wǎng)絡(luò)在新的數(shù)據(jù)集上也能獲得很高的裂縫分割精度,具有良好的魯棒性和泛化能力,可滿足實(shí)際工程對裂縫檢測的需求。
表5 交叉驗(yàn)證結(jié)果Table 5 Results of cross validation
針對混凝土結(jié)構(gòu)裂縫檢測量大、噪聲干擾多和檢測時(shí)間較長等問題,提出M-Unet 輕量級裂縫語義分割網(wǎng)絡(luò),實(shí)現(xiàn)了對混凝土裂縫圖像在像素級上的分類,并進(jìn)行多組對比實(shí)驗(yàn),得出以下結(jié)論:
1)構(gòu)建包含5 160 張裂縫圖像的SegCracks 數(shù)據(jù)集,并基于此訓(xùn)練集對M-Unet 網(wǎng)絡(luò)迭代優(yōu)化,優(yōu)化后的M-Unet 網(wǎng)絡(luò)獲得IoU_Score 為96.10%,F(xiàn)1_Score 為97.99%,對裂縫的分割效果優(yōu)于主流語義分割網(wǎng)絡(luò)U-Net、FCN8 和SegNet,且在保持高檢測精度的同時(shí)大幅降低模型權(quán)重文件體量和減少裂縫分割時(shí)間。
2)M-Unet 通過將改進(jìn)MobileNet_V2 輕量級網(wǎng)絡(luò)替換U-Net 的編碼器部分,與原始U-Net 相比,在實(shí)現(xiàn)模型輕量化的同時(shí)提高裂縫的分割精度,使得權(quán)重文件大小減少了7%,迭代一輪時(shí)間縮短63.3%,預(yù)測時(shí)間縮短68.6%,在驗(yàn)證集上獲得的IoU_Score 和F1_Score 分別提升5.79%和3.14%,證明了改進(jìn)方法的有效性。
3)與傳統(tǒng)的圖像處理方法相比,提出的M-Unet網(wǎng)絡(luò)對混凝土裂縫語義分割具有更強(qiáng)的抗噪性,且裂縫分割結(jié)果連續(xù)性好,邊緣清晰,很好地契合了裂縫的實(shí)際走向和形狀。
4)將M-Unet 網(wǎng)絡(luò)在CFD、CRACK500 和GAPS384 三個開源數(shù)據(jù)集上進(jìn)行交叉驗(yàn)證,獲得的IoU_Score 均達(dá)到了97%以上,F(xiàn)1_Score 均達(dá)到了98%以上,表明搭建的網(wǎng)絡(luò)具有精度高、魯棒性好和泛化能力強(qiáng)等優(yōu)點(diǎn)。