• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于M-Unet的混凝土裂縫實時分割算法

      2024-01-03 11:49:31孟慶成李明健萬達胡壘吳浩杰齊欣
      土木建筑與環(huán)境工程 2024年1期
      關(guān)鍵詞:混凝土裂縫卷積神經(jīng)網(wǎng)絡(luò)深度學習

      孟慶成 李明健 萬達 胡壘 吳浩杰 齊欣

      摘要:針對主流深度學習裂縫分割算法消耗大量計算資源、傳統(tǒng)圖像處理方法檢測精度低、丟失裂縫特征等問題,為了實現(xiàn)對混凝土裂縫的實時檢測和在像素級水平上分割裂縫,提出一種基于輕量級卷積神經(jīng)絡(luò)M-Unet的裂縫語義分割模型,首先對MobileNet_V2輕量網(wǎng)絡(luò)進行改進,修剪其網(wǎng)絡(luò)結(jié)構(gòu)并優(yōu)化激活函數(shù),再用改進的MobileNet_V2替換U-Net參數(shù)量巨大的編碼器部分,以實現(xiàn)模型的輕量化并提升裂縫的分割效果。構(gòu)建包含5 160張裂縫圖像的SegCracks數(shù)據(jù)集對提出方法進行驗證,試驗結(jié)果表明:優(yōu)化后的M-Unet裂縫分割效果優(yōu)于U-Net、FCN8和SegNet等主流分割網(wǎng)絡(luò)和傳統(tǒng)圖像處理技術(shù),獲得的IoU_Score為96.10%,F(xiàn)1_Score為97.99%。與改進前U-Net相比,M-Unet權(quán)重文件大小減少了7%,迭代一輪時間和預測時間分別縮短了63.3%和68.6%,IoU_Score和F1_Score分別提升了5.79%和3.14%,并且在不同開源數(shù)據(jù)集上的交叉驗證效果良好。表明提出的網(wǎng)絡(luò)具有精度高、魯棒性好和泛化能力強等優(yōu)點。

      關(guān)鍵詞:混凝土裂縫;卷積神經(jīng)網(wǎng)絡(luò);深度學習;裂縫檢測;裂縫分割

      中圖分類號:TU755.7? ? ?文獻標志碼:A? ? ?文章編號:2096-6717(2024)01-0215-08

      Real-time segmentation algorithm of concrete cracks based on M-Unet

      MENG Qingcheng1, LI Mingjian1, WAN Da1, HU Lei1, Wu Haojie1, QI xin2

      (1. School of Civil Engineering and Geomatics, Southwest Petroleum University,Chengdu 610500;

      2.School of Civil Engineering, Southwest Jiaotong University, Chengdu 610031)

      Abstract: Mainstream deep learning algorithm for crack segmentation consumes a lot of computing resources while the traditional image processing methods are of low detection accuracy and lost crack features. In order to realize the real-time detection of concrete cracks and the segmentation of cracks at the pixel level, a crack semantic segmentation model based on lightweight convolutional neural network M-Unet is proposed. Firstly, the MobileNet_V2 lightweight network is improved, its network structure is trimmed and the activation function is optimized, and then the encoder part with huge parameters of U-Net is replaced by the improved MobileNet_V2 to realize the lightweight of the model and improve the segmentation effect of cracks. The SegCracks data set containing 5 160 crack images is constructed to verify the proposed method. The experimental results show that the crack segmentation effect of the optimized M-Unet is better than the mainstream segmentation networks of U-Net, FCN8 and SegNet and the traditional image processing techniques, the obtained IoU_Score is 96.10%, F1_Score is 97.99%. Compared with the original U-Net, the weight file size M-Unet is reduced by 7 %, the iteration time and prediction time are reduced by 63.3% and 68.6% respectively, and the IoU_Score and F1_Score are increased by 5.79 % and 3.14 % respectively. The cross validation results on different open source data sets are good, which shows that the proposed network has the advantages of high accuracy, good robustness and strong generalization ability.

      Keywords: concrete cracks; convolutional neural network; deep learning; crack detection; crack segmentation

      在混凝土自身材料特性影響及多重因素作用下,混凝土結(jié)構(gòu)服役期間會不可避免地產(chǎn)生裂縫。裂縫是混凝土結(jié)構(gòu)病害的一種初期表現(xiàn),若初期裂縫得不到即時修補,在外力的作用下,裂縫的長度、寬度、深度會不斷地增加,使得混凝土構(gòu)件的有效截面面積減小,承載力降低,繼而可能會導致事故的發(fā)生[1]。早期的裂縫檢測主要是人工檢測方法,人工檢測可以直接對裂縫的特征進行判斷,較為簡便靈活,但人工檢測的結(jié)果受限于主觀判斷,依賴檢測人員的經(jīng)驗儲備,且人力物力消耗大,容易發(fā)生安全事故,導致人工檢測難以完成大量的裂縫檢測任務(wù)[2]。后來出現(xiàn)了基于傳統(tǒng)圖像處理技術(shù)的裂縫檢測方法,常見的有基于閾值的裂縫圖像分割方法和邊緣檢測方法[3]。傳統(tǒng)圖像處理技術(shù)促進了混凝土裂縫檢測技術(shù)的發(fā)展,取得了一定的成就,但在解決復雜裂縫以及背景噪聲多的圖像時,傳統(tǒng)圖像處理技術(shù)存在較多的局限性,使其無法獲得穩(wěn)定的檢測結(jié)果,無法適應復雜的實際場景[4]。

      深度學習(Deep Learning,DL)算法具有強大的特征提取能力,早期受限于計算機硬件設(shè)備的性能而沒有得到普遍的應用[5]。隨著計算機硬件設(shè)備性能的提升和現(xiàn)代科技的飛速發(fā)展,深度學習算法的應用得到了普及并促進了圖像識別技術(shù)的發(fā)展。深度學習算法是一種包含多隱含層和多感知層的網(wǎng)絡(luò)結(jié)構(gòu),相比于傳統(tǒng)算法能更好地描述物體抽象的和深層次的信息,在圖像識別領(lǐng)域表現(xiàn)突出,因此越來越多的科研人員將其應用于結(jié)構(gòu)損傷檢測任務(wù)中[6]。胡文魁等[7]針對傳統(tǒng)方法去除裂縫圖像噪聲不明顯以及輸出結(jié)果中裂縫不連續(xù)的問題提出一種BCI-AS方法,在像素級水平上的裂縫分割精度達到了94.45%。李良福等[8]先利用滑動窗口算法對裂縫圖像切割成多個區(qū)域,再用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)對切割后圖像分類,最后用改進的滑動窗口算法檢測裂縫,取得良好的檢測效果。Liu等[9]采用U-Net方法識別混凝土裂縫,與全卷積網(wǎng)絡(luò)(Fully Convolutional Networks,F(xiàn)CN)相比,該方法的效率更高、準確性更好,但存在邊緣平滑、細節(jié)丟失的問題。Ren等[10]提出了一種改進的深度全卷積網(wǎng)絡(luò) CrackSegNet,可有效地消除噪聲的干擾,可從復雜背景的裂縫圖像中執(zhí)行端到端的裂縫分割。Xue等[11]提出基于R-FCN的隧道襯砌裂縫圖像檢測方法,獲得了比GoogLeNet和VGG等模型更好的檢測效果。王森等[12]提出一種深度全卷積神經(jīng)網(wǎng)絡(luò)用于裂縫圖像的分割,該算法準確率達92.46%,但沒有用其他數(shù)據(jù)對算法的有效性進行測試,缺乏對模型泛化能力的驗證。

      上述網(wǎng)絡(luò)模型均取得了較好的裂縫分割效果,但所需的計算量大、缺乏對裂縫分割速度的考慮,在裂縫檢測量巨大和設(shè)備計算資源有限的前提下,難以滿足裂縫檢測實時性的要求。提出一種結(jié)合改進的MobileNet_V2輕量網(wǎng)絡(luò)和U-Net網(wǎng)絡(luò)的裂縫語義分割模型M-Unet,利用改進的MobileNet_V2網(wǎng)絡(luò)替換U-Net網(wǎng)絡(luò)的下采樣部分,減少參數(shù)量,達到網(wǎng)絡(luò)輕量化的效果,并設(shè)置多組對比實驗以驗證方法的有效性。

      1 數(shù)據(jù)集的制作

      1.1 采集裂縫圖像

      圖像采集于已投入使用的包括橋梁、擋土墻、大壩和隧道等各種混凝土結(jié)構(gòu),經(jīng)過一周的采集,共計采集到1 226張分辨率為4 032×3 024的三通道RGB原始混凝土裂縫圖像。為了讓網(wǎng)絡(luò)學習到更多不同背景噪聲條件下的裂縫特征,反映混凝土結(jié)構(gòu)在服役期間所處的真實環(huán)境,采集到的裂縫圖像包含了不同時間段、不同光照條件、不同污漬情況、不同清晰度等情況的圖像,采集到的部分裂縫圖像如圖1所示。

      1.2 圖像標注及增強

      從1 226張裂縫圖像中挑選出250張效果較好的裂縫圖像,利用語義分割標注軟件Labelme對250張裂縫圖像進行標注,標注過程如圖2所示,不同于目標檢測任務(wù)中的數(shù)據(jù)標注,在目標檢測中對圖像數(shù)據(jù)的標注僅需用矩形框?qū)⒛繕藚^(qū)域框住,而在語義分割任務(wù)的圖像標注過程中,需要將裂縫圖像放大,并沿著目標的輪廓逐點標注,實現(xiàn)亞像素級別的裂縫標注,標注點間的線寬與裂縫尺寸相比是微不足道的,不會對裂縫幾何尺寸測量造成影響。將所有標注點閉合成環(huán)即完成對裂縫的標注,閉合區(qū)域以外的其他區(qū)域為背景區(qū)域。

      對標注后的裂縫圖像進行切分,將每一張裂縫圖像切分成分辨率大小為512×512的不重疊區(qū)域,并從中剔除缺乏裂縫特征的圖像。使用Labelme標注的圖像會生成記錄標注過程中關(guān)鍵點位置信息的json文件,但json文件并不能作為裂縫語義分割網(wǎng)絡(luò)訓練所需的直接數(shù)據(jù),為了將其用于訓練,通過編寫的Python腳本將json文件中的位置信息轉(zhuǎn)換為可直接訓練的掩碼位圖GroundTruth圖像,圖3為轉(zhuǎn)換后的部分圖像。

      對標注好的裂縫圖像進行數(shù)據(jù)增強,使用數(shù)據(jù)擴增工具Augmentor對裂縫數(shù)據(jù)集擴增操作,如旋轉(zhuǎn)、放大、扭曲等,最終得到5 160張帶有掩碼位圖的裂縫圖像,將數(shù)據(jù)集命名為SegCracks,將SegCracks按7∶2∶1劃分成訓練集、驗證集和測試集。

      2 M-Unet裂縫語義分割網(wǎng)絡(luò)

      2.1 改進的MobileNet_V2網(wǎng)絡(luò)

      MobileNet_V2[13]是一種適用于移動設(shè)備的輕量級的卷積神經(jīng)網(wǎng)絡(luò),其核心是采用反向殘差的深度可分卷積代替了普通卷積,使用深度可分卷積可顯著降低網(wǎng)絡(luò)計算復雜度,減少參數(shù)量。MobileNet_V2在網(wǎng)絡(luò)訓練中使用的激活函數(shù)為ReLU6,并采用批量標準化Batch Normalization和Dropout操作,以達到加快網(wǎng)絡(luò)收斂速度和防止過擬合現(xiàn)象。對MobileNet_V2的改進主要有以下兩方面。

      一是對網(wǎng)絡(luò)結(jié)構(gòu)層進行修剪,減少線性瓶頸結(jié)構(gòu)bottleneck的重復次數(shù),以減少網(wǎng)絡(luò)復雜度并且進一步輕量化模型,改進后的MobileNet_V2網(wǎng)絡(luò)結(jié)構(gòu)如表1所示。

      二是優(yōu)化了原始網(wǎng)絡(luò)的激活函數(shù)。激活函數(shù)是神經(jīng)網(wǎng)絡(luò)處理非線性問題的關(guān)鍵,在MobileNet_V2網(wǎng)絡(luò)中使用的是ReLU6激活函數(shù),函數(shù)圖像如圖4(a)所示,雖然ReLU6激活函數(shù)可以顯著提高網(wǎng)絡(luò)非線性映射能力,但由其函數(shù)圖象也可看出,當x<0時,激活函數(shù)的梯度為零,并且在其后面的神經(jīng)元梯度也將變?yōu)榱?,神?jīng)元壞死后不會對傳入的數(shù)據(jù)響應,參數(shù)也得不到更新。因此,對原網(wǎng)絡(luò)激活函數(shù)進行優(yōu)化,引入LeakeyReLU激活函數(shù),其表達式如式(1)所示,其函數(shù)圖像如圖4(b)所示。與ReLU6激活函數(shù)相比,使用LeakeyReLU不僅能有效解決ReLU6梯度消失和神經(jīng)元壞死等問題,而且因其函數(shù)圖象左側(cè)的軟飽和性使其具備更強的噪聲干擾抵抗能力。

      (1)

      式中:α為偏移量,默認值為0.01。

      2.2 M-Unet網(wǎng)絡(luò)

      U-Net[14]網(wǎng)絡(luò)主要是由左邊的壓縮路徑和右邊的擴展路徑兩部分組成,是一種典型的編碼-解碼結(jié)構(gòu),如圖5所示。壓縮路徑由3×3的卷積層和2×2的池化層組成,主要用于對裂縫圖像特征信息的逐層提取和壓縮,而擴展路徑由卷積層和反卷積層組成,用于還原裂縫圖像特征的位置信息,從而實現(xiàn)端到端的裂縫檢測。U-Net網(wǎng)絡(luò)的壓縮路徑在池化操作前都會自動保存裂縫特征圖像,并以跳躍連接的方式將裂縫圖像特征傳輸給對應的擴展路徑部分,這樣可以有效彌補因池化操作而丟失的裂縫特征信息。

      U-Net網(wǎng)絡(luò)的下采樣部分通常是參數(shù)量很大的VGG16網(wǎng)絡(luò),在裂縫分割任務(wù)中會消耗大量的計算資源,難以滿足在實際工程應用中的實時性要求。輕量級卷積神經(jīng)網(wǎng)絡(luò)MobileNet_V2的模型參數(shù)量僅為VGG16網(wǎng)絡(luò)的1/41,為了進一步降低對設(shè)備性能的要求和提高裂縫語義分割速度,對U-Net網(wǎng)絡(luò)進行優(yōu)化,采用改進后MobileNet_V2網(wǎng)絡(luò)替換U-Net網(wǎng)絡(luò)的下采樣部分,以實現(xiàn)模型的輕量化、減少計算復雜度并提高裂縫的語義分割效果,將優(yōu)化后的輕量級語義分割網(wǎng)絡(luò)命名為M-Unet。

      3 實驗與結(jié)果分析

      3.1 實驗環(huán)境與實驗設(shè)置

      實驗硬件環(huán)境為第10代英特爾處理器i7-10700,32 GB的運行內(nèi)存,NVIDIA GeForce RTX 2060顯卡,顯存為6 GB。軟件環(huán)境為64位Windows 10操作系統(tǒng),使用高級程序設(shè)計語言Python,在深度學習框架Pytorch下運行。

      實驗使用的數(shù)據(jù)集為SegCracks數(shù)據(jù)集,經(jīng)過超參數(shù)的調(diào)優(yōu),最終選取批量大小為4、Adam自適應學習率優(yōu)化器和指數(shù)衰減學習率的組合。共設(shè)置4組實驗:第1組實驗為對比3種損失函數(shù),選取1種最適用于裂縫語義分割任務(wù)的損失函數(shù);第2組實驗是對提出的M-Unet網(wǎng)絡(luò)進行迭代訓練,通過多種指標對網(wǎng)絡(luò)的性能進行分析;第3組實驗是將M-Unet網(wǎng)絡(luò)與3種主流的深度學習語義分割網(wǎng)絡(luò)和傳統(tǒng)圖像處理方法的裂縫分割結(jié)果進行對比分析,以驗證提出方法的有效性;第4組實驗是為驗證網(wǎng)絡(luò)的泛化能力,在CFD[15]、CRACK500[16]、GAPS384[17]3個開源數(shù)據(jù)集進行交叉驗證。

      3.2 模型性能評價指標

      通常情況下,單一的準確率評判標準不一定能全面反映網(wǎng)絡(luò)的裂縫分割效果,為更加全面準確地評估網(wǎng)絡(luò)性能而引入混淆矩陣?;煜仃囀且环N可視化工具,其中每一行表示網(wǎng)絡(luò)預測值,每一列表示真實值,通過將網(wǎng)絡(luò)的預測結(jié)果和真實結(jié)果放在同一個表中,混淆矩陣能清楚地表示出每個類別識別正確和錯誤的數(shù)量,如表2所示。由混淆矩陣可以定義裂縫語義分割網(wǎng)絡(luò)的重要評價指標,包括交并比(IoU)、精確率(Precision)、召回率(Recall)和F1_Score,其值越高,表示網(wǎng)絡(luò)的裂縫語義分割越好、綜合性能越優(yōu),計算公式如式(2)~式(5)。

      (5)

      式中:TP、FP、FN分別為表2中的TP、FP、FN;I為模型的預測窗口與原來標記窗口的交疊率,是語義分割中常用的一種度量標準;Pr為正確預測為裂縫占全部預測為裂縫的比值;R為正確預測為裂縫占全部實際為裂縫的比值;F1為精確率和召回率的調(diào)和指標。

      3.3 損失函數(shù)的選取

      損失函數(shù)用于衡量預測值和真實值之間的誤差,其決定了網(wǎng)絡(luò)的訓練方法,在網(wǎng)絡(luò)訓練優(yōu)化過程中起指導性作用,可通過損失函數(shù)的反饋來調(diào)整和改進模型的權(quán)重系數(shù)。第1組實驗是對比語義分割領(lǐng)域常用的Dice Loss、BCE Loss和BCEWithLogits Loss損失函數(shù)的性能,在其余參數(shù)相同的情況下,經(jīng)過10輪的迭代,3種損失函數(shù)的訓練集損失曲線如圖6所示、驗證集損失曲線如7所示。可以看出,在訓練集損失曲線圖中,選用不同損失函數(shù)的損失值隨著迭代次數(shù)不斷增加而逐漸降低,網(wǎng)絡(luò)逐漸收斂。在驗證集損失曲線圖中,選用Dice Loss損失函數(shù)的模型損失值明顯小于其余兩種,對網(wǎng)絡(luò)的優(yōu)化有更好的指導作用。因此,選用Dice Loss作為搭建網(wǎng)絡(luò)的損失函數(shù)。

      3.4 測試模型性能

      采用構(gòu)建的SegCracks數(shù)據(jù)集對搭建的M-Unet網(wǎng)絡(luò)進行訓練,經(jīng)過50次迭代后,網(wǎng)絡(luò)損失值變化曲線如圖8所示,可以看出,迭代35次以后損失值變化波動趨于穩(wěn)定,網(wǎng)絡(luò)開始收斂,且驗證集準確率小于訓練集準確率,未產(chǎn)生過擬合現(xiàn)象。IoU_Score變化曲線和F1_Score變化曲線如圖9和圖10所示,量化結(jié)果如表3所示,提出的網(wǎng)絡(luò)在訓練集和驗證集上獲得的IoU_Score分別為97.34%和96.10%,F(xiàn)1_Score分別為98.65%和97.99%,在SegCracks數(shù)據(jù)集上取得了較好的裂縫分割結(jié)果,表明所提出的網(wǎng)絡(luò)模型具有良好的性能。使用完成訓練后保存的最優(yōu)網(wǎng)絡(luò)權(quán)重對測試集進行測試,結(jié)果表明分割一張裂縫圖像所需時間為0.211 s,滿足了實際工程應用中對實時性的要求。

      3.5 不同模型性能對比

      將搭建的M-Unet網(wǎng)絡(luò)與U-Net、FCN8和SegNet主流語義分割網(wǎng)絡(luò)模型進行對比分析,采用建立的數(shù)據(jù)集進行訓練,經(jīng)過50次迭代后4種網(wǎng)絡(luò)的評價指標如表4所示,模型權(quán)重文件大小和每輪迭代所需時間如圖11所示。由圖11可知,F(xiàn)CN8網(wǎng)絡(luò)模型權(quán)重文件較大且運行時間長,難以應用于現(xiàn)場檢測移動端平臺并滿足實時檢測的需求,SegNet網(wǎng)絡(luò)雖然權(quán)重文件最小,但其迭代時間和預測時間均比M-Unet網(wǎng)絡(luò)長,且裂縫分割效果不如U-Net網(wǎng)絡(luò)和M-Unet網(wǎng)絡(luò)。搭建的網(wǎng)絡(luò)迭代時間最短,相比于U-Net網(wǎng)絡(luò),由于M-Unet網(wǎng)絡(luò)采用改進后的MobileNet_V2替換了原U-Net網(wǎng)絡(luò)中參數(shù)量巨大的下采樣部分,使得權(quán)重文件大小減少了7%,迭代時間縮短63.3%。

      由表4可以看出,在4個網(wǎng)絡(luò)模型中, M-Unet網(wǎng)絡(luò)在訓練集和驗證集上的IoU_Score和F1_Score均最高,網(wǎng)絡(luò)損失值最小,對裂縫的語義分割效果最好,且對裂縫的預測時間最短,分割一張裂縫的時間僅為SegNet的43.88%、U-Net的31.40%、FCN8的13.38%。與未改進的U-Net網(wǎng)絡(luò)相比,M-Unet網(wǎng)絡(luò)在測試集上分割一張裂縫圖像時間僅需0.211 s,比U-Net縮短了68.6%,且IoU_Score和F1_Score有較大的提升,在訓練集上分別提升2.94%和1.55%,在驗證集上分別提升5.79%和3.14%。綜上,M-Unet網(wǎng)絡(luò)在實現(xiàn)模型輕量化的同時提升了對裂縫的分割精度,驗證了改進方法的有效性。

      除與幾種主流深度學習語義分割網(wǎng)絡(luò)進行對比外,還將傳統(tǒng)圖像處理方法中基于Prewitt算子、Canny算子、Sobel算子3種邊緣檢測方法[18]以及大津閾值法Otsu[19]與網(wǎng)絡(luò)分割結(jié)果進行對比分析,不同方法的裂縫分割效果如圖12所示。由圖12可以看出,傳統(tǒng)圖像處理方法受噪聲影響較大,分割結(jié)果中噪聲干擾點較多,其中大津閾值法Otsu受噪聲和光照不均的影響最大,只能分割出部分裂縫,漏檢問題較嚴重,難以滿足實際需求。基于邊緣檢測方法能分割出裂縫大致形狀,分割效果優(yōu)于大津閾值法,但抵抗噪聲能力差,分割結(jié)果中也存在較多噪聲點,裂縫分割效果一般。其中基于Canny算子在分割細小的裂縫時難以保證裂縫邊緣的連續(xù)性,存在部分漏檢問題。相比于以上4種傳統(tǒng)圖像處理裂縫分割方法,基于深度學習的M-Unet網(wǎng)絡(luò)通過堆疊多層卷積層,可更好地提取裂縫更抽象的和更高層的特征,能夠獲得豐富的裂縫信息,且具有較強的去噪能力,提出的M-Unet網(wǎng)絡(luò)分割結(jié)果中僅有極少量的噪聲干擾點,且裂縫的連續(xù)性好,邊緣分割結(jié)果清晰,表明該方法具有比傳統(tǒng)圖像處理方法更好的裂縫語義分割效果。

      3.6 不同數(shù)據(jù)集上交叉驗證

      為進一步驗證網(wǎng)絡(luò)的性能,在CFD、CRACK500和GAPS384三個開源數(shù)據(jù)集上進行交叉驗證。3個數(shù)據(jù)集上包含多種不同背景,不同噪聲和不同形態(tài)特征的裂縫,契合混凝土結(jié)構(gòu)服役運營期間所處的實際環(huán)境。M-Unet網(wǎng)絡(luò)在3種不同數(shù)據(jù)集上的模型評價指標如表5所示,其中IoU_Score均達到了97%以上,F(xiàn)1_Score均達到了98%以上,表明優(yōu)化后的M-Unet網(wǎng)絡(luò)在新的數(shù)據(jù)集上也能獲得很高的裂縫分割精度,具有良好的魯棒性和泛化能力,可滿足實際工程對裂縫檢測的需求。

      4 結(jié)論

      針對混凝土結(jié)構(gòu)裂縫檢測量大、噪聲干擾多和檢測時間較長等問題,提出M-Unet輕量級裂縫語義分割網(wǎng)絡(luò),實現(xiàn)了對混凝土裂縫圖像在像素級上的分類,并進行多組對比實驗,得出以下結(jié)論:

      1)構(gòu)建包含5 160張裂縫圖像的SegCracks數(shù)據(jù)集,并基于此訓練集對M-Unet網(wǎng)絡(luò)迭代優(yōu)化,優(yōu)化后的M-Unet網(wǎng)絡(luò)獲得IoU_Score為96.10%,F(xiàn)1_Score為97.99%,對裂縫的分割效果優(yōu)于主流語義分割網(wǎng)絡(luò)U-Net、FCN8和SegNet,且在保持高檢測精度的同時大幅降低模型權(quán)重文件體量和減少裂縫分割時間。

      2)M-Unet通過將改進MobileNet_V2輕量級網(wǎng)絡(luò)替換U-Net的編碼器部分,與原始U-Net相比,在實現(xiàn)模型輕量化的同時提高裂縫的分割精度,使得權(quán)重文件大小減少了7%,迭代一輪時間縮短63.3%,預測時間縮短68.6%,在驗證集上獲得的IoU_Score和F1_Score分別提升5.79%和3.14%,證明了改進方法的有效性。

      3)與傳統(tǒng)的圖像處理方法相比,提出的M-Unet網(wǎng)絡(luò)對混凝土裂縫語義分割具有更強的抗噪性,且裂縫分割結(jié)果連續(xù)性好,邊緣清晰,很好地契合了裂縫的實際走向和形狀。

      4)將M-Unet網(wǎng)絡(luò)在CFD、CRACK500和GAPS384三個開源數(shù)據(jù)集上進行交叉驗證,獲得的IoU_Score均達到了97%以上,F(xiàn)1_Score均達到了98%以上,表明搭建的網(wǎng)絡(luò)具有精度高、魯棒性好和泛化能力強等優(yōu)點。

      參考文獻

      [1]? LI Y, ZHANG J H, GUAN Z G, et al. Experimental study on the correlation between crack width and crack depth of RC beams [J]. Materials, 2021, 14(20): 5950.

      [2]? 舒江鵬, 李俊, 馬亥波, 等. 基于特征金字塔網(wǎng)絡(luò)的超大尺寸圖像裂縫識別檢測方法[J]. 土木與環(huán)境工程學報(中英文), 2022, 44(3): 29-36.

      SHU J P, LI J, MA H B, et al. Crack detection method based on feature pyramid network for super large-scale images [J]. Journal of Civil and Environmental Engineering, 2022, 44(3): 29-36. (in Chinese)

      [3]? DONG J X, LIU J H, WANG N N, et al. Intelligent segmentation and measurement model for asphalt road cracks based on modified mask R-CNN algorithm [J]. Computer Modeling in Engineering & Sciences, 2021, 128(2): 541-564.

      [4]? ZHANG L X, SHEN J K, ZHU B J. A research on an improved Unet-based concrete crack detection algorithm [J]. Structural Health Monitoring, 2020, 20(4): 1864-1879.

      [5]? ZHAO Z Q, ZHENG P, XU S T, et al. Object detection with deep learning: A review [J]. IEEE Transactions on Neural Networks and Learning Systems, 2019, 30(11): 3212-3232.

      [6]? CHA Y J, CHOI W, SUH G, et al. Autonomous structural visual inspection using region-based deep learning for detecting multiple damage types [J]. Computer-Aided Civil and Infrastructure Engineering, 2018, 33(9): 731-747.

      [7]? 胡文魁, 鄧暉, 付志旭, 等. 基于全卷積神經(jīng)網(wǎng)絡(luò)的橋梁裂縫分割和測量方法[J]. 工業(yè)建筑, 2022, 52(4): 192-201, 218.

      HU W K, DENG H, FU Z X, et al. Bridge crack segmentation and measurement method based on full convolutional neural network [J]. Industrial Construction, 2022, 52(4): 192-201, 218. (in Chinese)

      [8]? 李良福, 馬衛(wèi)飛, 李麗, 等. 基于深度學習的橋梁裂縫檢測算法研究[J]. 自動化學報, 2019, 45(9): 1727-1742.

      LI L F, MA W F, LI L, et al. Research on detection algorithm for bridge cracks based on deep learning [J]. Acta Automatica Sinica, 2019, 45(9): 1727-1742. (in Chinese)

      [9]? LIU Z Q, CAO Y W, WANG Y Z, et al. Computer vision-based concrete crack detection using U-net fully convolutional networks [J]. Automation in Construction, 2019, 104: 129-139.

      [10]? REN Y P, HUANG J S, HONG Z Y, et al. Image-based concrete crack detection in tunnels using deep fully convolutional networks [J]. Construction and Building Materials, 2020, 234: 117367.

      [11]? XUE Y D, LI Y C. A fast detection method via region-based fully convolutional neural networks for shield tunnel lining defects [J]. Computer-Aided Civil and Infrastructure Engineering, 2018, 33(8): 638-654.

      [12]? 王森, 伍星, 張印輝, 等. 基于深度學習的全卷積網(wǎng)絡(luò)圖像裂紋檢測[J]. 計算機輔助設(shè)計與圖形學學報, 2018, 30(5): 859-867.

      WANG S, WU X, ZHANG Y H, et al. Image crack detection with fully convolutional network based on deep learning [J]. Journal of Computer-Aided Design & Computer Graphics, 2018, 30(5): 859-867. (in Chinese)

      [13]? SANDLER M, HOWARD A, ZHU M L, et al. MobileNetV2: Inverted residuals and linear bottlenecks [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA. IEEE, 2018: 4510-4520.

      [14]? 朱蘇雅, 杜建超, 李云松, 等. 采用U-Net卷積網(wǎng)絡(luò)的橋梁裂縫檢測方法[J]. 西安電子科技大學學報, 2019, 46(4): 35-42.

      ZHU S Y, DU J C, LI Y S, et al. Method for bridge crack detection based on the U-Net convolutional networks [J]. Journal of Xidian University, 2019, 46(4): 35-42. (in Chinese)

      [15]? LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(2): 318-327.

      [16]? YANG F, ZHANG L, YU S J, et al. Feature pyramid and hierarchical boosting network for pavement crack detection [J]. IEEE Transactions on Intelligent Transportation Systems, 2020, 21(4): 1525-1535.

      [17]? EISENBACH M, STRICKER R, SEICHTER D, et al. How to get pavement distress detection ready for deep learning? A systematic approach [C]//2017 International Joint Conference on Neural Networks (IJCNN). Anchorage, AK, USA. IEEE, 2017: 2039-2047.

      [18]? DORAFSHAN S, THOMAS R J, MAGUIRE M. Comparison of deep convolutional neural networks and edge detectors for image-based crack detection in concrete [J]. Construction and Building Materials, 2018, 186: 1031-1045.

      [19]? CHEN X L, LI J, HUANG S W, et al. An automatic concrete crack-detection method fusing point clouds and images based on improved otsu's algorithm [J]. Sensors, 2021, 21(5): 1581.

      (編輯? 胡英奎)

      DOI: 10.11835/j.issn.2096-6717.2022.079

      收稿日期:2022?05?04

      基金項目:國家自然科學基金(52078442);四川省科技計劃(2021YJ0038)

      作者簡介:孟慶成(1980- ),男,博士,主要從事橋梁結(jié)構(gòu)健康監(jiān)測與損傷識別研究,E-mail:214400395@qq.com。

      Received: 2022?05?04

      Foundation items: National Natural Science Foundation of China (No. 52078442): Science and Technology Program of Sichuan Province (No. 2021YJ0038)

      Author brief: MENG Qingcheng (1980- ), PhD, main research interests: bridge structure health monitoring and damage identification, E-mail: 214400395@qq.com.

      猜你喜歡
      混凝土裂縫卷積神經(jīng)網(wǎng)絡(luò)深度學習
      基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識別算法
      橋梁高性能混凝土裂縫的產(chǎn)生和控制
      探析港口施工中水泥混凝土裂縫成因
      建筑施工中混凝土裂縫控制技術(shù)的探討
      MOOC與翻轉(zhuǎn)課堂融合的深度學習場域建構(gòu)
      大數(shù)據(jù)技術(shù)在反恐怖主義中的應用展望
      深度學習算法應用于巖石圖像處理的可行性研究
      軟件導刊(2016年9期)2016-11-07 22:20:49
      基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
      軟件工程(2016年8期)2016-10-25 15:47:34
      淺談混凝土裂縫的研究
      基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識別的算法的研究
      开化县| 昭平县| 松桃| 资阳市| 普定县| 巩义市| 通榆县| 乐陵市| 河池市| 鹿泉市| 教育| 万盛区| 绥德县| 桐庐县| 隆子县| 高碑店市| 文昌市| 法库县| 石棉县| 综艺| 东港市| 惠来县| 镶黄旗| 余干县| 武乡县| 江山市| 青岛市| 固始县| 清远市| 大英县| 崇文区| 兰州市| 黄骅市| 和林格尔县| 葫芦岛市| 怀集县| 花垣县| 浠水县| 肥东县| 新巴尔虎右旗| 安义县|