白堂博 高嘉琳 楊建偉 許貴陽
1.北京建筑大學機電與車輛工程學院,北京100044;2.北京建筑大學城市軌道交通車輛服役性能保障北京市重點實驗室,北京100044
扣件是城市軌道中不可忽視的基礎部件,扣件狀態(tài)的準確智能化檢測對于保證軌道列車安全運行具有重要意義[1]。在列車運行過程中扣件容易出現(xiàn)移位、斷裂、丟失等問題。這些問題所產(chǎn)生的振動及噪聲十分微小,基于振動、噪聲信號分析的檢測方法處理難度大,檢測效果差[2]。
目前基于圖像采集與處理的扣件狀態(tài)檢測方法有流行排序方法[3]、十字交叉與特征測度方法[4]、引導濾波與積分投影方法[5]、垂向定位與灰度投影方法[6]、置信圖方法[7]等。這些方法優(yōu)點是計算效率較高,但需要分別進行扣件的定位及扣件圖像特征的提取,并須根據(jù)特定的檢測對象進行算法修正,難以適應多變的現(xiàn)場情況。
近年來隨著目標檢測技術的發(fā)展,深度學習被應用于扣件狀態(tài)檢測。Guo等[8]提出基于YOLOv4(You Only Look Once v4)算法的扣件狀態(tài)檢測方法;龍炎[9]提出了基于Faster R-CNN(Faster Region-based Convolutional Neural Networks)算法的扣件狀態(tài)檢測方法;李兆洋等[10]建立了基于改進SSD(Single Shot Multibox Detector,SSD)算法的扣件定位方法。該類方法不用經(jīng)過目標定位及圖像特征提取,可直接對圖像中的扣件區(qū)域進行檢測,但是該類方法重點在于檢出目標,對扣件斷裂及缺失檢測效果好,對扣件偏移的檢測效果較差。
針對這種情況,本文提出一種基于改進Mask R-CNN的鐵路扣件狀態(tài)檢測方法,首先利用Mask R-CNN方法實現(xiàn)扣件的位置檢測與扣件圖像分割,然后利用最小外接矩形法改進Mask R-CNN的輸出層,計算獲得扣件圖像角度信息,進而識別偏移扣件。
區(qū)域卷積神經(jīng)網(wǎng)絡(R-CNN)是在經(jīng)典深度學習算法卷積神經(jīng)網(wǎng)絡(CNN)基礎上發(fā)展起來的,在圖像處理中具有較好的性能,被廣泛應用到目標檢測領域。R-CNN算法先通過搜索或者邊框檢測生成候選圖像區(qū)域,再將每個圖像區(qū)域視為一張待分類圖像輸入CNN進行網(wǎng)絡訓練和目標檢測。為了實現(xiàn)目標檢測,R-CNN算法須首先選定大量的候選圖像區(qū)域進行訓練,計算量太大,影響檢測效率。為解決這一問題,F(xiàn)ast R-CNN和Faster R-CNN相繼被提出,通過改變卷積次序和引入?yún)^(qū)域候選網(wǎng)絡減少了計算量,提高了計算效率。
掩膜區(qū)域卷積神經(jīng)網(wǎng)絡(Mask R-CNN)[11]是在Faster R-CNN的基礎上改進而來的,增加了感興趣區(qū)域(Region of Interest,ROI)排列步驟和全卷積網(wǎng)絡,以實現(xiàn)圖像分割和目標提取。
Mask R-CNN(圖1)主要分為特征提取、區(qū)域候選和結(jié)果輸出三大部分,輸出結(jié)果包括目標物體分類、目標檢測框回歸及目標圖像分割。在進行目標檢測時,系統(tǒng)會通過卷積網(wǎng)絡生成候選圖像區(qū)域并實現(xiàn)目標檢測。Mask R-CNN將原來的ROI池化改進為ROI排列,通過這一操作,特征圖被劃分為一定規(guī)格的二值掩膜圖,保證了像素輸入和輸出的對應關系,從而實現(xiàn)了Faster R-CNN所不具備的圖像分割功能。
圖1 Mask R-CNN結(jié)構(gòu)
利用Mask R-CNN算法進行扣件狀態(tài)檢測時可將完整扣件與斷裂、丟失狀態(tài)的扣件分開,但正??奂c偏移扣件同屬于完整扣件,分類時難以有效區(qū)分。本文根據(jù)Mask R-CNN具備目標物體圖像分割的特點,利用最小外接矩形法改進Mask R-CNN的輸出層,以實現(xiàn)偏移扣件的角度計算及狀態(tài)檢測。設計思路如圖2所示。具體步驟:首先進行現(xiàn)場試驗,完成圖像采集并建立數(shù)據(jù)集;然后利用Mask R-CNN將扣件中完整扣件和斷裂、丟失狀態(tài)的扣件進行初步分類;最后利用最小外接矩形法對Mask R-CNN的輸出層中完整扣件的分割圖像進行角度計算,以判斷其是否為偏移扣件。
圖2 本文方法的設計思路
最小外接矩形法[12]是一種獲取圖像中特定目標物體角度的方法。計算時將圖像中目標物體區(qū)域分割出來,并使目標物體區(qū)域在90°范圍內(nèi)等角度旋轉(zhuǎn),每次旋轉(zhuǎn)后,用一個水平外接矩形擬合其邊界。通過計算這一過程中得到的最小外接矩形特征參數(shù)即可得到物體角度等信息。
最小外接矩形法采用頂點鏈碼方法[12]對目標的最小外接矩形的幾何形狀特征參數(shù)進行計算,以得到目標偏轉(zhuǎn)角度。
根據(jù)四方向頂點鏈碼方法,目標圖像頂點在旋轉(zhuǎn)過程中在4個步進方向0、1、2、3進行遍歷(圖3),得到圖像中目標物體邊界[12]f(x,y),然后利用該邊界求中心矩μjk,最終求得目標物體主軸與x軸的夾角α。μjk的計算公式為
圖3 四方向頂點鏈碼方法步進方向示意
式中:j,k分別為目標物體邊界f(x,y)橫縱坐標的階次,j,k=0,1,2;xˉ和yˉ為目標物體質(zhì)心橫縱坐標,其計算公式為
目標物體主軸與x軸的夾角α為
式中:μ11,μ20,μ02分別為目標圖像主軸方向、x軸方向和y軸方向上的二階中心矩,由式(1)計算得到。
利用最小外接矩形法改進Mask R-CNN的輸出層,可以在得到扣件分割圖像后直接輸出扣件角度信息。在該方法中,目標扣件邊界f(x,y)不需采用頂點鏈碼方法求取,只需通過Mask R-CNN算法中的ROI排列,直接獲取目標扣件分割區(qū)域并得出扣件邊界坐標,簡化了計算,提高了效率。
選取京滬高速鐵路上長15 km的軌道區(qū)間(其中無砟軌道約10.2 km,有砟軌道4.8 km)作為試驗段,對基于改進Mask R-CNN的扣件狀態(tài)檢測方法應用效果進行驗證。試驗采用的智能軌道巡檢車(圖4)由北京鷹路科技有限公司研發(fā),該車分為電動巡檢車和軌道狀態(tài)巡檢系統(tǒng)兩部分。電動巡檢車由車體、軌道輪和座椅組成;軌道狀態(tài)巡檢系統(tǒng)由主機和高清線陣圖像掃描模塊組成。采集軌道圖像時巡檢車運行速度為20 km/h,圖像分辨率為2 048×2 048。
圖4 智能軌道巡檢車
本次檢測中獲得的軌道圖像分有砟軌道和無砟軌道兩種,見圖5??奂顟B(tài)檢測算法運行所采用的關鍵硬件中GPU為NVIDIA RTX2080,CPU為Intel i7 9700,內(nèi)存為16 GB。算法運行平臺為Windows 10,算法運行所需軟件包括Tensorflow 1.6,Python 3.6.5,CUDA 10.0,CUDNN 10.0。
圖5 軌道圖像
選用現(xiàn)場采集的1 000張軌道圖像(其中無砟軌道600張,有砟軌道400張)進行扣件狀態(tài)檢測分析,隨機選取500張作為訓練集,其余500張作為測試集。測試前需要進行圖像標注以建立訓練集特征信息庫。采用LABELME軟件進行訓練集圖像標注(圖6),將圖像中的扣件區(qū)域作為目標檢測區(qū)域。
圖6 圖像標注
根據(jù)訓練集圖像標注生成的扣件邊界坐標數(shù)據(jù)集進行算法訓練。
將測試集圖像輸入到改進的Mask R-CNN,得到扣件區(qū)域的分割結(jié)果,見圖7。可見,改進的Mask R-CNN能夠檢測出圖像中扣件位置并進行分割,對所分割的扣件區(qū)域進行預處理,包括去除邊界外部信息、去除噪聲、濾波、二值化,最終提取出扣件邊界,見圖8。
圖7 扣件位置檢測及分割結(jié)果
圖8 扣件邊界提取
根據(jù)提取出的扣件邊界數(shù)據(jù),構(gòu)造扣件邊界函數(shù)f(x,y),將該邊界函數(shù)代入式(1)—式(3),即可得到扣件偏移角度。以圖8中扣件為例,經(jīng)計算得到該扣件主軸與軌道方向的偏移角度(即夾角α)為-15.28°。根據(jù)工程經(jīng)驗,夾角超過±10°即可判定為扣件偏移,因此該扣件被判定處于偏移狀態(tài)。
基于改進Mask R-CNN的扣件狀態(tài)檢測方法與其他基于深度學習的扣件狀態(tài)檢測方法對偏移扣件的檢測結(jié)果對比見表1。其中,檢出率為正確檢出扣件占所有待檢測扣件的百分比,準確率為正確檢出扣件占所有檢出扣件的百分比。可見,本文提出的改進Mask R-CNN扣件狀態(tài)檢測方法的檢出率和準確率均高于其他方法。該方法對扣件角度進行計算,可有效判定扣件偏移狀態(tài),提高偏移扣件的檢出率和準確率。
表1 偏移扣件檢測結(jié)果對比 %
針對軌道扣件狀態(tài)檢測中偏移扣件檢測難的問題,提出了基于改進Mask R-CNN的扣件狀態(tài)檢測方法。該檢測方法可以有效檢測出圖像中扣件的位置并進行分割,分割后的扣件圖像經(jīng)預處理和計算后可直接獲得扣件偏移角度,進而實現(xiàn)對扣件偏移狀態(tài)的判定。經(jīng)在京滬高速鐵路試驗段現(xiàn)場測試,該檢測方法能夠?qū)ζ瓶奂M行有效檢測,并且檢出率和準確率均較高。