梁小康
(陜西能源馮家塔礦業(yè)運(yùn)營(yíng)有限責(zé)任公司,陜西 西安 710021)
轉(zhuǎn)子與靜子之間的碰摩是機(jī)械中常見的故障,該類故障一旦發(fā)生,輕則影響機(jī)器正常運(yùn)行,嚴(yán)重的話有可能會(huì)發(fā)生生產(chǎn)事故,造成無法挽回的損失。開展針對(duì)機(jī)械故障檢測(cè)的研究具有較強(qiáng)的實(shí)踐意義。聲發(fā)射檢測(cè)是一種基于聲發(fā)射信號(hào)來評(píng)定材料性能的無損檢測(cè)技術(shù),采用基于聲發(fā)射信號(hào)的故障檢測(cè),可以實(shí)現(xiàn)不影響機(jī)組運(yùn)行前提下,完成設(shè)備檢測(cè)。當(dāng)前,有許多學(xué)者從不同領(lǐng)域?qū)诼暟l(fā)射檢測(cè)技術(shù)進(jìn)行了深入的研究,考慮到特征對(duì)識(shí)別的重要影響,如何提取有效的特征,受到了學(xué)者的諸多關(guān)注。例如,2010 年,鄧艾東等人[1]提出了一種基于時(shí)延神經(jīng)網(wǎng)絡(luò)(Time-Delay Neural Network,TDNN) 和高斯混合模型(Gaussian Mixed Model,GMM)的聲發(fā)射信號(hào)分類方法,取得良好的效果。近些年,隨著機(jī)器學(xué)習(xí)技術(shù)的發(fā)展,深度學(xué)習(xí)受到了廣泛的關(guān)注。
卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是一類包含卷積計(jì)算的前饋神經(jīng)網(wǎng)絡(luò),20 世紀(jì)80 年代至90 年代,LeCun Yann 等人[2]就提出了LeNet-5 網(wǎng)絡(luò),在手寫字識(shí)別上取得了顯著的結(jié)果。隨著計(jì)算機(jī)性能的快速提升,卷積神經(jīng)網(wǎng)絡(luò)得以迅速發(fā)展,2012 年Hinton 和Alex Krizhevsky 所設(shè)計(jì)的AlexNet[3]卷積神經(jīng)網(wǎng)絡(luò),以壓倒性的優(yōu)勢(shì)獲得了ImageNet 分類比賽的冠軍,展現(xiàn)出了卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)勢(shì)及所蘊(yùn)含的巨大潛力,目前CNN 已經(jīng)在圖像分割[4]、手寫字識(shí)別[5-6]、圖像分類等場(chǎng)景中有諸多應(yīng)用。當(dāng)前,已有部分學(xué)者開展了基于CNN 故障檢測(cè)相關(guān)技術(shù)的探索,并取得了部分成果,推動(dòng)了故障診斷水平的提升。
長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(Long Short-Term Memory,LSTM)[7]作為是一種時(shí)間循環(huán)網(wǎng)絡(luò),廣泛應(yīng)用于時(shí)序數(shù)據(jù)的建模中;由前向LSTM 和后向LSTM 組成的BiLSTM 網(wǎng)絡(luò),可以編碼從后向前的信息,受到了廣泛的關(guān)注。
本文提出一種基于譜圖和聲學(xué)特征的旋轉(zhuǎn)機(jī)械聲發(fā)射識(shí)別方法。CNN 網(wǎng)絡(luò)中輸入聲發(fā)射信號(hào)譜圖,得到聲發(fā)射信號(hào)的全局特征;短時(shí)能量、過零率、峭度等信息輸入BiLSTM 網(wǎng)絡(luò)中,提取發(fā)射信號(hào)的聲學(xué)特征,最后將CNN 網(wǎng)絡(luò)和BiLSTM 網(wǎng)絡(luò)提取到的特征融合起來,采用Softmax 實(shí)現(xiàn)信號(hào)識(shí)別,通過實(shí)驗(yàn)驗(yàn)證了此模型的有效性。
(1)幅度譜
旋轉(zhuǎn)機(jī)械轉(zhuǎn)子聲發(fā)射(Acoustic Emission,AE)信號(hào)具有與自然語言相似的聲學(xué)特性,因此,借鑒語音識(shí)別的方法對(duì)AE 信號(hào)進(jìn)行分析和識(shí)別。假設(shè)碰摩AE 信號(hào)是短時(shí)平穩(wěn)信號(hào),對(duì)于任意時(shí)刻n,可以對(duì)n時(shí)刻附近的小范圍信號(hào)進(jìn)行頻譜分析,從而得到AE 信號(hào)的二維幅度頻譜圖像。
鑒于CNN 具有強(qiáng)大學(xué)習(xí)能力,且AE 信號(hào)具有良好的動(dòng)態(tài)特性,除了原始的二維幅度頻譜圖像外,同時(shí)提取幅度譜沿時(shí)間軸的一階差分譜、幅度譜沿頻率軸的一階差分譜,3 個(gè)圖組成3D 譜圖輸入CNN網(wǎng)絡(luò)中。
(2)群時(shí)延相位譜
群延時(shí)[8]包含了豐富的動(dòng)態(tài)信息,它是信號(hào)在某個(gè)頻率相位信息相對(duì)于頻率的變化率;本文選用修正群延時(shí)相位譜作為譜圖的另一種生成方式,其中修正群延時(shí)函數(shù)可以定義為:
提取AE 信號(hào)的群延時(shí)相位譜,并提取譜沿時(shí)間軸的一階差分譜、譜沿頻率軸的一階差分譜,共同組成3D 譜圖。
最后,將兩種譜圖組合在一起,構(gòu)成幅度-相位譜圖。
如圖1 所示,展示了本文所采用的CNN 的網(wǎng)絡(luò)結(jié)構(gòu)圖。網(wǎng)絡(luò)的輸入數(shù)據(jù)是幀重疊率為50%的碰摩AE 信號(hào)幅度-相位譜圖。
圖1 CNN 網(wǎng)絡(luò)結(jié)構(gòu)
首先卷積核尺寸為1×1 的卷積層被用來對(duì)輸入數(shù)據(jù)進(jìn)行非線性變換,然后采用池化操作將前一層輸入的矩形圖進(jìn)行規(guī)整。卷積操作如式(2)所示:
引入Inception 結(jié)構(gòu)提取網(wǎng)絡(luò)各層級(jí)的特征。
最后采用平均池化代替?zhèn)鹘y(tǒng)卷積神經(jīng)網(wǎng)絡(luò)中的全連接層,以減輕網(wǎng)絡(luò)發(fā)生過擬合。
經(jīng)典的RNN 網(wǎng)絡(luò)在t時(shí)刻的狀態(tài)只能從過去時(shí)刻的輸入序列以及當(dāng)前時(shí)刻的輸入x(t)中求取。BiRNN (Bi-directional Recurrent Nerual Network,BiRNN)是Schuster 等人在1997 年提出的一種雙向網(wǎng)絡(luò),有效地解決了傳統(tǒng)RNN 當(dāng)前時(shí)刻狀態(tài)只能由當(dāng)前時(shí)刻輸入和過去時(shí)刻輸入決定的問題。BiRNN包含了兩個(gè)方向的RNN 網(wǎng)絡(luò),一個(gè)是從序列起點(diǎn)開始移動(dòng)的RNN,另一個(gè)是從序列終點(diǎn)開始移動(dòng)的RNN,兩個(gè)RNN 組合在一起可以有效獲取上下文信息,當(dāng)采用LSTM 替代RNN 時(shí),就構(gòu)成了BiLSTM(Bi-directional Long Short-Term Memory,BiLSTM)。
表1 CNN 網(wǎng)絡(luò)結(jié)構(gòu)
提取AE 信號(hào)每一幀的幀級(jí)特征作為BiLSTM網(wǎng)絡(luò)的輸入,提取到的特征包括短時(shí)能量、過零率、峭度、頻譜通量等。
表2 所用統(tǒng)計(jì)特征
本節(jié)構(gòu)建了一個(gè)BiLSTM 與卷積神經(jīng)網(wǎng)絡(luò)CNN進(jìn)行特征融合的轉(zhuǎn)子AE 信號(hào)識(shí)別模型。算法的整體架構(gòu)思路如圖2 所示。
圖2 BiLSTM-CNN 原理架構(gòu)圖
將所提取的聲學(xué)特征輸入BiLSTM 網(wǎng)絡(luò)中,將AE 信號(hào)轉(zhuǎn)化為幅度-相位譜圖輸入到CNN 網(wǎng)絡(luò)中,最終經(jīng)過2 個(gè)網(wǎng)絡(luò)訓(xùn)練后得到的特征融合在一起,采用SOFTMAX 分類器進(jìn)行分類識(shí)別。
本文使用轉(zhuǎn)速為600 rad/s 的轉(zhuǎn)子AE 信號(hào)進(jìn)行實(shí)驗(yàn)。采用漢寧窗對(duì)離散AE 信號(hào)進(jìn)行加窗分幀。CNN 網(wǎng)絡(luò)采用ReLU 激活函數(shù),本實(shí)驗(yàn)使用Adam 優(yōu)化算法來進(jìn)行訓(xùn)練。
3.2.1 識(shí)別性能分析
表3 展示了本文所提算法對(duì)600 rad/s 的碰摩聲發(fā)射信號(hào)分類的混淆矩陣。從混淆矩陣可以看出,所提識(shí)別方法對(duì)正常、軸承裂紋、主軸碰摩三種類型的AE 信號(hào)均具有85%以上的識(shí)別率,分類效果優(yōu)良。
表3 600 rad/s 轉(zhuǎn)速條件下所提算法識(shí)別性能混淆矩陣 單位:%
3.2.2 與其他算法對(duì)比試驗(yàn)
為了進(jìn)一步探究本文提出模型的有效性,現(xiàn)將其與其他聲發(fā)射信號(hào)識(shí)別方法進(jìn)行對(duì)比實(shí)驗(yàn),表4展示了不同分類器在碰摩AE 信號(hào)分類上的性能。
表4 600 rad/s 轉(zhuǎn)速下不同分類器識(shí)別性能比較 單位:%
從表4 中可以看出,在3 種不同的的條件下,所提識(shí)別方法的識(shí)別準(zhǔn)確率均是最高,分別為85.87%、92.13%、86.54%,且平均識(shí)別率比SVM 高出了17.95%,比DNN 高了19.31%,比KNN 高了32.21%。
與同樣作為神經(jīng)網(wǎng)絡(luò)的DNN 相比,由于網(wǎng)絡(luò)分別采用CNN 和BiLSTM 從譜圖和聲學(xué)特征中提取到更多有效的特征,因此,取得了更高的識(shí)別結(jié)果。
本文提出一種基于譜圖和聲學(xué)特征的旋轉(zhuǎn)機(jī)械聲發(fā)射識(shí)別方法。CNN 網(wǎng)絡(luò)中輸入聲發(fā)射信號(hào)譜圖,得到聲發(fā)射信號(hào)的全局特征;短時(shí)能量、過零率、峭度等信息輸入BiLSTM 網(wǎng)絡(luò)中,提取發(fā)射信號(hào)的聲學(xué)特征,最后將CNN 網(wǎng)絡(luò)和BiLSTM 網(wǎng)絡(luò)提取到的特征融合起來,采用Softmax 實(shí)現(xiàn)信號(hào)識(shí)別,實(shí)驗(yàn)結(jié)果表明,所提識(shí)別方法對(duì)聲發(fā)射信號(hào)的識(shí)別準(zhǔn)確率遠(yuǎn)高于傳統(tǒng)識(shí)別方法。