張寶全,馬雅麗,2,關(guān)睿,白詩婷,李靜,胡偉濤
(1.國網(wǎng)河北省電力有限公司檢修分公司,河北 石家莊 050070;2.華北電力大學(xué) 電力工程系,河北 保定 071003)
為了提高電氣設(shè)備壽命,高壓電氣設(shè)備往往是以油和固體電介質(zhì)(如紙和高分子材料)作為內(nèi)絕緣。電氣設(shè)備在運行中受到電、熱、機械和環(huán)境應(yīng)力的作用會逐漸老化[1],當(dāng)電氣和機械性能不滿足要求時將會發(fā)生故障,影響電力系統(tǒng)的可靠運行。因此,充油電氣設(shè)備的故障診斷對于保障電力系統(tǒng)正常運行、提高供電質(zhì)量非常重要。
絕緣電阻、泄漏電流、介電譜[2]、局部放電[3]、溫度[4]、振動[5]、紅外和紫外[6]、油中溶解氣體分析(又稱油色譜)[7-9]等是常見的充油電氣設(shè)備故障檢測特征量,每種方法都有自己的特點和適合應(yīng)用的場合,本文主要針對油色譜法開展研究。由于不同類型和嚴(yán)重程度的故障導(dǎo)致充油電氣設(shè)備油中產(chǎn)生的故障特征氣體含量不同,采用氣相色譜法檢測獲得油中故障特征氣體含量,結(jié)合故障診斷方法即可判斷設(shè)備內(nèi)部發(fā)生的故障。該方法適用于診斷局部、慢性、潛在性缺陷,同時由于大型充油電氣設(shè)備有取油樣口,取油樣時并不需要停電操作,故也適合于在線監(jiān)測。
目前現(xiàn)場針對油色譜故障診斷最為常用的方法為比值法[10-11],該類方法中又以國際電工委員會(International Electrotechnical Commission,IEC)推薦的IEC三比值法及其改良版本應(yīng)用最為廣泛??紤]到溶解度和擴散系數(shù)的相似性,該方法選擇3對氣體(C2H2和C2H4、CH4和H2、C2H4和C2H6)的體積分數(shù)比值,根據(jù)比值確定編碼,根據(jù)編碼確定故障類型。三比值法應(yīng)用廣泛,能比較有效地診斷充油電氣設(shè)備的故障,但診斷準(zhǔn)確率還不夠高,不能進一步利用大量特征氣體數(shù)據(jù)所隱含的信息來提高故障診斷準(zhǔn)確率。為了解決該問題,人們提出采用機器學(xué)習(xí)來提高故障診斷的準(zhǔn)確率,主要有人工神經(jīng)網(wǎng)絡(luò)(artificial neural network,ANN)法[12-13]、專家系統(tǒng)法[14]、遺傳算法[15]、證據(jù)推理法[16]、云理論法[17]、貝葉斯網(wǎng)絡(luò)法[18]等,有效推動了充油電氣設(shè)備故障診斷的智能化,尤其是ANN方法由于具有較好的自學(xué)習(xí)能力而被廣泛應(yīng)用。針對油色譜的ANN診斷方法尚存在以下問題:①雖然有不少文獻采用了不同算法訓(xùn)練ANN[19-22],也給出了故障診斷結(jié)果,但這些算法訓(xùn)練速度和診斷準(zhǔn)確率關(guān)系如何未見文獻公開報道,這給算法的選擇帶來了難度;②有文獻給出了隱層神經(jīng)元數(shù)量的選擇方法[23-24],但不確定對基于油色譜的ANN方法是否適用,關(guān)于隱層神經(jīng)元數(shù)量、隱層和輸出層神經(jīng)元激活函數(shù)選擇和訓(xùn)練目標(biāo)選擇對基于油色譜的ANN訓(xùn)練速度和診斷準(zhǔn)確率的影響未見文獻公開報道。以上問題可能會影響網(wǎng)絡(luò)診斷的準(zhǔn)確性,非常有必要進行研究。
為了解決這個問題,本文基于搜集得到的470個典型故障特征氣體樣本,構(gòu)建單隱層多層前饋ANN系統(tǒng),研究訓(xùn)練算法、隱層神經(jīng)元數(shù)量、網(wǎng)絡(luò)輸入和訓(xùn)練目標(biāo)、隱層和輸出層神經(jīng)元激活函數(shù)對訓(xùn)練和診斷效果的影響規(guī)律,并給出ANN應(yīng)用于充油電氣設(shè)備故障診斷時相關(guān)參數(shù)選擇的建議,為基于油色譜的充油電氣設(shè)備故障診斷的應(yīng)用提供參考。
充油電氣設(shè)備在運行中會受到熱應(yīng)力、電應(yīng)力等作用導(dǎo)致設(shè)備內(nèi)部溫升、局部放電、局部的火花和電弧等故障,這樣設(shè)備內(nèi)部的油和紙可能會分解產(chǎn)生氣體,通常用于故障特征判斷的氣體是H2、CH4、C2H6、C2H4、C2H2、CO和CO2,通常稱為故障特征氣體。產(chǎn)生的氣體溶解于油中,通過設(shè)備內(nèi)部的油循環(huán)被輸運到取油樣口。在取油樣口取出故障特征氣體后,通過震蕩脫氣等方式可以獲得處于混合狀態(tài)的故障特征氣體,然后通過氣相色譜、光聲光譜、紅外光譜等方式實現(xiàn)各種類型故障特征氣體含量的測量。不同故障下作用在油和紙上的溫度、功率不同,導(dǎo)致油和紙分解產(chǎn)生氣體的類型、產(chǎn)氣速率和氣體的分壓比不同,根據(jù)檢測得到的各種故障特征氣體數(shù)據(jù)即可判斷故障類型乃至嚴(yán)重程度。
從數(shù)學(xué)角度看,多層前饋ANN可以認為是一個映射,涉及到充油電氣設(shè)備故障診斷時就是實現(xiàn)從輸入特征氣體含量到故障類型的映射。多層前饋ANN理論上可以實現(xiàn)任意復(fù)雜的映射,且單隱層ANN即具有該能力,適用于本文的充油電氣設(shè)備故障診斷。多層前饋ANN結(jié)構(gòu)如圖1所示,其中:M為輸入層神經(jīng)元數(shù)量;N為隱層神經(jīng)元數(shù)量;L為輸出層神經(jīng)元數(shù)量;xmq(m=1,2,…,M)為第q個樣本向量中第m個元素的值;ω1mn(m=1,2,…,M,n=1,2,…,N)為輸入層第m個神經(jīng)元到隱層第n個神經(jīng)元的權(quán)值;ω2nl(n=1,2,…,N,l=1,2,…,L)為隱層第n個神經(jīng)元到輸出層第l個神經(jīng)元的權(quán)值;ol(l=1,2,…,L)為輸出層第l個神經(jīng)元的輸出結(jié)果。
圖1 多層前饋ANN結(jié)構(gòu)Fig.1 Structure of multi-layer feedforward ANN
圖1所示ANN對應(yīng)的映射
ol(x1q,x2q,…,xMq)=
l=1,2,…,L.
(1)
式中:f1和f2分別為隱層和輸出層神經(jīng)元的激活函數(shù);tn為隱層第n個神經(jīng)元的閾值。
ANN訓(xùn)練本質(zhì)上是一個非線性最小二乘問題,即通過調(diào)整權(quán)值和閾值使目標(biāo)函數(shù)E最小化,
(2)
式中:Q為訓(xùn)練樣本數(shù)量;εlq為針對第q個樣本ANN輸出層第l個神經(jīng)元輸出的目標(biāo)值。
無論采用什么算法,網(wǎng)絡(luò)可調(diào)變量(權(quán)值和閾值)ωa的調(diào)整公式為:
ωa(k+1)=ωa(k)+Δωa(k),a=1,2,…,A.
(3)
式中:Δωa為第a個可調(diào)變量的增量;A為網(wǎng)絡(luò)可調(diào)變量的數(shù)量;k為迭代次數(shù)。
不同算法之間的差別就在于Δωa(k)的計算方式。除了經(jīng)典的BP算法[24],為了避免訓(xùn)練時陷入局部極小點同時提高收斂速度,研究人員又提出了變學(xué)習(xí)速率(步長)和加動量項的BP算法[24]。振蕩傳播算法[25]從另外一個角度修正可調(diào)變量增量的計算公式,即有效利用誤差梯度的符號信息。共軛梯度法[26-27]利用搜索方向互相共軛的方式來提高收斂速度,減小計算過程對內(nèi)存的需求,典型的共軛梯度法有基于Powell-Beale重開始方式和基于Polak-Ribiére修正的算法[26-27]。但是,基于一階梯度的算法訓(xùn)練速度受到一定程度的限制,為了進一步提高訓(xùn)練速度,有研究人員將基于二階梯度的算法引入到ANN的訓(xùn)練中來,具體包括擬牛頓法[26]和Levenberg-Marquardt算法[28]。目前已有很多文獻對以上典型算法的原理進行了介紹[24-28]。
為了確保樣本的有效性和典型性,從現(xiàn)有公開發(fā)表文獻和少量現(xiàn)場實測數(shù)據(jù)中選擇470組油色譜樣本。另外,ANN的訓(xùn)練樣本要求具有較好的代表性,這樣訓(xùn)練得到的ANN才可以學(xué)習(xí)到訓(xùn)練樣本數(shù)據(jù)中隱藏的故障診斷規(guī)則。本文采用聚類分析方法,從470個樣本中選擇出226個典型樣本作為訓(xùn)練樣本,剩余的244個樣本作為測試樣本,具體見表1。
表1 不同故障類型的訓(xùn)練和測試樣本數(shù)量Tab.1 Numbers of training and test samples for different fault types
單隱層ANN能保障足夠的學(xué)習(xí)能力,而且相較于多隱層ANN具有更高的泛化能力,即更高的故障診斷準(zhǔn)確率,因此本文選擇單隱層ANN。輸入層和輸出層神經(jīng)元數(shù)量分別由特征氣體種類和故障種類決定。故障診斷用的特征氣體分別為H2、CH4、C2H6、C2H4和C2H2,輸出為6種故障類型——低溫過熱、中溫過熱、高溫過熱、局部放電、火花放電和電弧放電,因此輸入層和輸出層神經(jīng)元數(shù)量均為6。
ANN結(jié)構(gòu)以及輸入數(shù)據(jù)方式、訓(xùn)練目標(biāo)等默認取值如下:考慮到診斷的準(zhǔn)確性,訓(xùn)練算法選擇Levenberg-Marquardt算法;隱層和輸出層神經(jīng)元的激活函數(shù)分別設(shè)置為sigmoid函數(shù)和線性函數(shù);考慮到實際情況下特征氣體含量可能會在很大范圍內(nèi)變化,故用于訓(xùn)練的輸入數(shù)據(jù)為每種氣體體積分數(shù)與總氣體體積分數(shù)的比值;對于輸出結(jié)果,如果屬于某類故障則對應(yīng)的神經(jīng)元應(yīng)該輸出為1,其他神經(jīng)元應(yīng)該輸出為0;訓(xùn)練目標(biāo)是均方誤差為0.01,一旦誤差滿足要求則網(wǎng)絡(luò)收斂,停止迭代。
后文對網(wǎng)絡(luò)結(jié)構(gòu)、激活函數(shù)和訓(xùn)練目標(biāo)三者之一進行優(yōu)化時,其他兩者保持不變。另外,由于10個ANN訓(xùn)練時間存在一定的波動性,有時波動較大,為了更好地反映訓(xùn)練時間的變化規(guī)律,如無特殊說明,后續(xù)的訓(xùn)練時間指10個ANN訓(xùn)練時間的中位數(shù)。
采用8種不同算法對ANN進行訓(xùn)練,具體為BP算法、加動量項的BP算法、變學(xué)習(xí)速率的BP算法、振蕩傳播算法、基于Powell-Beale重開始方式和基于Polak-Ribiére修正的共軛梯度法、擬牛頓法及Levenberg-Marquardt算法,訓(xùn)練至誤差趨于穩(wěn)定值。綜合考慮診斷準(zhǔn)確率和訓(xùn)練耗時后,以上算法對應(yīng)隱層神經(jīng)元選擇了不同值——BP算法及其改進算法選擇為400,其他算法選擇為50。不同算法下訓(xùn)練樣本的均方誤差與訓(xùn)練時間的關(guān)系如圖2所示,其中的訓(xùn)練時間為具體某ANN的訓(xùn)練時間。
圖2 不同算法下訓(xùn)練時間與訓(xùn)練誤差的關(guān)系Fig.2 Relationship between training time and errors of different algorithms
為了減少訓(xùn)練結(jié)果的隨機性,采用每種算法成功訓(xùn)練10個ANN,后續(xù)針對訓(xùn)練樣本和測試樣本的診斷結(jié)果均為10個ANN結(jié)果的均值。采用不同算法訓(xùn)練得到的ANN針對訓(xùn)練樣本和測試樣本的故障診斷準(zhǔn)確率見表2、表3。
表3 采用不同算法訓(xùn)練得到的ANN針對測試樣本的故障診斷準(zhǔn)確率Tab.3 Fault diagnosis accuracy of ANN method for test samples using different algorithms %
由表2和3可知,不同算法訓(xùn)練得到的ANN診斷的準(zhǔn)確性比較接近,尤其是針對測試樣本的診斷準(zhǔn)確率非常接近。但從訓(xùn)練時間上看不同算法差別較大:前3種BP類算法訓(xùn)練1個ANN耗時分別為1 669.14 s、1 558.46 s和1 647.13 s。后5種算法成功訓(xùn)練完成1個ANN需要的時間分別為27.27 s、26.93 s、231.74 s、35.96 s和4.60 s。Levenberg-Marquardt算法的訓(xùn)練速度最快,而BP算法的訓(xùn)練速度最慢??紤]到各種算法訓(xùn)練得到網(wǎng)絡(luò)的故障診斷準(zhǔn)確率接近,但Levenberg-Marquardt算法的訓(xùn)練速度最快,故選擇該算法訓(xùn)練ANN。
表2 采用不同算法訓(xùn)練得到的ANN針對訓(xùn)練樣本的故障診斷準(zhǔn)確率Tab.2 Fault diagnosis accuracy of ANN method for training samples using different algorithms %
隱層神經(jīng)元數(shù)量在30~60范圍內(nèi)變化,針對每個隱層神經(jīng)元數(shù)量,成功訓(xùn)練10個ANN。網(wǎng)絡(luò)訓(xùn)練時間隨隱層神經(jīng)元數(shù)量的變化如圖3所示,針對測試樣本的診斷準(zhǔn)確率如圖4所示。隱層神經(jīng)元數(shù)量不同時,訓(xùn)練得到的ANN針對測試樣本的故障診斷準(zhǔn)確率見表4。
表4 不同隱層神經(jīng)元數(shù)量下訓(xùn)練得到的ANN針對測試樣本的故障診斷準(zhǔn)確率Tab.4 Fault diagnosis accuracy of ANN for test samples with different numbers of hidden layer neuron
圖3 訓(xùn)練時間與隱層神經(jīng)元數(shù)量的關(guān)系Fig.3 Relationship between training time and numbers of hidden layer neuron
圖4 針對測試樣本的故障診斷準(zhǔn)確率與隱層神經(jīng)元數(shù)量的關(guān)系Fig.4 Relationship between fault diagnosis accuracy for test samples and numbers of hidden layer neuron
由圖3可知,在本節(jié)設(shè)定的仿真范圍內(nèi),隨著隱層神經(jīng)元數(shù)量從較小值(30)開始增加,訓(xùn)練時間快速下降,當(dāng)達到最小值(此時神經(jīng)元數(shù)量為40)之后,隨著神經(jīng)元數(shù)量增加訓(xùn)練時間又略有增加。由圖4可知,隨著隱層神經(jīng)元數(shù)量從較小值開始增加,網(wǎng)絡(luò)診斷準(zhǔn)確率先增加,然后趨于穩(wěn)定值。綜合分析以上研究結(jié)果可知:隱層神經(jīng)元數(shù)量不建議選擇過小值,因為這樣訓(xùn)練時間太長且診斷準(zhǔn)確率未必是最高;也不建議選擇過大值,因為從更大的范圍來看,隨隱層神經(jīng)元數(shù)量增加網(wǎng)絡(luò)泛化能力下降,即此時診斷準(zhǔn)確率未必是最優(yōu)。因此,應(yīng)該選擇一些居中的值,比如本例建議選擇50。
訓(xùn)練目標(biāo)為均方誤差,其值在2×10-3~0.04范圍內(nèi)變化。針對每個訓(xùn)練目標(biāo),成功訓(xùn)練10個ANN。訓(xùn)練時間與訓(xùn)練目標(biāo)的關(guān)系如圖5所示。不同訓(xùn)練目標(biāo)時,訓(xùn)練得到的ANN針對測試樣本的故障診斷準(zhǔn)確率見表5。
圖5 訓(xùn)練時間與訓(xùn)練目標(biāo)的關(guān)系(1)Fig.5 Relationship between training time and training goals (1)
由圖5可知,隨訓(xùn)練目標(biāo)(均方誤差)從較小值開始增加,訓(xùn)練時間先快速下降然后趨于穩(wěn)定值。由表5可知,隨著訓(xùn)練目標(biāo)(均方誤差)的減小,ANN診斷準(zhǔn)確率先增加,達到最大值后又逐漸減小。因此,訓(xùn)練目標(biāo)不應(yīng)該選擇過大值或過小值,對于基于油色譜的充油電氣設(shè)備的故障診斷建議選擇0.01。
表5 不同訓(xùn)練目標(biāo)下,訓(xùn)練得到的ANN針對測試樣本的故障診斷準(zhǔn)確率(1)Tab.5 Fault diagnosis accuracy of ANN for test samples in different training goals (1)
為了增加結(jié)論的可靠性,針對網(wǎng)絡(luò)結(jié)構(gòu)和隱層、輸出層激活函數(shù)不同時也開展了訓(xùn)練目標(biāo)對ANN訓(xùn)練效果影響的研究,隱層神經(jīng)元數(shù)量選擇100,隱層和輸出層激活函數(shù)均設(shè)置為sigmoid函數(shù),訓(xùn)練目標(biāo)在5×10-4~0.04范圍內(nèi)變化,其他參數(shù)保持不變。訓(xùn)練時間隨訓(xùn)練目標(biāo)的變化如圖6所示。不同訓(xùn)練目標(biāo)時,訓(xùn)練得到的ANN針對測試樣本的故障診斷準(zhǔn)確率見表6。
圖6 訓(xùn)練時間與訓(xùn)練目標(biāo)的關(guān)系(2)Fig.6 Relationship between training time and training goals (2)
顯然,圖6、表6與圖5、表5的結(jié)果在定性上能很好吻合。
表6 不同訓(xùn)練目標(biāo)下,訓(xùn)練得到的ANN針對測試樣本的故障診斷準(zhǔn)確率(2)Tab.6 Fault diagnosis accuracy of ANN for test samples in different training goals (2)
常見的激活函數(shù)為sigmoid函數(shù)和線性函數(shù),隱層和輸出層激活函數(shù)分別設(shè)置為線性函數(shù)-線性函數(shù)、sigmoid函數(shù)-線性函數(shù)、線性函數(shù)-sigmoid函數(shù)、sigmoid函數(shù)-sigmoid函數(shù)4種組合。針對每種隱層和輸出層神經(jīng)元激活函數(shù)組合,成功訓(xùn)練10個ANN。圖7為不同激活函數(shù)組合下訓(xùn)練誤差與訓(xùn)練時間的關(guān)系,針對訓(xùn)練樣本和測試樣本的診斷結(jié)果見表7、表8。
圖7 不同激活函數(shù)下訓(xùn)練誤差與訓(xùn)練時間的關(guān)系Fig.7 Relationship between training errors and training time for different activation functions
表7 采用不同激活函數(shù)時,訓(xùn)練得到的ANN針對訓(xùn)練樣本的故障診斷準(zhǔn)確率Tab.7 Fault diagnosis accuracy of ANN for training samples using different activation functions %
表8 采用不同激活函數(shù)時,訓(xùn)練得到的ANN針對測試樣本的故障診斷準(zhǔn)確率Tab.8 Fault diagnosis accuracy of ANN for test samples using different activation functions %
由圖7可知:當(dāng)隱層神經(jīng)元激活函數(shù)為線性函數(shù)時,訓(xùn)練結(jié)果均不能收斂于訓(xùn)練目標(biāo)(均方誤差為0.01);而隱層神經(jīng)元激活函數(shù)為sigmoid函數(shù)時,輸出層神經(jīng)元不管是采用線性函數(shù)還是sigmoid函數(shù),訓(xùn)練結(jié)果均能收斂。由表7可知,即使針對訓(xùn)練過的樣本,隱層神經(jīng)元激活函數(shù)為線性函數(shù)、輸出層神經(jīng)元不管是采用線性函數(shù)還是sigmoid函數(shù)時,訓(xùn)練得到ANN的診斷準(zhǔn)確率均明顯低于其他情況下ANN的效果。表8中數(shù)據(jù)與圖7和表7吻合,即:當(dāng)隱層神經(jīng)元激活函數(shù)為線性函數(shù)時訓(xùn)練得到ANN的診斷準(zhǔn)確率偏低;當(dāng)隱層神經(jīng)元激活函數(shù)為sigmoid函數(shù)時,不管輸出層神經(jīng)元激活函數(shù)是線性函數(shù)還是sigmoid函數(shù),診斷準(zhǔn)確率都較高且接近。因此,選擇sigmoid函數(shù)作為隱層神經(jīng)元激活函數(shù)。
本文基于搜集得到的大量油色譜樣本,從訓(xùn)練和診斷2個角度系統(tǒng)研究了隱層神經(jīng)元數(shù)量、訓(xùn)練算法、訓(xùn)練目標(biāo)、隱層和輸出層神經(jīng)元激活函數(shù)對網(wǎng)絡(luò)性能的影響,結(jié)論如下:
a)訓(xùn)練目標(biāo)一致時,8種不同算法訓(xùn)練得到的ANN具有相近的故障診斷準(zhǔn)確率,但從訓(xùn)練時間上看Levenberg-Marquardt算法最快,BP類算法最慢,因此建議選擇Levenberg-Marquardt算法訓(xùn)練ANN。
b)隱層神經(jīng)元數(shù)量在一定范圍內(nèi)對故障診斷準(zhǔn)確率影響不大;隱層神經(jīng)元數(shù)量不建議選擇過大或過小的值。
c)隨訓(xùn)練目標(biāo)(均方誤差)的減小,訓(xùn)練時間增加,診斷誤差先增大后減小,建議均方誤差選擇0.01。
d)隱層神經(jīng)元激活函數(shù)選擇線性函數(shù)時,訓(xùn)練難以很好收斂,診斷準(zhǔn)確率低。建議隱層神經(jīng)元激活函數(shù)選擇sigmoid函數(shù),輸出層神經(jīng)元激活函數(shù)可以選擇線性函數(shù)或sigmoid函數(shù)。