謝春麗,張東興,米志飛
(東北林業(yè)大學(xué) 交通學(xué)院,黑龍江 哈爾濱 150040)
電控發(fā)動(dòng)機(jī)故障診斷屬性約簡(jiǎn)算法應(yīng)用研究
謝春麗,張東興,米志飛
(東北林業(yè)大學(xué) 交通學(xué)院,黑龍江 哈爾濱 150040)
利用粗糙集理論中的區(qū)分矩陣屬性約簡(jiǎn)算法對(duì)電控發(fā)動(dòng)機(jī)的幾種典型故障參數(shù)進(jìn)行屬性約簡(jiǎn),為驗(yàn)證約簡(jiǎn)結(jié)果是否有利于下一步的故障診斷,采用較成熟的BP神經(jīng)網(wǎng)絡(luò)對(duì)其進(jìn)行診斷驗(yàn)證,將約簡(jiǎn)結(jié)果作為網(wǎng)絡(luò)的輸入,待診斷故障作為網(wǎng)絡(luò)的輸出。通過(guò)學(xué)習(xí)訓(xùn)練結(jié)果表明:利用區(qū)分矩陣方法所獲得的核約簡(jiǎn)不能作為故障診斷的特征參量,其導(dǎo)致網(wǎng)絡(luò)不收斂,而其它3組約簡(jiǎn)可以用于區(qū)分現(xiàn)有故障。為獲得最優(yōu)的屬性約簡(jiǎn)結(jié)果,利用二進(jìn)制粒矩陣的方法進(jìn)行了最優(yōu)屬性約簡(jiǎn)的證明。
粗糙集;屬性約簡(jiǎn);故障診斷;區(qū)分矩陣;二進(jìn)制粒矩陣
粗糙集理論由波蘭學(xué)者Pawlak在1982年提出[1]。此后,粗集理論引起了許多數(shù)學(xué)家、邏輯學(xué)家和計(jì)算機(jī)研究人員的興趣,他們?cè)诖旨睦碚摵蛻?yīng)用方面作了大量研究。Pawlak[2]系統(tǒng)全面地闡述了粗集理論,奠定了嚴(yán)密的數(shù)學(xué)基礎(chǔ),較好地總結(jié)了這一時(shí)期粗集理論與實(shí)踐的研究成果,促進(jìn)了該理論在各個(gè)領(lǐng)域的應(yīng)用。屬性約簡(jiǎn)是粗糙集理論的核心內(nèi)容之一[3-4],將粗糙集理論的屬性約簡(jiǎn)算法應(yīng)用到故障診斷中[5-7],從而降低故障診斷特征參量的維數(shù),提高后續(xù)故障診斷算法的運(yùn)算速度,達(dá)到特征提取的目的。對(duì)于一般的基于粗糙集的屬性約簡(jiǎn)算法尋求的目標(biāo)是“最小”約簡(jiǎn),而對(duì)于故障診斷中的屬性約簡(jiǎn)則要求尋求“最優(yōu)”約簡(jiǎn),即獲得能夠最大限度判斷故障類(lèi)型,降低誤診的約簡(jiǎn)結(jié)果。
基于粗糙集理論的屬性約簡(jiǎn)算法非常多,人們對(duì)粗糙集的研究很大一部分是集中在研究屬性約簡(jiǎn)這個(gè)范圍內(nèi)。下面簡(jiǎn)要介紹幾種典型的目前研究較多的約簡(jiǎn)算法[8-9]。
1)基本算法 首先構(gòu)造區(qū)矩陣,由區(qū)分矩陣產(chǎn)生區(qū)分函數(shù),再對(duì)區(qū)分函數(shù)進(jìn)行化簡(jiǎn),得到區(qū)分函數(shù)的析取范式形式,析取范式中的每一項(xiàng)就是一個(gè)約簡(jiǎn)。
2)基于屬性重要性的啟發(fā)式算法 這個(gè)算法的基本思想是利用屬性重要性作為啟發(fā)式信息,將核屬性作為初始屬性集,在這個(gè)屬性集中每次加入屬性重要性最大的屬性,直到剩下的屬性的重要性都等于零為止,然后再檢查這些屬性是否可以刪除,若可以則刪除之,直到所有的屬性都不能刪除為止。這個(gè)算法能得到“最好”的約簡(jiǎn)或者是用戶(hù)指定的“最小”約簡(jiǎn)。
3)動(dòng)態(tài)約簡(jiǎn) 在某種意義上動(dòng)態(tài)約簡(jiǎn)是給定決策表中最穩(wěn)定的約簡(jiǎn)。該方法首先利用隨機(jī)抽樣從給定決策表中形成若干子表,然后計(jì)算所有子表的約簡(jiǎn)。如果某個(gè)約簡(jiǎn)在所有子表的約簡(jiǎn)中出現(xiàn)的頻率大于給定的閾值,即在所有的子表中保持不變或近似保持不變的約簡(jiǎn)就是動(dòng)態(tài)約簡(jiǎn)。動(dòng)態(tài)約簡(jiǎn)能夠有效地增強(qiáng)約簡(jiǎn)的抗噪音能力。
4)基于互信息的屬性約簡(jiǎn)算法 基于互信息的屬性約簡(jiǎn)算法是以bottom-up的方式來(lái)求相對(duì)約簡(jiǎn)的,它以決策表的相對(duì)核為起點(diǎn),逐次選擇最重要的屬性添加到相對(duì)核中,直到條件滿(mǎn)足。
這里以粗糙集的基本屬性約簡(jiǎn)算法即區(qū)分矩陣法為基礎(chǔ)來(lái)驗(yàn)證該算法在故障診斷中的應(yīng)用。區(qū)分矩陣將復(fù)雜的信息系統(tǒng)容納于一個(gè)矩陣中,卻不影響原來(lái)信息系統(tǒng)中的潛在知識(shí),因此大大提高了分析系統(tǒng)知識(shí)的能力,因此可以從區(qū)分矩陣入手對(duì)信息系統(tǒng)進(jìn)行屬性約簡(jiǎn)[10]。
定義1 設(shè)有信息系統(tǒng)S,a(x)是記錄x在屬性a上的值,Cij表示分辨矩陣中第i行,第j列的元素,Cij被定義為
定義2(區(qū)分函數(shù)) 區(qū)分函數(shù)是從分辨矩陣中構(gòu)造的。約簡(jiǎn)算法的方法是先求得Cij每個(gè)屬性的析取,然后再求所有Cij的合取。分辨矩陣是一個(gè)對(duì)稱(chēng)n×n矩陣。在實(shí)際運(yùn)用中,只列出它的上三角陣。
一個(gè)數(shù)據(jù)集的所有約簡(jiǎn)可以通過(guò)構(gòu)造分辨矩陣并且化簡(jiǎn)由分辨矩陣導(dǎo)出的區(qū)分函數(shù)而得到,在使用吸收律化簡(jiǎn)區(qū)分函數(shù)成標(biāo)準(zhǔn)式后,所有的蘊(yùn)含式包含的屬性就是信息系統(tǒng)的所有約簡(jiǎn)集合。計(jì)算步驟如下[11]:
步驟1對(duì)數(shù)據(jù)庫(kù)中的數(shù)據(jù)進(jìn)行離散化處理。
步驟2 分別對(duì)xi和xj(1≤i<j≤n)進(jìn)行比較,獲取mij構(gòu)造區(qū)分矩陣。
步驟3 對(duì)mij中各屬性對(duì)應(yīng)的變量進(jìn)行析取運(yùn)算,不同的mij采用合取運(yùn)算。構(gòu)造區(qū)分函數(shù),將合取范式轉(zhuǎn)換為析取范式。
步驟4根據(jù)所得析取范式獲得決策表U的相對(duì)約簡(jiǎn)。
以文獻(xiàn)[12]中電控發(fā)動(dòng)機(jī)的幾種故障和相應(yīng)的征兆為例,對(duì)該算法進(jìn)行計(jì)算說(shuō)明,各故障及相應(yīng)的征兆如表1所示,假設(shè)故障數(shù)據(jù)經(jīng)過(guò)離散化處理后的數(shù)據(jù)如表2所示,即決策表,根據(jù)決策表建立區(qū)分矩陣如表3所示。
根據(jù)建立的區(qū)分矩陣得決策表的區(qū)分函數(shù):
得到該知識(shí)表達(dá)系統(tǒng)有 3個(gè)約簡(jiǎn){x6,x10,x3,x7,x2,x11,x1},{x8,x10,x3,x7,x2,x11,x1},{x9,x10,x3,x7,x2,x11,x1},核是{x10,x3,x7,x2,x11,x1}。
表1 故障及相應(yīng)參量含義
表2 離散化處理后數(shù)據(jù)
表3 區(qū)分矩陣
為了驗(yàn)證約簡(jiǎn)結(jié)果是否可用于故障診斷的特征提取,采用較成熟的BP神經(jīng)網(wǎng)絡(luò)作為驗(yàn)證工具,將粗糙集理論所得到的3個(gè)約簡(jiǎn)及其核約簡(jiǎn)分別作為4個(gè)BP神經(jīng)網(wǎng)絡(luò)的輸入,而待診斷的8種故障模式作為神經(jīng)網(wǎng)絡(luò)的輸出。神經(jīng)網(wǎng)絡(luò)1將約簡(jiǎn)的核屬性作為輸入,結(jié)構(gòu)為6-13-8;神經(jīng)網(wǎng)絡(luò)2將約簡(jiǎn)1的屬性作為輸入,結(jié)構(gòu)為7-15-8;神經(jīng)網(wǎng)絡(luò)3將約簡(jiǎn)2作為輸入,結(jié)構(gòu)為7-15-8;神經(jīng)網(wǎng)絡(luò)4將約簡(jiǎn)3作為輸入,結(jié)構(gòu)為7-15-8。由于理想輸出均相同,因此表4只給出了神經(jīng)網(wǎng)絡(luò)1和神經(jīng)網(wǎng)絡(luò)2的理想輸入。
由于神經(jīng)網(wǎng)絡(luò)1的樣本7和樣本8的輸入均相同,而輸出卻不同,導(dǎo)致了該網(wǎng)絡(luò)學(xué)習(xí)訓(xùn)練不收斂,其余的神經(jīng)網(wǎng)絡(luò)經(jīng)過(guò)學(xué)習(xí)訓(xùn)練后均收斂,只是循環(huán)計(jì)算的步數(shù)有所差別。各神經(jīng)網(wǎng)絡(luò)對(duì)樣本1的實(shí)際輸出、學(xué)習(xí)訓(xùn)練誤差及訓(xùn)練計(jì)算循環(huán)步數(shù)如表5所示。
表4 神經(jīng)網(wǎng)絡(luò)1和2的理想輸入
表5 神經(jīng)網(wǎng)絡(luò)的訓(xùn)練結(jié)果
表6 去除其他屬性后的決策表
通過(guò)對(duì)4個(gè)神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)訓(xùn)練結(jié)果的分析來(lái)看,這里只使用粗糙集理論所獲的核屬性進(jìn)行診斷是不可行的,造成網(wǎng)絡(luò)不收斂,而使用粗糙集的3個(gè)約簡(jiǎn)進(jìn)行診斷是可行的,通過(guò)訓(xùn)練結(jié)果的分析,使用3個(gè)約簡(jiǎn)作為神經(jīng)網(wǎng)絡(luò)的輸入可以達(dá)到診斷這8種故障的目的。但這3種約簡(jiǎn)中到底哪一組約簡(jiǎn)結(jié)果是最優(yōu)的,還是3種約簡(jiǎn)都是最優(yōu)約簡(jiǎn),利用二進(jìn)制粒矩陣[13-16]的方法進(jìn)行了證明。
從上面的3組約簡(jiǎn)結(jié)果來(lái)看除了核屬性外,3組約簡(jiǎn)不同的是3個(gè)條件屬性x6,x8,x9,只要計(jì)算出這3個(gè)條件屬性的重要度即可確定最優(yōu)約簡(jiǎn),因此將其余屬性均去掉得到?jīng)Q策表如表6所示。根據(jù)該決策表,當(dāng)去掉屬性x6后,條件屬性C={x8,x9}劃分論域U形成4個(gè)知識(shí)粒:
決策屬性劃分論域U仍為8種故障,因此形成的知識(shí)粒為 8個(gè),即{(y1),(y2),(y3),(y4),(y5),(y6),(y7),(y8)}。
條件屬性劃分論域形成知識(shí)粒相應(yīng)的二進(jìn)制粒矩陣為
決策屬性劃分論域形成知識(shí)粒相應(yīng)的二進(jìn)制粒矩陣為
計(jì)算關(guān)系矩陣
計(jì)算依賴(lài)度
式中:NE(i)=1表示Ri中非零元素為1的個(gè)數(shù)。從關(guān)系矩陣中可以看出,行向量中只有一個(gè)非零元素的行有2個(gè),即R中的第3行和第4行,而另外2行有多個(gè)非零元素,因此得
按照上述計(jì)算方法分別計(jì)算:
由此得x8的重要度最大,因此得到最優(yōu)約簡(jiǎn)結(jié)果為{x8,x10,x3,x7,x2,x11,x1}。
利用粗糙集理論的區(qū)分矩陣方法對(duì)給定的故障診斷決策表進(jìn)行了屬性約簡(jiǎn),并給出了約簡(jiǎn)算法的詳細(xì)計(jì)算過(guò)程,經(jīng)約簡(jiǎn)計(jì)算后得到6個(gè)核屬性及3組約簡(jiǎn)屬性,利用神經(jīng)網(wǎng)絡(luò)對(duì)約簡(jiǎn)后的結(jié)果進(jìn)行了驗(yàn)證,結(jié)果表明:6個(gè)核屬性不能作為一個(gè)約簡(jiǎn)進(jìn)行八種故障的識(shí)別,而3組約簡(jiǎn)結(jié)果均可識(shí)別目標(biāo)故障。利用粗糙集理論的區(qū)分矩陣將原來(lái)的11個(gè)故障屬性約簡(jiǎn)到7個(gè)故障屬性,這大大簡(jiǎn)少了診斷算法的計(jì)算量,為各種智能診斷算法的應(yīng)用及故障的快速識(shí)別奠定了基礎(chǔ)。為了證明3組約簡(jiǎn)結(jié)果的優(yōu)劣,尋求最優(yōu)約簡(jiǎn),提出了利用二進(jìn)制粒矩陣的方法計(jì)算屬性的重要度,通過(guò)計(jì)算依賴(lài)度的方法求得核屬性之外的3個(gè)屬性的重要度,在建立決策表時(shí),只考慮待求3個(gè)屬性而將其他屬性略去,這樣大大簡(jiǎn)化了計(jì)算量,能夠快速尋求最優(yōu)約簡(jiǎn)結(jié)果,該方法可以進(jìn)一步應(yīng)用于其他屬性約簡(jiǎn)結(jié)果的尋優(yōu)計(jì)算中。
[1]王慶東.基于粗糙集的數(shù)據(jù)挖掘方法研究 [D].杭州:浙江大學(xué),2005.
[2]Zdzis?aw Pawlak,Andrzej Skowron.Rudiments of rough sets[J].Information Sciences,2007,177(1):3-27.
[3]Yuhua Qian,Jiye Liang,Witold Pedrycz,Chuangyin Dang.An efficient accelerator for attribute reduction from incomplete data in rough set framework[J]. Pattern Recognition.2011,44(8):1658-1670.
[4]甄宇峰.基于粗糙集的知識(shí)約簡(jiǎn)算法研究及應(yīng)用[D].鎮(zhèn)江:江蘇大學(xué),2010.
[5]N.R.Sakthivel,V.Sugumaran,Binoy.B.Nair.Comparison of decision tree-fuzzy and rough set-fuzzy methods for fault categorization of mono-block centrifugal pump[J]. Mechanical Systems and Signal Processing,2010,24(6):1887-1906.
[6]Bing Li,Peng-yuan Liu,Ren-xi Hu,Shuang-shan Mi, Jian-ping Fu.Fuzzy lattice classifier and its application to bearing fault diagnosis[J].Applied Soft Computing, 2012,12(6):1708-1719.
[7]Karim Salahshoor,Mojtaba Kordestani,Majid S.Khoshro. Fault detection and diagnosis of an industrial steam turbine using fusion of SVM (support vector machine)and ANFIS (adaptive neuro-fuzzy inference system)classifiers[J].Energy,2010,35(12):5472-5482.
[8]鄧大勇.基于粗糙集的數(shù)據(jù)約簡(jiǎn)及粗糙集擴(kuò)展模型的研究[D].北京:北京交通大學(xué),2007.
[9]K.Thangavel,A.Pethalakshmi.Dimensionality reduction based on rough set theory:A review[J].Applied Soft Computing,2009,9(1):1-12.
[10]高淑芝,高憲文,王介生,等.基于改進(jìn)差別矩陣屬性約簡(jiǎn)的聚合釜粗糙集-神經(jīng)網(wǎng)絡(luò)故障診斷[J].化工學(xué)報(bào),2011,62(3):759-765.
[11]張楠.基于Rough Set理論的約簡(jiǎn)算法的研究[D].貴陽(yáng):貴州大學(xué),2007.
[12]李明釗.基于神經(jīng)網(wǎng)絡(luò)的電控汽油發(fā)動(dòng)機(jī)的智能故障診斷研究[D].昆明:昆明理工大學(xué),2008.
[13]謝珺.二進(jìn)制粒神經(jīng)網(wǎng)絡(luò)研究及其在故障診斷中的應(yīng)用[D].太原:太原理工大學(xué),2009.
[14]Scott Dick,Andrew Tappenden,Curtis Badke,Olufemi Olarewaju.A granular neural network:Performance analysis and application to re-granulation [J]. International Journal of Approximate Reasoning,2013(54):1149-1167.
[15]陳澤華.粒計(jì)算及人工選擇算法理論研究[D].太原:太原理工大學(xué),2007.
[16]Vassilis G.Kaburlasos,S.E.Papadakis.A granular extension of the fuzzy-ARTMAP(FAM)neural classifier based on fuzzy lattice reasoning(FLR)[J].Neurocomputing,2009(72):2067-2078.
Application Research on Attribute Reduction Algorithm for Fault Diagnosis of Electronic-controlled Engine
Xie Chunli,Zhang Dongxing,Mi Zhifei
(Traffic College,Northeast Forestry University,Harbin 150040,China)
Several typical faults parameters of electronic-controlled engine were taken as an example to do attribute reduction using discernible matrix of rough set theory.In order to validate reduction results whether it helps the next fault diagnosis,the relatively mature BP neural network was chosen to test and verify.The reduction results are as the inputs of BP neural network,and the typical faults are as outputs.The training results show that the
core reduction using the discernible matrix method cannot be used as the characteristic parameters of fault diagnosis,it does not cause network convergence,and the other three groups of reduction can be used to distinguish the existing faults.In order to get the best attribute reduction,the optimal attribute reduction was proved by using Bit Granular Matrix.
rough set;attribute reduction;fault diagnosis;discernible matrix;Bit Granular Matrix
TP18
A
1008-5483(2014)01-0054-05
2014-01-13
中央高?;究蒲袠I(yè)務(wù)費(fèi)專(zhuān)項(xiàng)資金項(xiàng)目資助(DL13CB14)
謝春麗(1978-),女,吉林鎮(zhèn)賚人,副教授,主要從事故障診斷方面的研究。
10.3969/j.issn.1008-5483.2014.01.0014