楊建國,熊經緯,徐 蘭,呂志軍
(東華大學 機械工程學院,上海 201620)
基于改進極限學習機的紗線質量預測
楊建國,熊經緯,徐蘭,呂志軍
(東華大學 機械工程學院,上海 201620)
由于隨機給定輸入權值和偏差,極限學習機(extreme learning machine, ELM) 通常需要較多隱含層節(jié)點才能達到理想精度.結合粒子群算法具有全局搜索能力的優(yōu)勢,提出一種基于改進ELM算法的紗線質量預測模型,采用改進粒子群算法優(yōu)化ELM 算法的輸入權值矩陣和隱含層偏差,計算出輸出權值矩陣,以減少隱含層節(jié)點數.試驗結果表明,相比于ELM算法,改進ELM算法能夠依靠更少的隱含層節(jié)點獲得更高精度, 相對誤差降低2.70%,可為紗線質量預測與控制提供更有效的工具,具有廣泛的推廣實用性.
極限學習機;紗線質量;粒子群算法;質量預測
紡織工藝參數與加工質量之間存在著復雜的非線性、離散型和模糊的關系.紡織加工是一個依賴于領域專家知識與經驗的思維過程.同其他工業(yè)領域相比,智能化方法在紡織生產中的應用還相對滯后.紡織生產中積累了大量工藝數據和質量數據,但蘊含在這些數據中的隱性工藝知識卻難以獲取和重用.國外已開始使用神經網絡技術進行紗線質量預測研究與應用[1-2],國內也有對于毛條、紡紗、織造和后整理加工質量進行預測的研究[3-4].針對毛紗CV值預測問題,大多采用基于前饋人工神經網絡的優(yōu)化模型或支持向量機的優(yōu)化分類模型,但由于其存在迭代次數過多及易陷入局部最優(yōu)等缺點,迫切需要一種新的方法來為紡紗質量預測提供不同的視角.
文獻[5]提出新型單隱層前饋神經網絡極限學習機(extreme learning machine, ELM),其與傳統(tǒng)神經網絡的區(qū)別在于可調參數少,只需設置隱含層節(jié)點數,再通過隨機給定的輸入層隱含層的連接權值與隱含層閾值得到輸出層權值矩陣,通過網絡對數據樣本的訓練便能夠得到唯一的最優(yōu)解,因此,ELM的優(yōu)點是泛化性能好以及學習速度快等[6-9].文獻[10-13]將ELM算法應用于汽輪機故障診斷、供水管網故障智能診斷、斷路器振聲時聯合故障診斷、航空發(fā)動機傳感器故障診斷、電力故障檢測等方面,均獲得了較好的效果.ELM算法的最終輸出權值矩陣是通過計算隨機給出的權值和偏差得到的,而輸入權值與隱含層偏差是隨機給定的,這樣存在的問題就是隨機給定的值可能為0,導致部分隱含層節(jié)點在整個網絡中不起作用[14-15].因此在實際的工程應用中,只有通過不斷增加隱含層節(jié)點數才能得到理想的精度,這樣就降低了算法在預測上的精度.針對以上問題,本文利用改進的粒子群算法來優(yōu)化ELM輸入權值與隱含層偏差的選取,達到消除無效的隱含層節(jié)點、提高網絡的學習能力與泛化性能的目的.
(1)
(2)
式中:ω為慣性權重,用來調節(jié)對解空間的搜索范圍;d=1, 2,…,D,i=1, 2,…,S,D為待優(yōu)化問題的維數,S為種群大小;k為當前迭代次數;vid為微粒速度;c1和c2(非負常數)為學習因子,決定了粒子的搜索與收斂能力;r1和r2為兩個相互獨立的隨機數,取值范圍為(0, 1),以增加搜索隨機性.為降低粒子在迭代過程中脫離搜索空間的概率,一般將其位置和速度限制在[-Xmax,Xmax]、[-vmax,vmax].
1.1學習因子的改進
在粒子群算法中,學習因子表示粒子相互之間交流能力的強與弱,并且決定算法最終收斂的結果,其值過大或過小都將影響算法的學習與收斂能力,因此,選取一種學習因子動態(tài)調整的策略,其更新計算如式(3)與(4)所示.
(3)
(4)
式中:k為算法的當前迭代次數,kmax為算法的最大迭代次數.由式(3)與(4)可知,在算法的初期階段c1隨迭代次數的增加而遞減,c2隨迭代次數的增加而遞增.因此,在迭代剛開始的階段,學習因子的變化可以提高粒子的全局搜索能力,而在末期,則提高粒子收斂到全局最優(yōu)的能力.
改進ELM算法流程如圖1所示.
圖1 改進ELM算法流程圖Fig.1 Improved ELM algorithm flow chart
改進ELM算法實現過程如下:
(1) 初始化粒子群.主要是初始化粒子群算法的關鍵參數,包括種群的規(guī)模(即粒子的數量)、粒子的初始化速度、迭代的次數,其中粒子的數量一般為20~40,網絡的輸入連接權值矩陣與隱含層偏置值矩陣構成粒子的全部結構.同時初始化粒子群的速度v,并限定v∈[-vmax,vmax],迭代次數取100.
(2) 將粒子群中的每個粒子帶入 ELM 算法,計算出預測結果與實際結果的平均相對誤差,將其作為更新粒子速度與位置的依據,即為粒子的適應度值.本文中,改進ELM算法的隱含層激活函數選取 Sigmoid 函數.
(3) 尋優(yōu).尋優(yōu)的過程就是一個迭代的過程,將粒子的適應值作為粒子更新的依據.首先計算出任意一個粒子的適應度值,記為p1,令pbest=p1;再計算出第二個粒子的適應度值p2,若其優(yōu)于pbest,則pbest=p2,并且將pbest的位置更新為第二個粒子的位置,并令gbest=pbest,其中gbest為全局最優(yōu)解,得到第三個粒子的適應度值之后,按同樣的操作方法更新個體最優(yōu)極值與全局最優(yōu)極值,直到循環(huán)結束,得到最佳適應度值及對應的粒子位置.
3.1試驗數據準備
精梳工序是毛紗的生產瓶頸,它的生產狀態(tài)好壞制約著產品的最終質量,本文以某公司生產過程中毛紗CV值的預測為例說明改進ELM算法的實現過程.已知某公司紗線生產數據如表1所示,建立毛紗CV值的預測模型,其中輸入參數為直徑離散(離散系數)、粗紗捻系數、毛條含油量、纖維質量不勻率、毛條回潮率、纖維長度(豪特長度LH)、纖維直徑、細紗車速、細紗鋼絲圈號、細紗牽伸倍數.輸出參數為毛紗CV值,數據表中選取1~30條作為訓練數據集,第31~36條作為模型測試數據集.
表1 精梳毛紗CV值生產質量數據Table 1 The production quality data of worsted yarns CV value
3.2改進極限學習機的性能分析
運用Matlab軟件編寫改進ELM算法程序.改進ELM算法中各參數設定:種群個數S=20,最大迭代次數kmax=100,學習因子c1與c2由式(3)與(4)在程序運行的過程中實時更新,慣性權重ω=0.8, 激勵函數為Sigmoid,隱含層節(jié)點數為100.適應度函數值如圖2所示.由圖2可知,隨著迭代次數的增加,適應度函數值逐漸減小,在達到68代之后,其逐漸達到穩(wěn)定狀態(tài),約為1.8%,此時每個個體都是在最優(yōu)解的附近.
圖2 改進ELM算法適應度函數迭代進化過程Fig.2 The fitness function iterative evolution process of improved ELM algorithm
隱含層節(jié)點數對ELM算法與改進ELM算法的影響如表2所示.由表2可以看出,兩種算法的平均相對誤差都隨著隱含層節(jié)點數的增加先降低再升高.當ELM算法與改進ELM算法的平均相對誤差達到最小時,其隱含層節(jié)點數分別為3 000與200,相差巨大,且ELM算法的最小誤差大于改進ELM算法的最小誤差,說明改進ELM算法在預測精度上具有更優(yōu)的性能.在隱含層節(jié)點數為200時,ELM算法的運行時間為0.35 s, 改進ELM算法運行時間為24.7 s,雖然傳統(tǒng)ELM算法的速度更快,但無法達到改進ELM算法的高精度效果.
表2 隱含層節(jié)點數對ELM算法與改進ELM算法的影響Table 2 Influence of hidden layer nodes number on ELM and improved ELM algorithm
為了比較改進的ELM算法在紡紗質量預測上的優(yōu)勢,同時利用傳統(tǒng)的BP(back propagation)算法、ELM算法對數據樣本進行訓練,并采用另外12組樣本數據進行預測,3種算法預測對比結果如表3所示.
表3 3種算法預測精梳毛紗CV值比較Table 3 Comparison of worsted yarns CV value prediction by three kinds of algorithms %
由表3可以看出,改進ELM算法平均相對誤差相比于BP算法與傳統(tǒng)ELM算法分別降低1.18%與2.70%,且從單個樣本的預測誤差波動上來講,改進ELM算法的波動幅度最小,說明其穩(wěn)定性在3種算法中也是最佳的.
針對ELM算法模型在紗線質量預測上存在的缺點,本文將改進粒子群算法與ELM算法相結合,用以優(yōu)化ELM輸入權值與隱含層偏差的選取.試驗結果表明,同傳統(tǒng)ELM算法相比,改進ELM算法能夠用更少的隱含層節(jié)點數使紗線質量預測達到更高的精度,且其預測穩(wěn)定性能也有所提高;同傳統(tǒng)BP神經網絡相比,其預測精度更高,對于工藝人員實時優(yōu)化工藝參數,節(jié)約生產成本有著重要的借鑒作用.
[1] CHUNG F, JEFFERY K, KUN I, et al. Using neural network theory to predict the properties of melt spun fibers [J]. Textile Research Journal, 2004, 74(9): 840-843.
[2] ERTUGRUL S, UCAR N. Prediction bursting strength of cotton plain knitted fabrics using intelligent techniques [J]. Textile Research Journal, 2000, 70(10): 845-851.
[3] 項前,楊建國,程隆棣.基于支持向量機的紗線質量預測[J]. 紡織學報,2008,29(4):43-46.
[4] 董奎勇,于偉東.基于人工神經網絡的毛精紡紗線質量預報技術[J].毛紡科技,2002(2):3-6.
[5] HUANG G B, ZHU Q Y, SIEW C K. Extreme learning machine:Theory and applications [J]. Neurocomputing, 2006, 70(1/2/3): 489-501.
[6] CAO J W, LIN Z P, HUANG G B. Self-adaptive evolutionary extreme learning machine [J]. Neural Process Letters, 2012,36(3): 285-305.
[7] 李小冬.核極限學習機的理論與算法及其在圖像處理中的應用[D].杭州:浙江大學控制科學與工程學院,2014.
[8] 潘紅芳.極限學習機的研究及其在醋酸精餾軟測量建模中的應用[D].上海:華東理工大學信息科學與工程學院,2014.
[9] 廖洪一,王欣.基于極限學習機的股票價格預測[J].計算機與現代化,2014(12):19-22.
[10] 蔣丹,趙書濤,趙現平,等.基于極限學習機的斷路器振聲時聯合故障診斷方法[J].智能電網,2014,2(8):8-12.
[11] 高相銘,劉付斌,楊世鳳.基于極限學習機的供水管網故障智能診斷方法[J].計算機工程與設計,2013,34(8):2887-2891.
[12] 孫毅剛,劉靜雅,趙珍.基于極限學習機的航空發(fā)動機傳感器故障診斷[J].傳感器與微系統(tǒng),2014,33(8):23-26.
[13] 李遠景.基于極限學習算法的HVCD電力故障檢測方法[J].電氣開關,2014(4):36-38.
[14] 程松, 閆建偉, 趙登福,等.短期負荷預測的集成改進極端學習機方法[J].西安交通大學學報,2009,43(2):106-110.
[15] LIANG N Y, HUANG G B. A fast and accurate online sequential learning algorithm for feed forward networks [J]. IEEE Transactions on Neural Networks, 2006, 17(6): 1411-1423.
Yarn Quality Prediction Based on Improved Extreme Learning Machine
YANGJian-guo,XIONGJing-wei,XULan,LüZhi-jun
(College of Mechanical Engineering, Donghua University, Shanghai 201620, China)
Due to the randomly-given input weights and deviation, extreme learning machine (ELM) often needs more hidden layer nodes to achieve ideal precision. By combining with particle swarm algorithm which has the advantage of global searching ability, a kind of improved ELM yarn quality prediction model is proposed. Besides, the input weight matrix and the hidden layer deviation of ELM algorithm are optimized by using the improved particle swarm optimization. In addition, the output weight matrix is calculated to reduce the number of hidden layer nodes. The test results show that the improved ELM can rely on fewer hidden layer nodes to obtain higher precision than the ELM algorithm, and the improved ELM decreases by 2.70% of relative error, so it can provide more effective tool for yarn quality prediction and control and has extensive promotion practicality.
extreme learning machine; yarn quality; particle swarm algorithm; quality prediction
1671-0444(2015)04-0494-04
2015-05-20
國家自然科學基金資助項目(51175077)
楊建國(1951—),男,上海人,教授,博士,研究方向為智能制造、質量控制. E-mail:jgyangm@dhu.edu.cn
TH 16.2
A