王薪凱 于忠清
摘要:為優(yōu)化泵站的工作方式,降低能耗,建立一種基于長(zhǎng)短期記憶網(wǎng)絡(luò)(Long Short-Term Memory,LSTM)的神經(jīng)網(wǎng)絡(luò)模型來(lái)對(duì)泵站的能耗進(jìn)預(yù)測(cè),優(yōu)化學(xué)習(xí)率、時(shí)間步長(zhǎng)、批處理、隱含層層數(shù)、訓(xùn)練次數(shù)等參數(shù)。將LSTM網(wǎng)絡(luò)模型的預(yù)測(cè)結(jié)果與BP模型、RNN模型進(jìn)行對(duì)比,研究結(jié)果表明,基于LSTM神經(jīng)網(wǎng)絡(luò)模型的預(yù)測(cè)具有較高的精度和泛化能力。
關(guān)鍵詞:LSTM網(wǎng)絡(luò)模型;能耗;預(yù)測(cè);優(yōu)化
中圖分類(lèi)號(hào):TV675???????? 文獻(xiàn)標(biāo)志碼:A
隨著中國(guó)工業(yè)化和城市化進(jìn)程的不斷推進(jìn),對(duì)水資源的需求量日益增長(zhǎng),由于污水量的增加,使污水處理面臨著巨大的挑戰(zhàn)[1]。一方面,中國(guó)水資源利用率低,基礎(chǔ)設(shè)施不完善,相比于發(fā)達(dá)國(guó)家,污水處理工藝相對(duì)落后,另一方面,污水處理屬于高能耗行業(yè),包括電能消耗、化學(xué)藥劑的使用及燃料的消耗,其中電耗占污水處理綜合能耗的比重較高,在降低污水處理能耗中有著舉足輕重的作用[2]。過(guò)多的電能消耗造成運(yùn)營(yíng)成本的增加和資源的浪費(fèi),不利于企業(yè)的發(fā)展和中國(guó)工業(yè)化進(jìn)程的推進(jìn),也不利于中國(guó)所倡導(dǎo)的可持續(xù)發(fā)展[3]。由于能耗數(shù)據(jù)具有時(shí)間序列的特性,目前BP(Back Propagation)神經(jīng)網(wǎng)絡(luò)[4]、支持向量機(jī)(SVM)[5]、多元線(xiàn)性回歸模型[6]等傳統(tǒng)的人工智能算法在進(jìn)行預(yù)測(cè)時(shí)沒(méi)有考慮到延遲和滯后效應(yīng),無(wú)法解決長(zhǎng)期依賴(lài)問(wèn)題,具有局限性。隨著深度學(xué)習(xí)的不斷發(fā)展,LSTM模型憑借其優(yōu)勢(shì)逐漸興起,該模型能更加充分提取數(shù)據(jù)中的重要信息,發(fā)現(xiàn)數(shù)據(jù)之間的關(guān)系和規(guī)律,能有效地處理非線(xiàn)性和非平穩(wěn)序列數(shù)據(jù),具有良好的泛化能力,LSTM模型在建筑能耗預(yù)測(cè)[7],空調(diào)系統(tǒng)能耗預(yù)測(cè)[8],航空公司能耗預(yù)測(cè)[9]中應(yīng)用廣泛。相比于其他模型,在處理具有時(shí)間序列屬性的數(shù)據(jù)方面,LSTM模型表現(xiàn)出較高的預(yù)測(cè)精度和性能,但LSTM模型在泵站能耗領(lǐng)域的應(yīng)用并不多見(jiàn)。本文針對(duì)污水處理中泵站的能耗預(yù)測(cè)問(wèn)題,提出一種基于LSTM神經(jīng)網(wǎng)絡(luò)模型的預(yù)測(cè)方法,對(duì)學(xué)習(xí)率、時(shí)間步長(zhǎng)、批處理、隱含層層數(shù)、訓(xùn)練次數(shù)這些參數(shù)進(jìn)行優(yōu)化,通過(guò)與BP神經(jīng)網(wǎng)絡(luò)模型、RNN網(wǎng)絡(luò)模型的預(yù)測(cè)結(jié)果進(jìn)行對(duì)比,利用均方誤差(MSE)、平均絕對(duì)誤差(MAE)和均方根誤差(RMSE)這三種評(píng)價(jià)指標(biāo)進(jìn)行評(píng)估。
1 研究方法
1.1 RNN算法
循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)是一種特殊的神經(jīng)網(wǎng)絡(luò)。傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)模型是從輸入層到隱含層再到輸出層,層與層之間是全連接,每層的節(jié)點(diǎn)之間是無(wú)連接的,而RNN之所以稱(chēng)為循環(huán)神經(jīng)網(wǎng)絡(luò)是因?yàn)橐粋€(gè)序列的輸出與前一時(shí)刻的輸出有關(guān)[10],該網(wǎng)絡(luò)會(huì)把前面的信息進(jìn)行記憶并應(yīng)用到當(dāng)前輸出的計(jì)算中,即隱含層的節(jié)點(diǎn)是相互連接的。
RNN模型結(jié)構(gòu)展開(kāi)圖見(jiàn)圖1,其中x表示輸入樣本,y表示訓(xùn)練后的輸出樣本,t-1,t,t+1分別表示時(shí)間序列,U、W、V是在每一刻都共享的網(wǎng)絡(luò)權(quán)重,U為某一時(shí)刻輸入樣本的權(quán)重、W為隱含層的權(quán)重、V表示輸出的樣本權(quán)重。st表示當(dāng)前t時(shí)刻的隱藏狀態(tài),由當(dāng)前時(shí)刻的輸入樣本xt和t-1時(shí)刻的隱藏狀態(tài)共同決定,表述為
st=f(Uxt+Wst-1)(1)
yt=g(Vst)(2)
其中,f、g表示激活函數(shù)。
1.2 LSTM算法
傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)能夠處理一定的短期依賴(lài)問(wèn)題,但無(wú)法處理長(zhǎng)期依賴(lài)問(wèn)題。長(zhǎng)短期記憶網(wǎng)絡(luò)是一種改進(jìn)的循環(huán)神經(jīng)網(wǎng)絡(luò),使用LSTM算法可以解決RNN無(wú)法處理長(zhǎng)距離的依賴(lài)問(wèn)題,可以處理非線(xiàn)性、非平穩(wěn)的時(shí)間序列數(shù)據(jù)[11]。LSTM模型廣泛應(yīng)用在眾多領(lǐng)域,如預(yù)測(cè)旅游流量[12],預(yù)測(cè)股價(jià)[13]等。
原始RNN的隱藏層只有一個(gè)單元狀態(tài),對(duì)短期的輸入非常敏感,在隱藏層增加一個(gè)單元狀態(tài),構(gòu)建LSTM模型使其保存長(zhǎng)期的狀態(tài),在模型實(shí)現(xiàn)的過(guò)程中用三個(gè)控制開(kāi)關(guān)來(lái)控制長(zhǎng)期狀態(tài),開(kāi)關(guān)的控制功能由“門(mén)”來(lái)實(shí)現(xiàn)。
(1)遺忘門(mén):決定從單元狀態(tài)中丟棄哪些消息
nt=σ(Wn·ht-1,xt+bn)(3)
(2)輸入門(mén):決定需要在單元狀態(tài)中保存哪些新信息
lt=σ(Wl·ht-1,xt+bl)(4)
rt=tanh(Wr·ht-1,xt+br)(5)
ct=nt*ct-1+lt*rt(6)
(3)輸出門(mén):決定單元狀態(tài)中的哪些信息作為輸出
mt=σ(Wm·ht-1,xt+bm)(7)
ht=mt*tanh (ct)(8)
其中,σ表示為sigmoid激活函數(shù),該函數(shù)把值映射到0到1之間,以此來(lái)控制傳遞多少信息,0代表遺忘所有信息,1代表保留全部信息;tanh是雙曲正切激活函數(shù),xt表示當(dāng)前時(shí)刻的樣本輸入,其中,Wn、Wl、Wr、Wm為權(quán)值矩陣,bn、bl、br、bm表示為參數(shù)矩陣,nt表示遺忘門(mén)輸出,lt為輸入門(mén)輸入,mt為輸出門(mén)輸出,rt表示當(dāng)前時(shí)刻保存的信息。
2 數(shù)據(jù)描述和性能評(píng)估
2.1 數(shù)據(jù)采集
本文數(shù)據(jù)采用的是中國(guó)某污水處理廠(chǎng)的泵站能耗數(shù)據(jù),泵站共有5臺(tái)水泵,數(shù)據(jù)在2020年11月18日到2020年12月1日之間采集,其中在一天時(shí)間內(nèi),每隔5 min獲取一次數(shù)據(jù),數(shù)據(jù)包括每臺(tái)泵的能耗值、出水流量、以及當(dāng)前的液位。用0或1來(lái)描述泵的開(kāi)關(guān)狀態(tài),0代表當(dāng)前泵處于關(guān)閉狀態(tài),1代表當(dāng)前泵處于工作狀態(tài),單個(gè)樣本輸入的變量包括:5臺(tái)泵的總能耗E(kW·h)、每臺(tái)泵的開(kāi)關(guān)狀態(tài)(0或1)、出水流量F(m3)、當(dāng)前的液位L(m),共3 000條數(shù)據(jù)樣本。
2.2 數(shù)據(jù)預(yù)處理
2.2.1 數(shù)據(jù)整理 泵能耗監(jiān)測(cè)平臺(tái)在數(shù)據(jù)采集、傳輸、存儲(chǔ)等過(guò)程中容易受到噪聲干擾,通信中斷和傳感器故障等原因,產(chǎn)生一些空值、不合理值、重復(fù)值,刪除這些異常值,泵站的總能耗、當(dāng)前的液位精確到小數(shù)點(diǎn)后兩位。由于樣本的各個(gè)指標(biāo)的量綱和量綱單位不同,對(duì)數(shù)據(jù)歸一化使各指標(biāo)處于同一數(shù)量級(jí),本文采用min-max標(biāo)準(zhǔn)化對(duì)個(gè)別指標(biāo)歸一化處理,將數(shù)據(jù)映射到[0,1]范圍內(nèi)
x=x-TminTmax-Tmin(9)
其中,x是該屬性的原始值,x是歸一化后的值,Tmin和Tmax分別為在全部樣本中屬性的最小值和最大值,本文把輸入樣本的出水流量、當(dāng)前液位、泵站總能耗這三個(gè)屬性歸一化處理。
2.2.2 劃分訓(xùn)練集和測(cè)試集 數(shù)據(jù)樣本歸一化后共3 000條,將其中的80%作為訓(xùn)練集用于訓(xùn)練模型,20%作為測(cè)試集用于評(píng)估模型的性能,Xi=(x1,x2,…,x8)(i=1,2,3,…,3 000),X=[Xi,Xi+1,Xi+2,…,Xi+s-1]。其中,Xi表示第i個(gè)數(shù)據(jù)樣本,x1為泵站總能耗,x2到x6對(duì)應(yīng)每臺(tái)泵的開(kāi)關(guān)狀態(tài),x7表示出水流量,x8為當(dāng)前液位。泵站能耗數(shù)據(jù)具有時(shí)間序列的特性,若LSTM模型的時(shí)間步長(zhǎng)(time steps)設(shè)為s,時(shí)間窗口每次用前s個(gè)數(shù)據(jù)樣本組成的矩陣作為輸入特征,第s+1個(gè)樣本Xi+s-1的總能耗E作為輸出,時(shí)間窗口每次移動(dòng)的步數(shù)為s,假設(shè)訓(xùn)練集和測(cè)試集樣本長(zhǎng)度分別為n和m,實(shí)際上將n-s個(gè)樣本數(shù)據(jù)在訓(xùn)練模型上訓(xùn)練,將m-s個(gè)樣本用作測(cè)試數(shù)據(jù)。時(shí)間窗口移動(dòng)方式如圖3所示,s個(gè)數(shù)據(jù)樣本組成的矩陣X作為輸入,用Y中數(shù)據(jù)樣本的泵站總能耗作為輸出。
2.3 模型性能評(píng)價(jià)
選取MSE、MAE、RMSE作為預(yù)測(cè)結(jié)果評(píng)價(jià)指標(biāo),范圍[0,+∞),數(shù)值越低說(shuō)明預(yù)測(cè)值和真實(shí)值之間的誤差越小,模型的精確度越高,i為第i個(gè)樣本的能耗預(yù)測(cè)值,ei為真實(shí)值,n是樣本數(shù)量。
(1)均方誤差(Mean Square Error,MSE)
MSE=1n∑ni=1(i-ei)2(10)
(2)平均絕對(duì)誤差(Mean Absolute Error,MAE)
MAE=1n∑ni=1|i-ei|(11)
(3)均方根誤差(Root Mean Square Error,RMSE)
RMSE= 1n∑ni=1(i-ei)2(12)
3 建立LSTM能耗模型
3.1 模型構(gòu)建及實(shí)驗(yàn)流程
本文對(duì)比了LSTM模型、BP神經(jīng)網(wǎng)絡(luò)模型、RNN模型,三者均在PyCharm開(kāi)發(fā)環(huán)境下運(yùn)行。LSTM模型用Keras框架搭建,模型結(jié)構(gòu)由輸入層、隱含層和輸出層組成,LSTM模型的參數(shù)包括學(xué)習(xí)率、批處理、時(shí)間步長(zhǎng)、隱含層層數(shù)、訓(xùn)練次數(shù)等。本文采用試錯(cuò)法尋找適合的參數(shù),在模型訓(xùn)練和測(cè)試完成后,將數(shù)據(jù)進(jìn)行逆歸一化處理,然后進(jìn)行性能評(píng)估,實(shí)驗(yàn)的具體流程如圖4所示。
采用Adam優(yōu)化算法(Adaptive Moment Estimation,自適應(yīng)矩估計(jì)),損失函數(shù)采用平均絕對(duì)誤差(MAE)。Adam優(yōu)化算法是梯度下降優(yōu)化算法的擴(kuò)展,能基于訓(xùn)練數(shù)據(jù)迭代更新神經(jīng)網(wǎng)絡(luò)權(quán)重隨機(jī)梯度下降保持單一的學(xué)習(xí)率更新所有的權(quán)重,學(xué)習(xí)率在訓(xùn)練過(guò)程中并不會(huì)改變。而Adam通過(guò)計(jì)算梯度的一階矩估計(jì)和二階矩估計(jì)為不同的參數(shù)設(shè)計(jì)獨(dú)立的自適應(yīng)性學(xué)習(xí)率,相比于其他自適應(yīng)學(xué)習(xí)率算法,Adam算法收斂速度較快,學(xué)習(xí)效果更好,可以解決學(xué)習(xí)率消失、收斂速度較慢所導(dǎo)致的損失函數(shù)波動(dòng)較大等問(wèn)題。
3.2 模型參數(shù)尋優(yōu)
LSTM網(wǎng)絡(luò)模型參數(shù)包括隱含層學(xué)習(xí)率、時(shí)間步長(zhǎng)、批處理、隱含層層數(shù)、訓(xùn)練次數(shù),設(shè)置各參數(shù)的取值范圍,其中隱含層層數(shù)取值范圍為[1,3],時(shí)間步長(zhǎng)取值范圍為[2,4],批處理取值范圍為[20,60],訓(xùn)練次數(shù)取值范圍為[25,300]。
3.2.1 學(xué)習(xí)率和訓(xùn)練次數(shù) 學(xué)習(xí)率(lr)用來(lái)表示通過(guò)損失函數(shù)來(lái)調(diào)整網(wǎng)絡(luò)權(quán)重的程度,影響模型收斂到局部極小值的速度,學(xué)習(xí)率過(guò)小,函數(shù)收斂速度較慢,耗費(fèi)的時(shí)間更長(zhǎng),會(huì)產(chǎn)生過(guò)擬合現(xiàn)象;學(xué)習(xí)率過(guò)大,可能錯(cuò)過(guò)局部極小值,損失函數(shù)容易發(fā)生振蕩。在實(shí)驗(yàn)過(guò)程中l(wèi)r的取值從0.01到0.000 01,以10倍的速度間隔逐漸降低,選取MAE作為誤差評(píng)估標(biāo)準(zhǔn),觀(guān)察誤差曲線(xiàn)變化的狀態(tài),在曲線(xiàn)趨于穩(wěn)定并收斂到一定值時(shí),確定學(xué)習(xí)率的數(shù)量級(jí),再采用微調(diào)方法確定最佳的學(xué)習(xí)率,圖5所示為不同的學(xué)習(xí)率對(duì)應(yīng)誤差曲線(xiàn)變化。
由圖5可知,當(dāng)lr取值0.01向0.001降低時(shí),學(xué)習(xí)率過(guò)大,損失函數(shù)曲線(xiàn)發(fā)生振蕩,無(wú)法收斂到最優(yōu)值,當(dāng)lr取值從0.000 1向0.000 01降低時(shí),學(xué)習(xí)率過(guò)小,在訓(xùn)練次數(shù)內(nèi)表現(xiàn)出欠擬合,無(wú)法完成收斂,但在lr取值為0.000 1時(shí),誤差曲線(xiàn)逐漸平滑下降,且收斂到最優(yōu)值,在確定數(shù)量級(jí)的情況下,經(jīng)過(guò)微調(diào)方法確定最佳學(xué)習(xí)率為0.000 7。
訓(xùn)練次數(shù)(epochs)是將訓(xùn)練樣本中所有數(shù)據(jù)訓(xùn)練的次數(shù),過(guò)少的訓(xùn)練次數(shù)會(huì)導(dǎo)致預(yù)測(cè)值和實(shí)際值之間的偏差較大,不同的訓(xùn)練次數(shù)會(huì)使損失函數(shù)收斂到不同的值,選取合適的訓(xùn)練次數(shù)使得誤差收斂到最優(yōu)。在訓(xùn)練過(guò)程中選取MSE作為誤差評(píng)估標(biāo)準(zhǔn),如圖6所示,epochs值在25到300之間時(shí),誤差曲線(xiàn)快速下降,epochs的值在150開(kāi)始逐漸趨于穩(wěn)定,200個(gè)epochs之后變化不明顯,為了防止訓(xùn)練次數(shù)過(guò)大導(dǎo)致的過(guò)擬合現(xiàn)象,200個(gè)epochs就可以滿(mǎn)足訓(xùn)練精度,因此LSTM網(wǎng)絡(luò)模型選取epochs的值為200。
3.2.2 時(shí)間步長(zhǎng) 在LSTM網(wǎng)絡(luò)模型中,由于其具有長(zhǎng)時(shí)間記憶的特性,下一時(shí)刻的樣本可能會(huì)用到之前的歷史樣本數(shù)據(jù),時(shí)間步長(zhǎng)(time steps)表示每個(gè)訓(xùn)練樣本中包含的歷史狀態(tài)數(shù)目,通常根據(jù)數(shù)據(jù)的時(shí)間特性來(lái)確定,若時(shí)間步長(zhǎng)為n,表示用前n條樣本預(yù)測(cè)第n+1個(gè)樣本的總能耗,本實(shí)驗(yàn)設(shè)置時(shí)間步長(zhǎng)的范圍從2到4,通過(guò)平均絕對(duì)誤差(MAE)來(lái)衡量在不同時(shí)間步長(zhǎng)下訓(xùn)練樣本誤差變化曲線(xiàn)。
如圖7所示,在訓(xùn)練次數(shù)的不斷增加下,相比于其他時(shí)間步長(zhǎng),time steps為2時(shí),誤差變化曲線(xiàn)快速下降,收斂速度較快,降低了模型的訓(xùn)練難度,節(jié)省了時(shí)間成本,所以選擇時(shí)間步長(zhǎng)為2來(lái)構(gòu)建LSTM神經(jīng)網(wǎng)絡(luò)模型。
3.2.3 批處理和隱含層層數(shù) Adam是基于梯度下降的,批處理用于定義在更新內(nèi)部模型參數(shù)之前要處理的樣本數(shù),代表著每次進(jìn)行訓(xùn)練樣本的數(shù)量,將批處理視為循環(huán)迭代一個(gè)或多個(gè)樣本并進(jìn)行預(yù)測(cè),比較預(yù)測(cè)值和真實(shí)值,并計(jì)算誤差,從而動(dòng)態(tài)更新內(nèi)部模型參數(shù)。批處理過(guò)小會(huì)導(dǎo)致誤差震蕩嚴(yán)重,在一定的訓(xùn)練次數(shù)內(nèi)無(wú)法收斂,批處理增大會(huì)使訓(xùn)練的收斂更加平滑穩(wěn)定,訓(xùn)練一個(gè)迭代的時(shí)間會(huì)變短,但過(guò)大也會(huì)降低模型的泛化能力,達(dá)到相同精度的速度會(huì)變慢,所以選擇合適的批處理來(lái)提升模型的預(yù)測(cè)精度。
多隱層的網(wǎng)絡(luò)結(jié)構(gòu)對(duì)數(shù)據(jù)有更好的表示能力,通過(guò)逐層的特征提取將數(shù)據(jù)表示的更加抽象,從而降低誤差,提高預(yù)測(cè)精度,但是隱含層層數(shù)過(guò)大可能會(huì)帶來(lái)過(guò)擬合問(wèn)題,同時(shí)也會(huì)增加模型的訓(xùn)練時(shí)間,造成無(wú)法收斂。
本文LSTM網(wǎng)絡(luò)模型隱含層層數(shù)的范圍是1層到3層,批處理從20到60,每次間隔10個(gè),在不同的隱含層層數(shù)和批處理大小結(jié)合時(shí)進(jìn)行實(shí)驗(yàn),相應(yīng)的評(píng)價(jià)指標(biāo)如表1所示。
不同的隱含層層數(shù)和批處理會(huì)影響預(yù)測(cè)精度和訓(xùn)練的時(shí)間,從表1可以看出,模型隱含層層數(shù)為3,批處理為30時(shí),各個(gè)評(píng)價(jià)指標(biāo)相對(duì)較優(yōu),LSTM模型的性能顯著,模型的精度較高,因此最終選定的LSTM模型的隱含層層數(shù)為3,批處理為30。
3.3 構(gòu)建LSTM能耗預(yù)測(cè)模型
如表2所示,LSTM能耗預(yù)測(cè)模型中,學(xué)習(xí)率為0.000 7,時(shí)間步長(zhǎng)為2,訓(xùn)練次數(shù)為200,隱含層層數(shù)為3,第一個(gè)隱含層的神經(jīng)元數(shù)量為32,第二個(gè)隱含層神經(jīng)元數(shù)量為16,第三層隱含層神經(jīng)元數(shù)量為8,批處理大小為30,隱含層的激活函數(shù)為tanh函數(shù),在優(yōu)化選擇方面,采用Adam優(yōu)化算法進(jìn)行優(yōu)化。
4 與其他模型對(duì)比評(píng)估
為了驗(yàn)證LSTM模型預(yù)測(cè)能耗的優(yōu)越性,對(duì)比LSTM模型、BPNN模型、RNN模型,利用訓(xùn)練集訓(xùn)練模型,并用來(lái)對(duì)測(cè)試集來(lái)進(jìn)行預(yù)測(cè),使用評(píng)價(jià)指標(biāo)MAE、MSE、RMSE對(duì)模型評(píng)估和對(duì)比,數(shù)據(jù)均由逆歸一化數(shù)據(jù)計(jì)算得到。為了更加直觀(guān)的體現(xiàn)LSTM模型的優(yōu)越性,圖8、圖9、圖10顯示了BPNN、RNN、LSTM三種模型對(duì)泵能耗預(yù)測(cè)結(jié)果,可知,LSTM網(wǎng)絡(luò)模型的預(yù)測(cè)值和真實(shí)值的擬合程度較高,相比于其他模型,LSTM對(duì)泵的能耗預(yù)測(cè)更接近于真實(shí)值。
表3顯示的3種模型對(duì)比的評(píng)估指標(biāo),由于BPNN和RNN模型在預(yù)測(cè)時(shí)沒(méi)有考慮到延遲和滯后效應(yīng),無(wú)法解決長(zhǎng)期依賴(lài)問(wèn)題,預(yù)測(cè)值和真實(shí)值差距較大,LSTM網(wǎng)絡(luò)模型的誤差指標(biāo)均小于其他模型,在數(shù)據(jù)的擬合度上表現(xiàn)出較好的性能,這也表明,LSTM模型在泵站能耗預(yù)測(cè)方面具有較大的優(yōu)勢(shì)。
5 結(jié)論
本文提出了基于LSTM神經(jīng)網(wǎng)絡(luò)模型對(duì)泵站能耗的預(yù)測(cè)方法,通過(guò)實(shí)驗(yàn)對(duì)參數(shù)進(jìn)行優(yōu)化,選取了合適的學(xué)習(xí)率、訓(xùn)練次數(shù)、隱含層層數(shù)及時(shí)間步長(zhǎng)等參數(shù),構(gòu)建了一個(gè)多層的LSTM模型,用來(lái)預(yù)測(cè)泵站能耗,并與BP模型、RNN模型的預(yù)測(cè)結(jié)果進(jìn)行對(duì)比。在性能評(píng)估方面,多層的LSTM網(wǎng)絡(luò)模型具有較好的性能,相比于BP模型和RNN模型,多層LSTM網(wǎng)絡(luò)模型最優(yōu)擬合結(jié)果預(yù)測(cè)出的泵站能耗,在MAE、MSE、RMSE評(píng)估指標(biāo)上誤差較低,預(yù)測(cè)精度較BP模型和RNN模型有所提高,因此LSTM模型能更準(zhǔn)確的對(duì)泵站能耗進(jìn)行預(yù)測(cè)。LSTM能耗模型相比于傳統(tǒng)的能耗模型,能更好的處理長(zhǎng)期依賴(lài)問(wèn)題,保持信息的持久性,能夠發(fā)現(xiàn)數(shù)據(jù)之間的關(guān)系和規(guī)律,在預(yù)測(cè)時(shí)考慮到延遲和滯后效應(yīng),在處理序列數(shù)據(jù)和非線(xiàn)性問(wèn)題中具有優(yōu)勢(shì),對(duì)泵站的能耗預(yù)測(cè)精度更為準(zhǔn)確,在泵站的節(jié)能領(lǐng)域具有廣闊的應(yīng)用前景。但是當(dāng)前方法還存在局限性,參數(shù)優(yōu)化過(guò)程中設(shè)置的范圍區(qū)間過(guò)小,參數(shù)組合優(yōu)化的種類(lèi)過(guò)于單一,所以在以后的研究中可以從參數(shù)的取值范圍和選擇參數(shù)組合兩個(gè)方面深入研究。
參考文獻(xiàn)
[1]李旭.城市污水處理能耗能效研究進(jìn)展[J].科技創(chuàng)新與應(yīng)用,2020(5):67-68.
[2]周亞梁,黃東月.城市污水處理廠(chǎng)能耗分析及節(jié)能降耗措施研究[J].環(huán)境與發(fā)展,2019,31(5):30+34.
[3]龍麗萍.城鎮(zhèn)污水處理廠(chǎng)能耗分析及節(jié)能措施研究[J].工程技術(shù)研究,2019,4(14):239-240.
[4]杜冠洲,韋古強(qiáng),高正平.基于BP神經(jīng)網(wǎng)絡(luò)的公用建筑電力能耗預(yù)測(cè)研究[J].工程經(jīng)濟(jì),2017,27(6):76-80.
[5]侯博文,譚澤漢,陳煥新,等.基于支持向量機(jī)的建筑能耗預(yù)測(cè)研究[J].制冷技術(shù),2019,39(2):1-6.
[6]莫甘茗.基于多元線(xiàn)性回歸模型的建筑能耗預(yù)測(cè)與建筑節(jié)能分析[J].建材與裝飾,2016(43):89-90.
[7]章挺飛,羅恒,劉杭.基于LSTM網(wǎng)絡(luò)的建筑能耗預(yù)測(cè)方法[J].蘇州科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2020,37(4):78-84.
[8]廖文強(qiáng),王江宇,陳煥新,等.基于短期記憶神經(jīng)網(wǎng)絡(luò)的暖通空調(diào)系統(tǒng)能耗預(yù)測(cè)[J].制冷技術(shù),2019,39(1):45-50+54.
[9]劉家學(xué),沈貴賓.基于LSTM的航空公司能耗序列預(yù)測(cè)[J].計(jì)算機(jī)應(yīng)用與軟件,2019,36(10):60-65.
[10]楊欽榕,陳萬(wàn)培,高紳,等.寬窄帶融合下基于RNN-LSTM網(wǎng)絡(luò)的溫度預(yù)測(cè)[J].無(wú)線(xiàn)電工程,2021,51(4):283-287.
[11]黃超斌,程希明.基于LSTM神經(jīng)網(wǎng)絡(luò)的股票價(jià)格預(yù)測(cè)研究[J].北京信息科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2021,36(1):79-83.
[12]LI Y F, CAO H. Prediction for tourism flow based on LSTM neural network[C]// 6th International Conference on Identification, Information and Knowledge in the Internet of Things (IIKI), Qufu, 2017: 277-283.
[13]DING G Y, QIN L X. Study on the prediction of stock price based on the associated network model of LSTM[J]. International Journal of Machine Learning and Cybernetics, 2020, 11: 1307-1317.
Energy Consumption Prediction of Pumping Station Based
on LSTM Neural Network Model
WANG Xin-kai, YU Zhong-qing
(College of Computer Science & Technology, Qingdao University, Qingdao 266071, China)
Abstract:
A neural network model based on Long Short-Term Memory (LSTM) is established to predict the energy consumption of pumping stations, which optimizes the working methods and reduces energy consumption, and the learning rate, time step, batch size, the number of layers, training times are optimized. The prediction results of the LSTM network model are compared with the BP model and the RNN model, and the research results show that the prediction based on the LSTM neural network model has high accuracy and generalization ability.
Keywords:
LSTM network model; energy consumption; prediction; optimization
收稿日期:2021-09-01
基金項(xiàng)目:
山東省重點(diǎn)研發(fā)計(jì)劃(批準(zhǔn)號(hào):2019JZZY020101)資助。
通信作者:
于忠清,男,博士,教授,主要研究方向?yàn)楣I(yè)大數(shù)據(jù)。E-mail: yuzq@qdu.edu.cn