摘要:目前中國經(jīng)濟發(fā)展進入了“新常態(tài)”,以創(chuàng)新促發(fā)展成為我國發(fā)展的重要手段。高新技術(shù)園區(qū)作為中國創(chuàng)新發(fā)展的領(lǐng)頭羊,其發(fā)展狀況關(guān)系重大,對其經(jīng)濟增長情況進行預測具有重大的現(xiàn)實意義。本文提出了一種經(jīng)驗模態(tài)分解(EMD)與長短時記憶神經(jīng)網(wǎng)絡(luò)(LSTM)相結(jié)合的模型:ELSTM,對中關(guān)村示范區(qū)總收入增速進行預測。實證實驗表明,ELSTM模型相較于其他模型具有更高的精度。
關(guān)鍵詞:經(jīng)濟預測;經(jīng)驗模態(tài)分解;深度學習
中圖分類號:F014.7文獻標識碼:A文章編號:1008-4428(2019)03-0109-03
一、 背景
近年來,我國經(jīng)濟發(fā)展進入了“新常態(tài)”,經(jīng)濟發(fā)展呈現(xiàn)出了一些新特點。2014年11月,習近平在APEC峰會上系統(tǒng)闡述了中國經(jīng)濟新常態(tài)的特點,即經(jīng)濟從高速增長轉(zhuǎn)為中高速增長、經(jīng)濟結(jié)構(gòu)不斷優(yōu)化,從要素驅(qū)動以及投資驅(qū)動轉(zhuǎn)向創(chuàng)新驅(qū)動。從此可以看出,創(chuàng)新的驅(qū)動力在未來發(fā)展中將會扮演越來越重要的角色。高新技術(shù)示范區(qū)是我國科技進步和創(chuàng)新發(fā)展的重要樞紐,其發(fā)展狀況具有中國創(chuàng)新發(fā)展的晴雨表作用,對其經(jīng)濟增長預測有利于快速統(tǒng)籌協(xié)調(diào)配置資源、及時調(diào)整發(fā)展結(jié)構(gòu)、促進經(jīng)濟穩(wěn)定發(fā)展。因此對我國高新區(qū)經(jīng)濟增長進行預測具有重大的現(xiàn)實意義。
對經(jīng)濟增長進行預測一直是學術(shù)界研究的熱點問題,大量的學者都試圖創(chuàng)造不同的理論和模型,以期獲得更高的預測精度和泛化能力。但絕大部分的模型仍舊停留在傳統(tǒng)的統(tǒng)計學方法上,如線性回歸模型、灰色模型、滑動平均模型等。這些模型雖然在特定情境下能取得一定效果,但由于現(xiàn)實世界中大部分主體經(jīng)濟增長呈高度非線性以及不平穩(wěn)性,傳統(tǒng)統(tǒng)計模型預測效果有限。近年來,學者開始將目光轉(zhuǎn)向機器學習領(lǐng)域,利用機器學習模型強大的非線性擬合能力來提高預測效果,如廣泛使用的BP神經(jīng)網(wǎng)絡(luò)模型、支持向量機(SVM)模型等。引入機器學習模型雖然獲得了不錯的效果,但傳統(tǒng)機器學習難以有效利用時間序列數(shù)據(jù)的時序特征,因此也存在著一定的局限性。
近期,得益于計算機能力的不斷增強,機器學習的新領(lǐng)域——深度學習領(lǐng)域異軍突起,在人工智能、計算機視覺、自然語言處理、醫(yī)療健康等領(lǐng)域取得了不俗的成就。深度學習較普通機器學習模型具有更強大的特征提取能力和擬合能力,其中的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)具有處理序列數(shù)據(jù)的天然優(yōu)勢,因此本文主要利用RNN神經(jīng)網(wǎng)絡(luò)的變體——LSTM,作為預測模型的主體,并輔以經(jīng)驗模態(tài)分解對原始序列進行處理來進行預測建模。
二、 模型及原理介紹
(一)經(jīng)驗模態(tài)分解
經(jīng)驗模態(tài)分解(EMD)是1998 年Huang等提出。EMD可以對一個信號同時將不同尺度(頻率)的波動或趨勢逐級分解開來,產(chǎn)生一系列具有不同特征尺度的數(shù)據(jù)序列稱為本征模函數(shù)(IMF)。IMF波動分量具有顯著的緩變波包的特性,不同IMF分量是平穩(wěn)信號,具有非線性特征,其緩變波包特征意味著不同特征尺度波動的波幅隨時間變化,因而也具有時域上的局域化特征。趨勢分量則是單調(diào)函數(shù)或者均值函數(shù),可以代表其長期變化趨勢或平均態(tài)。
經(jīng)驗模態(tài)分解(EMD)方法將時間X(t)分解成一系列本征模態(tài)函數(shù)IMF,每個IMF分量具有如下特征:①從全局特性上看,極值點數(shù)必須和過零點數(shù)一致或者最多相差一個;②在某一個局部點,極大值包絡(luò)和極小值包絡(luò)在該點的值的算術(shù)平均和是零。
經(jīng)驗模態(tài)分解提取IMF的過程實質(zhì)上是將原始特征序列分解為不同振動周期波動的疊加,最后得到的每個IMF分量既可是線性的也可是非線性的。令h0=f(t),Emazx(h0)和Emin(h0)分別是三次樣條插值得到的極大值和極小值點的包絡(luò),如果h0不滿足IMF條件,令
h1=h0-Emax(h0)+Emin(h0)2
不斷重復此過程,即可得到該時間序列的所有IMF分量。
(二)長短時記憶神經(jīng)網(wǎng)絡(luò)
循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)由Elman在1990年提出,其各種變體在自然語言處理領(lǐng)域應(yīng)用最為廣泛。RNN在不同的時間步上重復應(yīng)用同種結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),前一步的隱含層輸出通過權(quán)重連接至當前時間步的神經(jīng)網(wǎng)絡(luò),當前時間步的隱含層輸出可表示為:
ht=f(xt,ht-1)
其中,ht為當前時間步輸出,ht-1為前一時間步輸出,xt為當前時間步輸入數(shù)據(jù),f(*)為前饋神經(jīng)網(wǎng)絡(luò)(BPNN),訓練算法主要為BPTT算法,誤差由時間步傳遞。RNN雖然能夠解決時間序列的依賴性問題,但隨著時間步的增長,整體網(wǎng)絡(luò)容易發(fā)生梯度消失和梯度爆炸問題,網(wǎng)絡(luò)從而難以收斂,故實踐中并不直接應(yīng)用該模型,一般使用其各種變種來避免這些問題發(fā)生。
長短時記憶神經(jīng)網(wǎng)絡(luò)(LSTM)由Hochreiter and Schmidhuber在1977年提出,是循環(huán)結(jié)構(gòu)網(wǎng)絡(luò)的一種重要變體,與RNN相比,LSTM隱含層神經(jīng)單元結(jié)構(gòu)更為復雜,主要由三個門限網(wǎng)絡(luò)構(gòu)成,即輸入門、輸出門、遺忘門。其中還含有一個重要單元,即記憶單元,該單元蘊含歷史信息特征,是解決循環(huán)網(wǎng)絡(luò)長期依賴的關(guān)鍵,LSTM結(jié)構(gòu)可定義為:
it=σ(Wixt+Uiht-1+Vict-1+bi)
ft=σ(Wfxt+Ufht-1+Vfct-1+bf)
ct=ft×ht-1+it×tanh(Wixt+Uiht-1+bc)
ot=σ(Woxt+Uoht-1+Voct+bo)
ht=ot⊙tanh(ct)
其中xt為當前時間步(t時刻)的輸入數(shù)據(jù),it為輸入門;ft為遺忘門,決定輸入數(shù)據(jù)的保留程度;ct為記憶單元,保存歷史信息;ot為當前時間步輸出;ht為當前時間步隱層輸出狀態(tài),σ為sigmoid函數(shù),tanh為tanh函數(shù),W、U、V為需要學習的權(quán)重參數(shù)。
(三)ELSTM模型
ELSTM模型為經(jīng)驗模態(tài)分解和長短時記憶神經(jīng)網(wǎng)絡(luò)的組合模型,預測方法為單步預測,即用前k個歷史數(shù)據(jù)預測第k+1個數(shù)據(jù)。
首先利用EMD將含n個觀測值的原始時間序列T(t1,t2,t3,…,tn)分解為m個IMF分量(imf1,imf2,…,imfm),每個imfs分量均為含n個數(shù)據(jù)的序列(imf1i,imf2i,…,imfni),然后合并原始數(shù)據(jù)和各IMF分量,形成新的數(shù)據(jù)集TN,然后采用滑窗法將新數(shù)據(jù)集轉(zhuǎn)化為最終所使用的數(shù)據(jù)集TO,假設(shè)窗口大小為w:
三、 實證分析
(一)數(shù)據(jù)來源說明
本文數(shù)據(jù)為中關(guān)村示范區(qū)2010年2月至2017年02月的總收入可比增速(當前總收入/上年同期總收入)月度數(shù)據(jù),由于統(tǒng)計原因,不含每年的一月份數(shù)據(jù),共78個月的數(shù)據(jù),數(shù)據(jù)詳情如表1及圖2:
從表3和圖4來看模型的預測能力相當不錯,對下個月的預測誤差控制在1%左右,在實際應(yīng)用當中,已經(jīng)具有相當大的參考意義。圖4模型在訓練集和測試集上的擬合效果:其中前51個月份為訓練集預測值與真實值,后25個月為測試集的真實值與預測值的比較,其中虛線為預測值,實線為真實值
四、 結(jié)論
本文提出了一種經(jīng)濟預測的新模型,即EMD+LSTM模型的組合模型。通過EMD分解將高度復雜的非平穩(wěn)時間序列分解為較為平穩(wěn)的一系列分量,降低了數(shù)據(jù)的復雜度,然后建立了深度神經(jīng)網(wǎng)絡(luò)LSTM,利用分解后的數(shù)據(jù)訓練模型。實驗結(jié)果表明,本文提出的模型具有良好的預測能力,誤差小,準確度高,較傳統(tǒng)的模型如ARIMA等有著明顯的優(yōu)勢,對機器學習傳統(tǒng)模型如BP神經(jīng)網(wǎng)絡(luò)等也存在著相當?shù)膬?yōu)勢。
隨著人工智能、大數(shù)據(jù)領(lǐng)域發(fā)展越來越快,一系列新的算法、理論層出不窮,這對一些傳統(tǒng)領(lǐng)域形成越來越大的沖擊力,經(jīng)濟預測及計量等強數(shù)據(jù)驅(qū)動的領(lǐng)域必將受益于此。因此我們應(yīng)加強研究人工智能及大數(shù)據(jù)領(lǐng)域的新成果,改進經(jīng)濟預測的方法,以獲得更好的預測實踐。
參考文獻:
[1]金碚.中國經(jīng)濟發(fā)展新常態(tài)研究[J].中國工業(yè)經(jīng)濟,2015(1).
[2]Neural network and traditional time series methods: a synergistic combination in state economic forecasts. Hansen J V, Nelson R D. IEEE Transactions on Neural Networks,1997.
[3]曲文龍,樊廣佺,楊炳儒.基于支持向量機的復雜時間序列預測研究[J].計算機工程,2005(23).
[4]管衛(wèi)華,林振山,顧朝林.中國區(qū)域經(jīng)濟發(fā)展差異及其原因的多尺度分析[J].經(jīng)濟研究,2006(7).
[5]Elman, J. L. Finding structure in time. COGNITIVE SCIENCE,1990,14(2).
[6]Hochreiter, S., and Schmidhuber, J. Long short-term memory. Neural Comput,1997,9(8).
作者簡介:
劉杰,男,河南南陽人,北京信息科技大學在讀碩士研究生,綠色發(fā)展大數(shù)據(jù)決策北京市重點實驗室(Laboratory of Big Data Decision making for Green Development)主要成員,研究方向:園區(qū)經(jīng)濟預測。