• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于CNN和GRU的混合股指預測模型研究

      2021-08-19 11:03:28黨建武從筱卿
      計算機工程與應用 2021年16期
      關鍵詞:股指個數(shù)卷積

      黨建武,從筱卿

      江西財經(jīng)大學 軟件與物聯(lián)網(wǎng)工程學院,南昌330013

      預測股指的方法主要包括基本面分析法、計量經(jīng)濟學法[1-2]、機器學習法[3-4]等。其中,機器學習法之一的神經(jīng)網(wǎng)絡算法憑借其良好的非線性處理能力得到了廣泛應用。黃宏運等人[5]利用遺傳算法優(yōu)化反向傳播(Back Propagation,BP)神經(jīng)網(wǎng)絡的初始權閾值,解決了BP神經(jīng)網(wǎng)絡在股指預測過程中容易陷入局部最小值、收斂速度慢等問題。潘和平等人[6]提出了一種由經(jīng)驗模態(tài)分解、主成分分析和前饋神經(jīng)網(wǎng)絡三部分組成的預測模型,該模型能有效提高股指預測的準確率。隨著深度學習的發(fā)展,眾多學者嘗試將其應用到股指預測研究中。Luca等人[7]提出了一種小波和CNN相結合的模型,其對標準普爾500(Standard & Poor’s 500)指數(shù)的預測性能優(yōu)于基本的神經(jīng)網(wǎng)絡方法。Li等人[8]提出了一種融合內(nèi)在可塑性和深度信念網(wǎng)絡的新方法,并對S&P 500指數(shù)進行了預測,該方法具有較好的預測性能。Qin等人[9]提出了一種基于雙階段注意力的循環(huán)神經(jīng)網(wǎng)絡(Recurrent Neural Network,RNN)模型,該模型能夠自適應地提取股指相關輸入特征進行預測。Fischer等人[10]將LSTM神經(jīng)網(wǎng)絡應用于S&P 500指數(shù)的預測,LSTM預測性能優(yōu)于隨機森林、邏輯回歸分類器和深度神經(jīng)網(wǎng)絡。陳佳等人[11]提出了基于特征選取和LSTM神經(jīng)網(wǎng)絡的模型,該方法提升了股指預測的速度和準確率。

      針對股指數(shù)據(jù)大規(guī)模、非線性等特點,本文研究了一種結合CNN和GRU神經(jīng)網(wǎng)絡的混合模型對股指進行單步預測。一方面,利用CNN強大的特征提取能力,挖掘股指數(shù)據(jù)之間的內(nèi)在聯(lián)系,從而降低原始數(shù)據(jù)的規(guī)模和復雜度;另一方面,通過GRU神經(jīng)網(wǎng)絡的時序記憶能力,學習股指數(shù)據(jù)內(nèi)部動態(tài)變化規(guī)律,建立輸入與輸出之間的非線性關系。在本文的后半部分,為了驗證算法的有效性和普適性,借鑒統(tǒng)計試驗法的思想對構建的模型進行了多次運行仿真。仿真結果表明,本文設計的股指預測模型具有較高的預測準確率,且具備一定的普遍適用性。

      1 CNN和GRU網(wǎng)絡

      CNN和GRU網(wǎng)絡是深度學習中兩種常見的網(wǎng)絡。與淺層學習相比,深度學習能夠?qū)崿F(xiàn)數(shù)據(jù)的逐層轉(zhuǎn)換,保證了最有效的特征表達和信息提取。

      1.1 CNN

      CNN[12]是一個具有深度結構的前饋神經(jīng)網(wǎng)絡,其基本結構如圖1所示[13]。

      圖1 CNN結構圖Fig.1 Structure diagram of CNN

      CNN對輸入數(shù)據(jù)進行逐層卷積和池化操作。卷積層是CNN的核心,它利用局部連接和權值共享對輸入進行卷積操作,提取數(shù)據(jù)的深層特征。卷積過程可以用以下公式表示:

      其中,C為卷積層的輸出特征圖;X為輸入數(shù)據(jù);f()?為非線性激活函數(shù);?為卷積操作;W為卷積核的權重向量,b為偏置項。

      池化層通過一定的池化規(guī)則對卷積層的輸出執(zhí)行池化操作,保留主要特征,同時減少參數(shù)數(shù)目和計算量,防止過擬合。池化過程可以用以下公式表示:

      其中,P表示池化層的輸出特征圖;pool()?表示池化規(guī)則,如平均池化、最大池化等。

      CNN的特點是能夠提取數(shù)據(jù)中的隱藏特征,并將其逐層結合,生成抽象的高層特征。然而,CNN不具備記憶功能,缺乏對時序數(shù)據(jù)時間相關性的考慮。

      1.2 GRU網(wǎng)絡

      RNN在學習長期依賴關系時存在梯度消失和爆炸等常見問題[14]。為了解決這一問題,Hochreiter等人[15]提出了LSTM神經(jīng)網(wǎng)絡,其引入了3個“選通單元”:輸入門、遺忘門和輸出門。Cho等人[16]將LSTM神經(jīng)網(wǎng)絡的輸入門和遺忘門合并為更新門,構建了更易于計算和實現(xiàn)的GRU神經(jīng)網(wǎng)絡。GRU神經(jīng)網(wǎng)絡的結構如圖2所示。

      圖2 GRU神經(jīng)網(wǎng)絡的體系結構Fig.2 Architecture of GRU neural network

      GRU神經(jīng)網(wǎng)絡有兩個選通單元,分別稱為“復位門”rt和“更新門”zt。rt用于控制前一時刻的狀態(tài)ht-1對候選狀態(tài)h?t的影響程度,zt用于決定ht-1中有多少信息可以傳遞到當前狀態(tài)ht中。GRU神經(jīng)網(wǎng)絡的更新方式如下:

      其中,σ(?)是sigmoid函數(shù);tanh(?)是雙曲正切函數(shù);it是t時刻的輸入,yt是t時刻的輸出;Wir、Wiz和Wih是輸入—狀態(tài)權重矩陣,Whr、Whz和Whh是狀態(tài)—狀態(tài)權重矩陣;br、bz、bh是偏置量;⊙是元素乘法。

      GRU神經(jīng)網(wǎng)絡是一種時間遞歸神經(jīng)網(wǎng)絡,能夠充分反映時間序列數(shù)據(jù)的長期歷史過程。GRU神經(jīng)網(wǎng)絡在處理后續(xù)輸入數(shù)據(jù)時,可以將先前輸入所攜帶的信息保存在網(wǎng)絡中。

      2 基于CNN和GRU的混合股指預測模型

      2.1 模型原理

      衡量股指的指標眾多,且這些指標均屬于非線性的時間序列數(shù)據(jù)。傳統(tǒng)方法提取高維數(shù)據(jù)潛在特征的能力有限,同時缺乏對時序數(shù)據(jù)時間相關性的考慮,從而影響預測結果。而CNN憑借其特殊的卷積運算,可以挖掘出高維數(shù)據(jù)的主要特征,降低數(shù)據(jù)維度,為提高預測精度奠定基礎;GRU神經(jīng)網(wǎng)絡則具有獨特的門結構,能夠考慮到時序數(shù)據(jù)的前后關聯(lián)性,更充分地學習輸入與輸出之間的非線性關系,實現(xiàn)對時間序列數(shù)據(jù)的有效預測。因此,本文提出了一種融合CNN和GRU神經(jīng)網(wǎng)絡的混合股指預測模型。通過組合多種結構,該模型可以有效地學習股指數(shù)據(jù)中隱藏的豐富特征和規(guī)律,提高股指預測的準確率。

      2.2 模型結構

      基于CNN和GRU神經(jīng)網(wǎng)絡的混合股指預測模型的網(wǎng)絡結構如圖3所示,主要由卷積層、池化層、Dropout層、GRU層和全連接層構成。將衡量股指的相關指標數(shù)據(jù)作為模型的輸入,利用卷積操作進行特征提取,挖掘數(shù)據(jù)之間的相關性;再通過池化操作壓縮參數(shù)數(shù)量,進一步降低數(shù)據(jù)維度;同時加入Dropout層按照一定概率隨機選擇網(wǎng)絡中的神經(jīng)元,防止過擬合;然后利用GRU層對降維后的數(shù)據(jù)進行處理,學習它們之間的時間依從關系;最后由全連接層將數(shù)據(jù)轉(zhuǎn)換為一維結構,得到最終的輸出結果。

      圖3 基于CNN和GRU神經(jīng)網(wǎng)絡的模型Fig.3 Model based on CNN and GRU neural network

      模型中各層具體描述如下:

      (1)輸入層

      輸入層采用股指相關指標數(shù)據(jù)作為CNN-GRU模型的輸入。為了增加樣本的多樣性,本文利用滑動窗口法,以固定窗口大小沿著時間軸進行移動,并不斷截取一定范圍的歷史股指數(shù)據(jù)。對于股指數(shù)據(jù)來說,某一時刻的值受很久以前因素的影響較小,因此本文將滑動窗口的寬度設定為10,即利用過去10分鐘的歷史指標數(shù)據(jù)來預測未來第11分鐘的股指收盤價。除了具有時間維度外,股指數(shù)據(jù)在每個特定時刻下還包含了一系列衡量收盤價的指標,稱為特征維度。為了便于CNN的處理,需要對前t分鐘具有n維屬性的股指數(shù)據(jù)的結構進行設計,以特征圖的形式輸入到模型中。數(shù)據(jù)的轉(zhuǎn)換過程如圖4所示,其中xtn代表t時刻股指的第n項指標。

      圖4 股指數(shù)據(jù)的特征圖表達方式Fig.4 Characteristic graph representation of stock index data

      (2)卷積層

      將轉(zhuǎn)化為特征圖形式的輸入數(shù)據(jù)輸入到卷積層??紤]到使用不同大小的卷積核進行卷積操作時,模型的結構會比較復雜,不利于模型的訓練,因此本文在卷積過程中均采用3×3大小的卷積核進行二維卷積運算,用來提取輸入數(shù)據(jù)的隱藏特征。卷積過程如下式所示:

      其中,C為卷積層的輸出;f()?為激活函數(shù),一般選擇線性整流函數(shù)(Rectified Linear Unit,ReLU);?為卷積運算;Wc為權重矩陣;bc為偏置量。

      為了盡量不丟棄輸入數(shù)據(jù)的信息,讓經(jīng)過卷積操作的輸出依舊擁有足夠多的信息量,采用補0填充的方式使輸出與輸入特征圖保持大小一致。

      (3)池化層

      池化層利用最大池化方法對卷積層的輸出執(zhí)行池化操作,并將其大小設置為2×2,用來保留最主要的特征。其中,P是池化層輸出;maxpooling()?是最大池化函數(shù)。

      (4)Dropout層

      在訓練過程中,Dropout技術[17]按照一定概率隨機地從網(wǎng)絡中丟棄神經(jīng)元(及其連接),即將該神經(jīng)元的輸入和輸出都設置為0,如圖5所示,其中打叉的圓圈代表被Dropout隨機丟棄的神經(jīng)元。這樣,一方面可以有效減少模型內(nèi)部參數(shù)的個數(shù),另一方面也相當于增加了輸入數(shù)據(jù)的多樣性,從而可以在一定程度上減輕過擬合現(xiàn)象。

      圖5 Dropout技術示意圖Fig.5 Schematic diagram of Dropout technology

      將池化層輸出的特征拼接成一維向量輸入Dropout層。

      其中,D為Dropout層的輸出;M為0~1之間的隨機數(shù),n為丟棄概率,0≤n<1。

      本文將n的值設置為0.25,即在模型訓練過程中,隨機將1/4神經(jīng)元的輸出值設置為0。

      (5)GRU層

      GRU單元在大量訓練中不斷調(diào)整自身參數(shù),從Dropout層的輸出中學習數(shù)據(jù)之間的時間依賴關系,捕捉其內(nèi)部變化規(guī)律。GRU層第i步輸出hi的具體計算步驟為:

      (6)全連接層

      全連接層采用ReLU激活函數(shù)對GRU層的輸出向量進行處理,得到最終的股指收盤價預測值。

      其中,Y′是預測值;H是GRU層輸出;Wf是權值矩陣;bf是偏移量。

      為了能夠使用梯度下降法來訓練模型,需要選擇一個可以反向求導的損失函數(shù)。本文提出的模型是針對時間序列預測問題的,因此采用均方誤差(Mean Square Error,MSE)函數(shù)作為目標損失函數(shù)。MSE計算公式如下:

      其中,N是預測的收盤價個數(shù);yi和y′i分別是第i個收盤價的真實值和預測值。

      3 仿真實驗與結果分析

      3.1 實驗數(shù)據(jù)采集

      本文算法可以用來預測個股的價格走勢,也可以用來預測股指的價格走勢??紤]到單只股票受突發(fā)性事件及人為因素的影響較大,從而造成對預測結果的影響,因此本文選取滬深300指數(shù)作為模型仿真實驗研究的對象。

      實驗數(shù)據(jù)集樣本來源于同花順iFind金融數(shù)據(jù)終端。該數(shù)據(jù)集包含了滬深300指數(shù)16個維度的數(shù)據(jù),分別是開盤價、最高價、最低價、收盤價、漲跌幅、成交金額、成交量、異同移動平均線指標、布林線指標、威廉指標、隨機指標、乖離率指標、相對強弱指數(shù)、變動率指標、順勢指標、拋物線指標。數(shù)據(jù)的采集時間為2018年12月18日至2019年12月13日,數(shù)據(jù)集的生成方式為每分鐘采集一次數(shù)據(jù),共采集數(shù)據(jù)樣本57 840組。

      3.2 數(shù)據(jù)預處理

      將采集到的樣本數(shù)據(jù)按3∶1∶1的比例劃分。其中,前60%的數(shù)據(jù)作為訓練集,用來訓練模型;接下來20%的數(shù)據(jù)作為驗證集,用來選擇模型參數(shù);最后剩余20%的數(shù)據(jù)作為測試集,用來評估模型的具體表現(xiàn)。

      實驗中,考慮到不同指標的量綱通常存在較大差異,會對實驗結果造成影響,本文采用線性函數(shù)歸一化方法對實驗數(shù)據(jù)進行歸一化處理:

      其中,Xn表示第n個指標數(shù)據(jù),maxXn、minXn分別是Xn中的最大值、最小值。

      為使預測值仍然具有實際含義,需要對其進行反歸一化處理:

      其中,Y″是歸一化的預測值;maxclose、minclose分別是收盤價的最大值、最小值。

      3.3 模型性能評價

      實驗中評估模型預測性能采用的評價指標包括均方根誤差(Root Mean Square Error,RMSE)、平均絕對誤差(Mean Absolute Error,MAE)、平均絕對百分比誤差(Mean Absolute Percentage Error,MAPE)、皮爾遜相關系數(shù)(Pearson Correlation Coefficient)以及模型訓練時間。其中,RMSE、MAE和MAPE是預測誤差衡量指標,這三個性能指標的值越小,表明預測值越接近真實值。皮爾遜相關系數(shù)用于度量預測值和真實值之間的相關性,常用r代表,r的值越接近1,預測值與真實值的擬合度越高。

      RMSE、MAE、MAPE及r的計算公式如下:

      3.4 實驗參數(shù)設置

      CNN-GRU模型中需要手動設置的參數(shù)主要包括卷積層層數(shù)、卷積核個數(shù)、GRU層層數(shù)、GRU層神經(jīng)元個數(shù)和優(yōu)化學習算法。卷積層層數(shù)和卷積核個數(shù)體現(xiàn)了CNN從數(shù)據(jù)中提取特征的能力,GRU層層數(shù)和GRU層神經(jīng)元個數(shù)則反映了GRU神經(jīng)網(wǎng)絡從數(shù)據(jù)中學習時間依賴關系的能力。

      3.4.1卷積層層數(shù)

      從理論上來說,卷積層層數(shù)越多,特征表達能力就越強,可以處理的數(shù)據(jù)也就越多。但是,如果算法中的參數(shù)呈爆炸式增長,模型相應的訓練難度和訓練時間也會增加。

      本文輸入樣本的長度不長,因此模型中卷積層層數(shù)也不會太多。在保持模型其他參數(shù)不變的情況下,討論卷積層層數(shù)分別為1至5層對模型預測結果的影響,如表1所示。

      表1 卷積層層數(shù)對預測結果的影響Table 1 Influence of number of convolution layers on forecasting results

      從表1中可以看出,隨著卷積層層數(shù)的增加,誤差逐漸變小,相關系數(shù)逐漸變大,但當層數(shù)增加到一定程度,誤差又逐漸變大,相關系數(shù)逐漸變小。同時,層數(shù)的增加會帶來計算量的增加,模型的訓練時間隨之不斷損耗。因此,本文模型使用了三層卷積層。

      3.4.2卷積層卷積核個數(shù)

      卷積核個數(shù)反映了特征提取的能力。如果卷積核個數(shù)設置得太小,則無法充分提取數(shù)據(jù)的潛在特征;如果設置得太大,模型會過于復雜,訓練時間會成倍增加,同時也可能導致過擬合。

      如前文所述,本文模型使用了三層卷積層。根據(jù)一般經(jīng)驗,將第二層卷積核的數(shù)量設置為第一層卷積核的兩倍,第三層卷積核的數(shù)量設置為第二層卷積核的兩倍。采用控制變量法,將三層卷積層的卷積核個數(shù)分成4個不同的參數(shù)組合進行討論分析,實驗結果如表2所示,其中n1、n2和n3分別代表了第一、第二和第三層卷積核個數(shù)。

      表2 卷積核個數(shù)對預測結果的影響Table 2 Influence of the number of convolution kernels on forecasting results

      從表2中可以看出,誤差隨卷積核個數(shù)的增加先減小后增大,相關系數(shù)則是先增大后減小。當?shù)谝粚泳矸e核的數(shù)量為16,第二層卷積核的數(shù)量為32,第三層卷積核的數(shù)量為64時,預測結果的誤差最小,相關系數(shù)最接近1。因此,本文考慮三層卷積核的個數(shù)分別取16個、32個和64個。

      3.4.3 GRU層層數(shù)

      一般來說,增加GRU層的層數(shù)可以減少網(wǎng)絡誤差,提高預測精度,但同時也會使網(wǎng)絡結構變得復雜,導致訓練效率低下。因此,本文比較了不同的GRU層層數(shù)對預測結果的影響。

      根據(jù)表3分析可知,隨著GRU層層數(shù)的增加,模型的預測效果確實得到了顯著提高,這符合深度學習的層次學習原理。但是,當層數(shù)繼續(xù)增加時,誤差反而變大了,這可能是由于模型在訓練過程中產(chǎn)生了過擬合,導致預測效果變差。因此,本文將GRU層的層數(shù)設置為四層。

      表3 GRU層層數(shù)對預測結果的影響Table 3 Influence of number of GRU layers on forecasting results

      3.4.4 GRU層神經(jīng)元個數(shù)

      在本文中,4個GRU層的神經(jīng)元個數(shù)被統(tǒng)一設為相同的數(shù)目。在保持模型中其他參數(shù)不變的同時,探究神經(jīng)元個數(shù)分別為10、20、30和40時對預測結果的影響。

      從表4中分析可知,GRU層神經(jīng)元個數(shù)并不是越多越好。模型的復雜度與數(shù)據(jù)量之間存在相互制約的關系,當模型的復雜度增加到一定程度而沒有足夠的數(shù)據(jù)支撐時,模型的泛化能力就會降低。因此,本文模型的GRU層神經(jīng)元個數(shù)均設為20個。

      表4 GRU層神經(jīng)元個數(shù)對預測結果的影響Table 4 Influence of number of neurons in GRU layers on forecasting results

      3.4.5優(yōu)化學習算法

      優(yōu)化學習算法的作用是在梯度下降過程中通過不同的策略更新梯度下降的方向和學習率,這直接影響著網(wǎng)絡中權閾值的更新以及模型的收斂速度。本文主要討論了隨機梯度下降(Stochastic Gradient Descent,SGD)、自適應梯度(Adaptive Gradient,AdaGrad)、均方差傳播(Root Mean Square prop,RMSprop)和自適應動量估計(Adaptive Moment Estimation,Adam)這四種常用的優(yōu)化學習算法。

      從圖6中可以看出,SGD算法并沒有使MSE在訓練集和驗證集上得到收斂;AdaGrad算法使MSE在訓練集上迭代1次后迅速下降到0.002以下,經(jīng)過5次迭代后MSE基本不再下降,在驗證集上迭代到第4次后MSE基本保持不變;RMSprop算法使MSE在訓練集上迭代1次后快速減小,然后保持一個緩慢下降的狀態(tài),但在驗證集上,MSE一直處于波動狀態(tài),沒有達到有效收斂;Adam算法使MSE在訓練集和驗證集上均迅速收斂到一個較為理想的值。綜上,本文使用Adam算法來訓練模型,在訓練過程中,樣本集被分為多個批次,每批次大小設置為128。

      圖6 優(yōu)化學習方法對網(wǎng)絡收斂性能的影響Fig.6 Influence of optimized learning methods on network convergence performance

      3.5 仿真結果分析

      3.5.1模型對比分析

      為了驗證本文模型的有效性,對比分析了CNN-GRU模型與GRU模型、LSTM模型和CNN模型在滬深300指數(shù)上的預測效果??紤]到實驗的合理性、嚴謹性和準確性,與本文模型相同,將GRU模型和LSTM模型的隱藏層層數(shù)設置為4層,隱層神經(jīng)元個數(shù)設置為20個;CNN模型的卷積層層數(shù)設置為3層,各層卷積核個數(shù)分別設置為16個、32個、64個。

      從圖7~圖10可以看出,相比于GRU模型、LSTM模型和CNN模型,本文所構建的CNN-GRU模型的預測效果更好,預測值與真實值的走勢基本一致。

      圖7 CNN-GRU模型預測結果Fig.7 Forecasting results of CNN-GRU model

      圖10 CNN模型預測結果Fig.10 Forecasting results of CNN model

      通過列出4個模型的RMSE、MAE、MAPE、r以及訓練時間,可以更直觀地看出各模型的預測效果。

      圖8 GRU模型預測結果Fig.8 Forecasting results of GRU model

      圖9 LSTM模型預測結果Fig.9 Forecasting results of LSTM model

      根據(jù)表5可知,在RMSE、MAE、MAPE和r這4個衡量指標的評判標準下,四種模型的優(yōu)劣順序依次是CNN-GRU模型、GRU模型、LSTM模型、CNN模型。表現(xiàn)效果最優(yōu)的CNN-GRU模型的RMSE為0.432%、MAE為0.335%、MAPE為41.307%、r為99.637%,預測值與真實值的擬合度最高。其中,MAPE明顯大于RMSE和MAE,這是因為MAPE是相對誤差,其大小與股指收盤價的數(shù)值范圍有關,而RMSE和MAE為絕對誤差,其數(shù)值不受收盤價大小的影響。

      表5 不同模型的預測性能Table 5 Forecasting performance of different models

      對比LSTM模型,GRU模型預測效果略好,且所需訓練時間更短。這是因為GRU模型將LSTM模型的輸入門和遺忘門融合成了一個門,模型的結構變得更精簡。對比CNN模型,GRU模型的RMSE指標從1.073%降低至0.620%,誤差減少了42.22%,r指標從99.110%提高至99.476%,相關性提高了0.37%。這是因為CNN模型是一種無循環(huán)的前饋神經(jīng)網(wǎng)絡,而GRU模型中引入了時序概念,能夠考慮到時序數(shù)據(jù)之間的時間相關性,比起CNN模型,GRU模型能夠更好地處理時間序列問題。

      對比GRU模型,利用CNN進行特征提取的CNNGRU模型的RMSE指標從0.620%降低至0.432%,誤差減少了30.32%,r指標從99.476%提高至99.637%,相關性提高了0.16%。這說明CNN良好的特征表達能力有助于自動挖掘股指數(shù)據(jù)中的隱藏特征,并從中剔除噪聲和不穩(wěn)定成分,從而提升模型整體的泛化性能以及學習能力。

      從運行時間來看,隨著模型結構趨于復雜化,模型的訓練時間也在逐漸增加。CNN-GRU模型的結構最為復雜,耗時也最多,但處理上萬條數(shù)據(jù)也只需要722 s。

      3.5.2模型普適性分析

      研究對象的選擇對于獲得股指定量研究的最終結果非常重要,因此本文另外選取上證綜指和深證成指作為實驗對象,探討了CNN-GRU模型的普適性。上證綜指和深證成指的采集時間為2019年7月9日至2019年12月13日,數(shù)據(jù)集的生成方式同樣為每分鐘采集一次,共采集數(shù)據(jù)樣本26 028組。

      不同股指收盤價的預測結果如圖11~圖13所示。通過比較預測值與真實值可以發(fā)現(xiàn):三種股指收盤價的預測值與真實值在總體走勢上均基本保持一致,偏差程度較低,即CNN-GRU模型對這三種股指的預測效果相近。滬深300指數(shù)、上證綜指和深證成指是中國股市的三大代表性股指,因此可以認為CNN-GRU模型在股指預測領域具有一定的通用性。

      圖11 滬深300指數(shù)收盤價預測結果Fig.11 Forecasting results of CSI 300 Index closing price

      圖13 深證成指收盤價預測結果Fig.13 Forecasting results of SZSE Component Index closing price

      從表6中可以看出,滬深300指數(shù)、上證綜指和深證成指收盤價預測值和真實值的RMSE和MAPE均在(0,0.01)范圍內(nèi),MAPE均在(0,1)范圍內(nèi),相關系數(shù)也都接近于1,說明CNN-GRU模型具有較高的預測精度和顯著的預測效果。從表中還可以看出,上證綜指和深證成指收盤價的預測效果略遜于滬深300指數(shù),這可能是因為在確定模型參數(shù)的過程中所使用的訓練集是滬深300指數(shù),所以滬深300指數(shù)收盤價的預測準確率更高。

      圖12 上證綜指收盤價預測結果Fig.12 Forecasting results of SSE Composite Index closing price

      表6 不同數(shù)據(jù)集的預測性能Table 6 Forecasting performance of different data sets

      4 結束語

      本文融合CNN和GRU神經(jīng)網(wǎng)絡,提出了一種混合股指預測模型。該模型使用CNN提取股指數(shù)據(jù)的隱藏特征,減小原始數(shù)據(jù)規(guī)模,然后利用GRU神經(jīng)網(wǎng)絡學習股指數(shù)據(jù)的內(nèi)部動態(tài)變化規(guī)律,實現(xiàn)對股指收盤價的預測。本文所提出的模型具有如下特點:

      (1)繼承了CNN模型在潛在特征提取方面的優(yōu)勢,利用其多層特征捕捉器及最大池化結構挖掘股指指標數(shù)據(jù)中蘊含的更多有效信息。

      (2)繼承了GRU模型記憶能力強及易于計算的優(yōu)勢,利用其獨特的門結構學習數(shù)據(jù)的時間依賴關系和復雜非線性關系。

      研究結果表明,與GRU模型、LSTM模型和CNN模型相比,本文提出的CNN-GRU模型對滬深300指數(shù)具有較強的預測能力和較高的預測準確度,體現(xiàn)了該模型良好的有效性。同時,該模型在上證綜指和深證成指的預測中也取得了不錯的效果,說明該模型具有一定的普適性。

      本文構建的CNN-GRU模型能夠較為準確地預測股指收盤價的未來走勢,但對股指收盤價的精準預測還有待提高。這主要是因為在考慮股指的影響因素時,本文選擇了基本交易數(shù)據(jù)和技術指標數(shù)據(jù)作為模型的輸入,這兩類數(shù)據(jù)均屬于市場面因素。因此,在進一步的工作中,可以考慮把基本面因素(政府經(jīng)濟政策、公司經(jīng)營狀況等)加入到輸入指標體系中去。

      猜你喜歡
      股指個數(shù)卷積
      基于3D-Winograd的快速卷積算法設計及FPGA實現(xiàn)
      怎樣數(shù)出小正方體的個數(shù)
      等腰三角形個數(shù)探索
      怎樣數(shù)出小木塊的個數(shù)
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      怎樣數(shù)出小正方體的個數(shù)
      平安千億回購 股指觸底回升
      股指再度回落 機構逢高減倉
      降杠桿引發(fā)股指沖高回落
      股指震蕩走高筑底之日可期
      临沭县| 台安县| 晴隆县| 松桃| 多伦县| 田东县| 河北省| 志丹县| 靖江市| 林西县| 汝城县| 安顺市| 教育| 梅河口市| 新邵县| 仁布县| 清苑县| 界首市| 辰溪县| 永胜县| 南涧| 容城县| 荔波县| 定州市| 沅江市| 醴陵市| 新干县| 辰溪县| 家居| 桓仁| 杂多县| 福安市| 宁化县| 江源县| 伊金霍洛旗| 吴川市| 婺源县| 平湖市| 正镶白旗| 沽源县| 弥渡县|