• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      析取置信規(guī)則庫系統(tǒng)參數(shù)優(yōu)化的深度神經(jīng)網(wǎng)絡(luò)模型

      2022-08-30 09:05:08鄭銘鴻方煒杰葉己峰傅仰耿
      關(guān)鍵詞:梯度神經(jīng)元權(quán)重

      鄭銘鴻,方煒杰,葉己峰,傅仰耿

      (福州大學(xué)計算機與大數(shù)據(jù)學(xué)院,福建 福州 350108)

      0 引言

      為更好地解決信息中存在的模糊性、不確定性和不完整性等問題,Yang等[1]在D-S證據(jù)理論[2]、模糊理論[3]、決策理論[4]和傳統(tǒng)的IF-THEN規(guī)則[5]的基礎(chǔ)上,提出了基于證據(jù)推理的置信規(guī)則庫推理方法,能夠更好地表示與處理不確定性信息.置信規(guī)則庫(belief rule-base,BRB)系統(tǒng)的前件屬性的連接方式主要有合取和析取[6]兩種方式,前者被稱為CBRB(conjunction belief rule-base,CBRB),后者被稱為DBRB(disjunction belief rule-base,DBRB).Chang等[6]對兩者進行了充分分析,證明了DBRB系統(tǒng)在具有更小規(guī)模的同時也擁有較好的推理精度.

      在置信規(guī)則庫的基礎(chǔ)上,Raihan等[7]將深度學(xué)習(xí)與置信規(guī)則庫結(jié)合(BRB-DL),使用神經(jīng)網(wǎng)絡(luò)計算BRB的規(guī)則權(quán)重,利用神經(jīng)網(wǎng)絡(luò)對信息的記憶性,提高BRB對數(shù)據(jù)的處理能力.然而,在推理過程中,規(guī)則權(quán)重、屬性權(quán)重等系統(tǒng)參數(shù)都將直接影響最終的推理結(jié)果.目前已有許多學(xué)者在BRB的參數(shù)優(yōu)化問題上進行研究,如Chen等[8]使用Matlab工具箱的“fmincon”函數(shù)進行參數(shù)優(yōu)化,但是該方法基于Matlab平臺實現(xiàn),算法的可移植性低.Wang等[9]提出使用差分進化算法進行參數(shù)優(yōu)化(differential evolution,DE),但是DE算法需要額外的大量時間計算尋優(yōu),每次的尋優(yōu)都是通過一定的規(guī)則或概率分布逼近最優(yōu)點,優(yōu)化效率較低,而BRB-DL由于引入了神經(jīng)網(wǎng)絡(luò)增加了系統(tǒng)的參數(shù)和規(guī)模,將導(dǎo)致DE算法的訓(xùn)練效率進一步降低.Wu等[10]引入梯度下降算法來提高BRB模型的優(yōu)化速度和收斂精度,但是由于BRB模型本身參數(shù)的約束,需要通過設(shè)置特定的步長來確保模型參數(shù)滿足約束條件,從而導(dǎo)致了梯度下降實現(xiàn)困難,優(yōu)化效率不高.總之,目前針對BRB-DL的參數(shù)優(yōu)化方法或多或少都有其自身的不足.

      針對以上問題,本研究首先引入深度神經(jīng)網(wǎng)絡(luò)(deep neural network,DNN)與DBRB結(jié)合(DBRB-DNN),DBRB系統(tǒng)的規(guī)則構(gòu)建是通過前件屬性的參考值線性組合而成,系統(tǒng)規(guī)則數(shù)和參數(shù)的數(shù)量相比CBRB更加精簡,系統(tǒng)的復(fù)雜度更低.接著,引入梯度下降算法對DBRB-DNN的系統(tǒng)參數(shù)進行優(yōu)化,同時針對DBRB-DNN中因參數(shù)約束導(dǎo)致梯度下降算法應(yīng)用效率低的問題,對DBRB-DNN的系統(tǒng)參數(shù)進行預(yù)處理,從而使得梯度下降算法更好地應(yīng)用在DBRB-DNN上.最后,將模型的應(yīng)用范圍擴展到分類問題上,并在分類和回歸問題上進行實驗,驗證本文提出方法的有效性.

      1 析取置信規(guī)則庫(DBRB)系統(tǒng)

      1.1 DBRB的規(guī)則表示

      析取型BRB系統(tǒng)[6]是通過析取符號連接不同的前件屬性,其中第k條規(guī)則表示為

      (1)

      1.2 DBRB-DNN模型

      DBRB-DNN系統(tǒng)是對BRB-DL[7]系統(tǒng)的改進.首先,DBRB-DNN使用析取置信規(guī)則庫與神經(jīng)網(wǎng)絡(luò)結(jié)合,縮小了系統(tǒng)規(guī)模,簡化了前件屬性權(quán)重δ和規(guī)則權(quán)重θ兩個系列的參數(shù).其次,針對BRB-DL因使用“relu”函數(shù)導(dǎo)致的神經(jīng)元壞死,損失值無法下降的問題,DBRB-DNN引入“tanh”函數(shù)進行改進.最后,針對BRB-DL只用于解決回歸問題的局限性,本文將DBRB-DNN應(yīng)用在分類問題上,擴展其應(yīng)用范圍.DBRB-DNN模型主要的工作過程如圖1所示.

      圖1 DBRB-DNN工作流程Fig.1 Working process of DBRB-DNN

      1.3 DBRB-DNN系統(tǒng)的推理方法

      DBRB-DNN推理過程主要分為2個步驟[1]:1) 激活權(quán)重計算;2) ER算法合成規(guī)則.

      1.3.1 激活權(quán)重計算

      計算激活權(quán)重之前,首先要計算輸入數(shù)據(jù)對前件屬性參考值之間個體匹配度,一般采用歐式距離進行計算.對于輸入數(shù)據(jù)X的第i個分量xi,可以轉(zhuǎn)化為如下形式.

      S(xi)={(Ai,j,αi,j),i=1,2…,T;j=1,2,…,Ji}

      (2)

      其中:αi,j表示輸入xi對于前件屬性參考值A(chǔ)i.j的匹配程度.接下來,使用DNN計算每條規(guī)則的激活權(quán)重,其中輸入層的神經(jīng)元個數(shù)等于前件屬性參考值的個數(shù),輸出層神經(jīng)元的個數(shù)等于規(guī)則的條數(shù),每層神經(jīng)元之間采用全連接的方式.神經(jīng)元之間的具體工作方式如下.

      zk=ckαk+bk

      (3)

      (4)

      (5)

      其中式(3)和(4)為隱藏層神經(jīng)元工作方式,式(3)和(5)為輸出層神經(jīng)元工作方式;ck表示的是神經(jīng)元的權(quán)重值,為一組矩陣向量;ak表示的是個體匹配度,為一組輸入向量;bk表示的是神經(jīng)元的偏置值;uk表示隱藏層的非線性輸出;wk為權(quán)重值.

      1.3.2 ER算法合成規(guī)則

      計算出每條規(guī)則的激活權(quán)重后,用ER合成公式對所有的激活規(guī)則進行合成.在規(guī)則完整的情況下,輸入x,第i個結(jié)果評價等級上的置信度βi(x)計算公式[12]為

      (6)

      其中,

      (7)

      上述公式合成后,得到結(jié)果置信分布{(Dn,βn)|n=1,2,…,N}.對于分類問題,一般直接選取置信度值最大所對應(yīng)的結(jié)果評價等級作為結(jié)果輸出.對于回歸問題,則要使用各個評價等級對應(yīng)的效用值與其對應(yīng)的計算得出的置信度進行加權(quán),得到數(shù)值型的輸出.

      2 基于梯度下降的參數(shù)優(yōu)化方法

      2.1 DBRB-DNN的偏導(dǎo)數(shù)

      通過節(jié)1.3,可分析得出DBRB-DNN需要優(yōu)化的參數(shù)有神經(jīng)網(wǎng)絡(luò)中每個神經(jīng)元的權(quán)重和偏置值以及每條規(guī)則的結(jié)果置信度,本研究應(yīng)用梯度下降法[13]訓(xùn)練DBRB-DNN.

      (8)

      (9)

      (10)

      (11)

      (12)

      式(7)中第k條規(guī)則的激活權(quán)重wk來自于神經(jīng)網(wǎng)絡(luò)的輸出.本研究選用多層的全連接深度神經(jīng)網(wǎng)絡(luò)與DBRB進行結(jié)合,當(dāng)損失值通過反向傳播到神經(jīng)網(wǎng)絡(luò)后,神經(jīng)網(wǎng)絡(luò)將根據(jù)損失值計算每一層神經(jīng)元的權(quán)重和偏置的偏導(dǎo)數(shù),根據(jù)式(5)可以求得輸出層激活權(quán)重對線性輸出zi的偏導(dǎo)數(shù)為

      (13)

      根據(jù)式(4)可以求得神經(jīng)層內(nèi)部權(quán)重對線性輸出zk的偏導(dǎo)數(shù)為

      (14)

      接著,根據(jù)式(3)求得線性輸出zk對輸出層神經(jīng)元權(quán)重和偏置的偏導(dǎo)數(shù)為

      (15)

      當(dāng)求出輸出層神經(jīng)元對應(yīng)的權(quán)重和偏置的導(dǎo)數(shù)時,可根據(jù)損失值繼續(xù)反向傳播求出神經(jīng)網(wǎng)絡(luò)每一層的神經(jīng)元權(quán)重和偏置的偏導(dǎo)數(shù).

      得到系統(tǒng)每一步參數(shù)的偏導(dǎo)數(shù),根據(jù)鏈式求導(dǎo)法則,可以分別得到損失函數(shù)對推理系統(tǒng)第k條規(guī)則各參數(shù)的偏導(dǎo)數(shù).第k條規(guī)則中第j個結(jié)果屬性的置信度的偏導(dǎo)數(shù)為

      (16)

      這里用C和B表示神經(jīng)網(wǎng)絡(luò)中所有的神經(jīng)元權(quán)重和偏置值,神經(jīng)元的權(quán)重和偏置值偏導(dǎo)數(shù)為

      (17)

      計算出系統(tǒng)所有待優(yōu)化參數(shù)的偏導(dǎo)數(shù),就可以求得參數(shù)優(yōu)化的方向,使用梯度下降算法訓(xùn)練DBRB-DNN模型.

      2.2 優(yōu)化模型

      通過對DBRB-DNN模型的分析,需要優(yōu)化的參數(shù)有

      (18)

      使用梯度下降進行參數(shù)訓(xùn)練的模型可以表示為

      Pnew(C,B,β)=Pold(C,B,β)-λ?Poldloss

      (19)

      其中,λ表示參數(shù)模型沿負梯度方向更新的學(xué)習(xí)步長.

      基于BRB的優(yōu)化模型[14],提出DBRB-DNN的優(yōu)化模型如圖2所示.

      圖2 DBRB-DNN參數(shù)優(yōu)化模型Fig.2 Parameter optimization of DBRB-DNN

      DBRB-DNN優(yōu)化的目標(biāo)函數(shù)為

      (20)

      (21)

      其中:ui表示第i個結(jié)果屬性對應(yīng)的效用值.

      (22)

      從上述分析可以看出,假設(shè)神經(jīng)網(wǎng)絡(luò)有K層,輸入層有A個神經(jīng)元,隱藏層的神經(jīng)元有S個,輸出層神經(jīng)元有L個,DBRB-DNN系統(tǒng)的訓(xùn)練模型包含的訓(xùn)練參數(shù)為S1=N×L+S×(K-2)+L+A×S+S×L+(K-3)×S2個,約束條件為S2=N×L+L個,實際上就是一個求解含有S1個參數(shù),且?guī)в蠸2個約束條件的非線性優(yōu)化問題.算法步驟如下.

      步驟1構(gòu)造初始DBRB-DNN系統(tǒng)并設(shè)置梯度下降的初始參數(shù)(如學(xué)習(xí)率、步長等).

      步驟2劃分訓(xùn)練集和測試集,并使用訓(xùn)練集正向推理計算出損失值ξ(P).

      步驟3計算出DBRB-DNN模型待優(yōu)化參數(shù)的偏導(dǎo)數(shù),并根據(jù)損失值反向傳播更新待優(yōu)化參數(shù).

      步驟4根據(jù)更新得到的參數(shù)判斷損失值ξ(P)是否減小.如果減小,則更新參數(shù);否則,保留上一代的參數(shù).

      步驟5判斷是否滿足終止條件(如:達到設(shè)定的最大迭代次數(shù)),如果滿足,跳出訓(xùn)練并保存模型;否則,跳回步驟3.

      3 實驗部分

      本實驗選取一個5層的DNN神經(jīng)網(wǎng)絡(luò)與DBRB相結(jié)合,輸入層神經(jīng)元的個數(shù)為前件屬性參考值個數(shù),輸出層神經(jīng)元個數(shù)為DBRB規(guī)則庫的規(guī)則數(shù).本節(jié)首先對多峰非線性函數(shù)進行擬合;然后,通過北京市PM2.5的預(yù)測實驗驗證模型的性能;最后,從UCI上選取多個公共數(shù)據(jù)集進行分類問題上的對比實驗.實驗環(huán)境為:Inter(R) Core(TM) i7-6700 CPU @ 3.40 GHz 3.41 GHz;16 GB內(nèi)存;Windows 10操作系統(tǒng);算法實現(xiàn)平臺為Visual Studio Code 1.57 x64;Python版本3.8.5.

      3.1 多峰函數(shù)非線性擬合

      在本節(jié)中,擬合一個多峰非線性函數(shù),以驗證梯度下降算法優(yōu)化參數(shù)的有效性.DBRBD-DNN的神經(jīng)網(wǎng)絡(luò)有5層,輸入層有5個神經(jīng)元,輸出層有5個神經(jīng)元,3個隱藏層各有20個神經(jīng)元.非線性函數(shù)公式如下.

      g(x)=e-(x-2)2+0.5e-(x+2)2(x∈[-5,5])

      (23)

      由式(23)分析可知,當(dāng)變量x取-2,0,2時為多峰函數(shù)的極值點,根據(jù)極值點可以設(shè)置規(guī)則結(jié)果屬性的評價等級和相應(yīng)的效用值.

      {D1,D2,D3,D4,D5}={-0.5,0,0.5,1.0,1.5}

      (24)

      選擇自變量x作為規(guī)則的前件屬性,選擇5個極值點作為前件屬性的參考值,分別為{-5,-2,0,2,5}.然后在0和1之間隨機初始化結(jié)果屬性的置信度,同時隨機初始化神經(jīng)網(wǎng)絡(luò)中的權(quán)重值和偏置值.

      接著,采用梯度下降算法對初始DBRB-DNN模型進行訓(xùn)練.通過在定義域上對自變量x均勻選擇1 000個值作為擬合數(shù)據(jù)集,學(xué)習(xí)率設(shè)置為0.001,每個批次使用64個樣本,訓(xùn)練次數(shù)分布設(shè)置500,1 000和1 500次進行3次實驗.訓(xùn)練后的DBRB-DNN的性能如圖3所示.可以看出,經(jīng)過訓(xùn)練的DBRB-DNN可以很好地擬合函數(shù)g(x).

      圖3 基于梯度下降的DBRB-DNN輸出結(jié)果Fig.3 Results of DBRB-DNN based on the gradient descent algorithm

      為更好地驗證本文所提出的基于梯度訓(xùn)練的DBRB-DNN方法,本實驗分別與文獻[7,9,15]中的方法進行比較,以均方誤差(MSE)和運行時間(s)為指標(biāo),文獻[7]的相關(guān)實驗在MATLAB R2020b中實現(xiàn).從表1可以看出,本文所提方法在1 000次迭代訓(xùn)練以后時間和精度上都最佳,而500次迭代訓(xùn)練雖然排名第二,但是在時間上仍遠高于其他文獻的方法.

      表1 函數(shù)擬合性能比較Tab.1 Comparison of function fitting performance

      3.2 北京市空氣質(zhì)量污染預(yù)測

      為進一步驗證本文提出的DBRB-DNN模型的性能,使用北京市空氣質(zhì)量數(shù)據(jù)集進行實驗,數(shù)據(jù)集總共含有43 824個樣本點.首先對數(shù)據(jù)集進行歸一化處理,接著使用五折交叉驗證來評估模型的性能.露水、風(fēng)向、風(fēng)速作為前件屬性,PM2.5的值作為結(jié)果屬性.其中每個屬性有3個參考值,神經(jīng)網(wǎng)絡(luò)有5層,輸入層神經(jīng)元有9個.輸出層神經(jīng)元有3個,3個隱藏層神經(jīng)元各有12個.學(xué)習(xí)率為0.001,每個批次使用128個樣本,并進行1 500次迭代訓(xùn)練.圖4展示了DBRB-DNN在測試集上PM2.5預(yù)測值與實際值的對比.其中橫坐標(biāo)為樣本點的數(shù)量,縱坐標(biāo)為PM2.5歸一化后的預(yù)測值.

      圖4 DBRB-DNN對PM2.5的預(yù)測值與實際值的比較Fig.4 Comparison of actual PM2.5 values and predicted PM2.5 values by DBRB-DNN

      從圖4中可以看出,經(jīng)過訓(xùn)練后的DBRB-DNN模型在測試數(shù)據(jù)集上具有較好的預(yù)測精度.為了更加直觀地驗證本文模型的性能,接下來還將與文獻[7]方法、LSTM神經(jīng)網(wǎng)絡(luò)以及DNN神經(jīng)網(wǎng)絡(luò)進行比較,其中LSTM和DNN模型的具體參數(shù)和設(shè)置參考文獻[7].取均方誤差和運行時間作為評價指標(biāo),比較結(jié)果列于表2.其中表2中的第一輪到第五輪表示五折交叉驗證中每一輪的MSE值,平均表示五折驗證以后MSE的平均值,平均運行時間指五折交叉驗證每一輪的平均運行時間,文獻[7]的運行時間為本文在MATLAB R2020b中實現(xiàn).

      從表2中可以明顯地看出,在五折交叉驗證中,DBRB-DNN每一輪的MSE值都優(yōu)于其他幾種方法,最終的平均MSE值為0.002 78也是最佳的.這一結(jié)果表明,本文所提出的方法優(yōu)于其他幾種模型,而在平均運行時間上,本文所提出的方法為753 s,也遠低于文獻[7]方法.

      表2 不同方法下MSE值比較和平均運行時間Tab.2 Comparison of MSE values under different methods and average running time

      3.3 公共分類數(shù)據(jù)集實驗研究

      研究選取7組UCI的公共分類數(shù)據(jù)集來驗證本文所提出的方法.實驗方法采取十折交叉驗證,取平均準確率作為比較指標(biāo).DBRB-DNN的屬性參考值個數(shù)統(tǒng)一設(shè)置為5個(即DBRB的規(guī)則數(shù)為5條),神經(jīng)網(wǎng)絡(luò)有5層,輸入層有5n個神經(jīng)元(n為每個數(shù)據(jù)集對應(yīng)的特征數(shù)),輸出層有5個神經(jīng)元,3個隱藏層各有20個神經(jīng)元,學(xué)習(xí)率為0.001,每個批次使用128個樣本,并進行1 500次迭代訓(xùn)練.7組數(shù)據(jù)集的詳細信息列于表3.

      表3 分類數(shù)據(jù)集的詳細信息Tab.3 Information of classification datasets

      表4列出了本文方法與其他改進的擴展置信規(guī)則庫(EBRB)方法的比較,指標(biāo)是分類的精度.由于EBRB根據(jù)訓(xùn)練集生成規(guī)則數(shù),所以EBRB的規(guī)則數(shù)等于訓(xùn)練集的樣本數(shù)遠大于DBRB的規(guī)則數(shù).本文方法在5個數(shù)據(jù)集上都達到了第一名,在另外2個數(shù)據(jù)集上也達到第二名.這一結(jié)果驗證了本文所提方法的有效性,同時也表明本文所提出的方法在分類數(shù)據(jù)集應(yīng)用上也具有較好的性能.

      表4 與其他EBRB方法的比較Tab.4 Compare with other EBRB improvement methods

      進一步將本文方法與其他傳統(tǒng)的機器學(xué)習(xí)方法進行比較,對比實驗結(jié)果為文獻[20-21]中的部分結(jié)果.表5列出了比較結(jié)果,指標(biāo)是分類的精度.結(jié)果表明,本文所提出的方法在大部分數(shù)據(jù)集上的精度都是排在第一名,表明本文所提出的方法具有良好的性能.

      表5 與其他機器學(xué)習(xí)方法的比較Tab.5 Comparison with other traditional machine learning methods

      4 結(jié)語

      針對BRB-DL模型參數(shù)優(yōu)化方法可移植性不足,應(yīng)用效率低等問題,提出DBRB-DNN模型,并引入梯度下降算法對DBRB-DNN模型進行參數(shù)訓(xùn)練;同時對模型中受約束的參數(shù)進行預(yù)處理,避免在應(yīng)用梯度下降算法時構(gòu)建困難和效率不高的問題.最后,將BRB-DNN模型應(yīng)用在分類問題上,擴展模型的應(yīng)用領(lǐng)域.本文算法是基于Python平臺實現(xiàn)的,可移植性更強.最后通過非線性函數(shù)的擬合實驗、北京空氣質(zhì)量預(yù)測以及UCI上多個公共數(shù)據(jù)集的分類實驗,驗證所提出方法的有效性.不過本研究所選用的神經(jīng)網(wǎng)絡(luò)模型比較基礎(chǔ)以及所有實驗都是在規(guī)則完整的情況下進行的,沒有考慮到規(guī)則不完整的情況應(yīng)該怎么處理,今后將針對這一問題進行更加深入的研究.

      猜你喜歡
      梯度神經(jīng)元權(quán)重
      《從光子到神經(jīng)元》書評
      自然雜志(2021年6期)2021-12-23 08:24:46
      一個改進的WYL型三項共軛梯度法
      權(quán)重常思“浮名輕”
      一種自適應(yīng)Dai-Liao共軛梯度法
      一類扭積形式的梯度近Ricci孤立子
      為黨督政勤履職 代民行權(quán)重擔(dān)當(dāng)
      躍動的神經(jīng)元——波蘭Brain Embassy聯(lián)合辦公
      基于公約式權(quán)重的截短線性分組碼盲識別方法
      基于二次型單神經(jīng)元PID的MPPT控制
      毫米波導(dǎo)引頭預(yù)定回路改進單神經(jīng)元控制
      墨竹工卡县| 武城县| 长顺县| 错那县| 榆中县| 阿城市| 澜沧| 宣武区| 黔东| 彭水| 北票市| 东兰县| 卢氏县| 深水埗区| 鹤庆县| 平南县| 福安市| 建阳市| 龙口市| 叙永县| 定州市| 定襄县| 内黄县| 孙吴县| 定远县| 宜兰市| 遂昌县| 莫力| 黄梅县| 天长市| 托里县| 西乌珠穆沁旗| 沛县| 望谟县| 冷水江市| 额尔古纳市| 敖汉旗| 北票市| 文化| 元朗区| 河东区|