• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于Shapelets的多變量D-S證據(jù)加權(quán)集成分類

      2021-04-22 09:19:12宋奎勇王念濱王紅濱
      關(guān)鍵詞:集上分類器準(zhǔn)確率

      宋奎勇, 王念濱, 王紅濱

      (1. 哈爾濱工程大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院, 哈爾濱 150000; 2. 呼倫貝爾職業(yè)技術(shù)學(xué)院 信息工程系, 內(nèi)蒙古 呼倫貝爾 021000)

      0 引 言

      多變量時(shí)間序列在工業(yè)、 醫(yī)療、 金融諸多領(lǐng)域廣泛存在, 如醫(yī)療中檢測(cè)病人心跳、 血壓、 脈搏數(shù)據(jù); 機(jī)械振動(dòng)中不同位置傳感器檢測(cè)齒輪故障數(shù)據(jù)。一些與時(shí)間相關(guān)的數(shù)據(jù)如基因、圖像也可通過(guò)數(shù)據(jù)變換成為時(shí)間序列。通常, 相較于單變量時(shí)間序列, 分類多變量時(shí)間序列會(huì)更復(fù)雜[1]。

      在當(dāng)前研究中, 多變量時(shí)間序列分類包括基于距離的、 基于特征的和基于集成學(xué)習(xí)的方法[1]?;诰嚯x的方法考慮到同類之間距離較近而不同類之間距離較遠(yuǎn), 常用的距離度量有歐氏距離、 馬氏距離[2]、 動(dòng)態(tài)時(shí)間彎曲(DTW: Dynamic Time Warping)距離[3]。DTW方法不但在單變量分類中有很好的效果, 在多變量分類中也有不錯(cuò)的表現(xiàn)[4]。Shapelets[5-8]和深度學(xué)習(xí)[9-11]是當(dāng)前基于特征多變量分類主流方法。Shapelets是通過(guò)學(xué)習(xí)得到的時(shí)間序列子序列, 此方法可解釋強(qiáng)、 準(zhǔn)確度較高, 但是, 生成Shapelets的時(shí)間復(fù)雜度較高。近年來(lái), 深度學(xué)習(xí)方法如卷積神經(jīng)網(wǎng)絡(luò)(CNN: Convolutional Neural Network)[12]、 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN: Recurrent Neural Network)[10]及長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM: Long Short Term Memory)[11]在多變量分類中得到關(guān)注, 這些方法通過(guò)構(gòu)建深度模型提取深度特征融合分類, 分類準(zhǔn)確度較高, 但是, 與其他深度學(xué)習(xí)方法一樣可解釋性不強(qiáng)?;诩蓪W(xué)習(xí)方法[13-14]可以融合不同分類方法的優(yōu)點(diǎn), 取長(zhǎng)補(bǔ)短, 能取得較高的分類結(jié)果, 然而選擇適合的集成方法是一個(gè)挑戰(zhàn)。

      集成學(xué)習(xí)通過(guò)組合多個(gè)基分類器為一個(gè)強(qiáng)分類器, 可以獲得比單一基分類器優(yōu)越的泛化性能。集成學(xué)習(xí)方法可分成兩大類: 一類是基分類器間存在強(qiáng)依賴關(guān)系, 必須串行生成的序列化方法, 如Boosting[15]; 另一類是基分類器間不存在依賴關(guān)系, 可同時(shí)生成的并行化方法, 如Bagging[16]和Random Forest[17]。筆者提出基于Shapelets的多變量D-S證據(jù)加權(quán)集成分類方法。首先, 使用Shapelets作為基分類器, 基分類器間不存在依賴關(guān)系, 且單個(gè)Shapelets分類準(zhǔn)確度較高, 能得到“好而不同”的基分類器, 類似于Bagging方法策略; 其次, 使用D-S證據(jù)加權(quán)集成基分類器。不同基分類器性能不同, 使用基分類器分類準(zhǔn)確率對(duì)基分類器加權(quán), 基分類器分類準(zhǔn)確率越高, 則在集成時(shí)所占權(quán)重越大, 如此集成分類器必然越準(zhǔn)確。D-S證據(jù)理論集成能給出合理的結(jié)果, 并且為了減少證據(jù)沖突, 對(duì)證據(jù)施加限制側(cè)率。最后, 與經(jīng)典DTW及最新的深度學(xué)習(xí)、 集成學(xué)習(xí)方法進(jìn)行了比對(duì), 取得了較好的結(jié)果。

      1 背景知識(shí)

      1.1 Shapelets

      單變量時(shí)間序列T={t1,t2,…,tn},T的長(zhǎng)度為n,T對(duì)應(yīng)類標(biāo)簽為c,c∈C。若T兩個(gè)等長(zhǎng)為l時(shí)間子序列s、r, 且l

      (1)

      定義1 給定長(zhǎng)度為l的序列s及長(zhǎng)度為n的序列T, 且l

      (2)

      定義2 一個(gè)Shapelets定義為f=(s,l,δ,c),s是長(zhǎng)度為l的子序列,δ是分裂閾值,c是類標(biāo)簽, 這里有

      ?(T,c)∈D?ddist(s,T)≤δ

      (3)

      在圖1中T為單變量時(shí)間序列,S為Shapelets, 最佳匹配位置為30, Shapelets的長(zhǎng)度為20。

      圖1 時(shí)間序列Shapelets示例Fig.1 Time series shapelets Example

      1.2 D-S證據(jù)理論

      D-S證據(jù)理論[18]是經(jīng)典概率論的推廣, 能滿足比貝葉斯理論更弱的條件, 具有直接表達(dá)“不確定”和“不知道”的能力。D-S證據(jù)理論用辨識(shí)框架Θ表示樣本空間, 它是一個(gè)有限集合, 集合中元素互不相容且構(gòu)成完備性。Θ的冪集表示為2Θ, 冪集是Θ所有子集的集合。

      定義4 設(shè)函數(shù)fBel: 2Θ→[0,1], 且滿足

      (4)

      則fBel稱為A的信任函數(shù), 它表示證據(jù)對(duì)A為信任程度。

      定義5 設(shè)函數(shù)pl: 2Θ→[0,1], 且滿足

      pl(A)=1-fBel(A), ?A?Θ

      (5)

      pl稱為似然函數(shù), 它表示對(duì)A為非假的信任程度, 而fBel(A)是對(duì)A為假的信任程度, 即對(duì)A的懷疑程度, 如圖2所示。

      圖2 信息的不確定性Fig.2 Uncertainty of information

      由于fBel(A)表示對(duì)A為真的信任程度, PI(A)表示對(duì)A為非假的信任程度, 而且PI(A)≥fBel(A), 稱fBel(A)和PI(A)分別為對(duì)A信任度的下限和上限, 記為[PI(A),fBel(A)], 其表示了對(duì)A的不確定區(qū)間。

      定義6 設(shè)m為基本概率賦值函數(shù), 如果m(A)>0, 則稱A為Bel的焦元; 信任函數(shù)fBel的所有焦元聯(lián)合稱為核。

      (6)

      設(shè)fBel1,fBel2,…,fBeln是同一識(shí)別框架Θ上信任函數(shù),m1,m2,…,mn是其對(duì)應(yīng)的基本概率分配函數(shù), 若m為m1,m2,…,mn的合成概率分配函數(shù), 則有

      (7)

      2 基于Shapelets多變量D-S理論加權(quán)集成分類

      若m變量時(shí)序數(shù)據(jù)集T由Ti組成,Ti=[T1,T2,…,Tm],i∈[1,k], 其中Tj為第j個(gè)維數(shù)為n的單變量數(shù)據(jù)。為在單變量上學(xué)習(xí)基分類器, 首先把多變量數(shù)據(jù)重新劃分為m組單變量數(shù)據(jù),m變量數(shù)據(jù)集T共k個(gè), 從每個(gè)多變量Ti中抽出單變量數(shù)據(jù), 重新組成一個(gè)單變量數(shù)據(jù)集。 如抽出T1組成新的單變量數(shù)據(jù)集T11,T12,…,T1k。這樣, 就把一個(gè)多變量數(shù)據(jù)集劃分成m個(gè)單變量數(shù)據(jù)集, 然后, 可以在訓(xùn)練集上學(xué)習(xí)Shapelets并計(jì)算器分類準(zhǔn)確率。

      2.1 學(xué)習(xí)Shapelets并計(jì)算權(quán)重

      Shapelets[5]是一組時(shí)間序列的子序列, 在本文中, 把Shapelets作為一個(gè)基分類器, 則m變量時(shí)間序列數(shù)據(jù)對(duì)應(yīng)m個(gè)基分類器。為了在單變量上學(xué)習(xí)Shapelets并確定最優(yōu)閾值, 引入文獻(xiàn)[5]中基于最大熵方法確定最優(yōu)分裂閾值, 熵計(jì)算公式如下

      (8)

      其中mc是c類數(shù)據(jù)的數(shù)量,M是所有時(shí)間序列的數(shù)量。為了獲得基分類器Shapelets, 計(jì)算所有候選Shapelets最優(yōu)分裂閾值, 并把數(shù)據(jù)集分成DL和DR兩部分。若數(shù)據(jù)集DL和DR的熵為EL和ER, 則

      (9)

      在所有候選Shapelets中, 得到最大的IIG為Shapelets, 也就是基分類器。如圖3所示, 對(duì)二分類數(shù)據(jù)進(jìn)行分類, 在數(shù)軸上實(shí)圓為一類, 方塊為一類, 中間帶箭頭的豎線位置為最優(yōu)分裂點(diǎn), 在二分類中最優(yōu)分裂點(diǎn)把數(shù)軸分成兩部分。

      圖3 最優(yōu)分裂閾值Fig.3 Optimal split threshold

      從圖3可知, 最優(yōu)分裂點(diǎn)實(shí)圓點(diǎn)一邊出現(xiàn)了方塊, 在右側(cè)方塊一邊出現(xiàn)了實(shí)圓點(diǎn), 這表示為錯(cuò)誤的分類。則Shapelets分類準(zhǔn)確率可計(jì)算為

      (10)

      其中fz為正確的分類數(shù)量,ftotal為分類數(shù)據(jù)總數(shù)。圖3給出的是二分類問(wèn)題, 若是n分類, 則會(huì)選出n-1個(gè)Shapelets及對(duì)應(yīng)的閾值, 現(xiàn)以三分類為例展示多類分類策略。如圖4所示, Ⅰ和Ⅱ是一組Shapelets, Ⅰ和Ⅱ的Shapelets和閾值在圖4上部。Ⅰ按照閾值σ1把數(shù)據(jù)集分成兩部分, 距離小于σ1的被分在A類, 距離大于σ1的被Ⅱ繼續(xù)劃分, 距離小于σ2的劃到B類, 距離大于σ2的劃到C類。若多于三分類問(wèn)題, 則與三分類相似。

      圖4 Shapelets多分類劃分策略Fig.4 Shapelets multi-classification partion strategy

      多分類準(zhǔn)確率計(jì)算方法與二分類類似, 模型分類準(zhǔn)確率等于正確分類數(shù)量除以總數(shù)量?;诸惼鞣诸悳?zhǔn)確率反映基分類器的優(yōu)劣, 在多變量m個(gè)基分類器中, 準(zhǔn)確率越高的基分類器在強(qiáng)分類器中所占權(quán)重越大。

      2.2 D-S證據(jù)理論加權(quán)組合策略

      在集成學(xué)習(xí)中, 要得到泛化性能強(qiáng)的集成, 集成學(xué)習(xí)中的個(gè)體分類器應(yīng)盡可能相互獨(dú)立, 在本文中, Shapelets對(duì)應(yīng)一個(gè)單變量的子序列, 多變量Shapelets相互之間獨(dú)立, 這為集成學(xué)習(xí)提供了條件。筆者提出使用D-S證據(jù)理論組合基本概率指派BPA(Basic Probability Assignment), 并在計(jì)算BPA時(shí)對(duì)基分類器加權(quán), 最后在Dempster組合中提出解決證據(jù)沖突的策略。

      2.2.1 BPA的生成方法

      基本概率指派BPA是證據(jù)理論在實(shí)際應(yīng)用中的關(guān)鍵問(wèn)題, BPA直接影響到D-S證據(jù)組合的結(jié)果[19-21]。筆者依據(jù)Shapelets決策樹結(jié)構(gòu), 提出一種加權(quán)BPA生成方法, 如圖5所示。

      在圖5中, 有3個(gè)從訓(xùn)練集中學(xué)習(xí)到的Shapelets基分類器, 權(quán)重分別是70%、 90%、 50%?,F(xiàn)有一測(cè)試數(shù)據(jù), 已知此數(shù)據(jù)類別為A。經(jīng)3個(gè)分類器分類后, 其BPA如圖5a所示。經(jīng)D-S合成預(yù)測(cè)結(jié)果為B, 如圖5b所示。分析預(yù)測(cè)錯(cuò)誤原因, 由于分類器3對(duì)B預(yù)測(cè)較高, 直接影響了預(yù)測(cè)的結(jié)果, 而分類器3的準(zhǔn)確率只有50%。由此筆者給分類器加權(quán), 權(quán)重就是分類器的分類準(zhǔn)確率。經(jīng)過(guò)加權(quán)后, BPA如圖5c所示。加權(quán)后降低了分類器3對(duì)結(jié)果的影響, 經(jīng)計(jì)算得到分類結(jié)果為A。

      若分類器權(quán)重為g, 加權(quán)前bBPA為bBPAb, 則加權(quán)后的概率指派bBPAa為

      bBPAa=g*bBPAb

      (11)

      2.2.2 證據(jù)組合沖突解決方法

      在D-S證據(jù)理論中, 存在證據(jù)沖突的問(wèn)題[22], 融合高度沖突的證據(jù)會(huì)導(dǎo)致兩個(gè)結(jié)果: 一個(gè)是產(chǎn)生不合理與直覺(jué)相悖的結(jié)果, 如Zadeh悖論[23]; 二是融合后的結(jié)果合理, 但不利于決策。為得到較好的融合結(jié)果, 筆者設(shè)定兩個(gè)規(guī)則:

      1) 選取部分分類準(zhǔn)確率高的基分類器進(jìn)行Dempster組合, 如分類準(zhǔn)確率低于50%的基分類器舍棄;

      2) 基分類器Shapelets在BPA生成時(shí), 若類別較多, 則舍棄部分權(quán)重較小的BPA, 用不確定θ代替, 從而提高計(jì)算效率, 同時(shí)也符合D-S證據(jù)理論的基本思想。

      以圖6為例, 若此數(shù)據(jù)集為4變量。基分類器的準(zhǔn)確率分別為80%,90%,70%,40%, 經(jīng)過(guò)規(guī)則1)篩選, 舍棄第4個(gè)基分類器。前3個(gè)基本概率指派函數(shù)為

      m1=(A,B,C,D,E)=(0.640,0.180,0.090,0.045,0.045)

      m2=(A,B,C,D,E)=(0.810,0.095, 0.048,0.024,0.024)

      m3=(A,B,C,D,E)=(0.490,0.255,0.127,0.064,0.064)

      設(shè)定權(quán)重低于0.1的類別被合并成θ, 經(jīng)過(guò)規(guī)則2)過(guò)濾后,θ取代了D,E

      m1=(A,B,C,θ)=(0.640,0.180,0.090,0.090)

      m2=(A,B,C,θ)=(0.810,0.095,0.048,0.048)

      m3=(A,B,C,θ)=(0.490,0.255,0.127,0.127)

      使用Dempster組合規(guī)則式(7)計(jì)算得到

      m=m1⊕m2⊕m3=(0.97,0.015,0.007 5,0.007 5)

      m(A)=0.97, 最后數(shù)據(jù)預(yù)測(cè)為A, 得到正確結(jié)果。多個(gè)基分類器的組合具有如下優(yōu)點(diǎn)[12]: 1) 能提高泛化能力; 2) 可降低陷入局部極小點(diǎn)的風(fēng)險(xiǎn); 3) 擴(kuò)大假設(shè)空間, 得到更好的結(jié)果。

      2.3 時(shí)間復(fù)雜度分析

      在筆者算法中, 由于使用了基于信息增益的Shapelets生成方法, 使用brute-force算法判斷大量的子序列時(shí)間復(fù)雜度為O(n2m4), 其中n為訓(xùn)練集中時(shí)序數(shù)據(jù)數(shù)量,m是一條時(shí)序數(shù)據(jù)的長(zhǎng)度。基于最小距離的提前終止策略和基于信息增益的熵剪枝策略被使用[5]。與生成Shapelets的時(shí)間復(fù)雜度相比, 計(jì)算Shapelets分類準(zhǔn)確率及BPA的生成及Dempster組合的時(shí)間在O(n)的時(shí)間內(nèi)即可完成, 所以這部分時(shí)間可忽略不計(jì)。

      3 實(shí)驗(yàn)驗(yàn)證與結(jié)果分析

      筆者使用JAVA語(yǔ)言在開源Weka框架內(nèi)實(shí)現(xiàn)了算法。遵循文獻(xiàn)[8]中實(shí)驗(yàn)方法, 對(duì)數(shù)據(jù)進(jìn)行100倍重采樣, 對(duì)每種算法進(jìn)行了多次試驗(yàn), 試驗(yàn)結(jié)果取多次試驗(yàn)平均值, 并與其他算法的結(jié)果進(jìn)行比對(duì)。

      3.1 實(shí)驗(yàn)數(shù)據(jù)集

      從UEA-UCR[24]中選取部分多變量時(shí)間序列數(shù)據(jù), 如表1所示, 共21個(gè)等長(zhǎng)序列, 包括序列名稱、 訓(xùn)練集數(shù)量、 測(cè)試集數(shù)量、 每個(gè)多變量包含單變量的序列數(shù)量、 序列的長(zhǎng)度以及類別數(shù)量。這些數(shù)據(jù)集以ARFF格式存儲(chǔ), 并在Weka[25]中打開。

      表1 實(shí)驗(yàn)數(shù)據(jù)集Tab.1 Experimental dataset

      人類活動(dòng)識(shí)別是基于加速度計(jì)數(shù)據(jù)或陀螺儀數(shù)據(jù)預(yù)測(cè)類別的問(wèn)題, 數(shù)據(jù)是三維或六維坐標(biāo)。BasicMotion是HAR中的一個(gè), 該數(shù)據(jù)是學(xué)生戴著智能手表進(jìn)行4類運(yùn)動(dòng)收集的3D加速度計(jì)和3D陀螺儀數(shù)據(jù), 4類活動(dòng)分別是站立、 行走、 跑步和打羽毛球。 要求參與者記錄運(yùn)動(dòng)共5次, 并以10 Hz的頻率采樣數(shù)據(jù)10 s。筆者選取了BasicMotion一個(gè)實(shí)例進(jìn)行了展示, 共4類運(yùn)動(dòng), 每類包括三維數(shù)據(jù)X,Y,Z, 例如WalkingX,WalkingY,WalkingZ,加速度計(jì)數(shù)據(jù)如圖6所示。陀螺儀數(shù)據(jù)如圖7所示。

      圖6 BasicMotion加速度計(jì)數(shù)據(jù)序列圖Fig.6 Sequence diagram of BasicMotion accelerometer data

      圖7 BasicMotion陀螺儀數(shù)據(jù)序列圖Fig.7 Sequence diagram of BasicMotion cyro data

      3.2 比對(duì)方法及分類準(zhǔn)確率對(duì)比

      筆者選取了5種不同類型方法進(jìn)行對(duì)比, 包括DTW、 gRSF(generalized Random Shapelet Forest)、 MLCN(Multivariate LSTM-FCNs)、 MUSE(Multivariate Unsupervised Symbols and dErivatives)和HIVE-COTE(Hierarchical Vote Collective of Transformation-based Ensembles)。DTW應(yīng)用到多變量中演化出兩種方法: DTWD是多變量依賴方法; DTWI是多變量獨(dú)立方法。若給定二維多變量序列Q和C, 則DTWD(Q,C)=DTW(QX,QY,CX,CY), DTWI(Q,C)=DTW(QX,CX)+DTW(QY,CY)。gRFS[26]是基于Shapelets廣義隨機(jī)森林算法, 該算法生成一組基于Shapelets的決策樹, 其中用于構(gòu)建樹的實(shí)例的選擇和Shapelet的選擇都是隨機(jī)的。MLCN[11]是基于LSTM神經(jīng)網(wǎng)絡(luò)方法, 該方法把注意力模型引入到多變量分類中。MUSE[13]是一種無(wú)監(jiān)督符號(hào)表示與演化方法, 它首先使用滑動(dòng)窗口方法構(gòu)建多元特征向量, 然后按窗口和維度提取離散特征, 通過(guò)特征選擇去除非歧視性特征, 并由機(jī)器學(xué)習(xí)分類器進(jìn)行分析。HIVE_COTE[14]使用概率投票分層結(jié)構(gòu)集成5個(gè)基分類器, 從而顯著改善了集成結(jié)果。這5種不同類型的算法代表多變量分類最新的研究成果, 在不同的數(shù)據(jù)集上取得了較高的結(jié)果。為了驗(yàn)證筆者算法, 與這5種算法在21個(gè)數(shù)據(jù)集上對(duì)比實(shí)驗(yàn), 實(shí)驗(yàn)結(jié)果如表2所示。

      從表2中數(shù)據(jù)對(duì)比可以看出, 筆者算法在11個(gè)數(shù)據(jù)集上取得優(yōu)勢(shì), 其中在BasicMotions和Epilepsy上與其他幾個(gè)算法都取得了100%的正確率。HIVE_COTE在FaceDetection和EthanolConcentration上取得領(lǐng)先, 并且整體表現(xiàn)優(yōu)異, 在大部分?jǐn)?shù)據(jù)集上排在前列。DTWD算法好于DTWI, 并且在Handwriting和PenDigits上取得領(lǐng)先。MLCN整體表現(xiàn)一般, 深度學(xué)習(xí)方法有待進(jìn)一步提高。MUSE方法在3個(gè)數(shù)據(jù)集上取得領(lǐng)先, 整體表現(xiàn)好于其他算法。

      表2 不同方法試驗(yàn)對(duì)比Tab.2 Test comparison of different methods

      3.3 關(guān)鍵差異對(duì)比

      對(duì)分類問(wèn)題, 分類準(zhǔn)確率是很好的衡量不同算法優(yōu)劣的標(biāo)準(zhǔn), 但有的算法在一些數(shù)據(jù)集上表現(xiàn)好, 在另一些數(shù)據(jù)集上表現(xiàn)不好。為了進(jìn)一步對(duì)比算法在所有數(shù)據(jù)集上的優(yōu)劣, 采用機(jī)器學(xué)習(xí)領(lǐng)域廣泛使用Friedman測(cè)試作為評(píng)價(jià)算法性能的標(biāo)準(zhǔn), Friedman測(cè)試把所有算法在每個(gè)數(shù)據(jù)集上的分類準(zhǔn)確率進(jìn)行標(biāo)記排名, 如排名“1”,“2”一直到N, 這樣M個(gè)算法在N個(gè)數(shù)據(jù)集上的排名組成N×M矩陣。然后計(jì)算每個(gè)算法的平均標(biāo)記值

      (12)

      其中hij表示第i個(gè)算法在第j個(gè)數(shù)據(jù)集的標(biāo)記值。當(dāng)M和N足夠大時(shí)(M>5,N>10), 使用Friedman統(tǒng)計(jì)量

      (13)

      可以使用具有M-1個(gè)自由度的卡方分布近似。這樣不同算法的性能差異可以通過(guò)包含平均次序和無(wú)明顯差異算法組的關(guān)鍵差異圖[27](Critical Difference Diagram)表示。在21個(gè)數(shù)據(jù)集上采用100倍重采樣關(guān)鍵差異圖, 結(jié)果如圖8所示。

      圖8中粗橫線表示這幾個(gè)算法屬于同一集團(tuán), 集團(tuán)內(nèi)算法效率差異不大。這些橫線是通過(guò)Wilcoxon有符號(hào)秩檢驗(yàn)和Holm校正測(cè)試得到??梢钥闯? 筆者算法、 MUSE和HIVE-COTE屬于第1集團(tuán), 第2集團(tuán)包括HIVE-COTE、 gRSF和MFCN, 第3集團(tuán)包括gRSF、 MFCN、 DTWD和DTWI。

      從表2和圖8中可以得到如下結(jié)果: 經(jīng)典的DTW算法在個(gè)別數(shù)據(jù)集上表現(xiàn)不錯(cuò), 但整體上不如最新的幾個(gè)算法; 深度學(xué)習(xí)算法MFCN并沒(méi)有表現(xiàn)出優(yōu)勢(shì), 雖然它在圖像識(shí)別等方面表現(xiàn)優(yōu)異; MUSE和HIVE-COTE整體表現(xiàn)優(yōu)秀, 但是, MUSE會(huì)帶來(lái)巨大的內(nèi)存開銷, 并且隨著問(wèn)題規(guī)模的增加而急劇增加。在本次試驗(yàn)的21個(gè)數(shù)據(jù)集上, 其內(nèi)存使用為26 GByte[4]。而HIVE-COTE在分類準(zhǔn)確率上不如MUSE; 筆者算法在準(zhǔn)確率上取得一定的優(yōu)勢(shì), 并且由于使用了減少?zèng)_突策略, 使集成花銷不大, 整體上資源花銷適中。

      圖8 關(guān)鍵差異圖Fig.8 Differentiated graph analysis

      4 結(jié) 語(yǔ)

      當(dāng)前, 多源傳感器用于檢測(cè)、 控制等方面, 這些傳感器產(chǎn)生大量多變量時(shí)間序列數(shù)據(jù)。充分利用這些數(shù)據(jù)有著巨大價(jià)值。筆者提出一種基于Shapelets的多變量D-S證據(jù)加權(quán)集成分類方法。對(duì)基分類器Shapelets加權(quán), 增加分類準(zhǔn)確率高的基分類器權(quán)重, 減少分類準(zhǔn)確率低的基分類器權(quán)重, 得到了更準(zhǔn)確的結(jié)果。近年來(lái), 深度學(xué)習(xí)、 集成學(xué)習(xí)在多變量分類中得到更多的關(guān)注, 在以后的工作中, 把深度學(xué)習(xí)和集成學(xué)習(xí)應(yīng)用于多變量分類、 多源數(shù)據(jù)融合中。

      猜你喜歡
      集上分類器準(zhǔn)確率
      乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
      健康之家(2021年19期)2021-05-23 11:17:39
      不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
      2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
      Cookie-Cutter集上的Gibbs測(cè)度
      鏈完備偏序集上廣義向量均衡問(wèn)題解映射的保序性
      高速公路車牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
      BP-GA光照分類器在車道線識(shí)別中的應(yīng)用
      復(fù)扇形指標(biāo)集上的分布混沌
      加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
      結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
      环江| 盐城市| 蕲春县| 青河县| 茂名市| 枝江市| 襄城县| 胶南市| 桐庐县| 枣阳市| 兴山县| 东明县| 休宁县| 平度市| 鹤岗市| 宿迁市| 中方县| 古交市| 福建省| 米林县| 扶沟县| 陆丰市| 天台县| 汤阴县| 海原县| 垣曲县| 韶关市| 黄大仙区| 康保县| 左贡县| 三都| 萝北县| 郁南县| 黎平县| 冀州市| 天等县| 龙海市| 诸暨市| 项城市| 波密县| 刚察县|