劉仲民,侯坤福,高敬更,王治國
(1. 蘭州理工大學(xué)電氣工程與信息工程學(xué)院,蘭州市 730050;2. 國網(wǎng)甘肅省電力公司營銷服務(wù)中心,蘭州市 730300)
非侵入式負(fù)荷監(jiān)測技術(shù)(non-intrusive load monitoring,NILM)也稱為負(fù)荷分解(load disaggregation),可將用戶總負(fù)荷信息分解為各用電設(shè)備信息[1]。通過分析用電設(shè)備能耗情況與用戶用電規(guī)律等用電信息,可為用戶提供用能狀況分析、用能方案優(yōu)化等多種服務(wù),從而實現(xiàn)用戶內(nèi)部用能行為的間接管理,對提高用能效率、節(jié)省電能資源具有重要的意義[2]。此外,利用非侵入式負(fù)荷分解技術(shù)得到的用戶用電信息對于精細(xì)配電工作[3]、分時電價服務(wù)[4]、異常用電行為監(jiān)測[5]等任務(wù)具有一定的數(shù)據(jù)參考價值。
非侵入式負(fù)荷分解由G. W. Hart教授在20世紀(jì)80年代提出[6]。主流方法是利用隱馬爾可夫模型進(jìn)行研究[7-9],該類方法包括模型學(xué)習(xí)和解碼2個階段,在學(xué)習(xí)階段根據(jù)訓(xùn)練數(shù)據(jù)估計模型參數(shù),使得在該模型下觀測序列概率最大;解碼階段根據(jù)已估計得到的模型及輸入的觀測序列,求取給定觀測序列條件概率最大的狀態(tài)序列。由于設(shè)備數(shù)量及各設(shè)備狀態(tài)數(shù)目的不斷增加,模型所須處理的狀態(tài)數(shù)量及運算量呈指數(shù)級增加,因此模型計算復(fù)雜度大大增加[10]。近年的研究表明,非侵入式負(fù)荷分解問題又可以看做是單通道盲源分離問題,為此英國學(xué)者Kelly在2015年首次將神經(jīng)網(wǎng)絡(luò)模型用于解決非侵入式負(fù)荷分解問題[11]。該模型將輸入序列(主表功率序列)通過神經(jīng)網(wǎng)絡(luò)強大的非線性映射學(xué)習(xí)能力映射到輸出序列(設(shè)備功率序列),取得了較高的負(fù)荷分解精度。相比隱馬爾可夫模型,神經(jīng)網(wǎng)絡(luò)模型計算更為簡單,但模型訓(xùn)練效率較低,并且輸出序列中的元素被多次預(yù)測,邊緣將被平滑,也一定程度上影響了分解精度。文獻(xiàn)[12]在前人的工作基礎(chǔ)上,提出了序列到點(sequence-to-point,Seq2point)的學(xué)習(xí)方式,該方法利用了神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)輸入序列和輸出點的映射關(guān)系,雖然一定程度上提高了分解精度,但仍存在網(wǎng)絡(luò)模型訓(xùn)練效率低、分解精度不夠的問題。
基于上述分析,本文提出一種基于Seq2point的改進(jìn)非侵入式負(fù)荷分解方法。首先,利用Nilmtk工具包對公開數(shù)據(jù)集進(jìn)行預(yù)處理,并利用滑動窗口方法(窗口長度由對比實驗對比得出)生成訓(xùn)練數(shù)據(jù),采用零均值歸一化完成訓(xùn)練數(shù)據(jù)歸一化。然后,考慮卷積運算并行處理數(shù)據(jù)更高效的優(yōu)勢[13],針對用電設(shè)備的運行特點,采用時間卷積神經(jīng)網(wǎng)絡(luò)(temporal convolutional neural network,TCN)架構(gòu)[14]搭建網(wǎng)絡(luò)。不同于普通卷積的Seq2point方法,帶膨脹系數(shù)的因果卷積可以擴(kuò)大卷積核感受野,可提取更為豐富的特征;同時引入權(quán)重歸一化技術(shù)進(jìn)一步提升網(wǎng)絡(luò)訓(xùn)練效率。最后,將生成的訓(xùn)練數(shù)據(jù)用于訓(xùn)練改進(jìn)后的人工神經(jīng)網(wǎng)絡(luò)得到負(fù)荷分解模型。實驗結(jié)果表明,本文提出的非侵入式負(fù)荷分解方法在提高負(fù)荷分解精度的同時,能進(jìn)一步減少網(wǎng)絡(luò)訓(xùn)練的時間。
負(fù)荷分解是指從入戶智能電表信息恢復(fù)出單個用電設(shè)備功率信息的過程。一般情況下,可以通過智能電表獲得用戶一段時間內(nèi)總的用電信息,如有功功率、視在功率等,但無法獲得單個用電設(shè)備的用電信息。設(shè)某住戶某段時間T內(nèi)的主表功率序列Y與單個用電設(shè)備用電序列Xe分別為:
Y=(y1,y2,y3,…,yt),t∈T
(1)
Xe=(xe1,xe2,xe3,…,xet),e∈N,t∈T
(2)
式中:yt為t時刻的主表功率值;xet為用電設(shè)備e在t時刻的功率值。
非侵入式負(fù)荷分解在算法層面構(gòu)建分解模型,從主表功率序列Y中分解出單個用電設(shè)備的功率序列Xe,目前主要的研究集中于提高負(fù)荷分解的精度和獲得較高的分解速率。
基于時間卷積神經(jīng)網(wǎng)絡(luò)的非侵入式負(fù)荷分解流程如圖1所示。整個過程分為模型訓(xùn)練和調(diào)用模型進(jìn)行負(fù)荷分解。
圖1 基于時間卷積神經(jīng)網(wǎng)絡(luò)的負(fù)荷分解流程Fig.1 The process of NILM based on temporal convolutional neural network
在模型訓(xùn)練階段:首先利用公開數(shù)據(jù)集制作訓(xùn)練樣本,主表功率作為特征數(shù)據(jù),用電設(shè)備功率作為標(biāo)簽,將處理完成的數(shù)據(jù)用于時間卷積神經(jīng)網(wǎng)絡(luò)的有監(jiān)督訓(xùn)練,并保存多次迭代訓(xùn)練后的模型。
在負(fù)荷分解階段:將待分解的主表功率序列經(jīng)數(shù)據(jù)處理后送入訓(xùn)練得到的模型并輸出預(yù)測值,經(jīng)反歸一化后得到最終的設(shè)備功率值。對于不同的用電設(shè)備,本文分別構(gòu)建神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,但神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)完全相同,不同之處在于用電設(shè)備間訓(xùn)練數(shù)據(jù)本身各不相同。
為提取更加豐富的特征,本文改進(jìn)了Seq2point特征提取器的設(shè)計,采用擴(kuò)張因果卷積構(gòu)建特征提取器,具有適應(yīng)時間序列預(yù)測規(guī)律及感受野更廣大的優(yōu)點。
Seq2point采用的普通卷積與本文所提擴(kuò)張因果卷積的感受野對比如圖2所示。從圖2可以看到,同樣卷積核大小為3時,普通卷積第3層的卷積提取的特征僅與輸入序列的7個時刻相關(guān),且引入了未來時刻信息去預(yù)測當(dāng)前時刻信息,所能提取到的特征極為有限,且不符合時間序列預(yù)測規(guī)律,因此有必要對特征提取器進(jìn)行改進(jìn)。
圖2 普通卷積與擴(kuò)張因果卷積感受野對比Fig.2 Comparison of the receptive field between ordinary convolution and dilated causal convolution
擴(kuò)張因果卷積相對于普通卷積有兩點不同,由于這種不同才使得擴(kuò)張因果卷積在時間序列問題上表現(xiàn)更好。
首先,因果卷積t時刻的輸出只與t時刻以及前幾個時刻的輸入信息相關(guān),嚴(yán)格遵守時間先后順序,這意味著在時間卷積神經(jīng)網(wǎng)絡(luò)中不會摻雜當(dāng)前時刻之后的任意信息,確保未來時刻信息不會向待預(yù)測的當(dāng)前時刻點泄露。已知主表功率序列為式(1),則序列中任意時刻點t的因果卷積F(t)被定義為:
(3)
式中:f代表卷積核;k為卷積核尺寸;i代表卷積核中的元素;t為主表功率序列中的第t個時刻;Y[t-i]為與卷積核做運算的主表功率值。
實際應(yīng)用中,當(dāng)前時刻用電設(shè)備的運行狀態(tài)大致會跟前一個或幾個時刻的運行狀態(tài)相關(guān)。以冰箱為例,冰箱運行特性如圖3所示,冰箱的壓縮機在啟動時會具有較大的沖擊電流,該時刻的功率會瞬間增加,然后是較為平穩(wěn)的運行階段,在工作一段時間后,壓縮機停止運行,一段時間后,壓縮機重新啟動,再次產(chǎn)生沖擊點,設(shè)備周期運行,具有典型的時間先后順序。利用因果卷積進(jìn)行特征提取時,會學(xué)習(xí)出這種先沖擊后平穩(wěn)再關(guān)閉的運行特征,便于從主表功率中分解出設(shè)備的功率信息。
圖3 冰箱運行特性Fig.3 Refrigerator operating characteristic
另一方面,因果卷積雖然能更好地對時間序列問題進(jìn)行建模,但該方式與普通卷積存在同樣的問題:所提取的特征僅考慮了鄰近前幾個時刻的信息,長時運行設(shè)備(如洗衣機具有2~3 h的運行時間)在更久遠(yuǎn)時刻也具有特征信息,但限于感受野不足,故無法提取這類信息,影響分解精度。為改善感受野不足問題,在因果卷積中注入“空洞”,從而可以追溯到更久遠(yuǎn)時刻的功率信息。在Y處的擴(kuò)張因果卷積[15]被定義為:
(4)
式中:d是膨脹系數(shù),通過向卷積核中注入“空洞”,可以與之前時刻的時序點做卷積操作。當(dāng)d=1時,膨脹卷積等效于普通因果卷積;當(dāng)d=2時,濾波器所能接受的輸入相較于普通因果卷積從1*3擴(kuò)大到1*5,同時對比普通卷積,第三卷積層提取到的特征點可以追溯至輸入序列的前14個時刻,對時間維度上的信息回溯更久遠(yuǎn)。因此,本文采用擴(kuò)張因果卷積對原有特征提取器進(jìn)行改進(jìn)。
利用神經(jīng)網(wǎng)絡(luò)對非侵入式負(fù)荷分解建模時,需要訓(xùn)練的參數(shù)數(shù)量龐大,極其耗費計算機資源,有必要引入一系列的優(yōu)化手段加速網(wǎng)絡(luò)訓(xùn)練。
利用歸一化技術(shù)重寫神經(jīng)網(wǎng)絡(luò)中的參數(shù)可使模型目標(biāo)損失函數(shù)更加平滑,加速隨機梯度下降優(yōu)化算法的收斂過程,因而能提升網(wǎng)絡(luò)訓(xùn)練效率[16]。權(quán)重歸一化技術(shù)是一種重寫權(quán)重向量w的參數(shù)重寫方法。
標(biāo)準(zhǔn)神經(jīng)元中的計算為:
y=φ(w·x+b)
(5)
式中:w為k維權(quán)重向量;b為標(biāo)量偏差項;x為輸入特征的k維向量;φ(·)表示非線性激活函數(shù);y表示神經(jīng)元的標(biāo)量輸出。在將損失函數(shù)與一個或多個神經(jīng)元輸出相關(guān)聯(lián)之后,通常通過隨機梯度下降,在每個神經(jīng)元的參數(shù)w、b中訓(xùn)練神經(jīng)網(wǎng)絡(luò)。為了加快此優(yōu)化過程的收斂速度,利用參數(shù)向量v和標(biāo)量參數(shù)g重新參數(shù)化每個權(quán)重向量w,則有:
(6)
根據(jù)新參數(shù)表示權(quán)重向量,其中v是k維向量,g是標(biāo)量且‖w‖=g,‖v‖表示v的歐幾里得范數(shù)。
將權(quán)重向量w重新參數(shù)化以后,梯度下降將更新v與g,不再是w,該推導(dǎo)過程及原理限于篇幅不再贅述,具體可參考文獻(xiàn)[16]。
文獻(xiàn)[14]中所提結(jié)構(gòu)為通用時間序列問題建模模型,通用模型中,時間卷積神經(jīng)網(wǎng)絡(luò)輸入層采用一維全卷積,采用雙層擴(kuò)張因果卷積組成一個殘差塊,卷積層之間添加權(quán)重歸一化層、Dropout層[17]。殘差塊作為基本單元用于搭建時間卷積神經(jīng)網(wǎng)絡(luò),為了防止訓(xùn)練中梯度消失,在殘差塊之間引入跳層連接[18]。
經(jīng)過實驗發(fā)現(xiàn)通用結(jié)構(gòu)用于負(fù)荷分解時,模型較為復(fù)雜,耗費計算資源,且分解效果不佳,因此本文簡化通用結(jié)構(gòu),通過大量測試,設(shè)計了適于非侵入式負(fù)荷分解任務(wù)的簡化時間卷積神經(jīng)網(wǎng)絡(luò)。
首先采用擴(kuò)張因果卷積為基本層構(gòu)建特征提取器提取主表功率序列特征,在每層卷積層之間引入權(quán)重歸一化層,保留Dropout層,同時在網(wǎng)絡(luò)中引入殘差連接,然后采用全連接神經(jīng)網(wǎng)絡(luò)完成用電設(shè)備功率的預(yù)測。圖4給出了本文所提簡化時間卷積神經(jīng)網(wǎng)絡(luò)的具體結(jié)構(gòu)及參數(shù)。
數(shù)據(jù)集采用英國能源研究中心(UK Energy Research Center, UKERC)2015年公開發(fā)布的UKdale數(shù)據(jù)集[19]。UKdale數(shù)據(jù)集記錄了從2012年11月到2015年1月中5個家庭的用電數(shù)據(jù)。數(shù)據(jù)集包含了10多種類型的電器,每6 s采集一次用電數(shù)據(jù)。家用電器種類繁多,為了驗證模型對于不同運行特性電器設(shè)備的有效性,在本文設(shè)計的實驗中,選取水壺、電視機、冰箱、洗碗機和洗衣機這5類設(shè)備。這是因為:冰箱的運行特征具有周期性特點;相比冰箱,洗衣機、洗碗機的工作模式更為豐富,運行特征較為復(fù)雜;水壺運行功率大、時間周期短;電視機功率小,單次運行時間較長。表1為算例分析所用設(shè)備及其具體采樣時間段。
數(shù)據(jù)預(yù)處理過程分為實驗數(shù)據(jù)提取和處理缺失值。利用Nilmtk工具包[20]將原始數(shù)據(jù)轉(zhuǎn)化為可用于科學(xué)計算的數(shù)據(jù)格式。同時,設(shè)置相應(yīng)的實驗數(shù)據(jù)時間段并重新采樣,如果部分時間段數(shù)據(jù)缺失,將被刪除。為進(jìn)一步提高模型訓(xùn)練效率,本文利用滑動窗口的方法擴(kuò)充數(shù)據(jù),制定相對應(yīng)的主表功率序列以及用電設(shè)備功率標(biāo)簽?;瑒哟翱谠诮o定的樣本數(shù)據(jù)上進(jìn)行步長為1的滑動,每一次滑動窗口將會產(chǎn)生一組數(shù)據(jù)。
圖4 時間卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)Fig.4 Structure of temporal convolutional neural network
表1 數(shù)據(jù)分配表Table 1 Data configuration
本文重點關(guān)注了窗口長度對模型訓(xùn)練及負(fù)荷分解精度的影響,通過大量實驗發(fā)現(xiàn),較大和較小的窗口會影響負(fù)荷分解效果與模型訓(xùn)練效率。文獻(xiàn)[12]所提的Seq2point方法全設(shè)備采用了窗口長度為599的設(shè)定,本文方法依據(jù)大量實驗結(jié)果擇優(yōu)重新設(shè)定滑動窗口的長度,選取每種設(shè)備的平均絕對誤差(mean absolute error,MAE)Mmae值最小的窗口長度用于生成數(shù)據(jù)(如洗碗機窗口長度為99),從而保證在不影響分解精度的情況下,進(jìn)一步減少模型訓(xùn)練時間。表2展示了各類設(shè)備20次迭代訓(xùn)練中不同窗口長度Seq2point方法的訓(xùn)練時間及Mmae指標(biāo)。
表2 不同窗口長度實驗結(jié)果對比Table 2 Experimental results of different window lengths
圖5展示了滑動窗口的工作過程。數(shù)據(jù)完全生成后利用零均值歸一化方式對數(shù)據(jù)做歸一化處理,便于神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練。計算方法為:
(7)
(8)
式中:T1、T2分別為歸一化后的主表功率和用電設(shè)備功率;Mdata為主表原始數(shù)據(jù);Mmean為主表功率序列的均值;Mstd為主表功率序列的標(biāo)準(zhǔn)差;Adata為用電設(shè)備原始數(shù)據(jù);Amean為用電設(shè)備功率的均值;Astd為用電設(shè)備序列和功率的標(biāo)準(zhǔn)差。
本文硬件環(huán)境為Intel(R)CoreTM i7-7700CPU@3.6 GHz,16 GB DDR4內(nèi)存及GeForce GTX 1070(8 GB顯存)的64位計算機。軟件平臺為WINDOWS-10專業(yè)版操作系統(tǒng),Python 3.6.2(64位)及TensorFlow1.8.0深度學(xué)習(xí)框架。在訓(xùn)練深度學(xué)習(xí)模型時使用TensorFlow的GPU版本,利用GPU進(jìn)行硬件加速。
圖5 滑動窗口數(shù)據(jù)擴(kuò)充示意圖Fig.5 Schematic diagram of sliding window for data augmentation
為了驗證本文方法的效果,與基于循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN)方法、降噪自編碼器(denoising autoencoder,DAE)方法以及Seq2point方法進(jìn)行對比;實驗中所提模型均按照原論文作者所提結(jié)構(gòu)搭建,包括輸入序列長度、卷積核個數(shù)及卷積核大小、卷積層數(shù)等。為了客觀對比各類算法的性能,采取了多類設(shè)備進(jìn)行算法性能測試,包含驗證模型的分解性能、模型的泛化性能、模型的訓(xùn)練耗時。
本文所使用的評價指標(biāo)包括:F1分?jǐn)?shù)(F1 score)FScore、均方根誤差(root mean square error,RMSE)Mrmse、Mmae和總能量相關(guān)誤差(relative error,RE)Mre,具體計算方法為:
(9)
(10)
(11)
(12)
(13)
(14)
Mmae可以驗證所提方法得出的分解預(yù)測值跟實際設(shè)備運行值的差距;Mrmse與Mmae相似,但對異常的預(yù)測值更為敏感,當(dāng)出現(xiàn)某個時刻分解預(yù)測值與實際運行值相差較大時,Mrmse的值會更大;FScore更加側(cè)重于評價設(shè)備運行狀態(tài)(設(shè)備開啟或關(guān)閉),而不是設(shè)備實際運行的功率值大小,分?jǐn)?shù)越高代表性能越好;Mre用于評價該段時間內(nèi)預(yù)測誤差占預(yù)測總能量的比值。
圖6為利用1號家庭的3個月用電數(shù)據(jù)進(jìn)行訓(xùn)練,并且在1號家庭中進(jìn)行測試所得結(jié)果。
從圖6中可以看出,本文所提基于時間卷積神經(jīng)網(wǎng)絡(luò)負(fù)荷分解方法相比其他方法更加接近冰箱實際的運行效果,雖然在部分時間采樣點有一定的偏差,但是相較于其他方法,本文所提方法在整體上較好地預(yù)測了電器運行的規(guī)律及趨勢。1號家庭冰箱負(fù)荷分解評價指標(biāo)對比見表3。由表3可以看出,本文所提TCN方法的Mmae、Mrmse及Mre都處于較小的范圍,誤差值大小反映了通過算法分解得到的設(shè)備功率值與真實功率值之間的差距。洗衣機、洗碗機、電視機與水壺的負(fù)荷實驗結(jié)果及評價指標(biāo)對比見附錄A。
表3 1號家庭冰箱負(fù)荷分解評價指標(biāo)對比Table 3 Comparison of evaluation indices of refrigerator load monitoring in household 1
圖7為利用2、4、5號家庭的數(shù)據(jù)訓(xùn)練并且在1號家庭中測試冰箱設(shè)備所得結(jié)果,表4為模型泛化能力測試的評價指標(biāo)對比。對比圖7和表4,所有分解模型負(fù)荷分解精度均有所下降,但本文所提方法仍然較好地預(yù)測了功率變化的趨勢,但是由于每個家庭之間的冰箱運行耗能情況存在差異,因此對于整個設(shè)備的具體功率預(yù)測存在一定偏差,屬于可以接受的范圍。
圖6 家庭1冰箱負(fù)荷分解實驗結(jié)果對比Fig.6 Comparison of experimental results of refrigerator load monitoring in household 1
圖7 跨家庭模型泛化能力實驗結(jié)果對比Fig.7 Comparison of experimental results of generalization ability of models across households
表4 跨家庭冰箱負(fù)荷分解評價指標(biāo)對比Table 4 Comparison of evaluation indices of refrigerator load monitoring across households
模型的訓(xùn)練將會極大地消耗計算資源,出于環(huán)保角度和運行效率的考慮,有必要對模型訓(xùn)練的時間進(jìn)行分析。表5給出了利用家庭1中3個月訓(xùn)練數(shù)據(jù)的訓(xùn)練時間。從表5可以看出,同等訓(xùn)練迭代次數(shù)情況下,本文所提方法在不損失負(fù)荷分解精度情況下,相比RNN方法訓(xùn)練消耗的時間減少50%,這是因為RNN方法采用的循環(huán)神經(jīng)網(wǎng)絡(luò)在處理時序問題時需要嚴(yán)格控制時序,嚴(yán)重影響訓(xùn)練效率,而卷積神經(jīng)網(wǎng)絡(luò)可以并行處理時間序列,可提高訓(xùn)練效率;相比于DAE方法,TCN模型訓(xùn)練時間并不占優(yōu),這是由于DAE方法模型更為簡單,但TCN方法分解效果更好;相比Seq2point方法,TCN訓(xùn)練時間減少59.5%,這是因為在網(wǎng)絡(luò)設(shè)計中引入了權(quán)重歸一化技術(shù)對網(wǎng)絡(luò)訓(xùn)練加速,同時本文采用了最優(yōu)窗口長度的滑動窗口方法生成訓(xùn)練數(shù)據(jù),相比Seq2point方法計算量大幅下降,從而提高了模型訓(xùn)練效率。
表5 訓(xùn)練時間(利用家庭1中3個月訓(xùn)練數(shù)據(jù))Table 5 Comparison of training time (3 months training data from household 1)
1)針對現(xiàn)有模型分解精度不高的問題,本文采用擴(kuò)張因果卷積構(gòu)建特征提取器,通過向卷積核注入“空洞”擴(kuò)大了單個卷積核的感受野,由于因果卷積不會夾雜未來時刻信息去預(yù)測未來,而普通卷積會引入未來信息預(yù)測未來時刻,不符合預(yù)測的實際認(rèn)知,因此因果卷積比普通卷積更符合時間序列問題,能提取更加豐富的特征,提高負(fù)荷分解精度。
2)針對現(xiàn)有神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練耗時較長的缺陷,本文提出以下兩點改進(jìn)措施:
(1)將權(quán)重歸一化技術(shù)應(yīng)用于優(yōu)化神經(jīng)網(wǎng)絡(luò)模型,使得目標(biāo)損失函數(shù)更加平滑,加速了網(wǎng)絡(luò)訓(xùn)練的收斂過程,從而提高了模型的訓(xùn)練效率。該加速技術(shù)可作為基準(zhǔn)方法推廣于其他基于神經(jīng)網(wǎng)絡(luò)模型的非侵入式負(fù)荷分解方法。
(2)經(jīng)過大量的窗口長度對比實驗,重新設(shè)置窗口序列長度,不同設(shè)備采用了最優(yōu)的窗口長度生成訓(xùn)練數(shù)據(jù),在不損失負(fù)荷分解精度的情況下,極大提高了模型的訓(xùn)練效率。
仿真實驗表明:本文提出的模型在訓(xùn)練速度上比RNN模型提高了50%,比未改進(jìn)的Seq2point提高了59.5%,同時本文所提方法在評價指標(biāo)Mmae、Mrmse、Mre、Fscore方面也優(yōu)于其他方法。