• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于多層多核卷積神經(jīng)網(wǎng)絡(luò)的非侵入式負(fù)荷監(jiān)測方法研究*

      2021-03-11 03:09:42梁瑞宇
      電子器件 2021年6期
      關(guān)鍵詞:準(zhǔn)確率卷積神經(jīng)網(wǎng)絡(luò)

      汪 濤,梁瑞宇,黃 虎,丁 超

      (1.南京工程學(xué)院電力工程學(xué)院,江蘇 南京 211100;2.南京工程學(xué)院信息與通信工程學(xué)院,江蘇 南京 211100)

      非侵入式負(fù)荷監(jiān)測(Non-Intrusive Load Monitoring,NILM)是一種利用大數(shù)據(jù)分析對電力系統(tǒng)負(fù)荷進(jìn)行檢測與分解的技術(shù)[1],對電力需求側(cè)管理的決策制度以及電網(wǎng)和電力用戶互動體系的構(gòu)建有著重要的意義。相比于侵入式負(fù)荷監(jiān)測,NILM 需要安裝的傳感設(shè)備數(shù)量較少,是一種快捷、經(jīng)濟(jì)的負(fù)荷監(jiān)測方法[2-3]。近年來,隨著大數(shù)據(jù)分析、智能電網(wǎng)、智能電表[4]和智能家居等技術(shù)的不斷成熟與推廣,越來越多的學(xué)者開始專注于NILM 研究。

      20 世紀(jì)80 年代,英國學(xué)者Hart[5]提出了非侵入式負(fù)荷監(jiān)測的概念,同時構(gòu)建了實現(xiàn)NILM 的框架結(jié)構(gòu)。目前,非侵入式負(fù)荷監(jiān)測可分為以高頻采樣和以低頻采樣數(shù)據(jù)為基礎(chǔ)的兩種研究方法。以高頻采樣數(shù)據(jù)為基礎(chǔ)的NILM,通過獲取負(fù)荷開斷時刻的暫態(tài)特征進(jìn)行負(fù)荷識別與分解。文獻(xiàn)[6]提出了一種粒子群聚類算法,將電壓有效值、電流有效值和3 次諧波作為負(fù)荷特征,實驗證明了粒子群優(yōu)化能夠提高算法收斂到全局最優(yōu)的速度。文獻(xiàn)[7]通過提取電流圖片特征辨別負(fù)荷類型。文獻(xiàn)[8]提出一種強(qiáng)化諧波幅值差異的算法,對負(fù)荷諧波信息進(jìn)行加權(quán)處理,模型對相似負(fù)荷電器的區(qū)別能力得到提升。以低頻采樣數(shù)據(jù)為基礎(chǔ)的NILM,通過獲取負(fù)荷的穩(wěn)態(tài)特征,如穩(wěn)態(tài)時的電壓、電流、有功功率進(jìn)行負(fù)荷識別與分解。文獻(xiàn)[9-10]采用深度字典學(xué)習(xí)實現(xiàn)負(fù)荷分解。文獻(xiàn)[9]提出深度稀疏編碼法為各項設(shè)備學(xué)習(xí)多層字典,模型在學(xué)習(xí)深層字典后分解性能提升,但隨著字典的深入,模型參數(shù)過擬合現(xiàn)象也越發(fā)嚴(yán)重。文獻(xiàn)[10]提出基于多標(biāo)簽分類的分解方法,將不同設(shè)備視為不同的類,最終把負(fù)荷分解問題轉(zhuǎn)化為多元回歸問題。文獻(xiàn)[11]不同于傳統(tǒng)的因子隱馬爾可夫模型(Factorial Hidden Markov Model,F(xiàn)HMM 模型),提出一種結(jié)合加法因子隱馬爾可夫模型和減法因子隱馬爾可夫模型兩者優(yōu)點的可加性概率模型,并實驗證明了該想法的有效性。

      近年,鑒于深度學(xué)習(xí)的方法在語音識別、計算機(jī)視覺等多項領(lǐng)域獲得突破進(jìn)展,已經(jīng)有一些學(xué)者使用深度學(xué)習(xí)[1]的方法實現(xiàn)非侵入式負(fù)荷分解。2015 年,英國學(xué)者Kelly[12]第一次實現(xiàn)基于深度學(xué)習(xí)的非侵入式負(fù)荷分解,并采用三種模型進(jìn)行驗證,對比于傳統(tǒng)隱馬爾可夫模型和組合優(yōu)化模型,算法的負(fù)荷分解準(zhǔn)確度得到了顯著提升。文獻(xiàn)[13]提出了一種通用的深度學(xué)習(xí)分解模型,并提供相應(yīng)的固定模型架構(gòu)及超參數(shù),模型能夠適應(yīng)各種類型的負(fù)荷,但分解性能相對較低。文獻(xiàn)[14]提出了一種變分自編碼的卷積神經(jīng)網(wǎng)絡(luò)模型,卷積神經(jīng)網(wǎng)絡(luò)對特征的提取能力強(qiáng),將卷積網(wǎng)絡(luò)與自編碼相結(jié)合,能夠有效地實現(xiàn)負(fù)荷分解。文獻(xiàn)[15]和文獻(xiàn)[16]對常規(guī)的長短時記憶網(wǎng)絡(luò)模型進(jìn)行了優(yōu)化,所提的貝葉斯優(yōu)化雙向長短時記憶(long short term memory,LSTM)模型和正則化LSTM 模型可以解決由設(shè)備數(shù)量增加而引起的維數(shù)過大和參數(shù)過擬合問題。文獻(xiàn)[17]針對序列到序列(sequence-to-sequence,seq2seq)模型中輸入序列過長導(dǎo)致的模型運(yùn)算能力下降問題,提出一種注意機(jī)制,使模型在解碼過程中擁有了側(cè)重點,優(yōu)化了序列到序列模型的信息利用能力。文獻(xiàn)[18]提出一種可變步長的去噪自編碼器模型,在數(shù)據(jù)有噪聲情形下分解性能較好。文獻(xiàn)[19]提出一種序列到點(sequence-to-point,seq2point)模型,相比于序列到序列模型,負(fù)荷分解的絕對誤差和與平均絕對誤差都有所減小。文獻(xiàn)[20]論述并證明了基于V-I 軌跡特征進(jìn)行負(fù)荷分解時所提模型具備的可遷移性。文獻(xiàn)[21]提出設(shè)備遷移學(xué)習(xí)模型和跨域遷移學(xué)習(xí)模型,證明了seq2point 模型是可以遷移的。文獻(xiàn)[22]通過對比實驗,證明了長短時記憶算法在NILM 領(lǐng)域的優(yōu)越性。文獻(xiàn)[23]提出一種基于時間卷積網(wǎng)絡(luò)的半監(jiān)督多標(biāo)簽深度學(xué)習(xí)框架,結(jié)合有標(biāo)簽數(shù)據(jù)和無標(biāo)簽數(shù)據(jù)實現(xiàn)了特定電器的開關(guān)狀態(tài)監(jiān)測。雖然上述模型都成功運(yùn)用了深度學(xué)習(xí)的方法,但仍然未能提出關(guān)于深層次特征信息提取的優(yōu)化方法,模型特征提取層次僅有一至兩層,所以這些模型對于負(fù)荷監(jiān)測的識別準(zhǔn)確率還有待提高。

      為此,本文提出一種基于多層多核卷積神經(jīng)網(wǎng)絡(luò)的負(fù)荷監(jiān)測模型,利用REDD 公開數(shù)據(jù)集完成了模型的訓(xùn)練與測試,并與多層單核網(wǎng)絡(luò)模型及目前認(rèn)可度較高的CNN-LSTM 模型[12]對比,以驗證本文模型對負(fù)荷識別準(zhǔn)確度的提升效果。

      1 模型構(gòu)成

      1.1 模型流程

      本文提出的NILM 模型流程如圖1 所示。

      模型首先對低頻采樣數(shù)據(jù)進(jìn)行分段,并將輸入的功率序列通過高維映射對應(yīng)至高維向量序列,最后通過本文所提神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練和分解。

      1.2 數(shù)據(jù)預(yù)處理

      1.2.1 數(shù)據(jù)切割

      由于用于NILM 訓(xùn)練的樣本數(shù)據(jù)數(shù)量級可以達(dá)到104甚至106,因此本文首先對采樣數(shù)據(jù)進(jìn)行數(shù)據(jù)切割,使輸入序列的長度為一固定值。

      由于不同種類的電器能夠代表其電氣特征的數(shù)據(jù)長度不同,故對不同電器需要設(shè)定不同的序列長度。假設(shè)功率數(shù)據(jù)中含有M種不同的電器{A1,A2,…,AM},對應(yīng)網(wǎng)絡(luò)模型輸入序列長度分別設(shè)置為{N1,N2,…,NM},再由設(shè)定的序列長度對功率數(shù)據(jù)進(jìn)行數(shù)據(jù)切割,使其分為若干數(shù)據(jù)段。

      1.2.2 高維映射

      高維映射包含兩個步驟,第一步是輸入總負(fù)荷有功功率序列{P1,P2,…,},進(jìn)行整數(shù)化處理得到{P1,P2,…,}。第2 步為將整數(shù)化處理后的有功功率序列中每個值Pi,通過高維映射矩陣E=[v_s*e_s]映射到高維向量E[Pi],得到映射后的序列{E[P1],E[P2],…,E[]},將E[Pi]作為A[1:Ni]生成輸入矩陣A。高維映射矩陣E中的第一維度v_s為功率大小,第二維度e_s為設(shè)備序列長度。將整數(shù)有功功率映射到高維向量,實現(xiàn)了輸入序列的抽象,同時也確定了高維向量與功率的對應(yīng)關(guān)系,其作為本文深度神經(jīng)網(wǎng)絡(luò)的輸入,有利于后續(xù)編碼器對時序信息的提取和負(fù)荷的分解。

      1.3 網(wǎng)絡(luò)構(gòu)成

      1.3.1 卷積神經(jīng)網(wǎng)絡(luò)

      卷積神經(jīng)網(wǎng)絡(luò)中包含卷積層、池化層、全連接層等基本功能層[24]。各個層具有獨立的神經(jīng)元,不同層神經(jīng)元間相互連接,同層神經(jīng)元間無連接。卷積層計算公式為

      式中:表示第l層的第j個濾波器特征表示第l-1 層第j個濾波器特征和第l層卷積核的卷積核函數(shù);為第l層的第j個偏置參數(shù)。f函數(shù)為激活函數(shù);一般來說卷積層還有2-D 卷積層、3-D卷積層、轉(zhuǎn)置卷積層和分組卷積層等。池化層計算公式為:

      式中:和分別表示網(wǎng)絡(luò)層之間的權(quán)重和偏置參數(shù);down(·)為池化函數(shù);f(·)是激活函數(shù)。池化層用來降低分辨率,常用的池化層有平均池化層、最大池化層以及全局平均池化層。本文選用Relu 函數(shù)作為激活函數(shù),Relu 函數(shù)對輸入的每個元素執(zhí)行閾值運(yùn)算,任何小于零的值都設(shè)置為零。經(jīng)過卷積層和池化層的計算后原始數(shù)據(jù)特征便映射到了隱含特征空間,通過全連接層標(biāo)記這些特征空間便能提取原數(shù)據(jù)特征,然后利用softmax 層概率分類。后繼的網(wǎng)絡(luò)層還有批量歸一化層、dropout 層(脫落層)等。批量歸一化層對網(wǎng)絡(luò)中的激活值和梯度傳播進(jìn)行歸一化,使網(wǎng)絡(luò)訓(xùn)練成為更簡單的優(yōu)化問題,dropout層則可以防止過度擬合。模型得到結(jié)果后會通過反向傳播方式調(diào)整模型網(wǎng)絡(luò)參數(shù)。

      1.3.2 LSTM 神經(jīng)網(wǎng)絡(luò)

      卷積神經(jīng)網(wǎng)絡(luò)LSTM 是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),解決了長依賴性問題,在處理時間序列方面具有良好的性能。LSTM 神經(jīng)網(wǎng)絡(luò)由序列輸入層、LSTM 層、全連接層、dropout 層(值為0.1)、softmax 層以及分類層組成。使用具有動量的梯度隨機(jī)下降優(yōu)化器訓(xùn)練網(wǎng)絡(luò),網(wǎng)絡(luò)訓(xùn)練參數(shù)設(shè)置如下:動量大小為0.97,L2 正則化(L2 Regularization)因子為0.000 5,梯度閾值為1,最大迭代數(shù)300,小批量訓(xùn)練大小為500,初始學(xué)習(xí)率0.01,每過50 代學(xué)習(xí)率在原有基礎(chǔ)上乘0.2。實驗測試發(fā)現(xiàn),增加LSTM層層數(shù)會導(dǎo)致辨識效果變差,為此不再增加LSTM神經(jīng)網(wǎng)絡(luò)的層數(shù)。

      1.3.3 多層多核卷積神經(jīng)網(wǎng)絡(luò)

      由多個卷積核同時卷積進(jìn)行特征提取的方法稱為多核卷積特征提取法。通常情況下,神經(jīng)網(wǎng)絡(luò)使用一個卷積核對負(fù)荷特征進(jìn)行提取,但一個卷積核只能夠提取一種特征,特征提取并不充分,因此本文添加多個卷積核,同時學(xué)習(xí)功率負(fù)荷的多種特征,目的是提高網(wǎng)絡(luò)對功率負(fù)荷的分辨能力,進(jìn)一步達(dá)到提高負(fù)荷分解準(zhǔn)確率的目標(biāo)。經(jīng)過之前的高維映射得到輸入矩陣A,由于每一行的映射向量E[Pi]表示一個與其對應(yīng)的功率,為了提取有利于功率序列分類的特征,應(yīng)當(dāng)從映射向量的級別進(jìn)行特征提取,才能保證功率特征的完整性,也就是說卷積核的寬度w需要完全覆蓋映射向量。當(dāng)卷積核寬度等于映射向量維度時,卷積核只在豎直方向做卷積,卷積核的高度表示同時提取幾個功率序列的特征。假定輸入矩陣A的寬度為w,高度為Ni;卷積核的寬度也為w,高度為h,則卷積過程可表示為:

      一個卷積核提取的特征數(shù)量為Ni-h+1,而不同高度的卷積核提取到的特征大小也不同,因此本文選擇Max pooling 進(jìn)行池化操作,對卷積后的特征映射進(jìn)行降維,使其維度統(tǒng)一。通過Max pooling 提取特征中的最大值得到特征中最重要的部分,再將負(fù)荷特征最大值拼接輸入到softmax 層。

      同時,本文在利用多核卷積網(wǎng)絡(luò)實現(xiàn)負(fù)荷分解的基礎(chǔ)上,加深了網(wǎng)絡(luò)層數(shù),使其具有更強(qiáng)特征提取能力,識別結(jié)果更加精確。一維深層神經(jīng)網(wǎng)絡(luò)的輸入是總有功功率序列轉(zhuǎn)化的4-D 矩陣??傆泄β市蛄袨?×n行向量,將其重構(gòu)成1×1×1×n的矩陣,其中前兩維表示1×1 像素,第3 維1 表示灰度顏色通道,第4 維n表示序列長度。深層卷積網(wǎng)絡(luò)由輸入層、A 類層、B 類層、全連接層、softmax 層和分類層組成,共47 層。A 類層一共10 組40 層,每組由2-D卷積層、批量歸一化、Relu 函數(shù)層以及最大池化層構(gòu)成,每層2-D 卷積層濾器數(shù)量分別為8、16、32、64、128、256、512、1 024、2 048、4 096,大小均為1×1。B 類層由2-D 卷積層(過濾器數(shù)量為8 192,大小為1×1)、批量歸一化層和Relu 函數(shù)層組成。為了使該模型辨識效果更好,在訓(xùn)練模型時加入了更多的網(wǎng)絡(luò)參數(shù),為防止模型過度擬合,加入了L2 正則化因子,其值為0.000 5,使用具有動量的梯度隨機(jī)下降優(yōu)化器訓(xùn)練網(wǎng)絡(luò),動量大小為0.97,梯度閾值為0.5,最大迭代數(shù)為300,在每一代訓(xùn)練時增加數(shù)據(jù)混淆,初始學(xué)習(xí)率為0.01。為了效果更佳設(shè)定學(xué)習(xí)率梯度下降,每過50 代學(xué)習(xí)率在原有基礎(chǔ)上乘0.2。

      1.3.4 模型結(jié)構(gòu)

      本文模型采用卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)作為網(wǎng)絡(luò)基礎(chǔ)層,設(shè)計并實現(xiàn)了多層多核網(wǎng)絡(luò)結(jié)構(gòu),對照文獻(xiàn)(CNN-LSTM)模型構(gòu)成如表1 所示,多層單核(CNN-1d-2)模型構(gòu)成如表2 所示,多層多核(CNN-multi-kernel)模型構(gòu)成如表3 所示。

      表1 CNN-LSTM 模型構(gòu)成

      表2 CNN-1d-2 模型構(gòu)成

      表3 CNN-multi-kernel 模型構(gòu)成

      三種網(wǎng)絡(luò)結(jié)構(gòu)中對照文獻(xiàn)(CNN-LSTM)采用兩層卷積層兩層LSTM 進(jìn)行編碼解碼,多層單核(CNN-1d-2)和多層多核(CNN-multi-kernel)模型均采用CNN 和最大池化作為基礎(chǔ)層,多層單核模型會在每層卷積層之后接池化層,而多層多核模型采用三個卷積核同時進(jìn)行卷積,之后再接Max Pooling 進(jìn)行池化操作。

      2 實驗分析

      2.1 實驗軟件平臺

      本文實驗軟件平臺為Windows10(64 位)操作系統(tǒng),Python3.6.8、TensorFlow2.0.0 機(jī)器學(xué)習(xí)平臺。編譯IDE 為PyCharm,數(shù)據(jù)處理使用NILMTK 開源工具包。

      2.2 數(shù)據(jù)集

      為驗證本文所提模型的有效性和準(zhǔn)確性,選取REDD[25]數(shù)據(jù)集進(jìn)行實驗。REDD 數(shù)據(jù)集包含6 個美國家庭的用電數(shù)據(jù)。

      數(shù)據(jù)集包含兩種家庭用電數(shù)據(jù)。一種是低頻功率數(shù)據(jù),包括兩處總線路和各個子設(shè)備的有功功率數(shù)據(jù);另一種是總線路的高頻電流和電壓的波形數(shù)據(jù)。本文所提模型使用低頻功率數(shù)據(jù)對網(wǎng)絡(luò)進(jìn)行學(xué)習(xí)。模型將每個家庭用電數(shù)據(jù)的前70%用于深度網(wǎng)絡(luò)的訓(xùn)練,后30%作為測試數(shù)據(jù)對模型性能進(jìn)行測試,數(shù)據(jù)集訓(xùn)練過程如圖2 所示。

      圖2 數(shù)據(jù)集訓(xùn)練過程框圖

      2.3 序列長度及激活閾值設(shè)定

      為了得到用于負(fù)荷分解的功率序列,首先要對數(shù)據(jù)集內(nèi)各電器序列進(jìn)行激活提取。本文為實驗用到的5 種電器設(shè)定了具體的序列長度及激活閾值,如表4 所示。

      表4 序列長度及激活閾值

      2.4 評價指標(biāo)

      為全面評價模型性能,本文選用準(zhǔn)確率(precision,PRE)、平均絕對值誤差(mean absolute error,MAE)、絕對誤差和(signal aggregate error,SAE)和R2決定系數(shù)四項指標(biāo)作為評價標(biāo)準(zhǔn),具體公式如下:

      (1)準(zhǔn)確率PRE:

      式中:TP 為模型判定結(jié)果與實際負(fù)荷都為運(yùn)行狀態(tài)的序列數(shù)量;FP 為模型判定結(jié)果為非運(yùn)行狀態(tài)但實際負(fù)荷為運(yùn)行狀態(tài)的序列數(shù)量。

      (2)平均絕對值誤差MAE:

      (3)絕對誤差和SAE:

      (4)決定系數(shù)R2(擬合優(yōu)度):

      R2決定系數(shù)越接近1 表示擬合效果越好。上述公式中yi為i時刻用電電器真實功率,為模型分解功率,nsample為總樣本輸入數(shù)量。

      最后,為了表示模型預(yù)測值與實際值間的差距,定義損失函數(shù)(Loss)表達(dá)式如下:

      式中:p表示概率;T為序列總長度;Xt為各設(shè)備的功率;Y為總負(fù)荷功率;θs為網(wǎng)絡(luò)參數(shù);Ni為第i項設(shè)備的序列長度。

      2.5 實驗結(jié)果

      2.5.1 可視化分解結(jié)果

      本文選取REDD 數(shù)據(jù)集家庭1 一段時間內(nèi)的負(fù)荷功率進(jìn)行分解。通過實驗結(jié)果可視化操作,能夠直觀地判斷模型對各項電器功率的預(yù)測效果。由圖3 可以看出,在該段時間內(nèi),冰箱電器在訓(xùn)練集和測試集上負(fù)荷分解的預(yù)測值與真實值基本擬合,初步判斷本模型的可行性。

      圖3 實驗結(jié)果可視化展示

      2.5.2 負(fù)荷識別準(zhǔn)確率

      通過多次實驗比較獲得模型的系數(shù)。實驗中,各模型識別準(zhǔn)確度(PRE)結(jié)果如表5 所示。

      表5 各模型識別準(zhǔn)確率

      識別準(zhǔn)確率能夠反映模型對負(fù)荷的識別能力??梢钥吹饺N模型準(zhǔn)確率都超過了98%,多層單核(CNN-1d-2)和多層多核模型(CNN-multi-kernel)更是超過了99%,其中對照文獻(xiàn)(CNN-LSTM)深度淺、特征提取能力較弱,準(zhǔn)確率相對較低。而CNNmulti-kernel 相較于其他模型采用了多層多核網(wǎng)絡(luò)結(jié)構(gòu),特征提取更加充分,從而獲得最高的準(zhǔn)確率。

      與對照文獻(xiàn)相同,本文也選用了REDD 數(shù)據(jù)集中的冰箱、洗碗機(jī)、水壺、微波爐、洗衣機(jī)5 種常用電器數(shù)據(jù),統(tǒng)計了各種電器的相應(yīng)識別率。具體結(jié)果如表6 所示。

      表6 各模型下不同電器的識別準(zhǔn)確率 單位:%

      相比于對照文獻(xiàn),多層單核模型對各項電器的分解準(zhǔn)確率的提升程度為2%~18%,多層多核模型分解準(zhǔn)確率的提升程度為3%~19%。其中,對于洗衣機(jī)和水壺等多檔運(yùn)行的電器設(shè)備識別準(zhǔn)確度提升效果較為明顯,說明多層多核模型對運(yùn)行方式復(fù)雜的電器識別能力更強(qiáng)。

      2.5.3 損失函數(shù)及誤差

      本文模型在訓(xùn)練中的損失函數(shù)(Loss)、平均絕對值誤差(MAE)、絕對誤差和(SAE)和擬合優(yōu)度R2曲線如圖4 所示,實線代表整體平均曲線,虛線代表冰箱數(shù)據(jù)的曲線。上述指標(biāo)可以反映模型的負(fù)荷功率分解能力。從圖4 可以看出,隨著網(wǎng)絡(luò)迭代次數(shù)的增加,本文模型在各個電器上訓(xùn)練的損失函數(shù)呈現(xiàn)收斂的趨勢。以冰箱數(shù)據(jù)為例,損失函數(shù)收斂十分平穩(wěn),說明損失函數(shù)對神經(jīng)網(wǎng)絡(luò)的超參數(shù)優(yōu)化作用明顯,實現(xiàn)了模型超參數(shù)的自動尋優(yōu)。隨著迭代次數(shù)的增加,平均絕對值誤差(MAE),絕對誤差和(SAE)不斷下降,擬合優(yōu)度R2曲線不斷上升并逐漸收斂至穩(wěn)定常數(shù),該三項指標(biāo)的全面提升表明模型分解得到的功率值與實際功率的真實值間的差距隨網(wǎng)絡(luò)迭代次數(shù)逐漸減小。由此可見,本模型負(fù)荷特征提取性能的提升使得負(fù)荷識別率得到提高,與之相應(yīng)的,功率分解性能也得到了提升。

      圖4 loss、MAE、SAE、R2 曲線

      3 結(jié)束語

      本文提出一種基于多層多核卷積神經(jīng)網(wǎng)絡(luò)的非侵入式負(fù)荷監(jiān)測深度學(xué)習(xí)模型,該模型在提取負(fù)荷特征時,采用多核卷積特征提取法提取負(fù)荷功率的多項特征,并結(jié)合多層卷積法增強(qiáng)網(wǎng)絡(luò)結(jié)構(gòu)。實驗結(jié)果中各模型識別準(zhǔn)確率之間的差異說明,多核卷積法與多層卷積法都能夠增強(qiáng)網(wǎng)絡(luò)對負(fù)荷特征的提取能力,將兩種方法相結(jié)合后,特征提取會更加充分。通過本模型在數(shù)據(jù)集上的實驗結(jié)果可以看出模型對負(fù)荷識別準(zhǔn)確率提升很大,尤其顯著提升了運(yùn)行狀態(tài)較復(fù)雜的電器識別準(zhǔn)確率。同時,相對于目前認(rèn)可度較高的CNN-LSTM 模型,本模型對負(fù)荷分解功率值的平均絕對值誤差和絕對誤差和也有大幅度的減小,且擬合優(yōu)度更高。實驗驗證了模型不僅僅對負(fù)荷識別性能有提升,對負(fù)荷分解性能也有一定程度的提高。

      猜你喜歡
      準(zhǔn)確率卷積神經(jīng)網(wǎng)絡(luò)
      基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
      乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
      健康之家(2021年19期)2021-05-23 11:17:39
      不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
      2015—2017 年寧夏各天氣預(yù)報參考產(chǎn)品質(zhì)量檢驗分析
      神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
      電子制作(2019年19期)2019-11-23 08:42:00
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      高速公路車牌識別標(biāo)識站準(zhǔn)確率驗證法
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
      復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
      霍城县| 尚志市| 兴业县| 文昌市| 安图县| 吴忠市| 津南区| 上杭县| 德化县| 汝南县| 平潭县| 仁寿县| 远安县| 中西区| 隆德县| 磐石市| 衡东县| 五寨县| 阿瓦提县| 炉霍县| 讷河市| 宣恩县| 抚远县| 手机| 玉山县| 平舆县| 布拖县| 塔城市| 长治县| 沁阳市| 三河市| 库伦旗| 桐庐县| 宣威市| 嫩江县| 道孚县| 佛教| 福建省| 饶阳县| 台东县| 晋中市|