• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于時序卷積網(wǎng)絡(luò)的情感識別算法

      2020-09-11 23:19:46宋振振陳蘭嵐婁曉光
      關(guān)鍵詞:波包電信號頻段

      宋振振, 陳蘭嵐, 婁曉光

      (華東理工大學(xué)化工過程先進控制和優(yōu)化技術(shù)教育部重點實驗室,上海 200237)

      情感識別作為情感研究的核心內(nèi)容能夠使機器理解人的感性思維,影響著機器智能化的繼續(xù)發(fā)展,成為影響人機自然交互的關(guān)鍵要素。同時,情感識別融合多學(xué)科為一體,其發(fā)展將會帶動多學(xué)科的共同發(fā)展,其應(yīng)用也會帶來巨大的經(jīng)濟效益和社會效益,因此情感識別已成為研究的熱點。

      早期對人類情感的研究通常是利用人的面部表情[1]或人的聲音信號[2]進行不同情感狀態(tài)的識別,這兩種人體信號雖然較易獲得,但也十分容易被偽裝,特別是當(dāng)受試者不愿意被其他人察覺到自己的情感狀態(tài)時。由于生理信號不易被偽裝,因此有學(xué)者提出了利用人體生理信號,如腦電(Electroencephalogram,EEG)、心電、肌電、皮膚電阻、皮溫、呼吸信號等來判斷受試者的情感狀態(tài)。Healey 等[3]的研究結(jié)果證明了應(yīng)用生理信號進行情感狀態(tài)辨別是可行的。在生理信號中,EEG 信號是一種比較敏感的客觀指標(biāo),能夠較為精確地反映出人的情感變化,因此近年來很多研究者開始使用EEG 信號進行情感識別。

      深度學(xué)習(xí)是機器學(xué)習(xí)研究中的一個新領(lǐng)域,其目標(biāo)在于建立、模擬人腦進行分析學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),這種神經(jīng)網(wǎng)絡(luò)可以模仿人腦的機制來解釋諸如圖像、聲音和文本等不同類型的數(shù)據(jù)。目前已有很多學(xué)者將深度學(xué)習(xí)應(yīng)用于腦電情感識別。文獻[4]使用深度置信網(wǎng)絡(luò)(Deep Belief Network, DBNS)對EEG 信號進行二分類情感識別,識別精度能夠達到86.08%;文獻[5]結(jié)合卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network, CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)網(wǎng)絡(luò),對EEG 的正確識別率最高達到了74.12%;文獻[6]提出了一種具有子節(jié)點的特殊神經(jīng)網(wǎng)絡(luò)對EEG 信號提取差分熵,最高正確率達到93.26%;文獻[7]提出并評估了一套深度信念網(wǎng)絡(luò)模型,并驗證了這些模型對分類精度有很大的提高。

      目前深度學(xué)習(xí)應(yīng)用領(lǐng)域中的兩大主流結(jié)構(gòu)是CNN 和RNN。CNN 的特點之一是網(wǎng)絡(luò)的狀態(tài)僅依賴于輸入,但它并不適用于所有問題。例如對于具有時間屬性的數(shù)據(jù)而言,僅依靠當(dāng)前時刻輸入的效果并不是很理想,因此有研究者開始將序列模型用于情感識別的研究中。如文獻[8]使用長短期記憶網(wǎng)絡(luò)(Long Short-Term Memory,LSTM)對腦電信號進行情感識別,取得了很好的效果。然而,傳統(tǒng)的序列模型都是在RNN 基礎(chǔ)上的演變,如LSTM[9]、門控單元循環(huán)網(wǎng)絡(luò)(Gate-Variants of Gated Recurrent Unit,GRU)[10]等,因此序列模型存在一個很大的問題就是它的訓(xùn)練效率相對于CNN 來說較低。因為RNN 的結(jié)構(gòu)特點,使得每一個時刻的狀態(tài)學(xué)習(xí)都依賴于前一個時刻的狀態(tài),因此無法做到并行運算,從而導(dǎo)致計算效率大大降低。此外,深度學(xué)習(xí)在訓(xùn)練模型過程中很容易陷入局部最優(yōu),很難得到全局最優(yōu)值。針對以上問題,本文提出使用時序卷積網(wǎng)絡(luò)(Temporal Convolution Networks,TCN)[11]對腦電信號進行情感識別,該模型既具有時間序列的特性同時也保留了CNN 的可并行計算特點,在保持精度的同時提高了計算效率。同時本文還采用Snapshot 快照集成策略[12],通過調(diào)整學(xué)習(xí)率的方式盡可能地尋找到最接近全局最優(yōu)的值。

      1 情感識別模型

      基于腦電信號的情感識別步驟一般包括:情感的誘發(fā)、腦電信號采集、信號預(yù)處理、腦電特征提取及情感學(xué)習(xí)分類。

      本文采用DEAP 數(shù)據(jù)集[13],使用TCN 模型進行情感識別,整體設(shè)計框架如圖1 所示。首先采用小波包變換的方法對預(yù)處理過的原始數(shù)據(jù)提取特征,同時構(gòu)建情感分類模型,為每個樣本標(biāo)注合適的情感標(biāo)簽;然后以TCN 模型為主體,使用Snapshot 優(yōu)化訓(xùn)練方法選擇出最優(yōu)的情感識別分類器。

      圖1 基于腦電信號的情感識別算法總體框圖Fig.1 Overall block diagram of EEG-based emotion recognition algorithm

      2 數(shù)據(jù)集及預(yù)處理

      2.1 DEAP 數(shù)據(jù)集

      DEAP 數(shù)據(jù)集是由英國倫敦瑪麗皇后大學(xué)的研究人員通過實驗開發(fā)的一個用于分析人類情感狀態(tài)的多模態(tài)數(shù)據(jù)集。該實驗選取了40 段音樂視頻(MV),每段音樂視頻的時間長度為63 s,其中前3 s是準(zhǔn)備時間。受試者在觀看完每段視頻后對該視頻片段的效價、喚醒度、喜好程度和熟悉度等進行評分,分值為1~9。

      該數(shù)據(jù)集記錄了32 個受試者的40 個導(dǎo)聯(lián)腦電生理信號。其中前32 個導(dǎo)聯(lián)采集腦電信號,腦電電極的安放位置采用國際腦電圖學(xué)會規(guī)定的10~20 系統(tǒng)電極放置法;后8 個導(dǎo)聯(lián)采集人體的外圍生理信號,包括眼電、肌電及皮膚電阻。本文僅使用了其中18名受試者的32 個導(dǎo)聯(lián)腦電信號和受試者對每個視頻片段的評價指標(biāo)兩部分?jǐn)?shù)據(jù)。

      2.2 數(shù)據(jù)預(yù)處理

      數(shù)據(jù)經(jīng)過預(yù)處理后最終得到每個受試者的數(shù)據(jù)格式為40 × 32 × 8 064,其中40 表示40 個視頻片段,32 表示實驗采用的導(dǎo)聯(lián)數(shù),8 064 表示對每個63 s 的視頻片段以128 Hz 的頻率進行采樣,每個視頻片段共采集得到63 × 128 = 8 064 個數(shù)據(jù)點。

      3 情緒劃分模型

      TCN 模型是有監(jiān)督學(xué)習(xí)模型,所處理的數(shù)據(jù)格式是有標(biāo)簽數(shù)據(jù),而DEAP 數(shù)據(jù)集本身是沒有標(biāo)簽的,所以在學(xué)習(xí)之前要給數(shù)據(jù)生成情感分類標(biāo)簽。在DEAP 數(shù)據(jù)集中,給數(shù)據(jù)生成情感分類標(biāo)簽主要是基于受試者對視頻片段的評價指標(biāo),因此涉及到了情感的分類模型。

      研究者通常從兩種視角來建構(gòu)和理解情感的分類模型:基本情感模型[14]和維度情感模型[15]。維度情感模型即情感狀態(tài)的“愉悅度-喚醒度-支配度”三維模型[16]。Valence(愉悅度)表示積極或消極的情緒狀態(tài),如興奮、愛、平靜等積極情緒及羞愧、無趣、厭煩等消極情緒。Arousal(喚醒度)表示生理活動和心理警覺的水平差異,低喚醒如睡眠、厭倦、放松等;高喚醒如清醒、緊張等。

      由于Valence 和Arousal 兩個維度就可以解釋絕大部分情緒變化,因此本文僅采用這兩個維度作為受試者的情感評價指標(biāo),即通過受試者對Valence和Arousal 的評分來判斷受試者當(dāng)前的情緒狀態(tài)。本文對Valence 和Arousal 進行單獨的分類,即LV(Low Valence)表示消極的情緒;HV(High Valence)表示積極的情緒;LA(Low Arousal)表示平靜;HA(High Arousal)表示激動;由于Valence 和Arousal 之間具有關(guān)聯(lián)性,因此同時也考慮了結(jié)合Valence 和Arousal的分類,即HVHA、HVLA、LVHA、LVLA 4 種情緒狀態(tài)。在二分類任務(wù)中,由于只考慮某一項指標(biāo),得分較為均勻,因此可以取中間分?jǐn)?shù)作為閾值為情緒進行劃分。本實驗的評分在1~9 之間,因此取5 作為閾值。而在四分類任務(wù)中,因同時考慮兩項指標(biāo),導(dǎo)致評價分?jǐn)?shù)點不規(guī)則分布。如圖2 所示,每個受試者的得分點分布差異過大,若仍然采取閾值的方式進行情緒的劃分,會忽略受試者之間的差異性。本文采用K-均值(K-means)聚類方法自適應(yīng)地將情緒聚成4 類,圖2 中的每種顏色分別代表不同的類別,黑色的十字符號表示聚類中心點,可以看出通過聚類的方法能夠?qū)? 種情緒比較明顯地分隔開。

      4 基于小波包分解的特征提取

      4.1 小波包分解

      特征提取是情感識別的關(guān)鍵環(huán)節(jié),本文采用小波包分析方法[17]分解出腦電信號的各個頻段,在不同頻段上分別對人的情感變化進行識別。小波包分析是小波分析的延伸,其基本思想是讓信息能量集中,在細節(jié)中尋找有序性,把其中的規(guī)律篩選出來,為信號提供一種更加精細的分析方法。在小波包分解的基礎(chǔ)上,探討腦電信號的頻段與情感的聯(lián)系,并選取優(yōu)勢頻段,提取相應(yīng)小波包系數(shù)的能量值作為模型的輸入特征。

      對DEAP 腦電數(shù)據(jù)采用db4 小波進行4 層分解。原始數(shù)據(jù)的采樣頻率為128 Hz,奈奎斯特頻率為64 Hz,則進行4 層分解時,共分為 24=16 個頻帶,每個頻帶的帶寬為64/16=4 Hz。選取每個頻帶節(jié)點利用 式(1)計算得到各個節(jié)點的能量值作為識別特征。

      其中:E(j,i)表示在分解層次j上第i個節(jié)點的能量值;pn(j,i) 表示第j層第i個節(jié)點的n個小波包變換系數(shù)。每個樣本通過小波包4 層分解可以得到16 維特征,由于本文采取前32 個導(dǎo)聯(lián)的EEG 信號,因此最終得到的輸入序列特征維度為 1 6×32=512 。

      4.2 基線(Baseline)處理

      本文采用的每個視頻片段的基線長度為3 s。由于腦電信號的敏感性較強,因此正常生理活動下的腦電信號很容易對情緒變化時的腦電波造成影響。為了減小這個影響,需要對基線進行消除。通過小波包提取前3 s 數(shù)據(jù)即基線的特征,然后將后60 s數(shù)據(jù)的特征分別減去基線特征,以消除基線的影響。

      5 基于Snapshot 集成的TCN 情感識別模型的構(gòu)建

      5.1 TCN 模型的架構(gòu)

      TCN 模型與普通CNN 模型的不同點主要在于該結(jié)構(gòu)中的卷積是因果關(guān)系,任意一個時刻的狀態(tài)都考慮了之前的全部狀態(tài)。

      TCN 模型的結(jié)構(gòu)如圖3 所示。該模型結(jié)構(gòu)主要為時序卷積層和全連接層,其中M表示一維卷積核的數(shù)量,d表示每個卷積核的大小,T表示每秒鐘的序列長度,F(xiàn)表示輸入序列的特征維度,本文設(shè)F=32(導(dǎo)聯(lián)數(shù)) × 16(頻帶數(shù))=512。輸入序列經(jīng)過一維卷積核的作用得到T×M的時序特征序列,使用修整線性單元(Rectified Linear Unit, ReLU)作為激活函數(shù)應(yīng)用于每一個元素。全連接層用于分類,使用softmax計算當(dāng)前時刻屬于某一類別的概率。

      圖3 TCN 結(jié)構(gòu)圖Fig.3 TCN structure diagram

      5.1.1 因果卷積(Casual convolution) 因果卷積首次在WaveNet[18]中提出,是用于處理序列問題而提出來的一種卷積模型。這種卷積模型在某時刻t的預(yù)測不能與任何未來時刻的信息相關(guān),如式(2)所示:

      其中:xt表示t時刻的信息??梢钥闯鲈摃r刻的狀態(tài)只與之前時刻的信息相關(guān)。因果卷積模型如圖4所示。

      圖4 因果卷積模型Fig.4 Casual convolution model

      可以看出使用因果卷積的每一個節(jié)點都只考慮在此之前的節(jié)點,可以很好地用來處理時間序列,但是如果需要考慮比較久遠的信息,那么卷積的層數(shù)就必須隨之增加,這樣就會導(dǎo)致深度學(xué)習(xí)中常見的梯度消失、訓(xùn)練復(fù)雜、擬合效果差的問題,因此WaveNet 同時提出了擴張卷積(Dilated convolution)的概念。

      圖5 一維擴張卷積Fig.5 One-dimensional expansion convolution model

      本文的輸入數(shù)據(jù)是長度為16 的一維腦電序列X=[x1,x2,···,xi] ,設(shè)置步長s=1,卷積核fk=4,第k層的擴張率dk=3×4k?1。通過計算可以得到:當(dāng)不使用擴張卷積時,若要使輸出考慮到該序列所有時刻狀態(tài),需要4 層的隱藏層單元(如圖4 所示),而使用擴張卷積時只需要1 層的隱藏層單元(如圖5 所示)。5.1.3 殘差模塊(Residual block) 殘差模塊[19]是一種深度神經(jīng)網(wǎng)絡(luò),通過將前一層的信息跳層輸入下一層,使得后層的信息更加豐富,能夠很好地解決由于增加深度帶來的副作用(退化問題)。TCN 模型使用了殘差模塊。

      5.2 Snapshot 快照集成

      為了能夠更好地訓(xùn)練TCN 模型,本文采用Snapshot 快照集成策略。該方法的原理是通過不斷重置學(xué)習(xí)率來逃避局部極點值。學(xué)習(xí)率的重置如式(5)所示:

      其中: α (t) 表示第t次迭代的學(xué)習(xí)率; α0表示初始學(xué)習(xí)率;nb_epochs 表示訓(xùn)練過程總的迭代次數(shù);nb_cycles 表示循環(huán)次數(shù),即學(xué)習(xí)率重置次數(shù)。

      每次迭代結(jié)束時保存當(dāng)前模型,然后重置學(xué)習(xí)率為初始學(xué)習(xí)率進行下一次迭代,如此反復(fù)多次,保存多個模型進行集成,如圖6 所示。圖中橫坐標(biāo)為迭代次數(shù),縱坐標(biāo)為訓(xùn)練過程的損失值。該訓(xùn)練過程設(shè)置的迭代次數(shù)為80,循環(huán)次數(shù)為8,即每10 次迭代重置一次學(xué)習(xí)率。由圖6 可以看出,每次重置學(xué)習(xí)率都可以使訓(xùn)練過程跳出當(dāng)前極值,且都能得到不錯的收斂,保存訓(xùn)練過程每次循環(huán)所產(chǎn)生的模型。

      圖6 尋優(yōu)過程圖Fig.6 Diagram of optimization process

      5.3 投票集成策略

      集成學(xué)習(xí)(Ensemble learning)通過構(gòu)建并結(jié)合多個機器學(xué)習(xí)模型來完成學(xué)習(xí)任務(wù),在分類任務(wù)中投票法(Voting)是最常用的集成方式。

      在本文的模型尋優(yōu)過程中,每一個局部極小值點的模型都進行了保存。由于這些模型之間存在差異性,因此采用投票集成的方法提高識別精度。如圖7 所示,通過Snapshot 方法訓(xùn)練出來的n個TCN模型分別輸出各自的識別結(jié)果,如類別1、類別2,如果輸出類別1 的模型數(shù)量多于輸出類別2 的模型數(shù)量就采用類別1 作為最終識別結(jié)果,反之就采用類別2 作為最終結(jié)果。

      圖7 投票集成過程Fig.7 Process of voting ensemble

      6 實驗結(jié)果與分析

      TCN 模型在Keras 框架下通過Python 編程實現(xiàn)。實驗環(huán)境Intel(R) Core(TM) I5-7700HQ CPU @2.80 Hz, 16 GB 內(nèi)存,NVIDIA GeForce GTX 950 M 顯卡,64 位Windows10 系統(tǒng)。

      6.1 不同頻段的情感識別

      將每個受試者的數(shù)據(jù)分成5 份,每次取其中一份作為測試數(shù)據(jù),其余作為訓(xùn)練數(shù)據(jù)。取5 次交叉實驗的識別精度均值作為最終結(jié)果,并在訓(xùn)練過程中再次將訓(xùn)練數(shù)據(jù)隨機取出10%作為驗證集。

      根據(jù)驗證集確定TCN 模型的部分參數(shù),選擇時間窗為1 s,并將每段信號按順序每62.5 ms 進行一次特征提取,故每秒鐘的序列長度為16。此外,根據(jù)經(jīng)驗將卷積核數(shù)量設(shè)為50,卷積核長度設(shè)為4,當(dāng)損失函數(shù)連續(xù)10 次迭代都沒有發(fā)生優(yōu)化時訓(xùn)練終止。

      腦電信號一般被分為5 個頻段,依次為Delta、Theta、Alpha、Beta 和Gamma,考慮到每個頻段可能對情緒狀態(tài)的敏感度不同,因此本文通過小波包分析提取出各個頻段,討論不同頻段對腦電情感的不同影響。

      表1 示出了18 個受試者測試精度的平均值??梢钥闯鰧τ赩alence 和Arousal 二分類來說,Beta和Gamma 頻段相對于低頻段的信號來說對情緒的反應(yīng)更加敏感,對于A-V 四分類來說Gamma 頻段更敏感,而當(dāng)使用全部頻段信息時其識別精度最高。

      6.2 不同算法的對比

      由于支持向量機(SVM)是較為流行的非深度學(xué)習(xí)算法,而門控單元循環(huán)網(wǎng)絡(luò)(GRU)是比較具有代表性的深度時序模型,因此本文采用SVM 和GRU 模型與TCN 模型進行二分類和四分類的對比實驗。實驗結(jié)果表明,當(dāng)懲罰因子C=2,核函數(shù)為線性核時,SVM模型驗證集分類效果較好。當(dāng)時間窗設(shè)為1 s,隱層單元數(shù)為100 時,GRU 模型驗證集分類效果較好。

      表1 各頻段信號的識別精度對比Table 1 Recognition accuracy of signals in each frequency band

      Valence 二分類和Arousal 二分類識別結(jié)果如圖8 和圖9 所示,圖中藍色、綠色和黃色折線分別表示TCN、SVM、GRU 模型在18 個受試者上的平均測試精度??梢钥吹絋CN 模型的識別結(jié)果相對SVM 模型有明顯的提升,而GRU 模型對比SVM 模型也有一定的提升,但效果并不是特別明顯,說明序列模型更適合于腦電信號識別研究。對比GRU 模型,TCN 模型不僅在識別精度上有很大的提升,而且在時間復(fù)雜度上也具有比較大的優(yōu)勢,其計算效率能夠達到GRU 模型的10~15 倍。

      A-V 四分類識別結(jié)果如圖10 所示。可以看到在四分類問題中,SVM 模型的效果并不理想,GRU模型相對于SVM 模型有明顯的提高,而TCN模型相對于GRU 和SVM 模型都有比較大的提升。

      圖8 Valence 二分類結(jié)果對比Fig.8 Comparison of valence two classification results

      圖9 Arousal 二分類結(jié)果對比Fig.9 Comparison of arousal two classification results

      圖10 A-V 四分類結(jié)果對比Fig.10 Comparison of A-V four classification results

      6.3 Snapshot 尋優(yōu)及集成策略

      綜合考慮模型集成的效果和計算復(fù)雜度,選擇循環(huán)次數(shù)為8,即通過調(diào)整學(xué)習(xí)率得到8 個訓(xùn)練模型,18 個受試者的測試結(jié)果如圖11 所示。圖中綠色折線表示不加任何集成策略的TCN 模型識別結(jié)果,黃色折線表示通過Snapshot 策略尋得的最優(yōu)模型的識別結(jié)果,藍色折線表示將通過Snapshot 思想得到的各個模型進行集成得到的識別結(jié)果??梢钥闯鯯napshot對識別精度有略微的提升,而投票集成方式的識別結(jié)果相對于Snapshot 尋得的最優(yōu)模型也有一定的提高。

      圖11 Valence 集成策略結(jié)果對比Fig.11 Comparison of valence ensemble strategy results

      6.4 同類研究對比

      6.4.1 二分類研究對比 本文對比了其他采用DEAP數(shù)據(jù)集的情感識別研究,對比結(jié)果如表2 所示。文獻[20]通過自編碼機制,編碼階段將腦電數(shù)據(jù)與眼電數(shù)據(jù)分開建模,解碼階段再組合到一起,形成高階特征表示,使用SVM 作為分類器,最終對Valence 二分類達到了85.20%的識別精度,對Arousal 二分類達到了80.50%的識別精度;文獻[21]將使用殘差神經(jīng)網(wǎng)絡(luò)(Residual Neural Network,ResNet)提取的特征融合線性頻率倒譜系數(shù)(Linear Frequency Cestrum Coefficient, LFCC)作為最終特征,使用KNN 作為分類器,最終對Valence 得到90.39%的精度均值,對Arousal 得到89.06%的精度均值;文獻[22]考慮了每個受試者對實驗音樂MV 的熟悉度,證明了熟悉度對分類結(jié)果的影響比較大,采用分形維度(FD)和功率譜密度(PSD)作為特征,采用決策樹對Valence 的平均準(zhǔn)確率為73.30%,對Arousal 的平均準(zhǔn)確率為72.50%;文獻[23]使用Relief 算法對32 個通道進行特征選擇,利用快速傅里葉變換(FFT)計算功率作為特征,使用概率神經(jīng)網(wǎng)絡(luò)(Probabilistic Neural Networks,PNN)作為分類器對Valence 最終得到了81.21%的平均準(zhǔn)確率,對Arousal 得到了81.76%的平均準(zhǔn)確率;文獻[24]采用皮電、眼電等通道數(shù)據(jù)并為其單獨設(shè)計特征并且評估了個人因素對實驗的影響,提取PSD 特征,使用隨機森林算法,最終結(jié)果穩(wěn)定在對Valence 的精度均值為80.10%,對Arousal 的精度均值為77.20%;文獻[25]通過小波變換提取特征,使用RNN 作為分類器,最后得到對Valence 的平均識別精度為74.12%,對Arousal的平均識別精度為72.06%。其中文獻[20,22,25]使用了非深度學(xué)習(xí)算法,文獻[21,23,24]應(yīng)用了深度學(xué)習(xí)算法。

      本文以5 作為閾值,在Valence 和Arousal 兩個維度上進行二分類,采用TCN 模型取得了最好的平均精度,并通過Snapshot 集成的思想對訓(xùn)練過程進行優(yōu)化,使得精度進一步提高,實驗結(jié)果驗證了本文方法的可行性。

      表2 兩種情緒識別精度對比Table 2 Comparison of two emotion recognition accuracy

      6.4.2 四分類研究對比 本文在4 種情緒的分類中也能夠取得比較明顯的效果,結(jié)果如表3 所示。文獻[26]去除了樣本間一致性差的視頻,共選取了17 個視頻作為實驗數(shù)據(jù),將數(shù)據(jù)進行分段,求取每段的alpha 和beta 波段的能量、beta 和theta 波段的能量比率、3 個Hjorth 參數(shù)、C0 復(fù)雜度、方差和譜熵共計9 個特征,采用KNN 算法對4 類情緒得到了70.04%的識別精度;文獻[27]提出了一種針對腦電信號在HRI 領(lǐng)域中使用的實時情緒估計方法獲取與內(nèi)在EEG 模式相關(guān)的有意義的特征,使用高斯過程分類器(Gaussian-Process Classifier,GPC)最終得到四分類的識別精度為91.20%;文獻[28]選取了所有通道中的15 個通道,采用小波變換的特征,通過SVM 和神經(jīng)網(wǎng)絡(luò)對情感進行識別,通過SVM 得到了88.22%的識別精度,通過神經(jīng)網(wǎng)絡(luò)得到了90.20%的識別精度。

      表3 4 種情緒識別精度對比Table 3 Comparison of four emotion recognition accuracy

      7 結(jié) 論

      本文提出了一種基于時序卷積網(wǎng)絡(luò)的情感識別算法。該算法能夠適應(yīng)腦電信號的時序特征,克服了傳統(tǒng)時序網(wǎng)絡(luò)的計算復(fù)雜度過大的缺點,既有RNN 的時序性又有CNN 的并行計算的特點。采用Snapshot 思想和集成思想對模型的訓(xùn)練進行了進一步的提高。對比了不同波段對情感的敏感性,得出腦電信號各頻段間和情緒變化的關(guān)聯(lián),并對比了同類研究結(jié)果。實驗結(jié)果表明本文方法在計算精度和算法復(fù)雜度上都有比較好的結(jié)果。

      猜你喜歡
      波包電信號頻段
      基于聯(lián)合聚類分析的單通道腹部心電信號的胎心率提取
      gPhone重力儀的面波頻段響應(yīng)實測研究
      地震研究(2021年1期)2021-04-13 01:04:56
      基于Code Composer Studio3.3完成對心電信號的去噪
      科技傳播(2019年24期)2019-06-15 09:29:28
      基于小波包Tsallis熵和RVM的模擬電路故障診斷
      基于隨機森林的航天器電信號多分類識別方法
      基于小波包變換的電力系統(tǒng)諧波分析
      推擠的5GHz頻段
      CHIP新電腦(2016年3期)2016-03-10 14:07:52
      小波包理論與圖像小波包分解
      TD—LTE在D頻段和F頻段的覆蓋能力差異
      中國新通信(2015年1期)2015-05-30 10:30:46
      基于小波包的全信息解調(diào)方法及其應(yīng)用
      平潭县| 仙居县| 潮州市| 汽车| 麟游县| 和硕县| 游戏| 富锦市| 辰溪县| 达日县| 临猗县| 桂阳县| 祁连县| 临澧县| 宾川县| 红原县| 阿克苏市| 青铜峡市| 章丘市| 巴塘县| 宣汉县| 施秉县| 屏山县| 水富县| 东阳市| 名山县| 兴安县| 延津县| 滁州市| 北宁市| 新竹县| 若尔盖县| 保康县| 射阳县| 保亭| 临洮县| 渑池县| 鸡泽县| 江油市| 阜宁县| 于都县|