• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于多域特征結(jié)合CBAM模型的腦電信號(hào)抑郁識(shí)別

      2024-09-28 00:00:00陳宇胡秀秀王勝

      摘 要:目前腦電信號(hào)(EEG)的抑郁癥識(shí)別方法主要采用單一特征提取方法,無法覆蓋多域特征信息,導(dǎo)致現(xiàn)有模型分類性能不高,因此提出了一種多域特征結(jié)合CBAM模型(CNN-BiLSTM-attention mechanism)的抑郁癥識(shí)別算法。首先利用連續(xù)小波變換(CWT)提取時(shí)頻域特征,并結(jié)合腦電電極空間信息構(gòu)成2D特征圖像,共同保留腦電的空間、時(shí)間和頻率信息;然后使用卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)提取空間和頻域特征,再輸入雙向長短時(shí)記憶網(wǎng)絡(luò)(bidirectional long and short-term memory,BiLSTM)以捕獲時(shí)間信息;最后結(jié)合注意力機(jī)制(attention mechanism,AM),對(duì)網(wǎng)絡(luò)提取的多域特征賦予不同的權(quán)重,以篩選出更具代表性的抑郁特征,從而提高識(shí)別抑郁癥的準(zhǔn)確性。實(shí)驗(yàn)表明,本文提出的基于CBAM模型的抑郁癥識(shí)別算法在公共數(shù)據(jù)集上取得了99.10%的準(zhǔn)確率,為腦電信號(hào)抑郁癥識(shí)別研究提供了一種有效的新方法。

      關(guān)鍵詞:腦電圖;抑郁癥;卷積神經(jīng)網(wǎng)絡(luò);雙向長短時(shí)記憶網(wǎng)絡(luò);注意力機(jī)制

      DOI:10.15938/j.jhust.2024.03.001

      中圖分類號(hào): TP391

      文獻(xiàn)標(biāo)志碼: A

      文章編號(hào): 1007-2683(2024)03-0001-10

      EEG Depression Recognition Based on Multi-domain

      Features Combined with CBAM Model

      CHEN Yu, HU Xiuxiu, WANG Sheng

      (College of Computer and Control Engineering, Northeast Forestry University, Harbin 150040, China)

      Abstract:At present, the electroencephalogram (EEG) identification method for depression mainly uses a single feature extraction method, which cannot cover multi-domain feature information, resulting in poor classification performance of the existing model. Therefore, this paper proposes a depression recognition algorithm based on multi-domain features combined with CBAM model (CNN-BiLSTM-Attention Mechanism). Firstly, the continuous wavelet transform (CWT) is used to extract time-frequency domain features, and combined with the spatial information of EEG electrodes to form a 2D feature image, which jointly retains the spatial, time and frequency information of EEG; then the convolutional neural network (CNN) is used) to extract spatial and frequency domain features, and then input bidirectional long and short-term memory (BiLSTM) to capture time information; finally combined with attention mechanism (AM), different weights are assigned to the multi-domain features extracted from the network, enabling the selection of more representative depressive features, thereby improving the accuracy of identifying depression. Experiments show that the depression recognition algorithm based on the CBAM model proposed in this paper has achieved an accuracy rate of 99.10% on the public data set, which provides an effective new method for the research on depression recognition of EEG signals.

      Keywords:electroencephalogram (EEG); depression; CNN; BiLSTM; attention mechanism

      0 引 言

      抑郁癥是世界范圍內(nèi)的一種常見的精神疾病,根據(jù)世界衛(wèi)生組織的數(shù)據(jù),全球有超過3.5億人患有抑郁癥[1]。患者有嚴(yán)重的精神障礙和不良情緒,通常表現(xiàn)為悲傷、疲勞、絕望等。嚴(yán)重抑郁癥患者甚至可能有自殺行為。隨著抑郁癥患者的發(fā)病率和自殺率增高,用計(jì)算機(jī)輔助技術(shù)來診斷是否為抑郁癥,是對(duì)抑郁癥患者的疾病監(jiān)測,是最迫在眉睫的公共健康問題之一。

      大量研究人員試圖利用傳統(tǒng)的機(jī)器學(xué)習(xí)技術(shù)對(duì)腦電圖信號(hào)特征進(jìn)行診斷,從信號(hào)中提取相關(guān)特征是成功診斷抑郁癥的關(guān)鍵。近年來由于深度學(xué)習(xí)在計(jì)算方面的進(jìn)步而變得流行,且在抑郁識(shí)別領(lǐng)域得到了廣泛的應(yīng)用。卷積神經(jīng)網(wǎng)絡(luò)(CNN)已經(jīng)是腦電圖中學(xué)習(xí)高級(jí)特征的有效方法。如Sharmila 等[2]有效地將腦電圖信號(hào)轉(zhuǎn)化為光譜圖像,用CNN進(jìn)行檢測抑郁。但該模型的實(shí)驗(yàn)結(jié)果并不理想,主要是因?yàn)閱我坏腃NN模型只提取了腦電信號(hào)的頻域和空域特征,忽視了EEG的時(shí)域特征,導(dǎo)致模型最終的分類性能欠佳。由于大腦活動(dòng)是一個(gè)時(shí)間動(dòng)態(tài)的過程,從腦電時(shí)間序列中學(xué)習(xí)時(shí)間演化是比較重要的。因此,具有長短時(shí)記憶網(wǎng)絡(luò)(LSTM)的循環(huán)神經(jīng)網(wǎng)絡(luò)已成功應(yīng)用于神經(jīng)成像領(lǐng)域,Seal等[3]提出了一種基于CNN和雙向長短時(shí)記憶網(wǎng)絡(luò)(BiLSTM)深度混合模型,分別提取信號(hào)的頻率信息和序列關(guān)系,用于自動(dòng)分類抑郁癥和健康對(duì)照組,而只是用一維鏈狀時(shí)間序列進(jìn)行輸入到分類器,缺乏EEG電極的空間信息,無法捕捉到空域特征,最終獲得的準(zhǔn)確率并不理想。但對(duì)本文的研究具有參考價(jià)值,對(duì)于多域特征的融合,更能使模型深度挖掘相關(guān)信息。最后,注意力的概念[4]可以說是當(dāng)今深度學(xué)習(xí)領(lǐng)域中最強(qiáng)大的概念之一。不僅在自然語言處理任務(wù),如語音識(shí)別[5]和故障檢測[6],在EEG分類中也普遍應(yīng)用。Zheng等[7]提出了一種基于注意力的BiLSTM模型用于視覺分類,該模型利用注意力機(jī)制(AM)自動(dòng)捕獲整個(gè)腦電記錄中最重要的腦電片段,大大提高了視覺信息處理的準(zhǔn)確性,也為本文的識(shí)別抑郁癥工作提供了思路。為了有效地識(shí)別抑郁癥,顯著的特征和EEG電極是十分重要的。上述傳統(tǒng)的抑郁識(shí)別研究提取單一特征不足以描述EEG蘊(yùn)含的豐富信息,都沒有試圖共同保存腦電數(shù)據(jù)在空間、時(shí)間和頻率3個(gè)維度的結(jié)構(gòu),而且在準(zhǔn)確率上也沒有達(dá)到理想狀態(tài),因此本文的主要貢獻(xiàn)可以總結(jié)如下:

      1)采用了一種新穎的信號(hào)處理技術(shù),將復(fù)雜的腦電時(shí)間序列轉(zhuǎn)換為拓?fù)浔3值哪X地形圖序列(腦電時(shí)間樣本值轉(zhuǎn)化為二維特征圖像),結(jié)合連續(xù)小波變換(CWT)共同保留了腦電信號(hào)的空間、時(shí)間和頻率多域信息。

      2)提出了基于注意力機(jī)制的混合神經(jīng)網(wǎng)絡(luò)(CNN-BiLSTM-attention mechanism,CBAM),引入了注意力機(jī)制,對(duì)網(wǎng)絡(luò)提取的多域特征賦予不同的權(quán)重,從而篩選出更具代表性的抑郁特征,使得模型性能有了顯著提升。

      3)為了提高分類模型的泛化能力,在將多域特征輸入CBAM模型之前,使用數(shù)據(jù)增強(qiáng)方法來增加數(shù)據(jù)集的樣本量和多樣性。該方法在公共數(shù)據(jù)集上進(jìn)行了驗(yàn)證,提高了識(shí)別抑郁癥的精度。

      1 具體實(shí)現(xiàn)

      1.1 整體框架

      首先經(jīng)過腦電偽跡去除以及濾波等預(yù)處理后,使用連續(xù)小波變換(CWT)將預(yù)處理后的腦電信號(hào)進(jìn)一步分解為Theta、Alpha和Beta頻帶。在特征提取階段,提取3個(gè)頻段的平均功率,并將每個(gè)頻段產(chǎn)生的空間特征圖像作為三通道RGB腦電圖的一個(gè)分量,融合了空時(shí)頻多域特征。經(jīng)過數(shù)據(jù)增強(qiáng)后,送入到CBAM模型當(dāng)中訓(xùn)練,挖掘腦電信號(hào)中更能反映抑郁狀態(tài)的空間、時(shí)間和頻率信息。本文的另一個(gè)創(chuàng)新點(diǎn)是引入了注意力機(jī)制,對(duì)腦電圖中的抑郁信息起到了更強(qiáng)的關(guān)注。現(xiàn)有模型無法整合局部特征和全局特征信息,因此CBAM的組合來抽取不同維度特征信息。最終由Softmax分類器進(jìn)行抑郁識(shí)別,從而完成細(xì)粒度的分類,并取得良好的準(zhǔn)確率和魯棒性。整體框架如圖1所示。

      1.2 特征提取

      CWT技術(shù)是一種將原始的一維輸入信號(hào)轉(zhuǎn)換為時(shí)頻域的分析方法,它對(duì)分析非平穩(wěn)信號(hào)(如腦電圖)非常有效。小波變換具有多分辨率分析的特點(diǎn),能夠在時(shí)域和頻域上同時(shí)表示信號(hào)的局部特征,是信號(hào)時(shí)頻分析和處理的理想工具。本文對(duì)腦電信號(hào)S(t)進(jìn)行CWT處理,采用Morlet小波進(jìn)行時(shí)頻分析,其中ω0為小波中心頻率,本文設(shè)為1Hz,腦電信號(hào)得到的時(shí)頻信息計(jì)算過程如下:

      Ψ(t)=cos(ω0t)e-t22(1)

      Ψ(a,b)=eiω0(t-b)ae-(t-b)22a2(2)

      WS(b,a)=∫ ∞-∞S(t)Ψ(a,b(t))dt(3)

      Q(s)=‖WS(b,a)‖=∫ ∞-∞|WS(b,a)|2da2(4)

      式(1)給出了Morlet小波函數(shù)的一般數(shù)學(xué)形式,對(duì)其進(jìn)行移位和尺度變換,得到式(2),其中a為移位參數(shù),b為縮放參數(shù)??s放和移位參數(shù)連續(xù)變化,對(duì)信號(hào)的不同部分進(jìn)行母小波(式(1))卷積,并在不同參數(shù)下進(jìn)行分析,得到腦電信號(hào)的時(shí)頻信息Q(s)(式(3)、(4))。

      CWT通過小波函數(shù)的伸縮和平移將信號(hào)分解成不同尺度上的小波系數(shù),即采用三級(jí)小波分解提取的小波系數(shù)對(duì)應(yīng)于Theta頻帶(4~8Hz)、Alpha頻帶(8~16Hz)和Beta頻帶(16~32Hz),以此提供了頻率和時(shí)間信息,即在時(shí)頻域內(nèi)估計(jì)平均功率,體現(xiàn)了頭皮上功率測量值隨時(shí)間的變化。此外,已有文獻(xiàn)證實(shí)了Theta、Alpha和Beta頻段在抑郁癥識(shí)別中的存在作用[8]。

      1.3 腦電時(shí)序數(shù)據(jù)生成二維腦地形圖

      EEG信號(hào)采集采用了19電極通道,放置在受試者頭皮周圍,獲取大腦不同區(qū)域的腦電反應(yīng)。腦電活動(dòng)具有較高的時(shí)間分辨率,主要在時(shí)頻域特征空間進(jìn)行分析。從腦電數(shù)據(jù)中提取空域信息的一種方法是將腦電信號(hào)的空間維度與其時(shí)頻特征進(jìn)行整合,具體步驟如下:

      1)腦電電極從三維空間投影到二維空間:采用了方位角等距投影(AEP)[9]技術(shù),通過保持相鄰電極間的相對(duì)距離,將電極的位置從三維投影到二維,獲得腦電信號(hào)的空間特征。AEP后的三維EEG電極空間表示及二維表示如圖2所示,其中二維圖像的寬度和高度代表了大腦活動(dòng)在皮層上的空間分布。

      2)用電極值插值腦電圖功率:為了最終以圖像的形式表示腦電圖數(shù)據(jù)的時(shí)間信息,采用雙三次插值技術(shù)[10],對(duì)二維腦電圖電極空間進(jìn)行CWT得到的每個(gè)波段功率插值,并估計(jì)32×32網(wǎng)格上電極對(duì)之間的功率值。雙三次插值產(chǎn)生一個(gè)平滑的地形圖,在每一幀中對(duì)Theta、Alpha和Beta頻段分別重復(fù)上述步驟,得到3個(gè)不同的地形圖,合并起來生成3通道32×32的腦電圖圖像,將樣本中的所有幀聚合在一起,形成腦電圖圖像序列,并提供給CBAM模塊作為輸入。

      1.4 數(shù)據(jù)增強(qiáng)

      在本研究中,在將特征數(shù)據(jù)輸入CBAM模型之前,使用了三種常用的圖像增強(qiáng)技術(shù):圖像加噪、圖像旋轉(zhuǎn)和圖像翻轉(zhuǎn)。在特征圖像加高斯噪聲。其概率密度函數(shù)如下:

      p(z)=12πee-(z-μ)22σ2(5)

      其中:z表示圖像像素值;μ表示圖像像素值的平均值;σ表示像素值的標(biāo)準(zhǔn)差。

      為了更公平的比較,將擴(kuò)增因子設(shè)置為2,即最多可以生成原始樣本量2倍的樣本數(shù)量。噪聲添加策略通過在0.5~1之間隨機(jī)選取兩個(gè)參數(shù)σ對(duì)數(shù)據(jù)進(jìn)行擴(kuò)展。對(duì)于圖像旋轉(zhuǎn)策略,設(shè)置逆時(shí)針和逆時(shí)針各90°。圖像翻轉(zhuǎn)操作只在x和y方向上進(jìn)行。還采用重疊策略,將窗口大小為4s(對(duì)應(yīng)一個(gè)樣本)、步長為1s(允許樣本之間重疊)的滑動(dòng)窗口技術(shù)應(yīng)用于每個(gè)腦電圖片段,具體分析見3.7節(jié)。

      2 基于CBAM分類模型

      本文利用CBAM模型學(xué)習(xí)腦電特征圖像序列的時(shí)空表征。具體地說,利用CNN提取與抑郁相關(guān)的空間和頻域特征,然后將其輸入到BiLSTM-AM層,進(jìn)一步學(xué)習(xí)EEG數(shù)據(jù)的時(shí)域特征,其中AM提取腦電信號(hào)的全局信息。

      2.1 CNN模塊

      在空間和頻域特征學(xué)習(xí)中,本文模型的第一個(gè)模塊,使用了一個(gè)有7層卷積的CNN結(jié)構(gòu),來提取重要的抑郁特征。對(duì)于所有卷積層,采用相同的步長為1像素和整流線性單元(ReLu)激活函數(shù),將每層的卷積核的大小設(shè)置為3×3,池化層的卷積核大小為2×2,采用最大池化(maxpool)策略。在該網(wǎng)絡(luò)結(jié)構(gòu)中,將3×32×32分辨率的RGB格式特征圖像輸入神經(jīng)網(wǎng)絡(luò)進(jìn)行學(xué)習(xí)。其中,卷積層的卷積核數(shù)分別為32、32、64、64、128、128、128,最終輸出的特征矩陣為128×4×4。表1給出了性能最好的配置。

      在每個(gè)CNN塊中執(zhí)行上述CNN架構(gòu),從腦電圖圖像序列學(xué)習(xí)空間和頻域特征。所有的CNN塊在幀之間共享參數(shù),以減少神經(jīng)網(wǎng)絡(luò)中的參數(shù)。每一幀腦電圖圖像作為每個(gè)CNN塊的輸入。將所有CNN塊的輸出重構(gòu)為特征向量序列,將其作為BiLSTM-AM層的輸入,用于學(xué)習(xí)腦電圖數(shù)據(jù)的時(shí)間變化。

      2.2 雙向LSTM(BiLSTM)模塊

      在時(shí)間特征學(xué)習(xí)中,將CNN網(wǎng)絡(luò)提取的深層特征向量輸入LSTM模型進(jìn)一步處理獲取時(shí)域特征。LSTM模型由LSTM單元組成,用于學(xué)習(xí)輸入序列中常見的時(shí)間關(guān)系,并從學(xué)習(xí)到的特征序列中尋找長期上下文關(guān)系。另外,3個(gè)門控制LSTM塊的功能。它們分別是輸入門、遺忘門和輸出門。當(dāng)輸入指向LSTM塊時(shí),它們控制并決定由LSTM塊執(zhí)行的函數(shù)。在每一個(gè)時(shí)間步中,內(nèi)存的狀態(tài)和輸出狀態(tài)都會(huì)被更新。方程如下:

      it=σ(Wi·[ct-1,ht-1,xt]+bi)(6)

      ft=σ(Wf·[cf-1,ht-1,xt]+bf)(7)

      ot=σ(Wo·[ct,ht-1,xt]+bo)(8)

      ct=ft·ct-1+it·t(9)

      ht=ot·tanh(ct)(10)

      其中:輸入序列用xt表示;輸出序列用ht表示;ct為記憶體在t時(shí)刻的狀態(tài);下角標(biāo)i表示輸入門,f表示遺忘門,o表示輸出門,為單元激活。所有這些值的大小與輸入向量的大小相同。

      符號(hào)σ表示非線性sigmoid函數(shù)。

      標(biāo)準(zhǔn)的LSTM按照時(shí)間順序處理序列,忽略了未來的信息。BiLSTM通過引入第二層擴(kuò)展了單向LSTM網(wǎng)絡(luò),其中隱藏的連接按時(shí)間順序反向流動(dòng)。在BiLSTM中CNN輸出的特征向量x=(x1,x2,…,xT)作為輸入,計(jì)算隱藏向量序列h=(h1,h2,…,hT)的公式如下:

      ht=H(Wxhxt+Whhht-1+bh)(11)

      yt=Whyht+by(12)

      其中:H為隱層激活函數(shù);b項(xiàng)為偏置向量;W項(xiàng)為權(quán)重矩陣。

      BiLSTM由兩個(gè)方向相反的子網(wǎng)絡(luò)組成,分別表示向前和向后的通道。左右相連后成為BiLSTM的輸出hi,第ith幀的計(jì)算公式如下:

      hi=[hihi](13)

      其中:表示按元素求和,將前后傳遞的輸出組合起來;hi為t時(shí)刻向前LSTM層的狀態(tài);hi為t時(shí)刻向后LSTM層的狀態(tài)。

      本文使用BiLSTM來捕捉CNN層的激活序列是一個(gè)合理的選擇,因?yàn)榇竽X活動(dòng)是一個(gè)時(shí)間動(dòng)態(tài)過程,跨時(shí)間框架的變化可能包含額外的信息。全局信息只能在看到LSTM層的整個(gè)幀序列之后才能被捕獲。與LSTM而言,BiLSTM能夠訪問過去和未來的信息,所有時(shí)期的輸出都被作為預(yù)測提供。本文的BiLSTM模型由兩層BiLSTM組成,每層的存儲(chǔ)單元數(shù)量不同,分別為64和32個(gè)堆疊的LSTM塊。

      2.3 注意力機(jī)制(AM)模塊

      AM能夠有效增強(qiáng)神經(jīng)網(wǎng)絡(luò)模型對(duì)局部特征的關(guān)注,通過為BiLSTM產(chǎn)生的輸出分配自適應(yīng)注意權(quán)重來關(guān)注最具區(qū)別性的時(shí)段,BiLSTM所產(chǎn)生的輸出向量H=[h1,h2,…,hT]用作注意層的輸入,注意層的輸出由以下公式計(jì)算:

      M=tanh(H)(14)

      α=softmax(wTM)(15)

      r=HαT(16)

      h*=tanh(r)(17)

      其中:w為訓(xùn)練好的權(quán)向量,wT為轉(zhuǎn)置;采用SoftMax函數(shù)計(jì)算各個(gè)分量M的權(quán)重,得到的α表示權(quán)重重要性;r為輸入向量的加權(quán)和。最后,注意力層的輸出h*融合了空時(shí)頻多域特征,作為FC層的輸入,經(jīng)過Softmax分類器中得到最終分類結(jié)果,從而進(jìn)行準(zhǔn)確地抑郁識(shí)別,如圖3所示。

      3 實(shí)驗(yàn)結(jié)果與分析

      3.1 數(shù)據(jù)集

      利用Mumtaz等[11]提供的公共數(shù)據(jù)集對(duì)提出的基于EEG信號(hào)的抑郁癥診斷方法進(jìn)行評(píng)價(jià)。該數(shù)據(jù)集來自兩組受試者:①重度抑郁癥患者(MDD)33例(平均年齡為40.33,SD=±12.86);②年齡匹配的健康對(duì)照組(HC)30例(平均年齡為38.23,SD=±15.64)。參與者來自馬來西亞圣馬來西亞大學(xué)(HUSM)醫(yī)院的門診診所。分別記錄了受試者在靜息狀態(tài)時(shí)閉眼(5min)、睜眼(5min)的記錄腦電圖信號(hào),該信號(hào)由國際標(biāo)準(zhǔn)10-20系統(tǒng)擴(kuò)展導(dǎo)線記錄[12],采樣率為256Hz,共采集19個(gè)通道,如圖4所示。包括額區(qū)(Fp1、F3、F7、Fz、Fp2、F4、F8)、中央?yún)^(qū)(C3、C4、Cz)、頂葉區(qū)(P3、Pz、P4)、枕區(qū)(O1、O2)、顳區(qū)(T3、T4、T5、T6)。

      3.2 數(shù)據(jù)預(yù)處理

      原始腦電圖信號(hào)總是伴隨著偽影和噪聲,包括眼電圖(EOG)、肌電圖(EMG)和數(shù)據(jù)采集相關(guān)的噪聲。針對(duì)這個(gè)問題,首先從靜息狀態(tài)5min的腦電信號(hào)記錄中截取95~215s的120s片段作為實(shí)驗(yàn)的腦電圖數(shù)據(jù)。在應(yīng)用特征提取技術(shù)之前,采用帶通濾波的方法提取4~32Hz的頻帶,再通過獨(dú)立分量分析(ICA)算法進(jìn)一步去除腦電信號(hào)中多余的偽影和噪聲。

      本文使用4s的滑動(dòng)窗口將預(yù)處理后每個(gè)被試者的2min腦電數(shù)據(jù)切成30個(gè)片段(幀),每個(gè)片段包含1024個(gè)采樣點(diǎn),最終獲得了3780個(gè)樣本,抑郁癥患者有1980(33×30×2)個(gè)樣本,健康有1800(30×30×2)個(gè)樣本。經(jīng)過添加高斯噪聲的數(shù)據(jù)增強(qiáng)方法,樣本數(shù)擴(kuò)充到7560個(gè)。詳細(xì)信息如表2所示。

      3.3 實(shí)驗(yàn)參數(shù)

      本研究的模型訓(xùn)練過程使用交叉熵?fù)p失函數(shù),交叉熵函數(shù)定義如下:

      Loss=-1m∑mj=1∑ni=1yjilogji(18)

      其中:m為樣本個(gè)數(shù);n為類別;yji為類別的真概率;ji為預(yù)測概率。

      整個(gè)實(shí)驗(yàn)流程如圖5所示,本文實(shí)驗(yàn)采用了在訓(xùn)練CNN和多層神經(jīng)網(wǎng)絡(luò)時(shí)收斂速度相對(duì)較快的Adam[13],學(xué)習(xí)率設(shè)置為0.0001,epoch數(shù)量設(shè)置為50。在數(shù)據(jù)集的劃分上,將總體數(shù)據(jù)按照8∶1∶1的原則分別得到訓(xùn)練集、驗(yàn)證集和測試集。使用基于python的PyTorch工具包完成網(wǎng)絡(luò)構(gòu)建和訓(xùn)練,用于加速的GPU為NVIDIA GeForce RTX 3090。

      3.4 評(píng)價(jià)指標(biāo)

      由于假陽性和假陰性樣本的存在,僅用準(zhǔn)確率來衡量分類器的性能是遠(yuǎn)遠(yuǎn)不夠的。本文采用了準(zhǔn)確率和F1Score來實(shí)現(xiàn)對(duì)網(wǎng)絡(luò)分類的評(píng)價(jià)。Accurary和F1Score的計(jì)算方法如下公式:

      Accurary=TP+TNTP+FP+TN+FN(19)

      F1Score=2TP(2TP)+FP+FN(20)

      其中:真陽性(TP)表示被正確分類為抑郁癥的MDD數(shù)量;假陽性(FP)表示被錯(cuò)誤分類為抑郁癥的HC數(shù)量;真陰性(TN)表示被正確分類為健康的HC數(shù)量;假陰性(FN)表示被錯(cuò)誤分類為健康的MDD數(shù)量。

      3.5 實(shí)驗(yàn)對(duì)比結(jié)果

      為了驗(yàn)證本文模型的有效性,評(píng)估了傳統(tǒng)機(jī)器學(xué)習(xí)分類算法和深度學(xué)習(xí)模型對(duì)抑郁和正常腦電圖信號(hào)的識(shí)別性能,表3將CBAM與基于手工特征的基線方法進(jìn)行了比較,這些傳統(tǒng)的分類算法被廣泛應(yīng)用于EEG的抑郁癥識(shí)別研究。這些方法的詳細(xì)信息和參數(shù)設(shè)置如下:

      1)支持向量機(jī)(SVM)是一種監(jiān)督廣義線性分類器。采用徑向基函數(shù)核,通過網(wǎng)格搜索在訓(xùn)練集上交叉驗(yàn)證得到最優(yōu)支持向量機(jī)參數(shù)(C={0.01,0.1,1,10,100},C={0.1,0.2,…,1,2,…,10})。

      2)決策樹(RF)是一個(gè)非參數(shù)監(jiān)督學(xué)習(xí)分類器。該算法由一組獨(dú)立的決策樹組成,并對(duì)最終結(jié)果進(jìn)行投票。在集合{5,10,20,50,100,500,1000}內(nèi)選擇RF的估計(jì)量。

      3)邏輯回歸(LR)是一個(gè)監(jiān)督廣義線性分類器。該算法采用極大似然法對(duì)模型參數(shù)進(jìn)行估計(jì)。選擇L1正則化在LR中引入稀疏性,在訓(xùn)練集上通過交叉驗(yàn)證找到最優(yōu)正則化參數(shù)C。

      4)k-最近鄰(KNN)是一種監(jiān)督非參數(shù)分類器。該算法采用K個(gè)最近鄰的多數(shù)票對(duì)輸入數(shù)據(jù)進(jìn)行分類。

      5)深度信念網(wǎng)絡(luò)(DBN)是一個(gè)概率分類器。由三層組成,第一層為高斯二進(jìn)制RBM,另外兩層為二進(jìn)制RBM。

      表4展示了CBAM和其他深度學(xué)習(xí)模型在抑郁癥識(shí)別的數(shù)據(jù)集上的分類性能,證明了本文構(gòu)建模型的有效性,能夠充分學(xué)習(xí)EEG空域、時(shí)域和頻域特征,相較于單獨(dú)的網(wǎng)絡(luò)結(jié)構(gòu)有著很高的性能,識(shí)別抑郁癥的準(zhǔn)確率高達(dá)99.10%,比CNN[14]、BiLSTM[15]、CNN-BiLSTM[16]模型的準(zhǔn)確率和F1Score分別高出了13.48%、11.60%,5.10%、1.85%和4.10%、1.77%。由此可以看出,腦電圖的空間、時(shí)間和頻率信息作為CBAM模型的輸入十分關(guān)鍵。

      3.6 消融實(shí)驗(yàn)研究

      為了驗(yàn)證AM模塊對(duì)本模型的影響,本文進(jìn)行了必要的消融實(shí)驗(yàn),與CNN-BiLSTM相比,在其基礎(chǔ)上加入AM,獲取腦電信號(hào)中最重要的局部信息,充分挖掘序列的依賴性,通過全連接網(wǎng)絡(luò)實(shí)現(xiàn)抑郁癥的準(zhǔn)確識(shí)別。另外,還對(duì)比了其準(zhǔn)確率、參數(shù)量和訓(xùn)練時(shí)間。為避免單次實(shí)驗(yàn)結(jié)果的偶然性,重復(fù)進(jìn)行10次實(shí)驗(yàn)求取平均值作為最終結(jié)果,如表5所示。

      對(duì)比CNN-BiLSTM模型和本文模型,AM將計(jì)算資源集中在權(quán)重較大的特征上,從而減少了時(shí)間開銷,而且在準(zhǔn)確率上得到進(jìn)一步提升了4.62%。

      圖6展示了CNN-BiLSTM和CBAM模型的準(zhǔn)確率和損失函數(shù)的變化過程。其中,CBAM模型訓(xùn)練過程更穩(wěn)定,識(shí)別抑郁的準(zhǔn)確率最終穩(wěn)定在99.10%的位置,明顯優(yōu)于CNN-BiLSTM模型。通過消融實(shí)驗(yàn)說明,添加注意力機(jī)制模塊保證了較高的識(shí)別率,模型能將注意力更多地集中在抑郁特征明顯的區(qū)域,從而起到了關(guān)鍵性的作用。

      為了驗(yàn)證模型的先進(jìn)性,本文將分類結(jié)果與2017至2021年最先進(jìn)的抑郁識(shí)別算法進(jìn)行了比較,所有算法的使用的數(shù)據(jù)集都是HUSM數(shù)據(jù)集。另一方面,為了進(jìn)行公平的比較,所有方法均采用10倍交叉驗(yàn)證技術(shù)進(jìn)行驗(yàn)證,如表6所示。

      從表6可以看出,本文提出的方法分類性能依舊表現(xiàn)最佳。其中,在小波變換+LR和 Alpha能量+DBN或SVM的機(jī)器學(xué)習(xí)方法上,輸入的特征太過單一,無法蘊(yùn)含豐富的EEG抑郁特征,模型識(shí)別率過低,分類性能較差;在與1DCNN+LSTM的比較上,突顯了注意力機(jī)制的對(duì)局部信息的捕捉,CBAM在準(zhǔn)確率上提升了3.13%;在不對(duì)稱圖像+CNN的比較上,由于單一的CNN模型只提取了腦電信號(hào)的空域和頻域特征,忽視了EEG的時(shí)域特征。綜合來看,本文提出的方法比其他網(wǎng)絡(luò)表現(xiàn)性能最高。另外,混淆矩陣是二分類任務(wù)中常見的評(píng)價(jià)指標(biāo),使用訓(xùn)練好的模型對(duì)測試集756個(gè)樣本進(jìn)行分類效果測試?;煜仃嚾鐖D7所示,由混淆矩陣計(jì)算得模型的單次測試準(zhǔn)確率為99.10%。

      3.7 數(shù)據(jù)增強(qiáng)的結(jié)果

      第1.4節(jié)詳細(xì)描述了圖像領(lǐng)域常用的4種數(shù)據(jù)增強(qiáng)方法,因?yàn)閷?duì)數(shù)據(jù)進(jìn)行簡單的空間變化(翻轉(zhuǎn)、滑動(dòng)、旋轉(zhuǎn))或數(shù)值變化(噪聲相加),簡單易行。還有其他的數(shù)據(jù)增強(qiáng)方法,如GAN[22]和AutoAugment[23]等,但是考慮到場景的適用性,本文只比較了四種常用的數(shù)據(jù)增強(qiáng)方法。

      在本實(shí)驗(yàn)中,加噪增強(qiáng)方法優(yōu)勢最為明顯,因?yàn)樵摲椒▽?duì)空間特征分布的影響最小,降低了網(wǎng)絡(luò)過擬合的風(fēng)險(xiǎn),準(zhǔn)確率為99.10%,比基本精度提高了4.80%?;瑒?dòng)窗口策略比原本提高了1.80%。而采用的翻轉(zhuǎn)和旋轉(zhuǎn)兩種增強(qiáng)方法精度下降2.2%~4.2%。圖8詳細(xì)顯示了不同數(shù)據(jù)增強(qiáng)對(duì)實(shí)驗(yàn)準(zhǔn)確率的影響。

      造成這一現(xiàn)象的原因是添加噪聲策略優(yōu)化了特征的空域分布。因?yàn)樯窠?jīng)網(wǎng)絡(luò)很可能會(huì)學(xué)習(xí)到無用的高頻特征,比如地形圖中不良電極引起的高頻噪聲導(dǎo)致過擬合的現(xiàn)象。均值為0的高斯噪聲在所有頻率點(diǎn)上都有數(shù)據(jù),可以有效緩解高頻噪聲的影響,在一定程度上增強(qiáng)學(xué)習(xí)能力。同樣認(rèn)為滑動(dòng)窗口策略也引入了一些無關(guān)但有用的噪聲,這些噪聲會(huì)影響腦地形圖的分布,增強(qiáng)神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力。另外,本文采用的翻轉(zhuǎn)和旋轉(zhuǎn)策略降低了模型的性能,因?yàn)橐钟舢a(chǎn)生的特征在大腦不同區(qū)域是不對(duì)稱的,這是網(wǎng)絡(luò)需要學(xué)習(xí)的內(nèi)容。這兩種方法生成的特征圖像包含了大量的空域信息,而且會(huì)破壞特征的空間分布。

      4 結(jié) 論

      在這項(xiàng)工作中,本文提出了一個(gè)新的二元分類模型,提取EEG的空域、時(shí)域和頻域特征。采用CWT信號(hào)處理方法,將得到的空間、頻率和時(shí)間信息與CBAM模型相結(jié)合進(jìn)行分類。同時(shí),為了減少數(shù)據(jù)樣本量小引起的過擬合問題,使用了4種數(shù)據(jù)增強(qiáng)的方法來擴(kuò)展數(shù)據(jù)集。加入噪聲策略后,數(shù)據(jù)的分類準(zhǔn)確率提高了6.30%。實(shí)驗(yàn)結(jié)果表明,多域特征融合的 CBAM模型在公共數(shù)據(jù)集上取得了99.10%的準(zhǔn)確率。通過對(duì)比實(shí)驗(yàn)驗(yàn)證了該方法的有效性和優(yōu)越性。但仍存在一些需要改進(jìn)的問題:本研究僅對(duì)心理狀態(tài)進(jìn)行定性分析,應(yīng)將定量分析加入到未來的研究中。例如,可以根據(jù)程度來檢測抑郁癥,可分為正常、輕度、中度、重度。

      參 考 文 獻(xiàn):

      [1] REDDY M S. Depression-the Global Crisis[J]. Indian Journal of Psychological Medicine, 2012, 34(3): 201.

      [2] SHARMILA V J, PONMANI P R. Depression Detection in Working Environment Using 2D CSM and CNN with EEG Signals[C]//2022 9th International Conference on Computing for Sustainable Global Development (INDIACom). IEEE, 2022: 722.

      [3] SEAL A, BAJPAI R, AGNIHOTRI J, et al. DeprNet: A Deep Convolution Neural Network Framework for Detecting Depression Using EEG[J]. IEEE Transactions on Instrumentation and Measurement, 2021, 70: 1.

      [4] 柳秀,馬善濤,謝怡寧,等.面向軸承故障診斷的深度學(xué)習(xí)方法[J].哈爾濱理工大學(xué)學(xué)報(bào),2022,27(4):118.

      LIU Xiu, MA Shantao, XIE Yining, et al. Deep Learning Method for Bearing Fault Diagnosis[J]. Journal of Harbin University of Science and Technology, 2022, 27 (4): 118.

      [5] 蘭朝鳳,陳英淇,林小佳,等.面向語音分離的GA_FastICA算法[J].哈爾濱理工大學(xué)學(xué)報(bào),2022,27(6):80.

      LAN Chaofeng, CHEN Yingqi, LIN Xiaojia, et al. GA_FastICA Algorithm for Speech Separation[J]. Journal of Harbin University of Science and Technology, 2022, 27(6): 80.

      [6] 王照偉,劉傳帥,趙文祥,等.多尺度多任務(wù)注意力卷積神經(jīng)網(wǎng)絡(luò)滾動(dòng)軸承故障診斷方法[J/OL].電機(jī)與控制學(xué)報(bào):1[2023-06-28].

      WANG Zhaowei, LIU Chuanshuai, ZHAO Wenxiang, et al. Multi-scale Multi-task Attention Convolutional Neural Network Rolling Bearing Fault Diagnosis Method [J/OL]. Journal of Electrical Machinery and Control: 1[2023-06-28].

      [7] ZHENG X, CHEN W. An Attention-based Bi-LSTM Method for Visual Object Classification Via EEG[J]. Biomedical Signal Processing and Control, 2021, 63: 102174.

      [8] GRIN-YATSENKO V A, BAAS I, PONOMAREV V A, et al. Independent Component Approach to the Analysis of EEG Recordings at Early Stages of Depressive Disorders[J]. Clinical Neurophysiology, 2010, 121(3): 281.

      [9] BASHIVAN P, RISH I, YEASIN M, et al. Learning Representations from EEG with Deep Recurrent-convolutional Neural Networks[J]. arXiv Preprint arXiv:1511.06448, 2015.

      [10]AKIMA H. A New Method of Interpolation and Smooth Curve Fitting Based on Local Procedures[J]. Journal of the ACM (JACM), 1970, 17(4): 589.

      [11]MUMTAZ W, XIA L, MOHD YASIN M A, et al. A Wavelet-based Technique to Predict Treatment Outcome for Major Depressive Disorder[J]. PloS One, 2017, 12(2): e0171409.

      [12]KLEM G H. The Ten-twenty Electrode System of the International Federation. the Internanional Federation of Clinical Nenrophysiology[J]. Electroencephalogr. Clin. Neurophysiol. Suppl., 1999, 52: 3.

      [13]劉澤新,王希貴,林文樹.基于Adams的森林防火機(jī)器人履帶平臺(tái)設(shè)計(jì)與動(dòng)力學(xué)仿真[J].森林工程, 2021,37(5):65.

      LIU Zexin, WANG Xigui, LIN Wenshu. Design and Dynamics Simulation of Forest Fire Prevention Robot Crawler Platform Based on Adams[J]. Forest Engineering, 2021,37(5):65.

      [14]LI X, LA R, WANG Y, et al. EEG-based Mild Depression Recognition Using Convolutional Neural Network[J]. Medical & Biological Engineering & Computing, 2019, 57: 1341.

      [15]HAMID D S B A, GOYAL S B, BEDI P. Integration of Deep Learning for Improved Diagnosis of Depression Using EEG and Facial Features[J]. Materials Today: Proceedings, 2023, 80: 1965.

      [16]WANG Z, MA Z, LIU W, et al. A Depression Diagnosis Method Based on the Hybrid Neural Network and Attention Mechanism[J]. Brain Sciences, 2022, 12(7): 834.

      [17]MAHATO S, PAUL S. Detection of Major Depressive Disorder Using Linear and Non-linear Features from EEG Signals[J]. Microsystem Technologies, 2019, 25(3): 1065.

      [18]MAHATO S, PAUL S. Classification of Depression Patients and Normal Subjects Based on Electroencephalogram (EEG) Signal Using Alpha Power and Theta Asymmetry[J]. Journal of Medical Systems, 2020, 44(1): 1.

      [19]MUMTAZ W, QAYYUM A. A Deep Learning Framework for Automatic Diagnosis of Unipolar Depression[J]. International Journal of Medical Informatics, 2019, 132: 103983.

      [20]KANG M, KWON H, PARK J H, et al. Deep-asymmetry: Asymmetry Matrix Image for Deep Learning Method in Pre-screening Depression[J]. Sensors, 2020, 20(22): 6526.

      [21]SAEEDI M, SAEEDI A, MAGHSOUDI A. Major Depressive Disorder Assessment Via Enhanced K-nearest Neighbor Method and EEG Signals[J]. Physical and Engineering Sciences in Medicine, 2020, 43(3): 1007.

      [22]顧永濤,徐澤禹,盛慶博,等.基于生成對(duì)抗網(wǎng)絡(luò)的光伏出力區(qū)間預(yù)測方法[J].哈爾濱理工大學(xué)報(bào), 2021,26(2):100.

      GU Yongtao, XU Zeyu, SHENG Qingbo, et al. Photovoltaic Output Interval Prediction Method Based on Generative Confrontation Network[J]. Journal of Harbin University of Science and Technology, 2021,26(2):100.

      [23]CUBUK E D, ZOPH B, MANE D, et al. Autoaugment: Learning Augmentation Policies from Data[J]. arXiv Preprint arXiv:1805.09501, 2018.

      (編輯:溫澤宇)

      会理县| 鹿邑县| 武强县| 韶关市| 卢龙县| 泗洪县| 桐柏县| 梅州市| 宝鸡市| 平罗县| 米脂县| 伊宁市| 玛纳斯县| 自贡市| 扎囊县| 积石山| 木里| 吉木乃县| 鄂州市| 林州市| 耿马| 德兴市| 昌平区| 荣成市| 浪卡子县| 莲花县| 广河县| 民丰县| 南投市| 禄劝| 裕民县| 长岭县| 浮山县| 石柱| 颍上县| 德庆县| 阿勒泰市| 察隅县| 鲁山县| 正阳县| 临汾市|