韓威 李昌 劉厶元 劉偉鑫 邱澤帆
基于CNN的心音特征融合分類方法*
韓威1,2李昌2劉厶元1劉偉鑫1,2邱澤帆2
(1.廣東工業(yè)大學(xué) 2.廣東省智能制造研究所 廣東省現(xiàn)代控制技術(shù)重點(diǎn)實(shí)驗(yàn)室)
針對TFF1dCNN方法利用一維CNN分別對各心音片段的4個頻帶信號提取特征,可能無法充分提取各頻帶信號間相關(guān)信息的問題,提出TFF2dCNN方法。先將4個頻帶信號融合成二維信號;再由二維CNN進(jìn)行特征提取和分類。實(shí)驗(yàn)結(jié)果表明,該方法提升了分類正確率。此外,還分析了心音樣本的分類正確率與其包含的心動周期數(shù)的關(guān)系。
心音分類;心音特征融合;CNN
據(jù)世界衛(wèi)生組織統(tǒng)計(jì),心血管疾病是全球第一大死因[1]。心音是診斷心血管疾病的主要醫(yī)學(xué)信號,心音分類可為心血管疾病進(jìn)一步檢查提供初步線索。當(dāng)前常用的心音聽診受醫(yī)生經(jīng)驗(yàn)、心理/生理等因素影響,無法保證診斷結(jié)果的準(zhǔn)確性和可靠性。因此,心音自動分類近年來成為國內(nèi)外研究熱點(diǎn)[2-3]。與傳統(tǒng)心音分類方法[4-5]依靠人工經(jīng)驗(yàn)選擇心音信號特征進(jìn)行分類相比,深度學(xué)習(xí)方法從原始數(shù)據(jù)或高維特征數(shù)據(jù)中自動提取低維特征,可獲得更好的心音分類效果,已成為主流心音分類方法[6-7]。
在2016年心音分類挑戰(zhàn)賽中[8],Potes等提出的TFF1dCNN方法[9]獲得第一名。本文對TFF1dCNN方法中的一維CNN(Convolutional Neural Network)分類流程進(jìn)行改進(jìn),提出TFF2dCNN方法。
TFF1dCNN方法提取124個時頻特征輸入Adaboost分類器;然后提取各心音片段的4個頻帶信號(25 Hz ~45 Hz,45 Hz~80 Hz,80 Hz~200 Hz及200 Hz ~400 Hz)輸入一維CNN分類器;最后將2個分類器的結(jié)果融合決策得到心音分類結(jié)果。Adaboost和一維CNN融合分類示意圖如圖1所示。
圖1 TFF1dCNN方法中Adaboost和一維CNN融合分類示意圖
一維CNN分類器分類流程:每個頻帶信號先分別經(jīng)一維CNN提取特征;再由全連接層進(jìn)行特征融合運(yùn)算;最終輸出分類結(jié)果。此分類流程利用一維CNN分別對每個頻帶信號提取特征,可能無法充分提取各頻帶信號之間的相關(guān)信息,造成需由多個頻帶信號才能準(zhǔn)確表達(dá)的心血管疾病易被誤判,從而影響心音分類效果。為此,本文提出TFF2dCNN方法。
本文提出的TFF2dCNN方法采用與TFF1dCNN方法相同的預(yù)處理和特征提取流程,如圖2所示。
圖2 心音特征提取流程圖
圖2中心音信號預(yù)處理流程:以1000 Hz采樣率對心音信號進(jìn)行重采樣;并對采樣信號進(jìn)行25 Hz ~400 Hz帶通濾波;采用Springer等[10]提出的方法將心音信號分割為若干心動周期。一次完整的心動周期由第一心音(S1)、收縮期(systole)、第二心音(S2)和舒張期(diastole)4個狀態(tài)組成。
圖2中124個時頻特征包括36個時域特征、36個頻域特征和52個MFCC(Mel-Frequency Cepstrum Coefficient)特征。時頻特征提取流程:各心動周期、第一心音、收縮期、第二心音、舒張期等的時長均值和標(biāo)準(zhǔn)差,各收縮期與心動周期的時長之比、各舒張期與心動周期的時長之比、各收縮期與舒張期的時長之比等的均值和標(biāo)準(zhǔn)差,共計(jì)16個與心音時長相關(guān)的時域特征;各收縮期與第一心音的平均絕對振幅之比、各舒張期與第二心音的平均絕對振幅之比等的均值和標(biāo)準(zhǔn)差,各第一心音、收縮期、第二心音、舒張期幅值偏度的均值和標(biāo)準(zhǔn)差,各第一心音、收縮期、第二心音、舒張期幅值峰度的均值和標(biāo)準(zhǔn)差,共計(jì)20個與心音信號幅值相關(guān)的時域特征;先將各第一心音、收縮期、第二心音和舒張期的信號分解為9個頻段(25 Hz ~45 Hz,45 Hz ~65 Hz,65 Hz ~85 Hz,85 Hz ~105 Hz,105 Hz ~125 Hz,125 Hz ~150 Hz,150 Hz ~200 Hz,200 Hz及~300 Hz及300 Hz ~400 Hz),再計(jì)算每個頻段信號中值功率的均值,共計(jì)可得36個頻域特征;計(jì)算各第一心音、收縮期、第二心音、舒張期信號的MFCC,選擇前13個MFCC,則共計(jì)可得52個MFCC特征。
圖2中各心音片段的4個頻帶信號提取流程為:先從每個第一心音開始選取時長為2.5 s的信號作為一個心音片段;再將心音片段分解至4個頻帶信號。根據(jù)預(yù)先統(tǒng)計(jì),最長的心動周期不超過2.5 s,因此一個心音片段能覆蓋一次完整的心動周期信號。由于每個第一心音都會產(chǎn)生一個心音片段,因此一段心音信號的心音片段數(shù)與其心動周期數(shù)相等。
在心音分類中,本文仍然采用TFF1dCNN方法中的Adaboost分類模型(如圖1所示),僅采用二維CNN分類器對其一維CNN分類模型進(jìn)行改進(jìn)。本文提出的TFF2dCNN方法的分類模型如圖3所示。其中二維CNN分類器的分類流程為:先將4個頻帶信號融合成二維信號;再由二維CNN運(yùn)算進(jìn)行特征提?。蝗缓蠼?jīng)全連接層運(yùn)算;最終輸出心音分類結(jié)果。
圖3 TFF2dCNN方法的分類模型示意圖
本文實(shí)驗(yàn)數(shù)據(jù)集來源于CinC2016[11],此數(shù)據(jù)集有3240個心音樣本,分為正常(2575個)和異常(665個)2大類。
采用敏感性(Se)、特異性(Sp)和平均正確率(MAcc)來衡量心音分類效果。Se和Sp分別表示異常樣本和正常樣本被正確預(yù)測的概率;MAcc為Se和Sp的算術(shù)平均值,是最終的評價指標(biāo)。
每次實(shí)驗(yàn)隨機(jī)選擇若干心音樣本進(jìn)行訓(xùn)練,其余樣本用于測試。本文以完整的心音樣本為單位劃分訓(xùn)練集和測試集,這樣可確保來自同一心音樣本的所有心音片段只能被分為訓(xùn)練集或測試集。
3.2.1 分類性能
為更好地評估分類效果,本文采用不同訓(xùn)練樣本占比(訓(xùn)練樣本數(shù)占總樣本數(shù)的比例)進(jìn)行實(shí)驗(yàn)。具體包括:從訓(xùn)練樣本占比為2%(2%異常樣本和2%正常樣本)開始,每次增加2%的訓(xùn)練樣本,直到訓(xùn)練樣本占比達(dá)到10%;然后每次增加20%的訓(xùn)練樣本,直到訓(xùn)練樣本占比達(dá)到90%。為獲得穩(wěn)定的分類結(jié)果,每個訓(xùn)練樣本占比實(shí)驗(yàn)重復(fù)10次,最終的分類結(jié)果是這10次重復(fù)實(shí)驗(yàn)的平均值和標(biāo)準(zhǔn)差。表1給出了TFF2dCNN和TFF1dCNN兩種方法的分類結(jié)果。
表1 兩種方法的分類結(jié)果
由表1可以看出,本文采用基于二維CNN的分類模型代替TFF1dCNN方法中基于一維CNN的分類模型后,分類結(jié)果MAcc增大。此外,隨著訓(xùn)練樣本量增加,分類性能也隨之提升。
3.2.2 心動周期數(shù)與分類性能的關(guān)系
一個心音樣本被分割為若干心音片段,每個片段開始于每個心動周期的第一心音,這意味著每個心音樣本的片段數(shù)等于其心動周期數(shù)。數(shù)據(jù)集中所有心音樣本包含的心動周期數(shù)在2~109。訓(xùn)練樣本占比為90%的情況下,統(tǒng)計(jì)心動周期數(shù)與分類正確率的關(guān)系,如圖4所示。
圖4 心動周期數(shù)與分類正確率的關(guān)系
由圖4可以看出,樣本的心動周期數(shù)越多,越有可能被正確分類。這是由于更多的心動周期能提供更多的分類信息。
本文提出的TFF2dCNN方法先將4個頻帶信號融合;再通過二維CNN運(yùn)算提取心音特征,有利于提取各頻帶信號之間的相關(guān)信息,提高了分類正確率。此外,心音樣本中心動周期數(shù)越多,其被正確分類的可能性就越大。
[1] www.who.int/mediacentre/factsheets/fs317/en/
[2] Clifford G D, Liu C, Moody B E, et al. Recent advances in heart sound analysis [J]. Physiological Measurement, 2017, 38(8): E10-E25.
[3] 雷志彬,陳駿霖.基于全連接LSTM的心肺音分離方法[J].自動化與信息工程,2018,39(6):25-30.
[4] Redlarski G, Gradolewski D, Palkowski A. A system for heart sounds classification [J]. PloS one, 2014, 9(11):e112673.
[5] Whitaker B M, Suresha P B, Liu C. Combining sparse coding and time-domain features for heart sound classification [J]. Physiological Measurement, 2017, 38(8):1701-1729.
[6] Dominguez-Morales J P, Jimenez-Fernandez A F, Dominguez-Morales M J, et al. Deep neural networks for the recognition and classification of heart murmurs using neuromorphic auditory sensors [J]. IEEE Transactions on Biomedical Circuits & Systems,2018,12(1):24-34.
[7] Maknickas V, Maknickas A. Recognition of normal–abnormal phonocardiographic signals using deep convolutional neural networks and mel-frequency spectral coefficients [J]. Physiological Measurement, 2017, 38(8): 1671–1684
[8] http://physionet.incor.usp.br/challenge/2016/
[9] Potes C, Parvaneh S, Rahman A, et al. Ensemble of feature-based and deep learning-based classifiers for detection of abnormal heart sounds[C]. 2016 Computing in Cardiology Conference (CinC). IEEE, 2016: 621-624.
[10] Springer D, Tarassenko L, Clifford G. Logistic regression- HSMM-based heart sound segmentation [J]. IEEE Transactions on Biomedical Engineering, 2016,63(4):822- 832.
[11] Liu Chengyu, Springer David, Li Qiao, et al. An open access database for the evaluation of heart sound algorithms [J]. Physiological Measurement, 2016, 37(12):2181-2213.
Classification Method of Heart Sound Feature Fusion Based on CNN
Han Wei1,2Li Chang2Liu Siyuan1Liu Weixin1,2Qiu Zefan2
(1.Guangdong University of Technology 2. Guangdong Institute of Intelligent Manufacturing, Guangdong Key Laboratory of Modern Control Technology)
The TFF1dCNN method uses one-dimensional CNN to extract the features of four frequency bands signal of each heart sound segment, and there is a problem that the relevant information between each frequency band may not be fully extracted. This paper proposes the TFF2dCNN method. The four frequency bands signal are firstly combined into a two-dimensional signal, and then the features extraction and classification are carried out by two-dimensional CNN. Experimental results show that the proposed method improves the classification accuracy. In addition, this paper also analyzes the relationship between the classification accuracy of heart sound and the number of cardiac cycles it contains.
Heart Sound Classification; Heart Sound Features Fusion; Convolutional Neural Network
國家自然科學(xué)基金項(xiàng)目(61803107);廣州市科技計(jì)劃項(xiàng)目(201803020025,201906010036);廣東省科學(xué)院人才項(xiàng)目(2019GDASYL-0105069)。
韓威,男,1987年生,博士研究生,助理研究員,主要研究方向:心音信號處理、聲學(xué)傳感與檢測。
劉厶元(通信作者),男,1994年生,碩士研究生,主要研究方向:生物醫(yī)學(xué)信號處理。E-mail: lsy_gudt@sina.com