李明輝 趙鵬軍 李丕丁
摘? 要: 為探究復(fù)雜場(chǎng)景下心音信號(hào)的準(zhǔn)確識(shí)別方案,提出了基于PSO_WT與改進(jìn)的CAGA_CNN算法融合的方案。首先構(gòu)造PSO_WT對(duì)采集的心音數(shù)據(jù)集進(jìn)行去噪;其次將去噪后的心音數(shù)據(jù)轉(zhuǎn)化為波形圖進(jìn)行特征提取;再者基于改進(jìn)的CAGA_CNN網(wǎng)絡(luò)對(duì)心音信號(hào)進(jìn)行識(shí)別。為了驗(yàn)證本文提出算法的有效性,進(jìn)行了模型的性能分析以及基于不同的算法模型進(jìn)行驗(yàn)證。實(shí)驗(yàn)結(jié)果表明,本文算法具有較好的降噪能力,以及更高的識(shí)別精度和收斂速度。
關(guān)鍵詞: PSO_WT; CAGA_CNN; 心音識(shí)別; 智能診斷
中圖分類號(hào):TP306+.3? ? ?文獻(xiàn)標(biāo)識(shí)碼:A? ? ? ? 文章編號(hào):1006-8228(2023)06-54-06
Research on heart sound recognition based on PSO_ WT
and improved CAGA_CNN algorithm
Li Minghui1, Zhao Pengjun2, Li Piding1
(1. School of Health Science and Engineering, Shanghai University of Technology, Shanghai 200082, China;
2. Xinhua Hospital, Affiliated to Shanghai Jiaotong University School of Medicine)
Absrtact: In order to explore the accurate recognition scheme of heart sound signals in complex scenes, a new method based on PSO_WT and improved CAGA_CNN algorithm fusion scheme is proposed. PSO_WT is constructed to denoise the collected heart sound data set, the de-noised heart sound data is converted into waveform for feature extraction, and the heart sound signal is recognized based on the improved CAGA_CNN network. The performance of the model is analyzed and verified based on different algorithm models to verify the effectiveness of the proposed algorithm. The experimental results show that it has better noise reduction ability, higher recognition accuracy and convergence speed.
Key words: PSO_WT; CAGA-CNN; heart sound recognition; intelligent diagnosis
0 引言
心血管疾病是死亡率較高的病癥之一,有數(shù)據(jù)顯示,全球有接近75%的國(guó)家受到心血管疾病的影響[1],美國(guó)每年死亡率中有將近34.3%的病癥與心腦血管疾病有關(guān)[2,3]。在心音聽診方面,建立一套全面、完整的心音信息自動(dòng)識(shí)別系統(tǒng)對(duì)心血管疾病的早期發(fā)現(xiàn)和準(zhǔn)確治療具有重要的研究意義[4]。隨著人工智能的快速發(fā)展,智能化的診斷設(shè)備越來(lái)越符合人們的需求。
根據(jù)研究表明[5],心音信號(hào)蘊(yùn)藏著大量心電圖不能檢測(cè)/反映出的信號(hào),如果可以對(duì)將該信號(hào)進(jìn)行充分挖掘以及整合和利用,就可以彌補(bǔ)醫(yī)生聽覺的局限性以及判斷的主觀性。文獻(xiàn)[6]認(rèn)為,對(duì)于冠狀動(dòng)脈阻塞類疾病只有當(dāng)阻塞率較高時(shí)才會(huì)被檢測(cè)出。對(duì)此,在對(duì)心臟相關(guān)疾病檢測(cè)中,可以把心音信號(hào)作為一個(gè)重要的評(píng)價(jià)指標(biāo)加以利用。
常用的心音分類數(shù)據(jù)集主要是PhysioNet/CinC2016[7]和PASCAL[8]。這兩個(gè)數(shù)據(jù)集是通過(guò)不同數(shù)據(jù)采集設(shè)備以及存在不同程度的信號(hào)重疊噪聲的原始數(shù)據(jù)。文獻(xiàn)[9]基于PhysioNet數(shù)據(jù)集提出了一種輕量級(jí)的CNN網(wǎng)絡(luò)模型,以較少的卷積層和全連接層來(lái)對(duì)心音圖像數(shù)據(jù)進(jìn)行特征提取。作者首先將心音圖(PCG)信號(hào)分割成固定大小的窗口,并對(duì)窗口內(nèi)的塊信號(hào)通過(guò)時(shí)頻分析轉(zhuǎn)為時(shí)頻圖;然后對(duì)時(shí)頻圖進(jìn)行特征提??;最后提出基于遷移學(xué)習(xí)的方式對(duì)PhysioNet數(shù)據(jù)集進(jìn)行異常檢測(cè)。K.Wo?k和A.Wo?k等人為了解決PASCAL數(shù)據(jù)集振幅低、噪聲大等問(wèn)題,基于ResNet網(wǎng)絡(luò)對(duì)PASCAL數(shù)據(jù)集進(jìn)行分類[10],其最高的識(shí)別精度只能達(dá)到59.78%。文獻(xiàn)[11]將不同階段的心音信號(hào)作為特征取得了一定的效果。文獻(xiàn)[12]提出了心音信號(hào)分割算法以及根據(jù)信號(hào)能量對(duì)信號(hào)進(jìn)行標(biāo)定,最終提取出了不同周期在時(shí)域及頻域上心音的特征數(shù)據(jù),基于此特征對(duì)17中心音進(jìn)行了精確的分類。文獻(xiàn)[13]基于EMD進(jìn)行信號(hào)特征提取,融合多個(gè)特征對(duì)5種異常信號(hào)進(jìn)行識(shí)別取得了較好的識(shí)別性能。常用的心音分類模型有人工神經(jīng)網(wǎng)絡(luò)、高斯混合模型、支持向量機(jī)等。文獻(xiàn)[14]提出一種加權(quán)可選擇模糊C均值算法對(duì)GMM進(jìn)行改進(jìn),其克服了傳統(tǒng)GMM參數(shù)初始化K-means的缺陷。Christian Thomae[15]基于深度神經(jīng)網(wǎng)絡(luò)對(duì)心音信號(hào)進(jìn)行識(shí)別取得了較好的識(shí)別效果。H.Hussain[16]等人對(duì)心音識(shí)別構(gòu)建了隱馬爾可夫模型取得了較高的識(shí)別精度。
對(duì)于心音識(shí)別的研究,研究者大多注重如何獲取心音數(shù)據(jù)的表征特征和如何對(duì)噪聲進(jìn)行抑制?;诖耍疚奶岢隽烁倪M(jìn)的小波心音去噪算法,進(jìn)而提出基于混沌算法與改進(jìn)的自適應(yīng)遺傳算法相結(jié)合,優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)(CNN)對(duì)心音數(shù)據(jù)譜圖進(jìn)行識(shí)別。
1 算法描述
1.1 提出基于粒子群自適應(yīng)閾值心音小波去噪算法研究
⑴ 去噪算法概述
由于心音信號(hào)是時(shí)變、非平穩(wěn)信號(hào),其主要包括第一、二、三、四心音,其中第一、二心音信號(hào)較強(qiáng),第三、四心音信號(hào)較弱。心音信號(hào)波形圖如圖1所示。基于此,本文提出基于粒子群自適應(yīng)閾值心音小波去噪算法。
⑵ 離散小波去噪原理
對(duì)含有噪聲的心音信號(hào)可以用下式中⑴表示:
[yt=xt+n(t)]? ? ?⑴
其中,[y(t)]表示含噪的心音信號(hào),[x(t)]表示真實(shí)心音信號(hào),[n(t)]表示噪聲信號(hào),則離散的小波函數(shù)表示為[17]:
[φ?2-j,k?2-jt=2j2φ(2jt-k)]? ⑵
其中,[2-j]表示尺度因子,[k?2-j]表示平移因子。則離散心音小波變換可以表示為:
[WTxj,k=2j2-∞+∞x(t)φ*(t)?(2j?t-k)dt]? ⑶
其中,[φ*(t)]表示[φ(t)]的復(fù)共軛。
那么離散小波閾值去噪方法及過(guò)程如下:
① 首先,對(duì)包含噪聲的心音信號(hào)進(jìn)行小波變換時(shí),選擇較為合適的小波分解基以及對(duì)應(yīng)的小波基函數(shù);
② 對(duì)小波分級(jí)的參數(shù)進(jìn)行閾值選擇:
[wj,k=wj,k,|wj,k≥γ|0,|wj,k<γ|]? ⑷
其中,[γ]表示參數(shù)閾值,[wj,k]是小波分解系數(shù);
③ 基于公式⑷確定的去噪后的小波系數(shù)去對(duì)心音信號(hào)進(jìn)行重構(gòu),得到重構(gòu)后的心音信號(hào)[yt]。
通過(guò)以上分析可知,心音信號(hào)去噪算法最關(guān)鍵的是對(duì)閾值的合適選取,基于此,本文提出了基于粒子群算法對(duì)最優(yōu)閾值進(jìn)行選取。
⑶ 基于粒子群算法對(duì)心音去噪最優(yōu)閾值選取
為了使得小波心音去噪算法獲得最佳閾值、防止模型陷入局部最優(yōu)值的情況,本文選取了具有全局搜索能力較好的粒子群算法進(jìn)行全局尋優(yōu),并結(jié)合在最小均方誤差條件下找到最佳的閾值[T]。粒子群算法優(yōu)化搜索的流程如下所示[18]:
① 對(duì)所有的粒子進(jìn)行初始化,即對(duì)粒子的速度及位置賦值,以及將個(gè)體的最優(yōu)[pBest]當(dāng)做當(dāng)前的位置,群體中最有的粒子個(gè)體當(dāng)作當(dāng)前的[gBest];
② 在每一代的進(jìn)化中,計(jì)算各個(gè)粒子的適應(yīng)度函數(shù)值;
③ 若當(dāng)前的適應(yīng)度值優(yōu)于歷史值,則對(duì)歷史的[pBest]進(jìn)行更新;
④ 若當(dāng)前適應(yīng)度值更優(yōu)與全局歷史最優(yōu)值,則對(duì)[gBest]進(jìn)行更新;
⑤ 對(duì)每個(gè)粒子[i]的第[d]維的速度和位置分別基于式⑸進(jìn)行更新。
[vdi=w×vdi+c1×randd1×pBestdi-xdi+randd2×(gBestd-xdi)] ⑸
[xdi=xdi+vdi]? ⑹
其中,w是慣量權(quán)重,[c1]和[c2]是加速系數(shù),[randd1]和[randd2]是在[0,1]上的隨機(jī)數(shù);
⑥ 判斷算法是否達(dá)到了終止條件,若沒(méi)有,則轉(zhuǎn)到②繼續(xù)執(zhí)行。
本文基于粒子群的小波去噪算法設(shè)計(jì):首先,對(duì)采集的原始心音信號(hào)進(jìn)行小波變換;然后,建立小波變換系數(shù)MSE下閾值計(jì)算函數(shù);接著,基于粒子群算法對(duì)每層的小波系數(shù)進(jìn)行最佳閾值選??;最后,基于逆變換得到去噪的心音信號(hào)。流程如圖2所示。
1.2 提出基于改進(jìn)的CAGA_CNN網(wǎng)絡(luò)進(jìn)行心音識(shí)別
⑴ 自適應(yīng)遺傳算法
為了獲得較高的心音信號(hào)識(shí)別精度以及較快的收斂速度,本文引入遺傳算法。其經(jīng)典公式如下:
[Pc=k11fmax-favg,k1≤1.0Pm=k21fmax-favg,k2≤1.0]? ⑺
其中,[Pc]為交叉概率,[Pm]為變異概率,[fmax]為種群的最大適應(yīng)度,[favg]為種群的平均適應(yīng)度,[k]是取值范圍在(0,1)的常數(shù)。
通過(guò)式⑵發(fā)現(xiàn),交叉概率[Pc]和變異概率[Pm]是根據(jù)種群的適應(yīng)度的變化而變化的,但是也存在一些問(wèn)題:例如當(dāng)交叉概率和變異概率的增加會(huì)導(dǎo)致接近最優(yōu)個(gè)體被破壞,使得永遠(yuǎn)不會(huì)收斂到全局最優(yōu)解。因此,為了解決遺傳算法存在的問(wèn)題,研究者提出了自適應(yīng)遺傳算法(Adaptive Genetic Algorithm,AGA),它是對(duì)遺傳算法的一種改進(jìn)。具體改進(jìn)如下:
[Pc=Pcmax-Pcmax-Pcmin-f'-favgfmax-favg,f'≥favgP'cmax,? f' [Pm=Pmmax-Pmmax-Pmmin-f'-favgfmax-favg,f'≥favgP'mmax,? f' 其中,[f]表示兩個(gè)交叉?zhèn)€體中適應(yīng)度較大的適應(yīng)度。由式⑶和式⑷可以看出,本文算法可以較好的解決上述存在的問(wèn)題。 ⑵ 改進(jìn)的自適應(yīng)遺傳算法 雖然自適應(yīng)遺傳算法在一定程度上解決了交叉概率和變異概率停滯不前的狀態(tài),但是在超參數(shù)調(diào)優(yōu)過(guò)程中仍然會(huì)陷入局部最優(yōu)解[19,20]。 為了解決此問(wèn)題,本文提出通過(guò)自適應(yīng)遺傳算法與混沌算法相融合。由于混沌算法自身具有全局遍歷的特性,因此可以很好地解決上述問(wèn)題。具體是將混沌算法與自適應(yīng)算法相結(jié)合,對(duì)其中具有最高適應(yīng)度的個(gè)體給予一定的步長(zhǎng)混沌優(yōu)化搜索,解決自適應(yīng)遺傳算法可能陷入局部最優(yōu)解的情況,并加速搜索能力。logistic映射迭代公式為: [cxn+1=μ?xn?(1-cxn)]? ⑽ ⑶ 提出改進(jìn)的CAGA優(yōu)化CNN進(jìn)行心音識(shí)別 由于CNN在圖像識(shí)別的相關(guān)領(lǐng)域具有較好的識(shí)別作用,因此本文選取了CNN作為心音識(shí)別的主干網(wǎng)絡(luò)。同時(shí),為了防止在小樣本場(chǎng)景下模型的泛化能力差、收斂速度慢等問(wèn)題提出了將混沌算法與自適應(yīng)遺傳算法相結(jié)合優(yōu)化CNN的網(wǎng)絡(luò)結(jié)構(gòu)。此設(shè)計(jì)最大的難點(diǎn)在于如何將混沌自適應(yīng)遺傳算法應(yīng)用到卷積神經(jīng)網(wǎng)絡(luò)當(dāng)中,傳統(tǒng)的做法是將不同神經(jīng)元之間的權(quán)重與偏置當(dāng)作一個(gè)染色體,若這樣對(duì)每個(gè)參數(shù)都進(jìn)行訓(xùn)練就失去了模型加速的意義[21],因此本文提出將網(wǎng)絡(luò)中的卷積層和全連接層當(dāng)作一個(gè)染色體進(jìn)行調(diào)優(yōu),這樣的設(shè)計(jì)大大的減少了染色體的結(jié)構(gòu)規(guī)模,可以達(dá)到更快的收斂速度。具體的設(shè)計(jì)如圖3所示。 改進(jìn)的混沌自適應(yīng)遺傳算法優(yōu)化CNN對(duì)心音信號(hào)進(jìn)行識(shí)別流程圖如圖4所示。 2 實(shí)驗(yàn)結(jié)果與討論 2.1 數(shù)據(jù)來(lái)源 常用的心音數(shù)據(jù)主要有兩個(gè),分別是PhysioNet/CinC Challenge2016[22](記為數(shù)據(jù)集1)以及PASCAL數(shù)據(jù)集[23](即為數(shù)據(jù)集2)。本文主要使用數(shù)據(jù)集1進(jìn)行模型的訓(xùn)練與測(cè)試。數(shù)據(jù)集1是由訓(xùn)練集和測(cè)試集兩個(gè)部分組成,來(lái)自于世界各地臨床以及非臨床環(huán)境下采集的3240條數(shù)據(jù),其中正常的心音數(shù)據(jù)樣本665個(gè),異常樣本2575個(gè)[24],心音的原始數(shù)據(jù)如圖5所示。 2.2 基于PSO_WT對(duì)心音信號(hào)去噪 為了檢驗(yàn)本文提出的PSO優(yōu)化小波去噪算法的效果,本文選取了數(shù)據(jù)集1的兩種信號(hào)對(duì)其加入隨機(jī)噪聲,并利用本文提出的算法進(jìn)行去噪,再者將其與db5小波、bior5.5小波以及sym5小波進(jìn)行對(duì)比并通過(guò)MSE進(jìn)行分析去噪效果。利用構(gòu)造的心音小波、db5小波、bior5.5小波、sym5小波四種小波對(duì)心音信號(hào)進(jìn)行五層分解則: [s=d1+d2+d3+d4+d5+a5]? ?⑾ 其中,[dn]為n階細(xì)節(jié)系數(shù),[a5]是指5近似系數(shù)。由于實(shí)際的場(chǎng)景下,心音信號(hào)的頻率以及噪聲大多集中在高頻段,因此本文擬使用[d1,d2,d3,d4,d5]進(jìn)行重構(gòu),即為[24]: [s=d2+d3+d4+d5+a5]? ?⑿ 對(duì)數(shù)據(jù)集1中的正常心音信號(hào)與異常心音信號(hào)的原始圖像進(jìn)行四種小波去噪處理,處理結(jié)果如圖6和圖7所示。 經(jīng)過(guò)MSE、互相關(guān)系數(shù)R以及信噪比SNR驗(yàn)證,MSE、互相關(guān)系數(shù)R和信噪比SNR表達(dá)式如式⒀~式⒂所示。 ① 均方誤差(MSE) 將經(jīng)過(guò)小波處理后的信號(hào)與同類原始未被處理的信號(hào)之間的均方誤差: [MSE=1ni=1n|xi-x(i)2|]? ⒀ ② 互相關(guān)系數(shù)(R) 將經(jīng)過(guò)小波去噪后的信號(hào)與未被處理的信號(hào)之間的互相關(guān)系數(shù): [R=cov(x,x)/σxσx]? ⒁ ③ 信噪比(SNR) 將原始信號(hào)能量與噪聲信號(hào)能力之比: [SNR=10logPsPN]? ⒂ 其中,[Ps]表示原始心音信號(hào)的能量,[PN]表示噪聲信號(hào)的能量。 通過(guò)式⒀~式⒂,去噪處理后的結(jié)果整理為表1和表2。 在對(duì)數(shù)據(jù)集1進(jìn)行了四種小波去噪后發(fā)現(xiàn),異常心音信噪比最大,且整體的誤差較小,與原始信號(hào)互相關(guān)系數(shù)較好,其中本文提出的基于PSO_WT去噪算法效果達(dá)到了最佳,因此在后續(xù)的心音識(shí)別數(shù)據(jù)集本文基于提出的PSO_WT進(jìn)行心音譜圖轉(zhuǎn)化。 2.3 基于CAGA優(yōu)化CNN進(jìn)行心音識(shí)別 ⑴ 實(shí)驗(yàn)環(huán)境 本實(shí)驗(yàn)在PyTorch1.8.1(Python3.7.10+cu10.2)上運(yùn)行,并在NVIDIA GeForce RTX 2080Ti*2的圖形處理單元(GPU)上訓(xùn)練了150個(gè)epoch。使用的是帶有Intel?CoreTMi9-9820x CPU@3.30GHz x20處理器的臺(tái)式機(jī),64位linux操作系統(tǒng)Ubuntu18.04。具體實(shí)驗(yàn)環(huán)境信息如表3和表4所示。 ⑵ 心音識(shí)別結(jié)果 本實(shí)驗(yàn)?zāi)P陀?xùn)練和測(cè)試在數(shù)據(jù)集1上進(jìn)行,訓(xùn)練集、驗(yàn)證集和測(cè)試集是按照5:3:2的比例隨機(jī)劃分,圖像像素大小為256×256,迭代次數(shù)epoch為150次。首先,根據(jù)本文提出的CAGA_CNN網(wǎng)絡(luò)框架進(jìn)行模型訓(xùn)練;然后對(duì)訓(xùn)練好的模型進(jìn)行微調(diào),提高模型的識(shí)別性能,心音識(shí)別的結(jié)果如下所示: 由于PhysioNet數(shù)據(jù)集本身具有重疊噪聲,因此會(huì)嚴(yán)重影響心音信號(hào)的識(shí)別效果。與正常的檢測(cè)對(duì)比,該數(shù)據(jù)整體的識(shí)別準(zhǔn)確率較低。通過(guò)表4可以發(fā)現(xiàn),本文提出的CAGA優(yōu)化CNN在識(shí)別的精確度上優(yōu)于傳統(tǒng)CNN,取得了較好的識(shí)別性能。 ⑶ 模型性能分析 為了對(duì)于模型的性能進(jìn)行分析,本文分別對(duì)傳統(tǒng)的CNN網(wǎng)絡(luò)以及本文提出的CAGA_CNN網(wǎng)絡(luò)進(jìn)行迭代150次,探討所提出網(wǎng)絡(luò)模型與傳統(tǒng)的網(wǎng)絡(luò)模型的準(zhǔn)確率、損失率和收斂速度的變化情況。分析結(jié)果如圖8所示。 對(duì)心音識(shí)別精度及損失圖對(duì)比圖 通過(guò)圖8發(fā)現(xiàn),①本文提出的算法在識(shí)別的準(zhǔn)確率上得到了大大的提高,模型的損失在一定的程度上有所改善;②本文提出的網(wǎng)絡(luò)模型在迭代14次已經(jīng)達(dá)到了收斂,表明提出的算法具有較快的收斂速度。 3 結(jié)論 為了提出較好的心音去噪算法及心音識(shí)別模型本文提出了基于PSO_WT與改進(jìn)的CAGA_CNN算法對(duì)心音識(shí)別,主要工作如下: 首先,本文選取了不同場(chǎng)景下采集的、具有重疊噪聲的PhysioNet數(shù)據(jù)集進(jìn)行實(shí)驗(yàn);其次,首次搭建PSO_WT算法對(duì)心音信號(hào)進(jìn)行去噪處理;最后,提出改進(jìn)的CAGA_CNN網(wǎng)絡(luò)對(duì)心音信號(hào)進(jìn)行識(shí)別;實(shí)驗(yàn)結(jié)果表明,本文提出的算法具有較好的識(shí)別性能和較快的收斂時(shí)間。 參考文獻(xiàn)(References): [1] S. Latif, M. Y. Khan, A. Qayyum, J. Qadir, M. Usman, S. M. Ali, et al., "Mobile technologies for managing non-communicable diseases in developing countries," in Mobile applications and solutions for social inclusion, ed: IGI Global,2018:261-287 [2] M. E. Chowdhury, K. Alzoubi, A. Khandakar, R. Khallifa, R. Abouhasera, S. Koubaa, et al., "Wearable real-time heart attack detection and warning system to reduce road accidents," Sensors,2019,19:2780 [3] M. E. Chowdhury, A. Khandakar, K. Alzoubi, S. Mansoor, A. M Tahir, M. B. I. Reaz, et al., "Real-Time Smart-Digital stethoscope system for heart diseases monitoring," Sensors,2019,19:2781 [4] Kao W C,Wei C C.Automatic phonocardiograph signal analysis for detecting heart valve disorders[J].Expert Systems with Applications: An International Journal,2011,38(6):6458-6468 [5] 周酥.心音信號(hào)特征分析及其在輔助診斷中的價(jià)值[D]. 碩士,廣州:華南理工大學(xué),2012 [6] 羅鍵中,羅林.心臟聽診[M].北京:人民衛(wèi)生出版社,2001: 3-35 [7] U. Alam, O. Asghar, S. Q. Khan, S. Hayat, and R. A. Malik, "Cardiac auscultation: an essential clinical skill in decline," British Journal of Cardiology,2010,17:8 [8] G. D. Clifford, C. Liu, B. Moody, D. Springer, I. Silva, Q. Li, et al., "Classification of normal/abnormal heart sound recordings: The PhysioNet/Computing in Cardiology Challenge 2016," in 2016 Computing in Cardiology Conference (CinC),2016:609-612 [9] Khan K N, Khan F A, Abid A, et al. Deep learning based classification of unsegmented phonocardiogram spectrograms leveraging transfer learning[J].Physiological Measurement,2021,42(9):095003(17pp) [10] K. Wo?k and A. Wo?k, "Early and remote detection of possible heartbeat problems with convolutional neural networks and multipart interactive training" IEEE Access,2019,7:145921-145927 [11] 成謝鋒,陳亞敏.S1和S2共振峰頻率在心音分類識(shí)別中的 應(yīng)用[J].南京郵電大學(xué)學(xué)報(bào)(自然科學(xué)版),2017,37(5):7-12 [12] 吳云飛,周煜,陳天浩,等.基于自相關(guān)函數(shù)的心音周期提取 和識(shí)別[J].計(jì)算機(jī)與數(shù)字工程,2017,45(10):2068-2073 [13] 郭興明,何彥青,盧德林,等.平移不變小波在心音信號(hào)去噪 中的應(yīng)用[J].計(jì)算機(jī)工程與應(yīng)用,2014,50(24):209-212 [14] 張文英,郭興明,翁漸.改進(jìn)的高斯混合模型在心音信號(hào)分 類識(shí)別中應(yīng)用[J].振動(dòng)與沖擊,2014,33(6):29-34 [15] Thomae C, Dominik A. Using deep gated RNN with a convolutional front end for end-to-end classification of heart sound[C].Computing in Cardiology Conference. IEEE,2017 [16] Shhussain H, Mohamad M M, Zahilah R, et al. Classification of Heart Sound Signals Using Autoregressive Model and Hidden Markov Model[J]. Journal of Medical Imaging & Health Informatics,2017,7(4):755-763 [17] 周克良,邢素林,聶叢楠.基于自適應(yīng)閾值小波變換的心音 去噪方法[J].廣西師范大學(xué)學(xué)報(bào)(自然科學(xué)版),2016,34(1):19-25 [18] 何之煜.基于異構(gòu)粒子群算法的LKJ輔助駕駛優(yōu)化研究[J]. 鐵道標(biāo)準(zhǔn)設(shè)計(jì),2022(12):1-7 [19] Wang J D,Chen Y Q,Hao S J,et al.Deep learning for sensor-based activity recognition:A survey[J].Pa-ttern Recognition Letters,2019,119:11-13 [20] 萬(wàn)鵬,趙竣威,朱明,等.基于改進(jìn)Res Net50模型的大宗淡 水魚種類識(shí)別方法[J].農(nóng)業(yè)工程學(xué)報(bào),2021,37(12):159-168 [21] 蔣留兵,潘波,吳岷洋,等.基于FT_SSIM和ICAGA_CNN 在小樣本場(chǎng)景下雷達(dá)動(dòng)作識(shí)別方法研究[J].計(jì)算機(jī)應(yīng)用研究,2022,39(4):1105-1110 [22] PhysioNet/CinC Challenge 2016. https://physionet.org/ physiobank/database/challenge/2016/. [23] Bentley, P. and Nordehn, G. and Coimbra, M. and Mannor, S.: The PASCAL Classifying Heart Sounds Challenge 2011(CHSC2011) Results.http://www.peterjbentley.com/heartchallenge/index.html. [24] 李天雅.基于深度學(xué)習(xí)網(wǎng)絡(luò)的心音信號(hào)分類識(shí)別的研究[D]. 碩士,華南理工大學(xué),2018 [25] S.-W. Deng and J.-Q. Han, "Towards heart sound classification without segmentation via autocorrelation feature and diffusion maps," Future Generation Computer Systems,2016,60:13-21 [26] W. Zhang, J. Han, and S. Deng, "Heart sound classification based on scaled spectrogram and tensor decomposition," Expert Systems with Applications,2017,84:220-231 [27] V. Sujadevi, K. Soman, R. Vinayakumar, and A. P. Sankar, "Deep models for phonocardiography (PCG) classification," in 2017 International Conference on Intelligent Communication and Computational Techniques (ICCT),2017:211-216 [28] W. Zhang and J. Han, "Towards heart sound classification without segmentation using convolutional neural network," in 2017 Computing in Cardiology (CinC),2017:1-4 [29] F. Chakir, A. Jilbab, C. Nacir, and A. Hammouch, "Phonocardiogram signals processing approach for PASCAL classifying heart sounds challenge," Signal, Image and Video Processing,2018,12:1149-1155 [30] F. Demir, A. ?engür, V. Bajaj, and K. Polat, "Towards the classification of heart sounds based on convolutional deep neural network," Health information science and systems,2019,7:16