• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于主輔網(wǎng)絡(luò)特征融合的語(yǔ)音情感識(shí)別

      2021-09-22 08:03:24胡德生張雪英李寶蕓
      關(guān)鍵詞:語(yǔ)譜主輔語(yǔ)音

      胡德生,張雪英,張 靜,李寶蕓

      (太原理工大學(xué) 信息與計(jì)算機(jī)學(xué)院,太原 030024)

      語(yǔ)言是人類(lèi)交流最方便、最快捷的方式,語(yǔ)言中包含的情感信息在交流時(shí)發(fā)揮著重要作用。讓機(jī)器像人一樣具備說(shuō)話(huà)、思維和情感能力,是人工智能領(lǐng)域一直追求的目標(biāo)。語(yǔ)音情感識(shí)別的研究,將推動(dòng)這一目標(biāo)的逐步實(shí)現(xiàn)。

      典型的語(yǔ)音情感識(shí)別模型由語(yǔ)音情感數(shù)據(jù)庫(kù)、特征提取和識(shí)別3部分組成[1],提取有效情感特征是語(yǔ)音情感識(shí)別的關(guān)鍵。傳統(tǒng)的語(yǔ)音情感識(shí)別首先分幀提取Mel頻率倒譜系數(shù)(Mel frequency cepstral coefficients,MFCC)等聲學(xué)特征,然后提取所有幀的最大值、最小值、均值、方差等統(tǒng)計(jì)特征作為語(yǔ)音信號(hào)的全局特征[2-4]。由于全局特征是在句子級(jí)別上提取統(tǒng)計(jì)特征,所以其只能粗略反映語(yǔ)音情感隨時(shí)間變化的特性。針對(duì)這個(gè)問(wèn)題,段特征的概念被提出,首先將語(yǔ)音信號(hào)分段,每段包含若干幀語(yǔ)音,對(duì)這若干幀語(yǔ)音各自提取聲學(xué)特征后,再計(jì)算這段語(yǔ)音的多個(gè)統(tǒng)計(jì)特征作為段特征。文獻(xiàn)[2]將段特征直接輸入基于注意力機(jī)制的長(zhǎng)短時(shí)記憶單元(long short-term memory,LSTM)網(wǎng)絡(luò)提取深度特征并分類(lèi),與全局特征相比取得了較好的效果。

      語(yǔ)譜圖是一維語(yǔ)音信號(hào)在二維時(shí)頻域的展開(kāi),能夠充分反映語(yǔ)音信號(hào)在時(shí)頻域大部分信息。卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)由于其自動(dòng)學(xué)習(xí)特征的能力和適用于二維圖像數(shù)據(jù)的特點(diǎn),目前被廣泛用在語(yǔ)譜圖中提取特征,進(jìn)一步提高語(yǔ)音情感識(shí)別性能[5-8]。如文獻(xiàn)[8]先將語(yǔ)譜圖輸入全卷積網(wǎng)絡(luò)(fully convolutional networks,F(xiàn)CN),并在最后一層卷積層使用注意力機(jī)制,最后進(jìn)行情感識(shí)別,在IEMOCAP數(shù)據(jù)集上其WA(weighted accuracy)和UA(unweighted accuracy)分別達(dá)到70.4%,63.9%.

      近年來(lái),國(guó)內(nèi)外學(xué)者提出多種混合網(wǎng)絡(luò)模型用于將不同類(lèi)型的特征進(jìn)行特征融合,提升了語(yǔ)音情感識(shí)別的性能[9-11]。文獻(xiàn)[9]提出HSF-CRNN模型,采用CRNN網(wǎng)絡(luò)對(duì)語(yǔ)譜圖提取深度特征,將全局特征輸入全連接層,最后將兩者拼接進(jìn)行情感識(shí)別;文獻(xiàn)[10]提出Attention-BLSTM-FCN模型,在Mel語(yǔ)譜圖上分別應(yīng)用Attention-BLSTM網(wǎng)絡(luò)和Attention-FCN網(wǎng)絡(luò),然后將兩個(gè)網(wǎng)絡(luò)提取的深度情感特征以直接拼接的方式進(jìn)行特征融合,最后輸入全連接層進(jìn)行分類(lèi)識(shí)別。雖然這些方法取得了一定的效果,但將不同類(lèi)型的特征簡(jiǎn)單拼接起來(lái)作為識(shí)別網(wǎng)絡(luò)的輸入,沒(méi)有考慮不同特征的量綱和維度的差異,以及各類(lèi)型特征實(shí)際物理意義的不同,會(huì)對(duì)識(shí)別結(jié)果帶來(lái)不利影響。

      針對(duì)上述問(wèn)題,本文提出了通過(guò)主輔網(wǎng)絡(luò)方式將不同類(lèi)別特征進(jìn)行融合的方法。首先將段特征輸入BLSTM-Attention網(wǎng)絡(luò)作為主網(wǎng)絡(luò),提取深度段特征;然后,把Mel語(yǔ)譜圖輸入CNN-GAP網(wǎng)絡(luò)作為輔助網(wǎng)絡(luò),提取深度Mel語(yǔ)譜圖特征;最后,用深度Mel語(yǔ)譜圖特征輔助深度段特征,將兩者以主輔網(wǎng)絡(luò)方式進(jìn)行特征融合。在IEMOCAP數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,使用主輔網(wǎng)絡(luò)深度特征融合的WA和UA分別達(dá)到74.45%、72.50%,比將特征直接拼接的WA和UA分別提高了1.24%、1.15%.

      1 不同類(lèi)別的特征提取

      1.1 段特征提取

      1) 語(yǔ)音信號(hào)采樣率為16 kHz,分幀處理時(shí)取窗長(zhǎng)256,窗移128;

      2) 使用截?cái)嗷蜓a(bǔ)零的方式使所有語(yǔ)音長(zhǎng)度為1 000幀;

      3) 計(jì)算每一幀信號(hào)的平均過(guò)零率、能量、基音頻率、共振峰、MFCC,共18維聲學(xué)特征[12];

      4) 每5幀組成一段[13],共200段。計(jì)算一段內(nèi)聲學(xué)特征的最大值、最小值、平均值、中值和方差等統(tǒng)計(jì)特征,得到一段信號(hào)的18×5=90維特征;

      5) 標(biāo)準(zhǔn)化處理,得到每一句情感語(yǔ)音信號(hào)的90×200的段特征,段內(nèi)的聲學(xué)特征如表1所示。

      表1 段內(nèi)的聲學(xué)特征及其統(tǒng)計(jì)類(lèi)型Table 1 Acoustic feature and statistical feature within a segment

      1.2 Mel語(yǔ)譜圖生成

      首先對(duì)語(yǔ)音信號(hào)進(jìn)行STFT變換,使用漢明窗,窗長(zhǎng)256,窗移128.

      大量實(shí)驗(yàn)表明人耳聽(tīng)到的聲音高低和實(shí)際頻率(Hz)不呈線(xiàn)性關(guān)系,Mel頻率更加符合人耳的聽(tīng)覺(jué)特性,Mel頻率fMel和Hz頻率f的關(guān)系如式(1)所示。

      (1)

      然后通過(guò)40階Mel濾波器組得到Hm(k),再將Hm(k)×|X(k)|2求和得到Mel語(yǔ)譜圖。

      Mel濾波器組的輸出計(jì)算如式(2)所示,每個(gè)濾波器具有三角濾波特性,

      (2)

      式中:f(m)為中心頻率,m表示Mel濾波器的階數(shù);k表示FFT中點(diǎn)的編號(hào)。

      Mel語(yǔ)譜圖計(jì)算如式(3)所示,

      (3)

      其中,|X(k)|2表示頻譜能量。

      最后使用截?cái)嘌a(bǔ)零的方式使所有Mel語(yǔ)譜圖大小對(duì)齊,得到大小為40×432的Mel語(yǔ)譜圖。

      1.3 基于BLSTM-Attention的深度段特征提取

      LSTM適合對(duì)序列問(wèn)題進(jìn)行建模,因此被廣泛應(yīng)用在語(yǔ)音識(shí)別和語(yǔ)音情感識(shí)別中。BLSTM由正向LSTM和反向LSTM組成。BLSTM不僅可以考慮輸入數(shù)據(jù)以前的信息,還可以考慮輸入數(shù)據(jù)未來(lái)的信息,可以更好地對(duì)序列問(wèn)題進(jìn)行建模。采用BLSTM對(duì)段特征進(jìn)行建??梢蕴崛】紤]上下文情感信息的深度情感特征。本文使用兩層BLSTM,隱藏神經(jīng)元個(gè)數(shù)為300,為了減輕過(guò)擬合使用dropout,棄權(quán)率為0.5.

      通過(guò)對(duì)BLSTM輸出應(yīng)用注意力機(jī)制可以關(guān)注輸入的情感語(yǔ)音信號(hào)中更顯著的情感片段,增強(qiáng)BLSTM網(wǎng)絡(luò)提取顯著深度段特征的能力。更具體地說(shuō),以L(fǎng)STM為核心的識(shí)別器在時(shí)間上展開(kāi)的長(zhǎng)度是T,則LSTM在每一時(shí)刻都對(duì)應(yīng)一個(gè)輸出。相比于平均池化輸出和最后時(shí)刻輸出,注意力機(jī)制可以兼顧LSTM層每一時(shí)刻的輸出,其對(duì)LSTM網(wǎng)絡(luò)每一時(shí)刻的輸出分配不同的權(quán)重來(lái)考慮上下文情感信息的深層特征。注意力機(jī)制的具體計(jì)算如式(4)所示:

      (4)

      式中:st∈RD是輸入序列的某一元素;T表示LSTM的某一時(shí)刻;αt為加權(quán)系數(shù)。加權(quán)系數(shù)可以通過(guò)式(5)、(6)算出,并通過(guò)網(wǎng)絡(luò)訓(xùn)練進(jìn)行更新。

      αt=softmax(βt) .

      (5)

      (6)

      1.4 基于CNN-GAP的深度Mel語(yǔ)譜圖特征提取

      由于CNN適合于二維圖像數(shù)據(jù),而Mel語(yǔ)譜圖是一維語(yǔ)音信號(hào)在二維時(shí)頻域的展開(kāi),因此CNN可以用來(lái)在Mel語(yǔ)譜圖上提取深度特征。CNN由卷積層和池化層組成,卷積層用來(lái)提取特征,池化層用來(lái)降低網(wǎng)絡(luò)規(guī)模和過(guò)擬合,通常采用最大值池化或均值池化。

      Mel語(yǔ)譜圖是一維語(yǔ)音信號(hào)在二維時(shí)頻域的展開(kāi),能夠充分反映語(yǔ)音信號(hào)在時(shí)頻域大部分信息。針對(duì)Mel語(yǔ)譜圖的這一特點(diǎn),可以分別在時(shí)間軸和頻率軸設(shè)計(jì)較大的卷積核,提取Mel語(yǔ)譜圖的頻率和時(shí)間特性,進(jìn)而提取顯著的情感特征。設(shè)計(jì)的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

      卷積核大小表示為長(zhǎng)×寬×輸入通道×輸出通道,池化層大小表示為長(zhǎng)×寬圖1 設(shè)計(jì)的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Design of the convolutional neural network structure

      第一層卷積層在時(shí)間軸上設(shè)計(jì)較大的卷積核,提取Mel語(yǔ)譜圖的時(shí)間特性;第二層卷積層在頻率軸上設(shè)計(jì)較大的卷積核,提取Mel語(yǔ)譜圖的頻率特性;第三層卷積層使用3×3卷積核;第四層卷積層在頻率軸上使用全卷積,最后再使用全局平均池化(global average pooling,GAP).用GAP代替全連接層可以減輕過(guò)擬合,使網(wǎng)絡(luò)易于訓(xùn)練。每一層卷積層都使用了批歸一化(batch normalization,BN)以及Relu激活函數(shù)。具體網(wǎng)絡(luò)參數(shù)經(jīng)過(guò)調(diào)參得到。

      2 主輔網(wǎng)絡(luò)特征融合模型

      2.1 主輔網(wǎng)絡(luò)特征融合的網(wǎng)絡(luò)結(jié)構(gòu)

      將段特征輸入BLSTM-Attention網(wǎng)絡(luò)提取了深度段特征,將Mel語(yǔ)譜圖輸入CNN-GAP網(wǎng)絡(luò)提取深度Mel語(yǔ)譜圖特征,通常將兩者以直接拼接的方式進(jìn)行特征融合,但是沒(méi)有考慮不同特征的量綱和維度的差異,會(huì)對(duì)識(shí)別結(jié)果帶來(lái)不利影響。因此,本文提出基于主輔網(wǎng)絡(luò)特征融合的語(yǔ)音情感識(shí)別。

      主輔網(wǎng)絡(luò)特征融合的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。傳統(tǒng)聲學(xué)特征以時(shí)域特征為主,具有明確的物理意義,因此將其作為主網(wǎng)絡(luò)輸入特征。主網(wǎng)絡(luò)是基于BLSTM-Attention的深度段特征提取模塊,輔助網(wǎng)絡(luò)是基于CNN-GAP的深度Mel語(yǔ)譜圖特征提取模塊,兩者以主輔網(wǎng)絡(luò)方式組成特征融合網(wǎng)絡(luò)。主網(wǎng)絡(luò)分為上、下兩部分,MU代表上半部分,由全連接層構(gòu)成;MD代表下半部分,由BLSTM-Attention網(wǎng)絡(luò)構(gòu)成。e0表示語(yǔ)音段特征,經(jīng)標(biāo)準(zhǔn)化后作為主網(wǎng)絡(luò)的輸入;hl代表主網(wǎng)絡(luò)MD部分的輸出,是深度段特征,維度是600.輔助網(wǎng)絡(luò)由CNN-GAP網(wǎng)絡(luò)構(gòu)成,v0表示Mel語(yǔ)譜圖,作為輔助網(wǎng)絡(luò)輸入,vM表示輔助網(wǎng)絡(luò)GPA的輸出,輔助網(wǎng)絡(luò)FC層的Wc是控制參數(shù)(為了簡(jiǎn)化描述,省略了輔助網(wǎng)絡(luò)FC層偏置項(xiàng)),也是權(quán)重,維度是128×200.一方面在主網(wǎng)絡(luò)參數(shù)更新時(shí)可以控制輔助網(wǎng)絡(luò)參數(shù)不更新;另一方面是對(duì)vM進(jìn)行特征變換。Concate表示hl與WcvM直接拼接,并輸入主網(wǎng)絡(luò)的MU上半部分,其中hl表示BLSTM-Attention網(wǎng)絡(luò)提取的深度段特征,vM表示CNN-GAP網(wǎng)絡(luò)提取的深度Mel語(yǔ)譜圖特征,Wc表示控制主輔網(wǎng)絡(luò)訓(xùn)練的參數(shù)。然后將Concate拼接結(jié)果通過(guò)FC層做進(jìn)一步特征融合,最后使用Softmax進(jìn)行分類(lèi)。

      圖2 主輔網(wǎng)絡(luò)特征融合的結(jié)構(gòu)模型Fig.2 A structural model of feature fusion of main-auxiliary networks

      2.2 主輔網(wǎng)絡(luò)特征融合參數(shù)傳遞及更新

      本文提出的基于主輔網(wǎng)絡(luò)特征融合的語(yǔ)音情感識(shí)別模型,最重要的是網(wǎng)絡(luò)訓(xùn)練過(guò)程,也就是誤差反傳參數(shù)更新的過(guò)程,主輔網(wǎng)絡(luò)特征融合參數(shù)傳遞示意圖如圖3所示。

      圖3 主輔網(wǎng)絡(luò)特征融合參數(shù)傳遞及更新Fig.3 Transfer and update of main-auxiliary network feature fusion parameters

      由于輔助網(wǎng)絡(luò)的加入,網(wǎng)絡(luò)的訓(xùn)練被分為三步:

      1) 參數(shù)初始化。將語(yǔ)音段特征e0輸入主網(wǎng)絡(luò),將Mel語(yǔ)譜圖v0輸入輔助網(wǎng)絡(luò);然后將控制參數(shù)Wc初始化為0,主網(wǎng)絡(luò)和輔助網(wǎng)絡(luò)的權(quán)重和偏置通過(guò)截?cái)嗾植茧S機(jī)初始化。

      2) 主網(wǎng)絡(luò)訓(xùn)練。首先通過(guò)控制Wc和網(wǎng)絡(luò)設(shè)置使輔助網(wǎng)絡(luò)不起作用,然后使用梯度下降算法和反向傳播算法訓(xùn)練主網(wǎng)絡(luò)使主網(wǎng)絡(luò)MD和MU參數(shù)更新。

      3) 輔助網(wǎng)絡(luò)訓(xùn)練。首先將主網(wǎng)絡(luò)MD和MU的權(quán)重和偏置設(shè)置為不更新,將輔助網(wǎng)絡(luò)的權(quán)重、偏置和Wc設(shè)置為更新;使用梯度下降算法和反向傳播算法訓(xùn)練輔助網(wǎng)絡(luò)使輔助網(wǎng)絡(luò)參數(shù)和Wc更新。

      下面介紹輔助網(wǎng)絡(luò)的一些參數(shù)更新。主輔網(wǎng)絡(luò)最后一層輸出拼接向量為hl,具體的拼接公式如式(7)所示:

      hl=hl+WcvM.

      (7)

      (8)

      (9)

      3 實(shí)驗(yàn)及結(jié)果

      3.1 實(shí)驗(yàn)數(shù)據(jù)庫(kù)及網(wǎng)絡(luò)參數(shù)設(shè)置

      本文使用美國(guó)南加州大學(xué)發(fā)布的英文情感數(shù)據(jù)集IEMOCAP(the interactive emotional dyadic motion capture database).該數(shù)據(jù)集由5個(gè)會(huì)話(huà)組成,每個(gè)會(huì)話(huà)由一對(duì)說(shuō)話(huà)者(女性和男性)在預(yù)先設(shè)定的場(chǎng)景和即興場(chǎng)景中對(duì)話(huà)。本文使用即興場(chǎng)景對(duì)話(huà)中的語(yǔ)句,選取4種情感,分別是高興、悲傷、憤怒、中性,共2 046條語(yǔ)句。

      本文使用tensorflow深度學(xué)習(xí)框架,以本文提出的網(wǎng)絡(luò)模型為例,通過(guò)多次實(shí)驗(yàn)確定網(wǎng)絡(luò)參數(shù)如下:主網(wǎng)絡(luò)學(xué)習(xí)率為0.000 5,輔助網(wǎng)絡(luò)學(xué)習(xí)率為0.001;主網(wǎng)絡(luò)minibatch大小為96,輔助網(wǎng)絡(luò)minibatch大小為48;主輔網(wǎng)絡(luò)均使用Adam優(yōu)化器。

      3.2 實(shí)驗(yàn)結(jié)果及分析

      本文采用情感識(shí)別領(lǐng)域常見(jiàn)的兩種評(píng)價(jià)指標(biāo):加權(quán)準(zhǔn)確率WA和非加權(quán)準(zhǔn)確率UA.WA衡量了語(yǔ)音情感識(shí)別系統(tǒng)的總體性能,其計(jì)算方式為正確分類(lèi)的樣本數(shù)量除以樣本總數(shù);UA衡量所有類(lèi)別的識(shí)別性能,其計(jì)算方式為各類(lèi)的分類(lèi)準(zhǔn)確率再除以類(lèi)別數(shù)。本文采用分層五折交叉方式驗(yàn)證模型預(yù)測(cè)效果,使用樣本的80%進(jìn)行訓(xùn)練,20%進(jìn)行測(cè)試,最后對(duì)5次預(yù)測(cè)結(jié)果取平均。為了評(píng)價(jià)本文所提算法的有效性,對(duì)5種識(shí)別模型在IEMOCAP數(shù)據(jù)集上進(jìn)行了對(duì)比實(shí)驗(yàn),結(jié)果如表2所示。

      下面對(duì)5種識(shí)別模型的輸入特征進(jìn)行說(shuō)明。

      BLSTM:將段特征輸入BLSTM網(wǎng)絡(luò)進(jìn)行特征提取,然后輸入Softmax分類(lèi)器進(jìn)行語(yǔ)音情感識(shí)別。

      BLSTM-Attention:將段特征輸入BLSTM-Attention網(wǎng)絡(luò)進(jìn)行特征提取,然后輸入Softmax分類(lèi)器進(jìn)行語(yǔ)音情感識(shí)別。

      CNN-GAP:將Mel語(yǔ)譜圖輸入CNN-GAP網(wǎng)絡(luò)進(jìn)行特征提取,然后輸入Softmax分類(lèi)器進(jìn)行語(yǔ)音情感識(shí)別。

      Concate Network:將段特征輸入基于BLSTM-Attention網(wǎng)絡(luò),將Mel語(yǔ)譜圖輸入CNN-GAP網(wǎng)絡(luò),再將兩者以直接拼接的方式進(jìn)行特征融合,最后輸入Softmax分類(lèi)器進(jìn)行語(yǔ)音情感識(shí)別。

      Our Methods:本文提出的主輔網(wǎng)絡(luò)特征融合識(shí)別模型,先將段特征輸入基于BLSTM-Attention網(wǎng)絡(luò),將Mel語(yǔ)譜圖輸入CNN-GAP網(wǎng)絡(luò),再將兩者以主輔網(wǎng)絡(luò)特征融合的方式進(jìn)行特征融合,最后輸入Softmax分類(lèi)器進(jìn)行語(yǔ)音情感識(shí)別。

      由表2可知,Our Methods的WA和UA比BLSTM-Attention分別提高3.20%,3.08%;比CNN-GAP分別提高3.68%,4.02%;比Concate Network分別提高1.24%,1.15%.表明使用兩種特征融合比單獨(dú)使用一種特征更有效,且主輔網(wǎng)絡(luò)特征融合方式的識(shí)別結(jié)果比直接拼接方式特征融合的識(shí)別結(jié)果更有效。

      表2 5種識(shí)別模型在IEMOCAP數(shù)據(jù)集上的識(shí)別結(jié)果Table 2 Recognition results of the five recognition models on IEMOCAP dataset %

      Our Methods的混淆矩陣如表3所示,中性、高興、悲傷、生氣情感的識(shí)別準(zhǔn)確率分別為60.02%,78.15%,88.37%,63.51%,4種情感識(shí)別準(zhǔn)確率均高于60%,進(jìn)一步證明了Our Methods的有效性。

      表3 Our Methods的混淆矩陣Table 3 Confusion matrix of Our Methods %

      表4中列出了Our Methods和其他模型在 IEMOCAP數(shù)據(jù)集上研究的識(shí)別結(jié)果,識(shí)別模型均采用即興場(chǎng)景對(duì)話(huà)中的語(yǔ)句,選取了4種情感。從表4可以看出,Our Methods和其他模型相比取得了不錯(cuò)的效果,比Attention-BLSTM-FCN模型[15]的WA和UA分別提高了6.35%和5.50%.

      表4 Our methods和其他模型在IEMOCAP數(shù)據(jù)集上的識(shí)別結(jié)果Table 4 Recognition results of Our Methods and other models on IEMOCAP datasets %

      4 結(jié)束語(yǔ)

      情感的表達(dá)本身是一個(gè)很復(fù)雜的過(guò)程,涉及到心理以及生理方面的諸多因素,因此從語(yǔ)音信號(hào)中識(shí)別出情感信息是一個(gè)挑戰(zhàn)性的課題。本文將段特征輸入BLSTM-Attention網(wǎng)絡(luò)作為主網(wǎng)絡(luò),把Mel語(yǔ)譜圖輸入CNN-GAP網(wǎng)絡(luò)作為輔助網(wǎng)絡(luò),然后將兩個(gè)網(wǎng)絡(luò)提取的深度特征以主輔網(wǎng)絡(luò)方式進(jìn)行特征融合,解決不同類(lèi)型特征直接融合帶來(lái)的識(shí)別結(jié)果不理想的問(wèn)題,并用實(shí)驗(yàn)驗(yàn)證了所提出模型的有效性。在今后的研究過(guò)程中,擬改進(jìn)CNN-GAP網(wǎng)絡(luò)的最后一層的池化方式并將腦電信號(hào)作為輔助信號(hào)引入主輔網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行語(yǔ)音情感識(shí)別。

      猜你喜歡
      語(yǔ)譜主輔語(yǔ)音
      玉鋼燒結(jié)機(jī)給料主輔門(mén)適用性改造
      昆鋼科技(2020年5期)2021-01-04 01:41:22
      魔力語(yǔ)音
      HR-DCGAN方法的帕金森聲紋樣本擴(kuò)充及識(shí)別研究
      基于MATLAB的語(yǔ)音信號(hào)處理
      電子制作(2019年14期)2019-08-20 05:43:38
      主輔路共板城市干道設(shè)計(jì)分析
      基于MQ3與MP3的價(jià)廉物美的酒駕語(yǔ)音提醒器
      電子制作(2019年9期)2019-05-30 09:42:10
      對(duì)方正在輸入……
      基于時(shí)頻域特征的場(chǎng)景音頻研究
      語(yǔ)譜圖二次傅里葉變換特定人二字漢語(yǔ)詞匯識(shí)別
      玻璃纖維樁主輔樁在老年患者前牙漏斗狀殘根修復(fù)中的臨床應(yīng)用
      同仁县| 罗定市| 金川县| 托克逊县| 长子县| 白城市| 台江县| 揭阳市| 仙居县| 郎溪县| 拜泉县| 丹江口市| 辽宁省| 晴隆县| 黑龙江省| 随州市| 远安县| 西丰县| 金寨县| 茂名市| 旬邑县| 肥西县| 大安市| 南部县| 玛沁县| 邛崃市| 白城市| 托克逊县| 德格县| 新沂市| 盐津县| 离岛区| 垣曲县| 定结县| 雅江县| 无锡市| 东阿县| 腾冲县| 宜州市| 本溪| 双鸭山市|