• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于DTW的編碼域說話人識別研究*

      2010-03-15 01:08:06李榕健于洪濤李邵梅
      電子技術(shù)應(yīng)用 2010年8期
      關(guān)鍵詞:特征提取語音編碼

      李榕健,于洪濤,李邵梅

      (國家數(shù)字交換系統(tǒng)工程技術(shù)研究中心,河南 鄭州 450002)

      說話人識別又被稱為話者識別,是指通過對說話人語音信號的分析處理,自動確認(rèn)說話人是否在所記錄的話者集合中,以及進(jìn)一步確認(rèn)說話人的身份。說話人識別的基本原理如圖1所示。

      按照語音的內(nèi)容,說話人識別可以分為文本無關(guān)的(Text-Independent)和文本相關(guān)的(Text-Dependent)兩種。文本無關(guān)的識別系統(tǒng)不規(guī)定說話人的發(fā)音內(nèi)容,模型建立相對困難,但用戶使用方便。與文本有關(guān)的說話人識別系統(tǒng)要求用戶按照規(guī)定的內(nèi)容發(fā)音,而識別時也必須按規(guī)定的內(nèi)容發(fā)音,因此可以達(dá)到較好的識別效果。

      隨著網(wǎng)絡(luò)技術(shù)的發(fā)展,通過Internet網(wǎng)絡(luò)傳遞語音的網(wǎng)絡(luò)電話VoIP(Voice over IP)技術(shù)發(fā)展迅速,已經(jīng)成為人們?nèi)粘=涣鞯闹匾侄危絹碓蕉嗟挠脩魭仐墏鹘y(tǒng)的通信方式,通過計算機(jī)網(wǎng)絡(luò)等媒介進(jìn)行語音交流。由于VoIP工作方式的特點(diǎn),語音在傳輸中經(jīng)過了語音編譯碼處理,VoIP設(shè)備端口同時要處理多路、海量的壓縮話音數(shù)據(jù)。所以VoIP說話人識別技術(shù)主要研究的是如何高速、低復(fù)雜度地針對解碼參數(shù)和壓縮碼流進(jìn)行說話人識別。

      現(xiàn)有的針對編碼域說話人識別方法的研究主要集中在編碼域語音特征參數(shù)的提取上,香港理工大學(xué)研究從G.729和G.723編碼比特流以及殘差中提取信息,并采用了分?jǐn)?shù)補(bǔ)償?shù)姆椒?。中國科學(xué)技術(shù)大學(xué)主要研究了針對AMR語音編碼的說話人識別。西北工業(yè)大學(xué)在說話人確認(rèn)中針對不同的語音編碼差異進(jìn)行了補(bǔ)償算法研究,并且研究了直接在G.729編碼的比特流中提取參數(shù)的方法。說話人模型則主要采用在傳統(tǒng)說話人識別中應(yīng)用最廣泛的GMM-UBM(Gaussian Mixture Model-Uni-versal Background Model)。GMM-UBM的應(yīng)用效果和混元數(shù)目密切相關(guān),在保證識別率的基礎(chǔ)上,其處理速度無法滿足VoIP環(huán)境下高速說話人識別的需求。

      本文研究VoIP語音流中G.729編碼域的說話人實(shí)時識別,將DTW識別算法成功應(yīng)用在G.729編碼域的文本相關(guān)的說話人實(shí)時識別。

      1 G.729編碼比特流中的特征提取

      1.1 G.729編碼原理

      ITU-T在1996年3月公布 G.729編碼,其編碼速率為8 kb/s,采用了對結(jié)構(gòu)代數(shù)碼激勵線性預(yù)測技術(shù)(CSACELP),編碼結(jié)果可以在8 kb/s的碼率下得到合成音質(zhì)不低于32 kb/s ADPCM的水平。G.729的算法延時為15 ms。由于G.729編解碼器具有很高的語音質(zhì)量和很低的延時,被廣泛地應(yīng)用在數(shù)據(jù)通信的各個領(lǐng)域,如VoIP和H.323網(wǎng)上多媒體通信系統(tǒng)等。

      G.729的編碼過程如下:輸入8 kHz采樣的數(shù)字語音信號先經(jīng)過高通濾波預(yù)處理,每10 ms幀作一次線性預(yù)測分析,計算10階線性預(yù)測濾波器系數(shù),然后把這些系數(shù)轉(zhuǎn)換為線譜對(LSP)參數(shù),采用兩級矢量量化技術(shù)進(jìn)行量化。自適應(yīng)碼本搜索時,以原始語音與合成語音的誤差知覺加權(quán)最小為測度進(jìn)行搜索。固定碼本采用代數(shù)碼本機(jī)構(gòu)。激勵參數(shù)(自適應(yīng)碼本和固定碼本參數(shù))每個子幀(5 ms,40個樣點(diǎn))確定一次。

      1.2 特征參數(shù)提取

      直接從G.729編碼流中按照量化算法解量化可以得到LSP參數(shù)。由于后段的說話人識別系統(tǒng)還需要激勵參數(shù),而在激勵參數(shù)的計算過程中經(jīng)過了LSP的插值平滑,所以為了使特征矢量中聲道和激勵參數(shù)能準(zhǔn)確地對應(yīng)起來,要對解量化的LSP參數(shù)采用插值平滑。

      由于G.729后端的碼本搜索分為兩個5 ms的子幀進(jìn)行,令LSPi(1)和LSPi(2)分別表示內(nèi)插后的兩個子幀的LSP參數(shù),LSPiprevious和 LSPicurrent分別表示前一幀和當(dāng)前幀的 10 ms的LSP參數(shù),那么對于 i=1,2,…,p(p=10),

      設(shè)A(z)為p階線性預(yù)測誤差濾波器的傳遞函數(shù),即

      可以證明,當(dāng) A(z)的根在單位圓內(nèi)時,P(z)和 Q(z)的根在單位圓上。當(dāng)p為偶數(shù)時,由于P(z)是一個對稱實(shí)系數(shù)的P+1階多項(xiàng)式,而Q(z)是一個反對稱實(shí)系數(shù)的P+1階多項(xiàng)式,因此它們有共軛的復(fù)根。共軛復(fù)根的形式為 zi=ejωi,這是因?yàn)?P(z)和 Q(z)的根都在單位圓上,并且從式(2)看到它們還有±1的實(shí)根。因此,P(z)和 Q(z)可寫成下列因式分解形式:

      且滿足下式:

      ωi就是所要求的 LSF參數(shù),但是在 G.729編碼算法中傳遞的是 ωi的余弦值 LSP(線譜對參數(shù)),要得到相應(yīng)的LSF參數(shù)只需要對LSP參數(shù)求0~π內(nèi)的反余弦值即可。

      由式(2)可知:

      將LSF參數(shù)帶入式(3),再由式(5)即可求得 A(z),也就是得到了LPC參數(shù)。由LPC參數(shù)αi做同態(tài)處理可以得到LPCC參數(shù) c(n),(n=1,2,…,q)其中 q為 LPCC的階數(shù),c(n)與 LPC參數(shù) αi間的關(guān)系如下式:

      本文選擇G.729編碼幀中第一子幀的LSP(1)參數(shù)的反余弦LSF及由其轉(zhuǎn)換得到的LPC、LPCC參數(shù)作為聲道特征參數(shù)。

      [1]發(fā)現(xiàn)識別特征加入G.729壓縮幀中的語音增益參數(shù),說話人識別性能發(fā)生了下降。去除G.729壓縮碼流特征中的增益參數(shù) GA1、GB1、GA2、GB2,結(jié)果發(fā)現(xiàn),當(dāng)采用了去除增益參數(shù)的特征矢量方案X=(L0,L1,L2,L3,P1,P0,P2),識別性能得到了提高,所以本文最終采用的G.729壓縮碼流特征為X=(L0,L1,L2,L3,P1,P0,P2),共 7 維。

      2 動態(tài)時間規(guī)整(DTW)識別算法

      動態(tài)時間規(guī)整DTW(Dynamic Time Warping)是把時間規(guī)整和距離測度計算結(jié)合起來的一種非線性規(guī)整技術(shù)。該算法基于動態(tài)規(guī)劃思想,解決了發(fā)音長短不一的模版匹配問題。

      算法原理:假設(shè)測試語音和參考語音分別用R和T表示,為了比較它們之間的相似度,可以計算它們之間的距離D[T,R],距離越小則相似度越高。具體實(shí)現(xiàn)中,先對語音進(jìn)行預(yù)處理,再把R和T按相同時間間隔劃分成幀系列:

      然后采用動態(tài)規(guī)劃進(jìn)行識別。如圖2所示。

      把測試模版的各個幀號n=1,…,N在一個二維直角坐標(biāo)系的橫軸上標(biāo)出,把參考模版的各幀號 m=1,…,M在縱軸上標(biāo)出,通過這些表示幀號的整數(shù)坐標(biāo)畫出的橫縱線即可形成一個網(wǎng)格,網(wǎng)格中的每一個交叉點(diǎn)(n,m)表示測試模版中某一幀與訓(xùn)練模版中某一幀的交叉點(diǎn)。動態(tài)規(guī)劃算法可以歸結(jié)為尋找一條通過此網(wǎng)格中若干格點(diǎn)的路徑,路徑通過的格點(diǎn)即為測試和參考模版中距離計算的幀號。

      為了使路徑不至于過分傾斜,可以約束斜率在0.5~2內(nèi),如果路徑已通過格點(diǎn)(ni-1,mi-1),則下一個通過的格點(diǎn)(ni,mi)只能是下列三種情況之一:(ni,mi)=(ni-1+1,mi-1+2);(ni,mi)=(ni-1+1,mi-1+1);(ni,mi)=(ni-1+1,mi-1)。用 η 表示上述3個約束條件,求最佳路徑的問題可以歸結(jié)為:滿足約束條件 η時,求最佳路徑函數(shù) mi=φ(ni),使得沿路徑的累積距離達(dá)到最小值。

      整個算法主要?dú)w結(jié)為計算測試幀和參考幀間的相似度及所選路徑的矢量距離累加。

      識別流程如圖3所示。

      3 實(shí)驗(yàn)結(jié)果與性能分析及結(jié)論

      為測試上述識別性能,對其進(jìn)行了固定文本的說話人識別試驗(yàn)。試驗(yàn)中,采用電話信道863語料庫30個說話人共300個錄音文件,文件格式為16 bit線性PCM。為了模擬VoIP中語音壓縮幀,使用G.729聲碼器對原始語音文件進(jìn)行壓縮。使用每個說話人的一個文件訓(xùn)練成為模板。測試語音長度為10 s~60 s以5 s為間隔的共11個測試時間標(biāo)準(zhǔn)。這樣,模板庫中有30個模板,測試語音有270個,使用微機(jī)配置是:CPU Pentium 2.0 GHz,內(nèi)存512 MB。

      在實(shí)驗(yàn)中,M和N取64,通過各模版間的匹配,確定了判決門限為0.3時,識別效果最佳。

      為了對比DTW算法的識別性能,采用在傳統(tǒng)說話人識別中廣泛使用的GMM模型作為對比實(shí)驗(yàn),其中GMM模型使用與DTW算法相同的編碼流特征。

      圖4給出基于DTW識別方法與GMM模型 (混元數(shù)64)識別G.729編碼方案863語料庫的文本相關(guān)說話人的誤識率對比圖。橫坐標(biāo)代表的測試語音的時長,縱坐標(biāo)代表識別誤識率。由實(shí)驗(yàn)結(jié)果可知在文本相關(guān)的說話人識別中,基于DTW算法的識別率在絕大多數(shù)情況下高于GMM模型,且隨著測試語音的增長,優(yōu)勢更明顯。

      為比較特征提取的時間性能和總的時間性能,實(shí)驗(yàn)條件如下:

      (1)選擇的50個說話人的語音只進(jìn)行特征提取,測試語音長度總和在25 min左右;

      (2)對測試語音分別進(jìn)行解碼識別和編碼流的識別,模板數(shù)為10個;

      (3)微機(jī)配置為:CPU Pentium 2.0 GHz,內(nèi)存512 MB。

      表1為特征提取時間比較結(jié)果,表2為說話人識別時間比較結(jié)果。

      表1 特征提取時間比較

      表2 說話人識別時間比較

      由實(shí)驗(yàn)結(jié)果可以看出,在編碼比特流中進(jìn)行特征提取時間和識別的時間都遠(yuǎn)小于解碼重建后的語音特征提取時間和識別時間,滿足實(shí)時說話人識別的需要。

      在文本相關(guān)的說話人識別中,對比使用同樣G.729壓縮碼流特征的GMM模型,DTW方法的識別率和處理效率均高于GMM模型,能夠?qū)崟r應(yīng)用于VoIP網(wǎng)絡(luò)監(jiān)管中。

      參考文獻(xiàn)

      [1]石如亮.編碼域說話人識別技術(shù)研究[D].鄭州:解放軍信息工程大學(xué),2007.

      [2]PETRACCA M,SERVETTI A,DEMARTIN J C.Performance analysis of compressed-domain automatic speaker recognition as a function of speech coding technique and bit rate[A].In:International Conference on Multimedia and Expo(ICME)[C].Toronto,Canada,2006:1393-1396.

      [3]石如亮,李弼程,張連海,等.基于編碼比特流的說話人識別[J].信息工程大學(xué)學(xué)報,2007,8(3):323-326.

      [4]王炳錫,屈丹,彭煊.實(shí)用語音識別基礎(chǔ)[M].北京:國防工業(yè)出版社,2004:264-286.

      [5]李邵梅,劉力雄,陳鴻昶.實(shí)時說話人辨別系統(tǒng)中改進(jìn)的 DTW 算法[J].計算機(jī)工程,2008,34(4):218-219.

      [6]DUNN R B,QUATIERI T F,REYNOLDS D A.et al.Speaker recognition from coded speech in matched and mismatched conditions[A].In:Proc.Speaker Recognition Workshop’01[C].Grete,Greece,2001:115-120.

      [7]AGGARWAL C C,OLSHEFSKI D,SAHA D et al.CSR:Speaker recognition from compressed VoIP packet stream[A].In:International Conference on Multimedia and Expo(ICME)[C].Amsterdam,Holand,2005:970-973.

      猜你喜歡
      特征提取語音編碼
      基于SAR-SIFT和快速稀疏編碼的合成孔徑雷達(dá)圖像配準(zhǔn)
      《全元詩》未編碼疑難字考辨十五則
      子帶編碼在圖像壓縮編碼中的應(yīng)用
      電子制作(2019年22期)2020-01-14 03:16:24
      魔力語音
      基于MATLAB的語音信號處理
      電子制作(2019年14期)2019-08-20 05:43:38
      基于MQ3與MP3的價廉物美的酒駕語音提醒器
      電子制作(2019年9期)2019-05-30 09:42:10
      Genome and healthcare
      對方正在輸入……
      小說界(2018年5期)2018-11-26 12:43:42
      基于Daubechies(dbN)的飛行器音頻特征提取
      電子制作(2018年19期)2018-11-14 02:37:08
      Bagging RCSP腦電特征提取算法
      额济纳旗| 东台市| 平凉市| 连南| 仁怀市| 鄂托克旗| 浦江县| 乾安县| 兖州市| 电白县| 灌云县| 大丰市| 黑山县| 青阳县| 靖江市| 北票市| 乐至县| 乐东| 潜山县| 威宁| 弥勒县| 清水河县| 洮南市| 黑山县| 长宁区| 金昌市| 桐城市| 承德市| 金塔县| 蓝山县| 五常市| 原阳县| 富裕县| 三原县| 塔城市| 太保市| 教育| 合水县| 石家庄市| 娄底市| 西宁市|