倪志蓮,蔡衛(wèi)平,張怡典
九江職業(yè)技術(shù)學(xué)院電氣工程學(xué)院,江西九江 332007
基于子帶可控響應(yīng)功率的多聲源定位方法
倪志蓮,蔡衛(wèi)平,張怡典
九江職業(yè)技術(shù)學(xué)院電氣工程學(xué)院,江西九江 332007
基于麥克風(fēng)陣列的聲源定位技術(shù)根據(jù)接收信號(hào)估計(jì)聲源的方位,在視頻會(huì)議[1]、語(yǔ)音增強(qiáng)[2]、機(jī)器人聽覺[3]等領(lǐng)域有著非常廣泛的應(yīng)用。在很多場(chǎng)合,需要對(duì)多個(gè)聲源進(jìn)行定位,如在視頻會(huì)議中,可能有多個(gè)人同時(shí)說(shuō)話。近年來(lái),多聲源定位技術(shù)已逐漸成為研究的熱點(diǎn)。
在真實(shí)環(huán)境中,實(shí)現(xiàn)多聲源定位是非常困難的,除了混響和噪聲外,聲源之間的相互干擾也將嚴(yán)重影響定位性能。多聲源定位技術(shù)必須克服這些不利因素的影響。文獻(xiàn)[4-5]提出的算法利用了語(yǔ)音信號(hào)的特點(diǎn),可實(shí)現(xiàn)2~3個(gè)說(shuō)話人的定位,但在混響較強(qiáng)的環(huán)境中,這類算法魯棒性較差。相位變換加權(quán)的可控響應(yīng)功率(Steered Response Power-Phase Transform,SRP-PHAT)聲源定位算法[6]在混響環(huán)境中有較強(qiáng)的魯棒性。該算法計(jì)算陣列接收信號(hào)的可控響應(yīng)功率,在聲源空間中尋找使SRP值最大的點(diǎn)作為聲源位置估計(jì)。當(dāng)有多個(gè)聲源同時(shí)出現(xiàn)時(shí),SRP函數(shù)將呈現(xiàn)出多個(gè)峰,每個(gè)峰對(duì)應(yīng)一個(gè)聲源,結(jié)合適當(dāng)?shù)木垲愃惴ǎ琒RP-PHAT也可實(shí)現(xiàn)多聲源定位[7]。然而,由于聲源之間的相互干擾,SRP函數(shù)中,較弱聲源產(chǎn)生的峰可能遠(yuǎn)低于較強(qiáng)聲源產(chǎn)生的峰,甚至完全被覆蓋。因此,傳統(tǒng)SRP-PHAT算法的多聲源定位性能不高。文獻(xiàn)[8]提出分兩步定位多個(gè)聲源的方法。該算法首先計(jì)算SRP函數(shù)并且估計(jì)出最強(qiáng)聲源的位置,然后根據(jù)此位置引入一個(gè)衰減函數(shù)以抑制最強(qiáng)聲源產(chǎn)生的空間譜峰,從而突出次強(qiáng)聲源的譜峰,再次搜索SRP-PHAT函數(shù)的最強(qiáng)譜峰即可得到較弱聲源的位置估計(jì)。該算法能大大提高第二個(gè)聲源的定位成功率,但由于需要重復(fù)計(jì)算SRP函數(shù),計(jì)算量較大,而且第二個(gè)聲源的定位精度依賴于第一個(gè)聲源的定位精度。
為了克服傳統(tǒng)SRP-PHAT算法的缺點(diǎn),本文提出一種基于子帶SRP的多聲源定位算法。該算法將語(yǔ)音信號(hào)頻譜劃分為若干個(gè)子帶,并在每個(gè)子帶分別計(jì)算SRP-PHAT函數(shù),稱為子帶SRP函數(shù)。在聲源空間中,尋找每個(gè)子帶SRP函數(shù)的最大值,由此,每個(gè)子帶可得到一個(gè)聲源位置估計(jì),稱之為初始估計(jì)。盡管最強(qiáng)的源通常會(huì)抑制其他源,但根據(jù)語(yǔ)音信號(hào)在頻域的稀疏性[9],同一個(gè)源不會(huì)在每個(gè)子帶都是最強(qiáng)的,也就是說(shuō),某個(gè)源在一些子帶是最強(qiáng)的,而其他源在另一些子帶是最強(qiáng)的,因此子帶SRP算法可突出較弱的聲源。使用適當(dāng)?shù)木垲愃惴蓮某跏脊烙?jì)中得到最終的聲源位置估計(jì)。
用于語(yǔ)音聲源定位的麥克風(fēng)陣列通常在室內(nèi)環(huán)境下使用,麥克風(fēng)的接收信號(hào)中除了源信號(hào)外,還有背景噪聲和混響。在有Ns個(gè)聲源情形下,第m個(gè)麥克風(fēng)(m=1, 2,…,M)的接收信號(hào)可表示為:
其中si(n)為第i個(gè)聲源,hmi(n)為第i個(gè)聲源到第m個(gè)麥克風(fēng)之間的房間沖激響應(yīng),“*”表示線性卷積,bm(n)是第m個(gè)麥克風(fēng)的噪聲,假定各麥克風(fēng)的噪聲不相關(guān),噪聲與信號(hào)也不相關(guān)。
SRP-PHAT算法根據(jù)麥克風(fēng)陣列接收的一幀數(shù)據(jù)估計(jì)聲源位置。仍然用xm(n)表示第m個(gè)麥克風(fēng)接收的一幀數(shù)據(jù),Xm(k)表示其DFT。用r,θ,?分別表示球坐標(biāo)系統(tǒng)中的距離,水平角和仰角,則相位變換(Phase Transform,PHAT)加權(quán)的導(dǎo)引響應(yīng)可表示為:
其中q=(r,θ,?)為假想聲源的球坐標(biāo),τml(q)為第m個(gè)麥克風(fēng)的導(dǎo)引時(shí)延(麥克風(fēng)l為參考基元),ω為模擬角頻率,M為麥克風(fēng)的個(gè)數(shù)。在遠(yuǎn)場(chǎng)假設(shè)下,麥克風(fēng)陣列接收信號(hào)為平面波,τml(q)與距離r無(wú)關(guān),其值可用下式來(lái)計(jì)算:
其中ζ為聲源的單位方向矢量,其表達(dá)式為:
rm=[x y z]T為第m個(gè)麥克風(fēng)在直角坐標(biāo)系中的坐標(biāo)矢量,c為空氣中的聲速(約為342 m/s)。則PHAT加權(quán)的導(dǎo)引響應(yīng)功率,即SRP-PHAT,可表示為:
其中Q表示聲源空間。在多聲源情況下,P?PHAT(q)呈現(xiàn)出多個(gè)峰,理想條件下,每個(gè)峰對(duì)應(yīng)一個(gè)聲源,使用聚類算法可找到這些峰的位置。文獻(xiàn)[7]根據(jù)此原理提出了基于SRP-PHAT的多聲源定位算法。該算法首先隨機(jī)選取聲源空間中足夠多的點(diǎn),計(jì)算這些點(diǎn)的SRP-PHAT函數(shù)值,然后在這些點(diǎn)中選取SRP值最高的N個(gè)點(diǎn),使用會(huì)聚聚類(Agglomerative Clustering,AC)來(lái)估計(jì)每個(gè)聲源所在的區(qū)域,并在每個(gè)區(qū)域使用隨機(jī)區(qū)域收縮(Stochastic Region Contraction,SRC)最優(yōu)化方法得到聲源位置估計(jì)。文獻(xiàn)[7]的算法考慮了三維定位情況,使用SRC的目的是為了減少計(jì)算量,但可能會(huì)降低定位性能。本文只考慮遠(yuǎn)場(chǎng)情形,因此僅估計(jì)聲源的到達(dá)方向角(Direction Of Arrival,DOA)。本文將在第5章詳細(xì)描述提出的多聲源定位算法,然后進(jìn)行仿真和實(shí)驗(yàn),并將結(jié)果與文獻(xiàn)[7]中的算法進(jìn)行比較。為保證公平的比較,修改文獻(xiàn)[7]的算法,用全網(wǎng)格搜索代替SRC,即在整個(gè)聲源空間計(jì)算SRP-PHAT函數(shù),然后找出最高SRP值的N個(gè)點(diǎn),用AC聚類方法將這些點(diǎn)分為若干類,找出每個(gè)類中SRP值最高的點(diǎn)即得到聲源位置估計(jì)。
如引言中所述,本文定位算法根據(jù)各子帶得到聲源位置的初始估計(jì),其中靠近的幾個(gè)點(diǎn)對(duì)應(yīng)某個(gè)聲源,這就需要利用聚類算法將初始估計(jì)分為Nc類,每個(gè)類可能對(duì)應(yīng)一個(gè)聲源。在這個(gè)問題中,Nc是未知的。AC算法不需要知道類的個(gè)數(shù),因此正好用于解決本文的問題。對(duì)于一個(gè)N點(diǎn)的數(shù)據(jù)集,AC聚類算法流程可用圖1來(lái)描述。
圖1 AC聚類算法流程圖
圖1中,i表示迭代次數(shù),C(i)(k)表示第i次迭代中得到的第k個(gè)類,(u)表示類C(i)(k)中的第u個(gè)點(diǎn)。此外,運(yùn)算符‖·‖表示求歐氏距離(Euclidean distance),dth為歐式距離門限??紤]聲源靠近的程度,設(shè)置dth為10°。
傳統(tǒng)的SRP-PHAT算法難以克服聲源之間的干擾,為了改善定位性能,提出基于子帶SRP的多聲源定位算法。SRP-PHAT函數(shù)可以看成是Nsub個(gè)子帶SRP函數(shù)之和,即式(5)可寫成:
上式中,k=kn,1kn,2…kn,Nn為第n個(gè)子帶的頻率點(diǎn)。在聲源空間中搜索使子帶SRP值最大的點(diǎn)即為初始估計(jì)。
根據(jù)稀疏性假設(shè),這些初始估計(jì)對(duì)應(yīng)多個(gè)源,因此,運(yùn)用AC聚類可以得到多個(gè)聲源的方位估計(jì)。
如何劃分子帶是一個(gè)關(guān)鍵的問題。應(yīng)遵循的原則是高頻處的子帶較寬以避免相位纏繞,而低頻處的子帶較窄以區(qū)分不同的源。但是低頻子帶不宜分得過(guò)細(xì),否則容易出現(xiàn)錯(cuò)誤的估計(jì)。在本文的工作中,信號(hào)采樣頻率為16 kHz,信號(hào)頻譜分為7個(gè)子帶。子帶劃分情況如圖2所示,其中,0~2 kHz均勻地分為4個(gè)子帶。為便于描述,將這些子帶編號(hào)為1~7。
圖2 子帶劃分示意圖
AC聚類將初始估計(jì)分為Nc個(gè)類,但并非每個(gè)類都對(duì)應(yīng)一個(gè)聲源。與單聲源情況類似,在一些子帶,由反射聲產(chǎn)生的虛假譜峰可能高于真實(shí)聲源產(chǎn)生的譜峰,這將導(dǎo)致錯(cuò)誤的估計(jì)。為盡量排除這些錯(cuò)誤估計(jì),只保留元素個(gè)數(shù)不低于γth的類,因此,類的個(gè)數(shù)減少為N′c。在本文的算法中,將γth設(shè)置為2。
在多聲源定位問題中,通常假定說(shuō)話人個(gè)數(shù)Ns是已知的。然而,由于語(yǔ)音信號(hào)時(shí)間上不連續(xù)的特點(diǎn),即使知道說(shuō)話人個(gè)數(shù),一幀數(shù)據(jù)中活動(dòng)說(shuō)話人Na的個(gè)數(shù)仍然是未知的。也就是說(shuō)只知道活動(dòng)說(shuō)話人的個(gè)數(shù)至多為Ns。綜上所述,提出的基于子帶SRP的多聲源定位算法流程如圖3所示。該圖中,|·|表示類的勢(shì),即類中元素的個(gè)數(shù),為Na的估計(jì)值。
圖3 基于子帶SRP的多聲源定位算法
為驗(yàn)證本文提出算法的性能,模擬室內(nèi)環(huán)境做了不同信噪比(Signal-to-Noise Ratio,SNR)和不同混響時(shí)間(通常用T60來(lái)表示)下的計(jì)算機(jī)仿真。房間大小為5 m×4 m×3 m,麥克風(fēng)陣列如圖4所示。
圖4 麥克風(fēng)陣列與DOA矢量
該陣列為均勻圓陣,半徑為0.1 m,圖中黑點(diǎn)表示麥克風(fēng),編號(hào)1~8。需要說(shuō)明的是,本文提出的算法對(duì)陣形并無(wú)特定要求。如前文所述,除了仿真外,還使用了一批真實(shí)數(shù)據(jù)來(lái)進(jìn)行實(shí)驗(yàn)。這批數(shù)據(jù)就是用圖4所示的小孔徑均勻圓陣采集的,為便于對(duì)照,仿真中仍使用相同的陣形。陣列放置于房間地面中心位置,坐標(biāo)原點(diǎn)即為該陣列圓心。DOA矢量由坐標(biāo)原點(diǎn)指向聲源。在遠(yuǎn)場(chǎng)情形下,該矢量即為式(4)所表達(dá)的ζ。說(shuō)話人個(gè)數(shù)為2,聲源位置qs1= (1.5 m,70°,20°),qs2=(1.5 m,-10°,21°)。聲源信號(hào)為兩段女聲英語(yǔ)語(yǔ)音,采樣頻率為16 kHz。房間沖激響應(yīng)用image法[10]產(chǎn)生,麥克風(fēng)接收信號(hào)可由式(1)得到。信號(hào)幀長(zhǎng)512點(diǎn)(32 ms),幀之間不重疊,加漢寧(Hanning)窗。去除靜音幀后,共有141幀數(shù)據(jù)用于定位。
水平角θ的搜索范圍為-180°~180°,仰角?的搜索范圍為0°~90°,步長(zhǎng)均為1°。由于小孔徑均勻圓陣對(duì)仰角的估計(jì)精度較低,定位算法的性能僅根據(jù)水平角的估計(jì)結(jié)果來(lái)評(píng)價(jià)[11]。對(duì)于每幀數(shù)據(jù),若對(duì)某個(gè)源的水平角估計(jì)誤差不超過(guò)5°,則該次估計(jì)為正確的(correct)估計(jì),否則為額外的(extra)估計(jì)[7]。統(tǒng)計(jì)所有幀的估計(jì)結(jié)果,得到估計(jì)的正確率和額外率。這兩項(xiàng)指標(biāo)被用來(lái)評(píng)價(jià)多聲源定位算法的性能[7]。正確率定義為:
在上述兩式中,I為用于仿真的信號(hào)幀數(shù),αc(i)和αe(i)分別表示由第i幀數(shù)據(jù)得到的正確的估計(jì)次數(shù)和額外的估計(jì)次數(shù),Na(i)為第i幀數(shù)據(jù)中活動(dòng)說(shuō)話人個(gè)數(shù)的真值(該值可由源信號(hào)得到)。
用本文提出的算法和文獻(xiàn)[7]中的算法作了兩組仿真。第一組固定信噪比為10 dB,混響時(shí)間為100~600 ms;第二組固定混響時(shí)間為600 ms,信噪比為5~25 dB。為便于描述,將本文提出的算法記為SRP-sub,文獻(xiàn)[7]中的算法記為SRP-PHAT。仿真結(jié)果如圖5所示。
圖5 不同混響時(shí)間和不同信噪比下,兩種算法的定位性能比較
由圖5(a)和圖5(b)可見,在不同的混響時(shí)間下,SRP-sub算法比SRP-PHAT算法均有更高的正確率和更低的額外率。當(dāng)混響時(shí)間大于400 ms,前者的額外率有更為明顯的降低。由圖5(c)可見,在信噪比為10 dB以下,20 dB以上,SRP-sub算法和SRP-PHAT算法的正確率比較接近,而在信噪比為10~20 dB之間,前者的正確率明顯高于后者。由圖5(d)可見,信噪比低于10 dB時(shí),SRP-sub算法的額外率比SRP-PHAT有較大幅度降低,隨著信噪比升高,二者的額外率逐漸接近。以上分析表明,在中等信噪比,較強(qiáng)混響環(huán)境下,本文提出的SRP-sub算法比傳統(tǒng)的SRP-PHAT算法有較好的多聲源定位性能。
為進(jìn)一步驗(yàn)證本文提出算法的有效性,使用取自瑞士IDIAP研究所的真實(shí)數(shù)據(jù)[12]來(lái)作多聲源定位實(shí)驗(yàn)。IDIAP提供了單聲源、多聲源、靜態(tài)和動(dòng)態(tài)等多種情景的錄音。取其中編號(hào)為“seq37-3p-0001”的一組數(shù)據(jù)。該組數(shù)據(jù)是在一個(gè)小型會(huì)議室中錄制的,麥克風(fēng)陣列如圖4所示。錄制時(shí),麥克風(fēng)陣列放置于會(huì)議桌上,3個(gè)說(shuō)話人坐在桌旁,面對(duì)陣列。3個(gè)說(shuō)話人的位置分別為:q~s1=(0.92 m,74°,21°),q~s2=(0.69 m,-7°,24°)和q~s3=(1.19 m,-50°,14°)。錄制過(guò)程中,說(shuō)話人成對(duì)同時(shí)說(shuō)話,即s1和s2,s1和s3,s2和s3。每種情況,取6.25 s的數(shù)據(jù),總共有18.75 s的數(shù)據(jù)。這些數(shù)據(jù)的采樣頻率、幀長(zhǎng)、幀重疊度、窗函數(shù)以及搜索范圍和步長(zhǎng)均與第6章中的相同。去除靜音幀后,總計(jì)有442幀數(shù)據(jù)用于聲源定位實(shí)驗(yàn)。與仿真的情況類似,仍然使用式(10)和式(11)來(lái)評(píng)價(jià)兩種算法的定位性能。值得一提的是,在錄制“seq37-3p-0001”數(shù)據(jù)時(shí),除了會(huì)議桌上的麥克風(fēng)陣列外,每個(gè)說(shuō)話人衣領(lǐng)處還別了一支麥克風(fēng)。衣領(lǐng)麥克風(fēng)與陣列同步錄音,其采集的數(shù)據(jù)稱為“l(fā)apel recordings”。由于衣領(lǐng)麥克風(fēng)與說(shuō)話人靠得很近,因此可將“l(fā)apel recordings”當(dāng)做是單個(gè)說(shuō)話人的純凈語(yǔ)音。根據(jù)“l(fā)apel recordings”,可得到第i幀真實(shí)數(shù)據(jù)的Na(i)。
實(shí)驗(yàn)結(jié)果如表1所示。由表1可見,相比文獻(xiàn)[7]中的算法,本文提出的算法將正確率提高了約4%,將額外率降低了約7%。這充分說(shuō)明本文提出的算法在真實(shí)環(huán)境中能有效地實(shí)現(xiàn)多聲源定位。
表1 真實(shí)環(huán)境中兩種算法的定位性能比較(%)
在多聲源定位中,由于聲源之間的相互干擾,傳統(tǒng)的SRP-PHAT算法定位性能不高。本文提出基于子帶SRP的多聲源定位算法。該算法將語(yǔ)音信號(hào)頻譜劃分為7個(gè)子帶,計(jì)算每個(gè)子帶的SRP函數(shù),然后在聲源空間搜索其最大值得到初始估計(jì)。根據(jù)語(yǔ)音信號(hào)頻率的稀疏性,同一個(gè)源不會(huì)在每個(gè)子帶都是最強(qiáng)的,因此劃分子帶可突出較弱的源,即初始估計(jì)中包含不同的聲源位置,利用AC聚類可得到最終的聲源位置估計(jì)。仿真和實(shí)驗(yàn)表明,在兩個(gè)說(shuō)話人的情況下,本文提出的算法比傳統(tǒng)的SRP-PHAT算法定位性能更好。
[1]Zhang Cha,F(xiàn)lorencio D,Ba D E,et al.Maximum likelihood sound source localization and beamforming for directional microphone arrays in distributed meetings[J].IEEE Transactions on Multimedia,2008,10(3):538-548.
[2]Cheng Ning,Liu Wenju,Li Peng,et al.Microphone array speech enhancement based on a generalized post-filter and a novel perceptual filter[C]//Proceedings of the 9th International Conference on Signal Processing(ICSP),Beijing,China,2008:370-373.
[3]Markovic I,Petrovic I.Speaker localization and tracking with a microphone array on a mobile robot using von Mises distribution and particle filtering[J].Robotics and Autonomous Systems,2010,58(11):1185-1196.
[4]Lathoud G,Magimai-Doss M.A sector-based,frequency-domain approach to detection and localization of multiple speakers[C]// IEEEInternational Conference on Acoustics,Speech,and Signal Processing(ICASSP),Philadelphia,PA,USA,2005:265-268.
[5]Kepesi M,Ottowitz L,Habib T.Joint position-pitch estimation for multiple speaker scenarios[C]//IEEE Hands-Free Speech Communication and Microphone Arrays(HSCMA),Trento,Italy,2008:85-88.
[6]Dibiase J H.A high-accuracy,low-latency technique for talker localization in reverberant environments using microphone arrays[D].Providence:Brown University,2000.
[7]Do H,Silverman H F.A method for locating multiple sources from a frame of a large-aperture microphone array data without tracking[C]//IEEE International Conference on Acoustics,Speech,and Signal Processing(ICASSP),Las Vegas,NV,USA,2008:301-304.
[8]Brutti A,Omologo M,Svaizer P.Localization of multiple speakers based on a two step acoustic map analysis[C]//IEEE International Conference on Acoustics,Speech,and Signal Processing(ICASSP),Las Vegas,NV,USA,2008:4349-4352.
[9]Zhang Wenyi,Rao B D.A two microphone-based approach for source localization of multiple speech sources[J].IEEE Transactions on Audio,Speech,and Language Processing,2010,18(8):1913-1928.
[10]Allen J B,Berkley D A.Image method for efficiently simulating small-room acoustics[J].Journal of Acoustical Society of America,1979,65(4):943-950.
[11]Souden M,Benesty J,Affes S.Broadband source localization from an eigenanalysis perspective[J].IEEE Transactions on Audio,Speech,andLanguageProcessing,2010,18(6):1575-1587.
[12]Lathoud G,Odobez J M,Gatica-Perez D.AV 16.3:an audiovisual corpus for speaker localization and tracking[R].Martigny:IDIAP Research Institute,2004.
NI Zhilian,CAI Weiping,ZHANG Yidian
School of Electrical Engineering,Jiujiang Vocational and Technical College,Jiujiang,Jiangxi 332007,China
To improve localization performance of microphone array in the case of multiple speakers,a method for multiple speech source localization based on sub-band steered response power is presented.In this method,speech signal is divided into seven sub-bands in frequency domain,and the steered response power-phase transform functions are computed in each sub-band. Then initial estimations of source location are generated by searching the maximum value for each function in the source space. According to the frequency sparsity characteristic for speech signal,these initial estimations include multiple source locations. The final source location estimations are produced from them using agglomerative clustering.Simulation and experiment results show that the proposed algorithm facilitates about 4%increase in localization correct rate and about 7%reduction in localization extra rate compared with the conventional algorithm under the conditions of two speakers,10 dB signal-to-noise ratio and moderate reverberation.
microphone array;multiple speech source localization;sub-band steered response power;clustering
為了提高多個(gè)說(shuō)話人情況下麥克風(fēng)陣列的定位性能,提出基于子帶可控響應(yīng)功率的多聲源定位算法。該算法將語(yǔ)音信號(hào)頻域分為7個(gè)子帶,在每個(gè)子帶計(jì)算相位變換加權(quán)的可控響應(yīng)功率函數(shù),在聲源空間搜索其最大值得到聲源位置的初始估計(jì)。根據(jù)語(yǔ)音信號(hào)頻率的稀疏性,這些初始估計(jì)包含多個(gè)聲源的位置,運(yùn)用會(huì)聚聚類算法得到最終的聲源位置估計(jì)。仿真和實(shí)驗(yàn)表明,在有2個(gè)說(shuō)話人,10 dB信噪比,較強(qiáng)混響的條件下,該算法比傳統(tǒng)算法的定位正確率提高了約4%,額外率降低了約7%。
麥克風(fēng)陣列;多聲源定位;子帶可控響應(yīng)功率;聚類
A
TN912.3
10.3778/j.issn.1002-8331.1205-0133
NI Zhilian,CAI Weiping,ZHANG Yidian.Method for multiple speech source localization based on sub-band steered response power.Computer Engineering and Applications,2013,49(24):205-209.
國(guó)家自然科學(xué)基金(No.60971098)。
倪志蓮(1973—),女,副教授,主要研究領(lǐng)域?yàn)樽詣?dòng)控制;蔡衛(wèi)平(1973—),男,博士,講師;張怡典(1972—),女,副教授。E-mail:cwp0826@sohu.com
2012-05-17
2012-07-16
1002-8331(2013)24-0205-05
CNKI出版日期:2012-08-16http://www.cnki.net/kcms/detail/11.2127.TP.20120816.1045.013.html