• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于LDA與距離度量學(xué)習(xí)的文本分類研究

      2016-12-10 22:09詹增榮程丹
      關(guān)鍵詞:文本分類

      詹增榮+程丹

      摘 要 提出了一種基于隱含狄利克雷分布(LDA)與距離度量學(xué)習(xí)(DML)的文本分類方法,該方法利用LDA為文本建立主題模型,借助Gibbs抽樣算法計(jì)算模型參數(shù),挖掘隱藏在文本內(nèi)主題與詞的關(guān)系,得到文本的主題概率分布.以此主題分布作為文本的特征,利用DML方法為不同類別的文本學(xué)習(xí)馬氏距離矩陣,從而較好的表達(dá)了文本之間的相似性.最后在學(xué)習(xí)到的文本間距離上,利用常用的KNN及 SVM分類器進(jìn)行文本分類.在經(jīng)典的3個(gè)數(shù)據(jù)集中的實(shí)驗(yàn)結(jié)果表明,該方法提高了文本分類的準(zhǔn)確率,并且在不同的隱含主題數(shù)目參數(shù)下能體現(xiàn)較好的穩(wěn)定性.

      關(guān)鍵詞 文本分類;距離度量學(xué)習(xí);隱含狄利克雷分布;主題模型

      中圖分類號 TP391.41 文獻(xiàn)標(biāo)識碼 A 文章編號 1000-2537(2016)05-0070-07

      Abstract A text classification method based on Latent Dirichlet Allocation (LDA) and distance metric learning (DML) were presented. The method models text data with LDA, which generate the topic distribution of different text through detecting the hidden relationship between different topics and words inside the text data, and parameters of the model are estimated with Gibbs sampling algorithm. The generated topic distribution is used as the features of the text data, and the DML method is used to learning the Mahalanobis distance metric for different classes so that the similarity between text data are well presented. Classifiers like KNN or SVM are used to classify text data based on the learning distances. Experimental results showed that this method can improve the text classification accuracy and is robust in setting different topic number.

      Key words text classification; distance metric learning; latent Dirichlet allocation; topic model

      隨著互聯(lián)網(wǎng)的高速發(fā)展,文本數(shù)據(jù)作為最主要的信息載體之一以指數(shù)級的速度不斷增長.因此,如何有效地從海量文本數(shù)據(jù)中挖掘出有用的信息成為當(dāng)前的迫切需求.文本自動分類技術(shù)作為自然語言處理的關(guān)鍵技術(shù)近年來廣泛受到關(guān)注并得到了快速的發(fā)展,已成為當(dāng)前研究的熱點(diǎn).文本自動分類的過程中主要的技術(shù)包括了文本的預(yù)處理、特征的提取、文本的表示、分類器的設(shè)計(jì),以及分類效果的評估等.

      在文本分類研究中,向量空間模型(Vector Space Model,VSM)[1]是數(shù)據(jù)挖掘領(lǐng)域經(jīng)典的分析模型之一.VSM利用統(tǒng)計(jì)詞在文本和文本集中出現(xiàn)的頻率來表征詞對文本的重要性,最終將文本表示成一個(gè)向量,并通過余弦等不同的距離度量方式來計(jì)算文本之間的相似度.然而,由于自然語言的復(fù)雜性,類似文本語義等復(fù)雜問題并不能在VSM中得到建模,而且利用VSM表示文本得到的數(shù)據(jù)空間是極度高維且稀疏的.近年來,以隱含狄利克雷分布(Latent Dirichlet Allocation, LDA)[2]為代表的主題模型成為研究的熱點(diǎn).基于LDA主題模型進(jìn)行建模能很好地考慮文本語義的相似性問題,因而被廣泛應(yīng)用到各個(gè)文本分類算法中,如Bao[3]、姚全珠[4]、李文波[5]等都使用LDA模型來對文本進(jìn)行分類.

      樣本間的距離度量是模式識別領(lǐng)域研究的核心問題之一,它對分類、聚類等模式分析任務(wù)非常重要,如K近鄰、支持向量機(jī)等分類算法的準(zhǔn)確率就非常依賴于距離的定義.在文本分類中,為文本的特征向量選擇適合的距離度量方法將直接影響到最終分類的效果.為此,許多學(xué)者分別提出了不同類型距離度量學(xué)習(xí)(Distance Metric Learning,DML)方法,即從給定訓(xùn)練集的相似或不相似的樣本中學(xué)習(xí)一個(gè)距離度量來提高分類或聚類等任務(wù)的準(zhǔn)確率.Davis[6]等給出了一種基于信息理論的方法去學(xué)習(xí)一個(gè)馬氏距離,Weinberger[7]等闡述了就提高KNN分類器的準(zhǔn)確率中的大間距框架的距離學(xué)習(xí)問題,Kulis[8]等給出了距離學(xué)習(xí)的綜述.多數(shù)的DML研究都是著重在尋找一個(gè)線性矩陣來最優(yōu)化全局?jǐn)?shù)據(jù)間的可分離性和緊湊性,但是如果不同類別的數(shù)據(jù)呈現(xiàn)出不同的分布,尋找一個(gè)適合全局?jǐn)?shù)據(jù)的距離度量線性矩陣往往不太現(xiàn)實(shí).一個(gè)可行的方法是針對不同的局部數(shù)據(jù)來學(xué)習(xí)不同的線性矩陣,從而滿足不同局部數(shù)據(jù)的最佳距離度量矩陣.

      基于以上考慮,本文提出基于LDA和距離度量學(xué)習(xí)的文本分類方法.該方法首先利用LDA模型對文本集進(jìn)行建模,即利用文本的統(tǒng)計(jì)特性將文本語料映射到各個(gè)主題空間,挖掘隱藏主題與詞的分布,從而得到文本的主題分布.然后,以此分布為文本特征,針對不同類別的文本通過距離度量學(xué)習(xí)得到適合該類別文本與其他文本最佳距離度量矩陣.最后,根據(jù)得到的不同類別文本的距離度量矩陣計(jì)算文本數(shù)據(jù)與該類別文本間的距離,再放到常見的KNN[9]或SVM[10]分類器中實(shí)現(xiàn)文本的分類.

      1 相關(guān)理論

      1.1 LDA模型

      LDA模型[2]是由Blei提出等人在2003年提出的一種對離散數(shù)據(jù)集建模的主題概率模型.LDA模型相對于傳統(tǒng)的LSI[11]和PLSI[12]等模型不僅具有更加清晰的層次結(jié)構(gòu)而且解決了隨著訓(xùn)練文本數(shù)目增加主題個(gè)數(shù)不斷增加導(dǎo)致的過渡擬合問題,從而更加適合于大規(guī)模語料庫分析.

      LDA是一種非監(jiān)督機(jī)器學(xué)習(xí)技術(shù),它的基本思想是文本由多個(gè)潛在的主題所構(gòu)成,而每個(gè)潛在的主題又由文本中若干個(gè)特定詞匯構(gòu)成.它將文本、主題、詞的結(jié)構(gòu)構(gòu)成三層貝葉斯概率模型,即文本中的主題服從Dirichlet分布,且任一主題中出現(xiàn)的詞服從多項(xiàng)式分布.如圖1所示,LDA模型具有非常清晰的層次結(jié)構(gòu).

      1.2 GP采樣

      LDA對參數(shù)的估計(jì)比較常用的方法包括了變分推算方法和Gibbs抽樣方法.其中Gibbs抽樣算法屬于馬爾科夫鏈-蒙特卡羅(Markov Chain-Monte Carlo,MCMC)的一種特例,它通過構(gòu)造收斂于目標(biāo)概率分布的馬爾科夫鏈,并從鏈中抽樣出接近于該概率分布的樣本.由于Gibbs抽樣算法簡單且容易實(shí)現(xiàn),對于聯(lián)合概率分布維度較高的情況非常適用,因此成為主題模型最常用的參數(shù)估計(jì)算法.

      在式(1)中,需要估計(jì)的定參數(shù)有兩個(gè),一個(gè)是在參數(shù)α下產(chǎn)生的文檔中主題的分布θ;第二是在確定主題后,由參數(shù)β產(chǎn)生的主題中詞的分布φ.利用Gibbs抽樣算法可以得到:

      θm,k=ntk+ak∑Kk=1nkm+ak, φk,t=ntk+βt∑Vt=1ntk+βt,

      其中φk,t為主題k中詞項(xiàng)t的概率;θm,k為文本m中主題k的概率;ntk表示主題k中出現(xiàn)詞項(xiàng)t的次數(shù);V為所有文檔中出現(xiàn)的詞的總數(shù).

      1.3 距離度量學(xué)習(xí)

      2 基于LDA與距離度量學(xué)習(xí)的文本分類

      基于LDA與距離度量學(xué)習(xí)的文本分類算法主要是利用了LDA主題模型對文本進(jìn)行建模并使用Gibbs抽樣方法間接計(jì)算模型的參數(shù),在確定了主題數(shù)目K等參數(shù)后,得到文本集中所有文本上的主題概率分布.以文本的主題概率分布為特征向量,文本已有的類別標(biāo)簽,并利用距離度量學(xué)習(xí)算法學(xué)習(xí)每個(gè)類別內(nèi)樣本與測試樣本的最優(yōu)距離,最后將得到的樣本間的最優(yōu)距離放入到KNN或SVM等分類器中進(jìn)行分類得到每個(gè)文本的類別.分類具體過程主要包括了文本的預(yù)處理、LDA建模、距離度量學(xué)習(xí)、文本分類等,算法的流程框架圖如圖3所示.

      2.1 文本預(yù)處理

      針對實(shí)驗(yàn)語料庫進(jìn)行清洗、去停用詞、提取詞干,并過濾冗余的信息,建立初步的文檔向量空間模型.

      2.2 LDA建模

      利用LDA算法對文本集合中的文本進(jìn)行主題建模,建模過程利用Gibbs抽樣方法來進(jìn)行參數(shù)估計(jì),并確定了主題數(shù)目K和參數(shù)α,β.通過計(jì)算得到主題分布向量θ,并最終得到文本-隱主題分布矩陣.

      2.3 距離度量學(xué)習(xí)

      尋找一個(gè)馬氏距離矩陣來達(dá)到最優(yōu)化全局?jǐn)?shù)據(jù)間的可分離性和緊湊性是距離度量學(xué)習(xí)研究目的,但是在數(shù)據(jù)呈現(xiàn)出不同的分布的情況下,很難得到一個(gè)適合全局?jǐn)?shù)據(jù)的距離度量矩陣.因此,本節(jié)提出為不同的類別樣本數(shù)據(jù)學(xué)習(xí)一個(gè)適合該類別的馬氏距離矩陣w,用于表達(dá)該類別內(nèi)數(shù)據(jù)樣本與其他數(shù)據(jù)樣本的距離度量.

      設(shè)C1,C2,…,CM為數(shù)據(jù)樣本的類別,M為類別總數(shù)目,對于類別p中的數(shù)據(jù)樣本集{xp1,xp2,…,xpNp}(Np為類別p中的樣本數(shù)目),為了學(xué)習(xí)到一個(gè)參數(shù)矩陣Wp來最優(yōu)的表達(dá)該類別中樣本與測試樣本間的距離,可以將訓(xùn)練樣本中的任意樣本xpi,xpj,xql(其中p≠q),作為(3)式中的限制來訓(xùn)練得到最優(yōu)參數(shù)矩陣Wp.同理也可以得到其他類別的參數(shù)矩陣W1,W2,…,Wm,從而將(3)式中的問題可以被重新描述為:

      其中相似集合S和不相似集合D的定義為:當(dāng)學(xué)習(xí)某一類別p的馬氏距離矩陣時(shí),S中的元素為該類別所有元素的二元組合,D中的為該類別的元素與其他類別元素的二元組合.

      2.4 文本分類

      根據(jù)LDA建模獲得的所有文本的主題概率分布矩陣,結(jié)合樣本類別信息利用距離度量學(xué)習(xí)算法計(jì)算出樣本之間的距離,然后放到常見的KNN或SVM分類器中進(jìn)行分類得到相應(yīng)的測試樣本的類別.

      3 實(shí)驗(yàn)設(shè)計(jì)與結(jié)果分析

      3.1 實(shí)驗(yàn)環(huán)境

      實(shí)驗(yàn)在CPU為Intel Core 8核、內(nèi)存為16G、操作系統(tǒng)為Windows 7的PC機(jī)上進(jìn)行.主要算法采用了Matlab來實(shí)現(xiàn),LDA算法利用文[13]中提供的Matlab Toolbox來實(shí)現(xiàn),距離度量學(xué)習(xí)算法及KNN分類器算法是在ITML[6]中的算法的基礎(chǔ)上改進(jìn)得到.SVM分類器選取了臺灣大學(xué)林智仁教授開發(fā)設(shè)計(jì)的LIBSVM[14]作為分類器的訓(xùn)練環(huán)境實(shí)現(xiàn).

      3.2 實(shí)驗(yàn)數(shù)據(jù)

      實(shí)驗(yàn)選擇了3個(gè)經(jīng)典的數(shù)據(jù)集Reuters21578,20Newsgroups和TDT2作為實(shí)驗(yàn)的數(shù)據(jù),數(shù)據(jù)來源及預(yù)處理都來自于文[15].Reuters21578是路透社1987年中新聞專線的文檔集合.它包含了21 578個(gè)樣本,分成135個(gè)類別.為了實(shí)驗(yàn)方便剔除了屬于多個(gè)類別的樣本,并從中選取了最大的9個(gè)類別集合共7 258個(gè)數(shù)據(jù)作為實(shí)驗(yàn)數(shù)據(jù).20Newsgroups文檔集合包含了18 846個(gè)文檔,平均分布為20個(gè)類別,為了減少實(shí)驗(yàn)有效性,選取了全部類別作為實(shí)驗(yàn)數(shù)據(jù).TDT2(NIST Topic Detection and Tracking)文檔集包含了來自6個(gè)不同新聞源的文檔集合,總共有11 201個(gè)文檔數(shù)據(jù),并被分成96個(gè)語義類別.為了簡化實(shí)驗(yàn)結(jié)果,剔除了屬于多個(gè)類別的文檔數(shù)據(jù),最后只保留了9 394個(gè)文檔.所有的數(shù)據(jù)集合都按照文[15]的方法做了預(yù)處理,包括剔除無用詞語、應(yīng)用波特詞干算法等.最后都按照按照0.7的比例劃分訓(xùn)練集和測試集.

      3.3 評估方法

      為了較好地描述模型對文本分類的效果,實(shí)驗(yàn)從分類的準(zhǔn)確率(Accuracy)、精確率(Precision)、召回率(Recall)、F測量來評估測試的結(jié)果,其中F測量是一種結(jié)合精確率和召回率的平衡指標(biāo).對于分類問題可以用表1所示的混合矩陣來表示分類結(jié)果的情況.根據(jù)表中的描述,實(shí)驗(yàn)中各個(gè)評估方法的定義如下(其中一般取值為1):

      3.4 實(shí)驗(yàn)結(jié)果分析

      在經(jīng)典的3個(gè)數(shù)據(jù)集進(jìn)行預(yù)處理后分別采用3種算法進(jìn)行實(shí)驗(yàn),包括傳統(tǒng)的KNN分類;LDA建模后進(jìn)行KNN分類(LDA-KNN);LDA建模后利用距度量離學(xué)習(xí)算法計(jì)算樣本間距離后再進(jìn)行KNN分類(LDA-DML-KNN).實(shí)驗(yàn)得到結(jié)果如表2所示(其中LDA的主題數(shù)取值為100),從表2中可以看出,基于LDA主題模型與KNN相結(jié)合算法(LDA-KNN)相對于傳統(tǒng)的KNN算法具有較高的準(zhǔn)確率,在Reuters和TDT數(shù)據(jù)集上的多項(xiàng)指標(biāo)都有超過15%的提高.而融合距離度量學(xué)習(xí)的分類算法(LDA-DML-KNN)比LDA-KNN算法在準(zhǔn)確率等指標(biāo)上具有5%左右的提升.

      鑒于主題數(shù)(T)的大小會影響實(shí)驗(yàn)的效果,實(shí)驗(yàn)針對不同的主題數(shù)目在3個(gè)數(shù)據(jù)集上分別使用KNN和SVM兩個(gè)分類器進(jìn)行了測試,測試結(jié)果如圖4所示,其中KNN的領(lǐng)域數(shù)目k=10,SVM采用了高斯核函數(shù)(其中參數(shù)σ=1/4),且為了訓(xùn)練樣本間不同類別的樣本距離取樣本到相互間距離的中值.在3個(gè)實(shí)驗(yàn)集合實(shí)驗(yàn)結(jié)果中,當(dāng)主題數(shù)取得T=100時(shí)已經(jīng)具有較好的效果.其次,結(jié)果表明融合距離度量學(xué)習(xí)的分類算法不僅取得較高的準(zhǔn)確率且更加穩(wěn)定.此外,在實(shí)驗(yàn)中SVM分類器比KNN分類具有更好的分類效果,特別是在20Newsgroups數(shù)據(jù)集上.

      4 總結(jié)

      本文將LDA主題模型和距離度量學(xué)習(xí)應(yīng)用到文本分類中,不僅將文本深層次的語義知識嵌入到模型中,并且學(xué)習(xí)了不同文本深層次語義之間的距離度量,從而提高了文本分類的準(zhǔn)確率.此外,由于LDA主題模型所建立的文本主題空間的維度要遠(yuǎn)遠(yuǎn)小于文本的向量空間模型,大大提高了計(jì)算了速度.在文本分類常用的3個(gè)實(shí)驗(yàn)數(shù)據(jù)集進(jìn)行的實(shí)驗(yàn)結(jié)果表明,該方法可以明顯提高文本分類效果,模型可以為數(shù)據(jù)挖掘、自然語言處理等學(xué)科的研究和實(shí)現(xiàn)提供借鑒與參考.

      參考文獻(xiàn):

      [1]SALTON G, WONG A, YANG C S. A vector space model for automatic indexing [J]. Commun ACM, 1975,18(11):613-620.

      [2]BLEI D M, NG A Y, JORDAN M I. Latent Dirichlet allocation [J]. Machine Learning Res, 2003,29(3):993-1022.

      [3]BAO Y, COLLIER N, DATTA A. A partially supervised cross-collection topic model for cross-domain text classification; proceedings of the 22nd ACM international conference on information & knowledge management[C]. F. ACM, 2013.

      [4]姚全珠,宋志理,彭 程. 基于LDA模型的文本分類研究 [J]. 計(jì)算機(jī)工程與應(yīng)用, 2011,13(1):150-153.

      [5]李文波,孫 樂,張大鯤. 基于Labeled-LDA模型的文本分類新算法 [J]. 計(jì)算機(jī)學(xué)報(bào), 2008,31(4):620-627.

      [6]DAVIS J V, KULIS B, JAIN P, et al. Information-theoretic metric learning[C]//Proceedings of the 24th international conference on Machine learning, F. ACM, 2007.

      [7]WEINBERGER K Q, SAUL L K. Distance metric learning for large margin nearest neighbor classification [J]. Machine Learning Res, 2009,10(2):207-244.

      [8]KULIS B. Metric learning: A survey [J]. Found Trends Machine Learning, 2012,5(4):287-364.

      [9]COVER T M, HART P E. Nearest neighbor pattern classification [J]. Inf Theory, IEEE Trans, 1967,13(1):21-27.

      [10]BURGES C J C. A tutorial on support vector machines for pattern recognition [J]. Data Mining Knowledge Discovery, 1998,2(2):121-167.

      [11]DUMAIS S T. Latent semantic indexing (LSI): TREC-3 report [J]. Nist Special Publication SP, 1995,9(2):219.

      [12]THOMAS H. Probabilistic latent semantic indexing[C]//Proceedings of the 22nd annual international ACM SIGIR conference on Research and development in information retrieval, Berkeley, California, USA, F. ACM, 1999.

      [13]GRIFFITHS T L, STEYVERS M. Finding scientific topics [J]. Proc Nat Acad Sci, 2004,101(suppl 1):5228-5235.

      [14]CHANG C C, LIN C J. LIBSVM: a library for support vector machines [J]. ACM Trans Intell Syst Technol (TIST), 2011,2(3):27.

      [15]ZHANG D, WANG J, CAI D, et al. Self-taught hashing for fast similarity search[C]//Proceedings of the 33rd international ACM SIGIR conference on Research and development in information retrieval, F. ACM, 2010.

      (編輯 CXM)

      猜你喜歡
      文本分類
      基于樸素貝葉斯的Web文本分類及其應(yīng)用
      基于組合分類算法的源代碼注釋質(zhì)量評估方法
      基于貝葉斯分類器的中文文本分類
      基于蟻群智能算法的研究文本分類
      基于樸素貝葉斯分類的Java課程網(wǎng)絡(luò)答疑反饋系統(tǒng)
      基于K—means算法的文本分類技術(shù)研究
      文本分類算法在山東女子學(xué)院檔案管理的應(yīng)用
      不同情境下中文文本分類模型的表現(xiàn)及選擇
      基于內(nèi)容的英語錄音教材標(biāo)注研究與應(yīng)用
      多核SVM文本分類研究
      乐清市| 海宁市| 桦川县| 凤城市| 来宾市| 宾阳县| 临猗县| 富顺县| 浑源县| 荔浦县| 安康市| 武冈市| 峨山| 宁南县| 宿迁市| 五指山市| 邮箱| 凤台县| 岑巩县| 进贤县| 三原县| 贡山| 蒲江县| 夏邑县| 贺州市| 成武县| 手游| 清丰县| 资源县| 蒙阴县| 西峡县| 咸丰县| 仁化县| 兴宁市| 衡阳市| 台湾省| 密山市| 郁南县| 金门县| 北碚区| 威远县|