• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      融合深度學(xué)習(xí)與機(jī)器學(xué)習(xí)的在線評(píng)論情感分析

      2019-06-10 01:01劉曉彤田大鋼
      軟件導(dǎo)刊 2019年2期
      關(guān)鍵詞:情感分析機(jī)器學(xué)習(xí)深度學(xué)習(xí)

      劉曉彤 田大鋼

      摘 要:情感分析可以幫助商家了解客戶喜好從而生產(chǎn)出滿意度更高的商品,也可以監(jiān)督網(wǎng)上輿論等。為此,基于傳統(tǒng)機(jī)器學(xué)習(xí)方法,加入深度學(xué)習(xí)模塊,對(duì)在線評(píng)論進(jìn)行情感分析與對(duì)比。在詞向量訓(xùn)練模塊中引入Word2vec模型,用高維向量表示詞語(yǔ)、句子,既可防止過(guò)度擬合問(wèn)題,又可減少訓(xùn)練參數(shù)個(gè)數(shù),提高訓(xùn)練效率。將得到的句向量作為輸入代入機(jī)器學(xué)習(xí)模型(MLP、SVM、樸素貝葉斯等)與深度學(xué)習(xí)模型(CNN、LSTM、BILSTM等),比較實(shí)驗(yàn)結(jié)果,提出優(yōu)化方向。結(jié)果表明,基于深度學(xué)習(xí)的情感分析模型準(zhǔn)確率明顯高于單一機(jī)器學(xué)習(xí)模型,但是深度學(xué)習(xí)需要大量語(yǔ)料,對(duì)實(shí)驗(yàn)機(jī)器要求也較高,很難完全展現(xiàn)其魅力。

      關(guān)鍵詞:情感分析;深度學(xué)習(xí);機(jī)器學(xué)習(xí);Word2vec模型

      DOI:10. 11907/rjdk. 182576

      中圖分類(lèi)號(hào):TP301文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):1672-7800(2019)002-0001-04

      Abstract:Sentiment analysis is very important,it can help merchants understand the preferences of customers so that they can produce more satisfying goods, and it can also supervise online public opinion. This paper is mainly based on the traditional machine learning method to give the results and do the comparison by employing the deep learning module. A total of two modules can be divided. First, the word vector training module introduces the Word2vec model, and uses high-dimensional vectors to represent words and sentences. Here, the pre-trained Word2vec model is introduced, which not only prevents the over-fitting problem, but also reduces the number of training parameters and improves the training efficiency. The second is to enter the obtained sentence vector as the input into the machine learning model (MLP, SVM, Na?ve Bayes, etc), deep learning model (CNN, LSTM, BILSTM, etc), compare the experimental results, and propose the optimization direction. The accuracy of sentiment analysis models based on deep learning is significantly higher than that of a single machine learning model, but deep learning requires a large amount of corpus, and the requirements for experimental machines are relatively high. It is difficult to demonstrate its charm fully.

      Key Words: sentiment analysis; deep learning; machine learing; Word2vec model

      0 引言

      情感分析又稱意見(jiàn)挖掘、傾向分析,是自然語(yǔ)言處理領(lǐng)域的一個(gè)基礎(chǔ)任務(wù),其目的是利用機(jī)器提取人們對(duì)某人某物或者某事件的態(tài)度是正向支持還是反向反對(duì),從而發(fā)現(xiàn)潛在問(wèn)題并加以解決,或者進(jìn)行預(yù)測(cè)以預(yù)防新問(wèn)題產(chǎn)生。

      近年來(lái),互聯(lián)網(wǎng)迅速發(fā)展,人們?nèi)粘I疃喾矫娑茧x不開(kāi)網(wǎng)絡(luò),微博、電子商務(wù)平臺(tái)等熱門(mén)應(yīng)用吸引了大量用戶,由此產(chǎn)生大量用戶參與的對(duì)于任務(wù)、事件、產(chǎn)品等有價(jià)值的評(píng)論信息。如此一來(lái),也影響了社會(huì)信息傳播格局[1]。這些評(píng)論信息大都包含了人們的情感色彩和情感傾向,如喜、怒、哀、樂(lè)以及批評(píng)、贊許。隨著新興社交平臺(tái)的發(fā)展,網(wǎng)民數(shù)量呈爆炸式增長(zhǎng),大量評(píng)論信息迅速傳播[2]。對(duì)在線評(píng)論進(jìn)行情感分析,實(shí)施急需的網(wǎng)絡(luò)安全監(jiān)管有重大意義[3-4]。但是,面對(duì)如此海量的信息,僅僅依靠人工挖掘是不夠的,因此如何高效地進(jìn)行情感分析、意見(jiàn)挖掘變得至關(guān)重要。

      目前中文文本情感分析主要分為三大類(lèi):第一類(lèi)是基于詞典的詞典匹配法,需要很完備的高質(zhì)量詞典支持。常見(jiàn)的情感詞典包括WordNet[5]、General Inquier(GI)等。Kim等[6-7]利用情感詞典對(duì)種子情感詞進(jìn)行擴(kuò)展,并得到對(duì)種子情感詞分析影響較大的結(jié)論。第二類(lèi)是基于機(jī)器學(xué)習(xí)的情感分析,機(jī)器學(xué)習(xí)極度依賴語(yǔ)料,將手機(jī)語(yǔ)料訓(xùn)練出來(lái)的分類(lèi)器用來(lái)給書(shū)評(píng)分類(lèi)注定要失敗,但是其整體準(zhǔn)確率還是非常樂(lè)觀的。第三類(lèi)則是運(yùn)用近來(lái)比較火熱的深度學(xué)習(xí)算法,在有大量全面訓(xùn)練語(yǔ)料的情況下,深度學(xué)習(xí)在情感分析方面的成效非??捎^。Bengio 等[8]提出采用神經(jīng)網(wǎng)絡(luò)構(gòu)建分布式詞向量,Mikolov等[9]提出了Word2ve模型,Kim等[10]提出采用 Word2vec預(yù)訓(xùn)練得到詞向量。隨后,梁軍等[11]利用深度學(xué)習(xí)方法進(jìn)行中文微博情感分析工作。

      21世紀(jì)初,情感分析就已經(jīng)在自然語(yǔ)言處理領(lǐng)域研究中活躍起來(lái),尤其是在數(shù)據(jù)挖掘、文本挖掘等方面表現(xiàn)極為突出。傳統(tǒng)的無(wú)監(jiān)督方面主要是以情感詞典為代表,為了準(zhǔn)確識(shí)別情感詞,肖江等[12]構(gòu)建了基準(zhǔn)情感詞典以及相關(guān)領(lǐng)域情感詞典,其主要核心是采用相似度計(jì)算確定情感詞的情感傾向。文獻(xiàn)[13]也是基于詞典的情感分析,采用的方法則是擴(kuò)展點(diǎn)互信息So-PMI算法,該方法機(jī)械地將分好詞后的文本信息與情感字典匹配從而確定其情感傾向,其結(jié)果雖然優(yōu)化了,但是依然存在很大缺陷。比如:“好開(kāi)心啊,我中了五百萬(wàn)!”情感詞典匹配法會(huì)把此處的“好”和“開(kāi)心”都標(biāo)記為情感詞,而實(shí)際上“好”不過(guò)是一個(gè)程度副詞用來(lái)修飾“開(kāi)心”而已?;谠~典的情感會(huì)因?yàn)樵~典匹配語(yǔ)義表達(dá)的豐富性而出現(xiàn)很大誤差,而且分類(lèi)準(zhǔn)確率過(guò)于依賴詞典,而新興詞語(yǔ)太多,對(duì)于詞典的補(bǔ)充也太浪費(fèi)時(shí)間人力。由此可見(jiàn),傳統(tǒng)的情感詞典方法在情感分析中表現(xiàn)不是很理想。機(jī)器學(xué)習(xí)則需要大規(guī)模人工標(biāo)注工作,并通過(guò)計(jì)算機(jī)進(jìn)行訓(xùn)練求解,其分類(lèi)結(jié)果過(guò)于依賴標(biāo)注數(shù)據(jù)集。好的分類(lèi)器就要依賴一個(gè)好的數(shù)據(jù)集,如此不但可大量減少人工工作,節(jié)省人力時(shí)間,而且分類(lèi)結(jié)果上也較為可觀。Catal等[14]采用樸素貝葉斯算法、支持向量機(jī)、Bagging算法等多種分類(lèi)器進(jìn)行情感分析,最終利用投票算法確定分類(lèi)的最終結(jié)果。Liu等[15-16]將 Co-training 協(xié)同訓(xùn)練算法與 SVM 相結(jié)合進(jìn)行推文的情感分析,Co-training 協(xié)同訓(xùn)練算法可以實(shí)現(xiàn)語(yǔ)料半自主標(biāo)注,省時(shí)省力,再利用 SVM 算法實(shí)現(xiàn)推文的情感分類(lèi)。但是機(jī)器學(xué)習(xí)模型在判斷文檔和句子的情感傾向時(shí),跟情感詞典法一樣,極有可能忽略文本中不帶感情色彩的情感詞。卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種基于卷積運(yùn)算的神經(jīng)網(wǎng)絡(luò),隨著研究深入,人們發(fā)現(xiàn)CNN也可以用于自然語(yǔ)言處理任務(wù),尤其是分類(lèi)任務(wù),有人提出基于CNN模型的情感分析,其是使用CNN學(xué)習(xí)句子的向量表示,然后再進(jìn)行分類(lèi)任務(wù)。李陽(yáng)輝等[17]提出基于深度學(xué)習(xí)的細(xì)粒度情感分析,分析對(duì)象來(lái)自不同語(yǔ)料,包括評(píng)價(jià)詞典、微博、影評(píng)、知乎等,分析粒度從詞語(yǔ)級(jí)別到篇章級(jí)別。 時(shí)至今日,在谷歌Word2vec工具開(kāi)源后,詞向量的學(xué)習(xí)方法多種多樣,結(jié)合深度學(xué)習(xí)方法進(jìn)行建模在自然語(yǔ)言處理多個(gè)領(lǐng)域取得了巨大突破[18-20]。目前最有效和流行的詞向量表示方式依然是Word2vec,其訓(xùn)練方法簡(jiǎn)單,直接調(diào)用python工具中Gennsim的Word2vec方法即可,也是本文選擇用來(lái)訓(xùn)練詞向量的工具。

      1 數(shù)據(jù)預(yù)處理

      預(yù)處理主要是對(duì)數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化處理,并且訓(xùn)練詞向量,數(shù)據(jù)預(yù)處理活動(dòng)可大致表示如圖1所示。

      1.1 數(shù)據(jù)集

      本文訓(xùn)練情感分析模型所用數(shù)據(jù)來(lái)自于網(wǎng)上各種新聞評(píng)論和商品評(píng)論(購(gòu)買(mǎi)和爬蟲(chóng)獲?。渲泄?1個(gè)大類(lèi),每類(lèi)抽取2 000條數(shù)據(jù),總計(jì)22 000條語(yǔ)料。格式如圖2所示。

      1.2 數(shù)據(jù)清洗及分詞

      數(shù)據(jù)清洗是指將收集到的數(shù)據(jù)集整理成后面實(shí)驗(yàn)可用的形式,其中工作主要包括繁簡(jiǎn)轉(zhuǎn)化、停用詞與特殊符號(hào)去除。中文繁簡(jiǎn)轉(zhuǎn)換工作很容易實(shí)現(xiàn),可以依靠Linux系統(tǒng)中自帶的OpenCC工具,直接對(duì)數(shù)據(jù)集文件執(zhí)行opencc命令即可。

      命令行輸入:opencc-i inputfile.txt-o outputfile.txt-c zht2zhs.ini

      其中inputfile.txt是輸入等待轉(zhuǎn)換的數(shù)據(jù)集,outputfile.txt是轉(zhuǎn)換好的輸出文件名。對(duì)于數(shù)據(jù)集中的特殊符號(hào)則需用Python正則化方法,即re正則表達(dá)式。

      數(shù)據(jù)清洗后即可以進(jìn)行分詞操作,本文采用的是分詞工具是“結(jié)巴”分詞,支持3種分詞模式:一是精確模式,它試圖將句子最精確地切開(kāi),適合文本分析;二是全模式,它把句子中所有可以成詞的詞語(yǔ)都掃描出來(lái), 速度非???,但是不能解決歧義;三是搜索引擎模式,在精確模式基礎(chǔ)上,對(duì)長(zhǎng)詞再次切分,提高召回率,適合用于搜索引擎分詞。舉例如下:

      1.3 情感詞向量

      建模環(huán)節(jié)中最重要一步是特征提取,在自然語(yǔ)言處理中也不例外。為了將一個(gè)句子轉(zhuǎn)化成可以用數(shù)字表示的有效實(shí)現(xiàn),有人提出,可以把每個(gè)詞語(yǔ)都用一個(gè)對(duì)應(yīng)數(shù)字表示,而且相近詞語(yǔ)給予相近編號(hào),該方法看似解決了問(wèn)題,但事實(shí)結(jié)果并不樂(lè)觀,因?yàn)楹雎粤苏Z(yǔ)義因素。語(yǔ)義不是單一的,而應(yīng)該是多維的,比如我們談到“家園”,有人會(huì)想到近義詞“家庭”,從“家庭”又會(huì)想到“親人”,其都是有相近意思的詞語(yǔ);另外,有的人從“家園”會(huì)想到“地球”,從“地球”又會(huì)想到“火星”,換句話說(shuō),“親人”、“火星”都可以看作是“家園”的二級(jí)近似,但是“親人”跟“火星”本身沒(méi)有什么明顯聯(lián)系。Word2vec正好解決了上述問(wèn)題,簡(jiǎn)單說(shuō),Word2vec可以用高維向量表示詞語(yǔ),并把相近意思的詞語(yǔ)放在相近位置,而且用的是實(shí)數(shù)向量(不局限于整數(shù))。只需要有大量某語(yǔ)言的語(yǔ)料,就可以用來(lái)訓(xùn)練模型,獲得詞向量。實(shí)現(xiàn)Word2vec,讀者可通過(guò)Google官方提供的C語(yǔ)言源代碼自行編譯,Python的Gensim庫(kù)中也提供了現(xiàn)成的Word2vec作為子庫(kù)。部分代碼如下:

      2 實(shí)驗(yàn)與對(duì)比

      將上述整理好的數(shù)據(jù)按4∶1分成訓(xùn)練集與測(cè)試集,并輸入各個(gè)分類(lèi)器,采用情感分析模型進(jìn)行實(shí)驗(yàn)對(duì)比,大致流程如圖3所示。

      2.1 模型代碼與參數(shù)設(shè)置

      根據(jù)不同算法構(gòu)建不同分類(lèi)器,用測(cè)試集檢驗(yàn)各種算法分類(lèi)器的準(zhǔn)確度。傳統(tǒng)的機(jī)器學(xué)習(xí)使用sklearn實(shí)踐,深度學(xué)習(xí)則采用keras工具,其代碼部分很相似,下面給出深度學(xué)習(xí)(LSTM、BILSTM)模型偽代碼。

      2.2 實(shí)驗(yàn)結(jié)果與對(duì)比

      傳統(tǒng)的機(jī)器學(xué)習(xí)選取樸素貝葉斯、SVM兩個(gè)分類(lèi)器進(jìn)行實(shí)驗(yàn)與對(duì)比,而深度學(xué)習(xí)則用到了詞向量表示方法Word2vec和深度網(wǎng)絡(luò)CNN、LSTM(后面可以嘗試其改進(jìn)版BILSTM),最后將深度學(xué)習(xí)與機(jī)器學(xué)習(xí)相結(jié)合,構(gòu)建Word2vec+SVM模型,并進(jìn)行實(shí)驗(yàn)對(duì)比。實(shí)驗(yàn)主要模型結(jié)構(gòu)和部分結(jié)果分別見(jiàn)圖4、圖5。

      實(shí)驗(yàn)結(jié)果顯示,LSTM 需要訓(xùn)練的參數(shù)個(gè)數(shù)遠(yuǎn)小于 CNN,但訓(xùn)練時(shí)間長(zhǎng)于 CNN,LSTM的結(jié)果也不如其它分類(lèi)器或模型好,是由訓(xùn)練數(shù)據(jù)不全、過(guò)少導(dǎo)致的,因此要想讓 LSTM 優(yōu)勢(shì)得到發(fā)揮,首先要保證訓(xùn)練數(shù)據(jù)量。加入Word2vec模型后,結(jié)果都得到了優(yōu)化,證明了其有效性。

      各模型以及分類(lèi)器準(zhǔn)確率如表1所示。

      3 結(jié)語(yǔ)

      本文情感分析方法是基于傳統(tǒng)機(jī)器學(xué)習(xí)與深度學(xué)習(xí)的有監(jiān)督模型,需要大量語(yǔ)料訓(xùn)練模型,但事實(shí)卻是中文環(huán)境下有標(biāo)簽的數(shù)據(jù)太少,作者本身獲取數(shù)據(jù)的能力也有限,所以整體實(shí)驗(yàn)結(jié)果沒(méi)有達(dá)到預(yù)期。尤其是深度學(xué)習(xí)模型,受到數(shù)據(jù)的極大限制。所以,未來(lái)情感分析領(lǐng)域要加強(qiáng)對(duì)無(wú)監(jiān)督或者半監(jiān)督方法的研究,使大量有效的無(wú)標(biāo)簽數(shù)據(jù)派上用場(chǎng)。

      參考文獻(xiàn):

      [1] 丁兆云,賈焰,周斌. 微博數(shù)據(jù)挖掘研究綜述[J]. 計(jì)算機(jī)研究與發(fā)展,2015,51(4):691-706.

      [2] 李洋,陳毅恒,劉挺. 微博信息傳播預(yù)測(cè)研究綜述. 軟件學(xué)報(bào),2016,27(2):247-263.

      [3] 陳曉宇. 我國(guó)網(wǎng)絡(luò)監(jiān)管制度初探[J]. 福建公安高等專(zhuān)科學(xué)校學(xué)報(bào),2004(2):62-65.

      [4] 王樂(lè),王勇,王東安,等. 社交網(wǎng)絡(luò)中信息傳播預(yù)測(cè)的研究綜述[J]. 信息網(wǎng)絡(luò)安全,2015(5):47-55.

      [5] MILLER G A,BECKWITH R,F(xiàn)ELLBAUM C,et al. WordNet:an on-line lexical database[J]. International Journal of Lexicography,1990,3( 4):235-244.

      [6] KIM S M,HOVY E. Automatic detection of opinion bearing words and sentences[C]. Berlin: Proceedings of the International Joint Conference on Natural Language Processing,2005.

      [7] KIM S M ,HOVY E. Identifying and analyzing judgment opinions[C]. Proceedings of the Joint Human Language Technology/North American Chapter of the ACL Conference,2006:200-207.

      [8] BENGIO Y,DUCHARME R,VINCENT P, et al. A neural probabilistic language model[J]. Journal of Machine Learning Research,2003,3:1137-1155.

      [9] MIKOLOV T,SUTSKEVER I,CHEN K,et al. Distributed representations of words and phrases and their compositionality [C]. Proc of the NIPS,2013:3111-3119.

      [10] KIM Y. Convolutional neural networks for sentence classification[C]. Proc of the EMNL,2014.

      [11] 梁軍,柴玉梅,原慧斌,等. 基于深度學(xué)習(xí)的微博情感分析[J]. 中文信息學(xué)報(bào), 2014,28(5):155-161.

      [12] 肖江,丁星,何榮杰. 基于領(lǐng)域情感詞典的中文微博情感分析[J]. 電子設(shè)計(jì)工程,2015 (12): 18-21.

      [13] 陳曉東. 基于情感詞典的中文微博情感傾向分析研究[D]. 武漢:華中科技大學(xué),2012.

      [14] CATAL C, NANGIR M. A sentiment classification model based on multiple classifiers[J]. Applied Soft Computing,2017(50): 135-141.

      [15] LIU S, LI F, LI F, et al. Adaptive co-training SVM for sentiment classification on tweets[C]. Proc of ACM International Conference on Information & Knowledge Management, 2013: 2079-2088.

      [16] LIU P,MENG H.SeemGo:conditional random fields labeling and maximum

      entropy classification for aspect based sentiment analysis[C]. Proc of International Workshop on Semantic Evaluation,2014:527-531.

      [17] 李陽(yáng)輝,謝明,易陽(yáng). 基于深度學(xué)習(xí)的社交網(wǎng)絡(luò)平臺(tái)細(xì)粒度情感分析[J]. 計(jì)算機(jī)應(yīng)用研究,2017,34(3):743-747.

      [18] TURIAN J,RATINOV L,BENGIO Y. Word representations:a simple and general method for semi-supervised learning[C]. Proceedings of the Meeting of the Association for Computational Linguistics,2010:384-394.

      [19] COLLOBERT R,WESTON J,BOTTOU L,et al. Natural language processing (almost) from scratch[J]. Journal of Machine Learning Research,2011,12(1):2493-2537.

      [20] HUANG E H,SOCHER R,MANNIng C D,et al. Improving word representations via global context and multiple word prototypes[C]. Meeting of the Association for Computational Linguistics,2012:873-882.

      (責(zé)任編輯:何 麗)

      猜你喜歡
      情感分析機(jī)器學(xué)習(xí)深度學(xué)習(xí)
      在線評(píng)論情感屬性的動(dòng)態(tài)變化
      MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
      大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
      前綴字母為特征在維吾爾語(yǔ)文本情感分類(lèi)中的研究
      基于支持向量機(jī)的金融數(shù)據(jù)分析研究
      龙海市| 尼木县| 通山县| 永寿县| 新邵县| 称多县| 平定县| 邻水| 丹棱县| 汽车| 易门县| 中卫市| 新源县| 福州市| 龙岩市| 赤城县| 香港| 阿拉尔市| 永昌县| 策勒县| 长岛县| 临安市| 龙井市| 阿拉尔市| 晋城| 轮台县| 呼和浩特市| 乐安县| 临江市| 甘南县| 田林县| 合川市| 静宁县| 宁河县| 那曲县| 铁岭县| 荣成市| 九寨沟县| 阿克陶县| 青神县| 舟山市|