• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于詞向量與CNN-BIGRU的情感分析研究

      2022-08-25 09:56:38吳貴珍黃樹成
      軟件導(dǎo)刊 2022年8期
      關(guān)鍵詞:雙層準(zhǔn)確率卷積

      吳貴珍,王 芳,黃樹成

      (江蘇科技大學(xué)計(jì)算機(jī)學(xué)院,江蘇鎮(zhèn)江 212100)

      0 引言

      情感分析是指利用自然語言處理及計(jì)算機(jī)語言學(xué)等技術(shù)識(shí)別與提取原素材中的主觀信息,找出意見發(fā)表者在某些話題上的兩極觀點(diǎn)態(tài)度[1]。目前情感分析方法分為3種:基于情感詞典的方法、基于機(jī)器學(xué)習(xí)的方法、基于深度學(xué)習(xí)的方法。其中,基于深度學(xué)習(xí)的方法能從大量文本中自動(dòng)學(xué)習(xí)到深層特征,情感分析效果好且模型適應(yīng)性強(qiáng)[2]。因此,目前主流的情感分析方法是基于深度學(xué)習(xí)的方法。在深度學(xué)習(xí)領(lǐng)域又有多種情感分析模型,主要包括卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)模型,但CNN 模型只能進(jìn)行局部特征提取,RNN 模型存在短期記憶問題。為解決這一問題,長短期記憶模型(LSTM)和門控遞歸單元(GRU)等眾多變體被提出,并廣泛應(yīng)用于情感分析領(lǐng)域[3-4]。然而,LSTM 和GRU 模型只具有前向信息記憶能力,而不能對(duì)后向序列進(jìn)行記憶,故雙向RNN 結(jié)構(gòu)隨之被提出。對(duì)比兩個(gè)雙向RNN 結(jié)構(gòu),即相比BILSTM 模型,BIGRU 模型的參數(shù)更少,網(wǎng)絡(luò)訓(xùn)練速率也更快,在保持幾乎相同準(zhǔn)確率的同時(shí)更節(jié)約網(wǎng)絡(luò)訓(xùn)練時(shí)間,提高了效率[5-6]。

      故本文選用CNN 與雙層BIGRU 相融合的方式進(jìn)行情感分析,一方面利用CNN 局部感知的特點(diǎn)提取出語義特征,另一方面利用BIGRU 提取包含上下文信息的全文特征,對(duì)局部特征進(jìn)行補(bǔ)充,以完善CNN 模型情感特征傾向信息。同時(shí),為豐富特征信息并加強(qiáng)模型的特征學(xué)習(xí)能力、提高文本情感分析的準(zhǔn)確性,提出疊加BIGRU 模型的雙層BIGRU 模型,即將第一層BIGRU 的輸出作為第二層BIGRU 的輸入,形成多層結(jié)構(gòu)以增強(qiáng)特征。

      1 相關(guān)研究

      1.1 詞向量相關(guān)研究

      在NLP(自然語言處理)中存在許多基于神經(jīng)網(wǎng)絡(luò)的詞向量計(jì)算技術(shù),如:神經(jīng)網(wǎng)絡(luò)語言模型Word2vec 等。其中,Word2vec 是由MikolovT 等[7]在2013 年提出的,在詞向量計(jì)算中被廣泛應(yīng)用。Word2vec 技術(shù)中包含兩種不同的詞向量計(jì)算模型:CBOW 模型與Skip-gram 模型[8-9]。由于CBOW 模型訓(xùn)練時(shí)間短且具有較高計(jì)算精度,因此本文采用CBOW 模型。

      CBOW 模型,中文譯為“連續(xù)詞袋模型”,其核心思想是:給定中心詞一定鄰域半徑內(nèi)的單詞,預(yù)測輸出單詞為該中心詞的概率。該模型共分為3 層:輸入層、隱藏層(投影層)與輸出層。輸入層輸入中心詞一定鄰域半徑內(nèi)的單詞詞向量,隱藏層將輸入層的詞向量按照規(guī)則進(jìn)行計(jì)算,輸出層輸出獲得中心詞的概率。在CBOW 模型中,訓(xùn)練目標(biāo)為最大化對(duì)數(shù)似然函數(shù)L:

      式中,D(w) 表示語句中除詞語w外的其他詞語,w為詞庫C 中的任意一個(gè)詞語。以對(duì)數(shù)似然函數(shù)為導(dǎo)向,計(jì)算出詞庫中詞語w在整個(gè)句子中出現(xiàn)的概率,實(shí)現(xiàn)對(duì)中心詞出現(xiàn)概率的預(yù)測。

      1.2 情感分析相關(guān)研究

      卷積神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò)是文本情感分析領(lǐng)域兩種廣泛使用的深度學(xué)習(xí)模型。Bengio 等[10]最早使用神經(jīng)網(wǎng)絡(luò)構(gòu)建語言模型;Kalchbrenner 等[11]提出動(dòng)態(tài)卷積神經(jīng)網(wǎng)絡(luò)模型以處理長度不同的文本,將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于NLP;Kim[12]對(duì)比了不同詞向量構(gòu)造方法,利用提前訓(xùn)練的詞向量作為輸入,通過CNN 實(shí)現(xiàn)句子級(jí)的文本分類,但這種方法也存在弊端,其忽視了待分類句子內(nèi)部詞語之間的聯(lián)系;Mikolov 等[13]提出的RNN 模型可處理序列數(shù)據(jù)并學(xué)習(xí)長期依賴性,但RNN 存在短期記憶問題,無法處理一段很長的序列,且不具有對(duì)后向序列的記憶功能。為解決該問題,雙向RNN 結(jié)構(gòu)變體被提出。如Graves 等[14]提出的雙向長短期記憶網(wǎng)絡(luò)(BILSTM),該模型在LSTM 上增加了反向?qū)樱沟肔STM 能夠同時(shí)考慮上下文信息,對(duì)雙向序列信息進(jìn)行記憶,獲得雙向無損的文本信息;Chen等[15]利用多通道卷積神經(jīng)網(wǎng)絡(luò)模型,從多方面的特征表示學(xué)習(xí)輸入句子的情感信息;Long 等[16]將雙向長短時(shí)記憶網(wǎng)絡(luò)與多頭注意力機(jī)制相結(jié)合對(duì)社交媒體文本進(jìn)行情感分析,克服了傳統(tǒng)機(jī)器學(xué)習(xí)中的不足;Kai等[17]將卷積神經(jīng)網(wǎng)絡(luò)與Bi-LSTM 融合起來,解決了現(xiàn)有情感分析方法特征提取不充分的問題,并分別通過實(shí)驗(yàn)表明了該融合模型在實(shí)際應(yīng)用中具有較大價(jià)值。同時(shí),Wang 等[18]研究了樹形結(jié)構(gòu)的區(qū)域CNN-BILSTM 模型,提供了更細(xì)粒度的情感分析,在不同語料庫上都取得了不錯(cuò)的分類效果。

      以上方法使用的都是傳統(tǒng)獲取詞向量模型的方式,并且未使用過CNN 與雙層BIGRU 融合進(jìn)行情感分析,訓(xùn)練準(zhǔn)確性不夠高。本文通過對(duì)詞向量進(jìn)行改進(jìn),加入Attention 機(jī)制提取重要的輸入向量,并融合CNN 與雙層BIGRU模型進(jìn)行改進(jìn),以提高文本分析的準(zhǔn)確性。

      1.3 情感分析相關(guān)技術(shù)

      1.3.1 CNN模型

      常見的CNN 模型主要由輸入層、卷積層、池化層與全連接層構(gòu)成。輸入層主要是得到一個(gè)二維矩陣,矩陣中的每一行對(duì)應(yīng)不同的詞,不同的詞用不同向量表示。卷積層是卷積神經(jīng)網(wǎng)絡(luò)的主要部分,卷積操作其實(shí)是卷積核矩陣與對(duì)應(yīng)輸入層中一小塊矩陣的點(diǎn)積相乘,卷積核通過權(quán)重共享的方式,按照步幅上下左右地在輸入層滑動(dòng)提取特征,以此將輸入層作特征映射,并作為輸出層。池化層一般采用最大池化法,將卷積層每個(gè)通道得到的向量進(jìn)行最大池化,得到一個(gè)標(biāo)量,最后將其拼接起來傳到全連接層或直接連接softmax 層進(jìn)行分類[19]。全連接層連接一個(gè)softmax 層,將池化層獲得的一維向量輸入進(jìn)去,其通常反映著最終類別上的概率分布,以此進(jìn)行情感分類。

      1.3.2 BIGRU模型

      在單向的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中,狀態(tài)總是從前往后輸出,只能捕捉當(dāng)前詞前面的相關(guān)信息。然而,在文本情感分類中,如果當(dāng)前時(shí)刻的輸出能與前一時(shí)刻及后一時(shí)刻的狀態(tài)產(chǎn)生聯(lián)系,則能夠?qū)W習(xí)到該詞的上下文信息,有利于文本深層次特征提取,所以在GRU 基礎(chǔ)上選擇雙向循環(huán)控制單元(BiGRU)來建立這種聯(lián)系。BiGRU 是由兩個(gè)單向、方向相反、輸出由兩個(gè)GRU 狀態(tài)共同決定的神經(jīng)網(wǎng)絡(luò)模型。

      2 改進(jìn)詞向量的CNN-雙層BIGRU 情感分析模型

      情感分析的第一步是將計(jì)算機(jī)無法處理的文本信息轉(zhuǎn)換成計(jì)算機(jī)能夠識(shí)別的0-1 序列詞向量,并利用詞向量模型捕捉詞語之間的關(guān)系,得到序列化后的詞向量,然后將其送至深度學(xué)習(xí)模型中進(jìn)行訓(xùn)練,所以是否能獲得準(zhǔn)確的詞向量對(duì)于情感分析非常重要。

      在上文已介紹了傳統(tǒng)詞向量模型——CBOW 模型,該模型能夠通過上下文單詞預(yù)測中心單詞,得到序列化后的詞向量矩陣。但在實(shí)際的情感分析文本中,如大量商品評(píng)論或電影評(píng)論中,經(jīng)常會(huì)出現(xiàn)商品屬性獨(dú)特的專有名詞或電影情節(jié)中的專業(yè)名詞、人名等,加上評(píng)論表達(dá)過于口語化以及停用詞使用存在不當(dāng),使得準(zhǔn)確提取詞向量的難度加大,原有CBOW 模型效果不佳。因此,本文提出一種改進(jìn)的詞向量模型,在原先的CBOW 模型基礎(chǔ)上加入Attention 機(jī)制對(duì)詞向量進(jìn)行改進(jìn)[20]。Attention 機(jī)制能夠快速獲得需要重點(diǎn)關(guān)注的目標(biāo)區(qū)域,并抑制其它無用信息。

      具體操作為:在CBOW 輸入層與隱藏層之間加入Attention 機(jī)制,關(guān)注關(guān)鍵詞提取并抑制其他干擾詞影響。加入Attention 機(jī)制后的CBOW 模型如圖1所示。

      Fig.1 CBOW model after adding the attention mechanism圖1 加入Attention機(jī)制后的CBOW 模型

      CBOW 模型的輸入是每個(gè)詞的one-hot 向量,設(shè)其為vj。改進(jìn)后的CBOW 模型加入Attention 機(jī)制后,模型輸入為:

      其中,第i 個(gè)詞通過softmax函數(shù)進(jìn)行歸一化計(jì)算權(quán)重得分,得到可用權(quán)重。通過式(4)得到:

      其中,Zi是Attention 機(jī)制中所需的訓(xùn)練參數(shù),Pi、Qi是由不同單詞之間的關(guān)系和權(quán)重所決定的。這一步是將Query與Key進(jìn)行相似度計(jì)算得到權(quán)值的過程。

      最后經(jīng)過Attention 機(jī)制得到的輸入詞向量為:

      在加入Attention 機(jī)制的CBOW 模型中,經(jīng)Attention 機(jī)制得到的輸出向量作為CBOW 模型隱藏層輸入。在經(jīng)過隱藏層和輸出層計(jì)算后,得到模型處理后第n 個(gè)單詞的詞向量如下:

      之后,將改進(jìn)后的詞向量模型得到的vnword送入深度學(xué)習(xí)模型中進(jìn)行訓(xùn)練。

      在之前的情感分析深度模型中,通常將CNN 模型與LSTM 模型、GRU 模型或BILSTM 模型融合以獲取深度學(xué)習(xí)結(jié)果,速度與準(zhǔn)確率都不太高,本文提出一種將CNN 與雙層BIGRU 模型相融合的方式進(jìn)行情感分析,原因如下:①GRU 模型只有2 個(gè)門:重置門和更新門,相比有輸入門、遺忘門和輸出門3 個(gè)門的LSTM 模型,GRU 在達(dá)到相同效果的同時(shí),具有更高的時(shí)間效率;②雙向GRU 模型能學(xué)習(xí)到該詞的上下文信息,有利于文本深層次特征的提??;③最后在BIGRU 模型基礎(chǔ)上疊加一層BIGRU,從而豐富了特征信息,并加強(qiáng)了模型的特征學(xué)習(xí)能力,提高了文本情感分析的準(zhǔn)確性,該方式相比之前的深度學(xué)習(xí)模型,準(zhǔn)確率和速率都更高。

      其融合過程主要通過以下幾個(gè)步驟實(shí)現(xiàn):

      (1)將上文加入Attention 機(jī)制的CBOW 模型得到每個(gè)詞的詞向量vi∈Rn×d作為輸入層的輸入向量,其中n是詞數(shù),d是向量維度,則初始輸入矩陣S 可表示為S=(v1,v2,…,vn)。

      (2)利用CNN 提取局部信息特征。CNN 卷積層接收輸入層傳入的詞向量,在卷積層中通過設(shè)置3 種大小不同的濾波器提取h 個(gè)相鄰詞匯之間的靜態(tài)局部特征,公式如下:

      其中,w 是卷積核,h是卷積核尺寸,vi:i+h-1是i到i+h-1 個(gè)詞組成的句子向量,b是偏移量。通過卷積層后得到特征矩陣c=[c1,c2,…,cn-h+1],對(duì)卷積層得到的句子局部特征矩陣c 進(jìn)行下采樣,得到局部值的最優(yōu)解Mi。這里采用最大池化技術(shù),公式如下:

      由于BiGRU 輸入必須是序列化結(jié)構(gòu),池化將中斷序列結(jié)構(gòu)c,因此需要添加全連接層,將池化層后的向量Mi連接成特征矩陣U=[M1,M2,…,Mn]。

      (3)將U 作為第一層BIGRU 的輸入。BIGRU 由正向GRU、反向GRU、正反向GRU 的輸出狀態(tài)連接層組成,BIGRU 網(wǎng)絡(luò)模型具體結(jié)構(gòu)如圖2所示。

      BIGRU 模型由輸入層、隱藏層、輸出層構(gòu)成,其中隱藏層由兩個(gè)方向的G R U 構(gòu)成。正反向GRU分別得到兩個(gè)對(duì)應(yīng)隱藏層的輸出量其計(jì)算公式如下:

      Fig.2 Specific structure of BIGRU model圖2 BIGRU模型具體結(jié)構(gòu)

      其中,σ表示sigmoid 激活函數(shù),相當(dāng)于門控信號(hào);Mt表示在t 時(shí)刻整個(gè)模型的輸入值;分別表示t 時(shí)刻正向GRU和反向GRU的權(quán)重矩陣分別表示上一時(shí)刻正向GRU和反向GRU的權(quán)重矩陣分別表示t 時(shí)刻隱藏層的正向GRU和反向GRU輸出分別表示上一時(shí)刻正向和反向GRU 隱藏層輸出。

      (4)將兩個(gè)輸出特征向量合并,得到BIGRU 輸出層向量Z′t:

      (5)在單層BIGRU 模型上再堆疊一層BiGRU 單元,形成雙層結(jié)構(gòu)以增強(qiáng)特征。將上一步得到BIGRU 模型的最終輸出Z′t作為第二層BIRGU 的輸入,在第二層BIGRU中,Z′t相當(dāng)于第一層BIGRU的輸入Mt。分別計(jì)算第二層BIGRU正向和反向GRU在t時(shí)刻的輸出計(jì)算公式如下:

      其中,Z′t表示在第二層BIGRU 中t 時(shí)刻的輸入分別表示t 時(shí)刻正向GRU 和反向GRU 的權(quán)重矩陣;分別表示第二層BIGRU 中上一時(shí)刻正向GRU和反向GRU的權(quán)重矩陣分別表示上一時(shí)刻正向和反向GRU 的隱藏層輸出。

      在兩層之間需要添加一個(gè)大小為0.25 的dropout 層,以減少訓(xùn)練過程的擬合。

      (7)最后由情感分類層依靠其中的sigmoid 分類器完成情感分類。經(jīng)過前面的步驟,已將蘊(yùn)含實(shí)際含義的文本信息轉(zhuǎn)化成用詞向量組合而成的序列。本文的情感分析任務(wù)是對(duì)文本情感進(jìn)行二分類,即將情感分為兩類:正向和負(fù)向。sigmoid 分類器在接收到含有語義信息的序列后,因其輸出范圍是0~1,會(huì)將結(jié)果轉(zhuǎn)換為概率進(jìn)行分類。結(jié)果大于等于0.5 為正向情感,小于0.5 為負(fù)向情感,很適合二分類問題預(yù)測,從而最終完成情感極向預(yù)測。

      3 實(shí)驗(yàn)與分析

      3.1 實(shí)驗(yàn)環(huán)境

      本次實(shí)驗(yàn)基于Windows10 操作系統(tǒng),處理器為Intel(R)Core(TM)i7-8550U,內(nèi)存大小為8G,硬盤大小為1T。主要使用底層框架為Tensorflow 的Keras 深度學(xué)習(xí)API 訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型,其版本號(hào)為2.3.1,用Python 語言進(jìn)行實(shí)現(xiàn)。

      3.2 實(shí)驗(yàn)數(shù)據(jù)集

      本文實(shí)驗(yàn)數(shù)據(jù)集是從購物網(wǎng)站中爬取的10 個(gè)類別商品的共計(jì)6 萬條評(píng)論,其中正向情感與負(fù)向情感的評(píng)論各一半,均為3 萬條。數(shù)據(jù)集中每一條評(píng)論均被標(biāo)記好情感類別:正向評(píng)價(jià)標(biāo)注為1,負(fù)向評(píng)價(jià)標(biāo)注為0。按照8:2 的比例劃分訓(xùn)練集和測試集,即4.8 萬條評(píng)論用于訓(xùn)練,1.2萬條評(píng)論用于測試。

      3.3 實(shí)驗(yàn)預(yù)處理與模型參數(shù)設(shè)置

      首先,將數(shù)據(jù)集順序全部打亂,使正向與負(fù)向評(píng)論不會(huì)集中在一起,否則會(huì)影響模型分類的準(zhǔn)確性;其次,對(duì)評(píng)論文本進(jìn)行數(shù)據(jù)清洗,先去除停用詞,再使用jieba 分詞對(duì)文本進(jìn)行分詞,并用詞向量訓(xùn)練工具將單詞轉(zhuǎn)化為向量;之后,將分詞后的詞向量輸入到詞向量預(yù)訓(xùn)練模型,即改進(jìn)后的CBOW 模型中,設(shè)置句子最大長度120。若句子超過120 個(gè)詞,則超過的部分會(huì)被刪除;若句子不足120 個(gè)詞,則對(duì)其進(jìn)行向右補(bǔ)0 操作。設(shè)置3 種大小的卷積核,分別為2、3、4,設(shè)置詞嵌入維度為100,步長為1。模型參數(shù)設(shè)置會(huì)影響分類效果,主要模型參數(shù)有:epoch、batchsize、optimizer、learning rate、activation。經(jīng)過模型的多次迭代,配置最優(yōu)參數(shù),使得模型的分類效果最佳。詳細(xì)參數(shù)設(shè)置如表1所示。

      Table 1 Model parameter settings表1 模型參數(shù)設(shè)置

      3.4 實(shí)驗(yàn)評(píng)價(jià)標(biāo)準(zhǔn)

      對(duì)于深度學(xué)習(xí)模型,一般有4 個(gè)評(píng)價(jià)指標(biāo)對(duì)模型進(jìn)行評(píng)價(jià):①準(zhǔn)確率(Accuracy)。所有預(yù)測正確(包括正向和負(fù)向)的樣本占總樣本的比重;②精確率(Precision)。正確預(yù)測為正向的樣本占全部預(yù)測為正向樣本的比例;③召回率(Recall)。正確預(yù)測為正向的樣本占全部實(shí)際正向樣本的比例;④F1值。精確值與召回率的調(diào)和均值。

      3.5 實(shí)驗(yàn)結(jié)果與分析

      在10 個(gè)商品分類的評(píng)價(jià)數(shù)據(jù)集中,首先在詞向量不變的前提下,將本文提出的CNN-雙層BIGRU 模型與CNN、LSTM、GRU、CNN-LSTM、CNN-GRU、CNN-BILSTM、CNN-BIGRU 模型分別作比較,結(jié)果證明CNN-雙層BIGRU模型的效果優(yōu)于其他模型。實(shí)驗(yàn)結(jié)果如表2、圖3所示。

      Table 2 Comparison of model results表2 模型結(jié)果比較

      Fig.3 Experimental results of each model圖3 各模型實(shí)驗(yàn)結(jié)果

      其次,經(jīng)過詞向量的改進(jìn),即在CBOW 模型中加入Attention 機(jī)制后,將本文提出的CNN-雙層BIGRU 模型在詞向量改進(jìn)前后的準(zhǔn)確率變化進(jìn)行對(duì)比,如圖4所示。

      Fig.4 Changes in accuracy before and after word vector improvement圖4 詞向量改進(jìn)前后準(zhǔn)確率變化

      最后,將所有模型的訓(xùn)練時(shí)間進(jìn)行比較,結(jié)果如表3所示。

      Table 3 Comparison of model training time表3 模型訓(xùn)練時(shí)間比較

      從實(shí)驗(yàn)結(jié)果可得出以下結(jié)論:

      (1)根據(jù)圖3 和表2 可知,帶有雙向序列的融合模型CNN-BILSTM、CNN-BIGRU 比不帶雙向序列的融合模型CNN-LSTM、CNN-GRU 的準(zhǔn)確率要高。如CNN-BIGRU 的準(zhǔn)確率和精確率相比CNN-GRU 分別提高了0.33%和0.4%,說明雙向序列模型考慮了文本的先后關(guān)系,能更準(zhǔn)確地提取文本上下文的信息特征,提高情感分析的準(zhǔn)確率。且根據(jù)表3 可知,CNN-BILSTM 和CNN-BIGRU 同樣是雙向序列的融合模型,但在同樣的輪次訓(xùn)練中,CNNBILSTM 的訓(xùn)練時(shí)間為67s,準(zhǔn)確率為91.19%,而CNN-BIGRU 的訓(xùn)練時(shí)間為64s,準(zhǔn)確率為91.38%。訓(xùn)練時(shí)間減少了3s,準(zhǔn)確率提高了0.19%,原因在于GRU 比LSTM 的模型結(jié)構(gòu)更簡單。因此,無論從時(shí)間還是準(zhǔn)確率上,CNN-BIGRU模型都更勝一籌。

      (2)多疊加一層BIRGU 的CNN-雙層BIGRU 模型與CNN-BIGRU 模型相比,其準(zhǔn)確率、精確率、召回率、F1值分別提高了0.27%、0.23%、0.15%和0.24%,說明疊加的一層BIGRU 結(jié)構(gòu)能夠捕捉到更豐富的信息,提高了情感分析的準(zhǔn)確性。

      (3)由表3 和圖4 可知,在CNN-雙層BIGRU 模型中,采用改進(jìn)后加入Attention 機(jī)制的CBOW 模型獲取詞向量,相比正常只采用CBOW 模型的CNN-雙層BIGRU 模型,整體上的情感分類準(zhǔn)確率更高。當(dāng)?shù)螖?shù)為20 次時(shí),二者均達(dá)到了各自準(zhǔn)確率的峰值,且僅相差1.21%,說明能準(zhǔn)確、快速提取到文本中的重要詞向量對(duì)于模型分類的重要性。以上實(shí)驗(yàn)證實(shí)了本文提出的改進(jìn)詞向量的CNN-雙層BIGRU 模型在情感分析中具有較好效果。

      4 結(jié)語

      本文主要通過兩方面對(duì)傳統(tǒng)情感分析方法進(jìn)行改進(jìn):在詞向量方面,在對(duì)文本進(jìn)行分析時(shí),發(fā)現(xiàn)即使再優(yōu)秀的模型,若對(duì)數(shù)據(jù)集文本中的每個(gè)詞不能準(zhǔn)確地進(jìn)行提取與定位,效果也會(huì)不佳,故加入Attention 機(jī)制進(jìn)行改進(jìn);在模型方面,將能提取局部信息的CNN 與能加強(qiáng)特征信息以獲取上下文信息的雙層BIGRU 相融合,提高了模型準(zhǔn)確率。雖然通過改進(jìn)提高了模型準(zhǔn)確率,但由于模型疊加層數(shù)多,導(dǎo)致時(shí)間效率不高,且隨著數(shù)據(jù)規(guī)模的增長,計(jì)算會(huì)更加復(fù)雜,訓(xùn)練時(shí)間也會(huì)顯著變長,因此下一步將繼續(xù)尋找可兼顧準(zhǔn)確率與時(shí)間效率的模型進(jìn)行情感分析。

      猜你喜歡
      雙層準(zhǔn)確率卷積
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
      健康之家(2021年19期)2021-05-23 11:17:39
      不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
      2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
      墨爾本Fitzroy雙層住宅
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      高速公路車牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      次級(jí)通道在線辨識(shí)的雙層隔振系統(tǒng)振動(dòng)主動(dòng)控制
      傳統(tǒng)Halbach列和雙層Halbach列的比較
      孝昌县| 嵩明县| 奎屯市| 句容市| 应城市| 双城市| 台东市| 新龙县| 阳山县| 天门市| 苍溪县| 北票市| 涡阳县| 区。| 防城港市| 鹤庆县| 华池县| 阿拉善右旗| 齐河县| 东城区| 永吉县| 瑞金市| 郧西县| 西和县| 鹿邑县| 隆昌县| 鄂州市| 克什克腾旗| 南部县| 绍兴市| 农安县| 湘潭县| 南和县| 屏南县| 孟津县| 遂宁市| 敖汉旗| 莆田市| 夏河县| 新乡县| 汝州市|