• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      在線學(xué)習(xí)情感分類模型研究

      2019-11-23 08:46:50邱寧佳沈卓睿胡小娟王鵬高奇
      關(guān)鍵詞:離線梯度準(zhǔn)確率

      邱寧佳,沈卓睿,胡小娟,王鵬,高奇

      (1.長(zhǎng)春理工大學(xué) 計(jì)算機(jī)科學(xué)技術(shù)學(xué)院,長(zhǎng)春 130022;2.國(guó)網(wǎng)吉林省電力有限公司電力科學(xué)研究院,長(zhǎng)春 130022)

      隨著Web 2.0社區(qū)的快速發(fā)展,社交媒體服務(wù)提供商為用戶提供了一種方便的方式來共享和創(chuàng)建自己的內(nèi)容,如在線評(píng)論、博客、微博等。通過計(jì)算模型從社交中了解這些文本的情感是一個(gè)重要的問題,因?yàn)檫@樣的模型將幫助人們識(shí)別社會(huì)事件并做出更好的決策(例如,對(duì)庫存市場(chǎng)的投資、對(duì)觀看電影的選擇等)[1]。在線梯度下降是一種最基本的在線學(xué)習(xí)算法,它解決了傳統(tǒng)算法無法實(shí)時(shí)處理數(shù)據(jù)更新模型的問題,但是得到的稀疏性不理想。Mcmahan等人提出FTRL算法,使參數(shù)學(xué)習(xí)率可根據(jù)不同特征的特點(diǎn)自行調(diào)整,實(shí)踐證明算法具有較好的廣告點(diǎn)擊預(yù)測(cè)效果[2]。Yang等人通過損失函數(shù)的逐漸變化來限制算法的悔界,使得FTRL算法具有漸進(jìn)變化約束的在線非光滑優(yōu)化功能[3]。Ta等人將FTRL算法融入到二階因式分解機(jī)中,提出了具有更快收斂速度的FTRFL算法[4]。Huynh等人提出了FTRL-ADP算法,解決嘈雜環(huán)境中的概念漂移問題[5]。Sun等人結(jié)合自適應(yīng)濾波原理,設(shè)計(jì)了FTRLS自適應(yīng)濾波算法處理線性調(diào)頻信號(hào),可以有效地恢復(fù)干擾噪聲的啁啾信號(hào)[6]。Orabona等人通過尺度不變性實(shí)現(xiàn)對(duì)損耗矢量的范數(shù)的適應(yīng)性,使基于FTRL的算法適用于任何有界或無界的決策集[7]。McMahan通過將易于重復(fù)使用的引理中的關(guān)鍵參數(shù)隔離開來,強(qiáng)化了FTRL分析技術(shù),達(dá)到與原始對(duì)偶分析一樣嚴(yán)格的界限[8]。

      學(xué)習(xí)率是影響在線學(xué)習(xí)算法結(jié)果的重要因素,好的學(xué)習(xí)率能保證算法快速而準(zhǔn)確的收斂到最優(yōu)值。Kingma等人通過引入和修正一、二階矩估計(jì),提出了Adam算法,適用于非平穩(wěn)目標(biāo)和具有噪聲或稀疏梯度的問題[9]。Erven等人提出了MetaGrad方法,它的學(xué)習(xí)率不會(huì)隨著時(shí)間的推移而單調(diào)遞減,并且適應(yīng)各種類型的隨機(jī)和非隨機(jī)函數(shù)[10]。Timothy等人通過將Nesterov加速梯度法融入到Adam算法,提出了Nadam算法,提高了梯度下降的收斂速度和學(xué)習(xí)模型的效果[11]。然而自適應(yīng)學(xué)習(xí)率算法應(yīng)用在目標(biāo)識(shí)別、機(jī)器翻譯等領(lǐng)域中時(shí),得到的優(yōu)化效果可能不如SGD算法。McMahan和Streeter將AdaGrad進(jìn)行擴(kuò)展,提出了延遲容忍算法,當(dāng)延遲變大時(shí),性能明顯優(yōu)于標(biāo)準(zhǔn)自適應(yīng)梯度方法[12]。Reddi指出Adagrad算法的關(guān)鍵缺陷,使用指數(shù)滑動(dòng)平均值解決了學(xué)習(xí)率隨著迭代次數(shù)的增加而變小的問題[13]。Zhang等人提出了AEDR算法,能夠自適應(yīng)計(jì)算指數(shù)衰減率,并可將Adadelta和Adam超參數(shù)量減少[14]。Chen等人提出了Ada-PGD算法,結(jié)合Adagrad和近端梯度下降法,使ADAE具有優(yōu)異的異常檢測(cè)性能[15]。

      為了提高自適應(yīng)學(xué)習(xí)率優(yōu)化算法的效果,Smith等人提出了周期性學(xué)習(xí)率方法,只需較少的迭代次數(shù)便可達(dá)到較高的準(zhǔn)確率[16]。Loshchilov等人提出了SGDR算法,能夠減少模型迭代次數(shù),并將熱啟動(dòng)擴(kuò)展到修復(fù)權(quán)重衰減的Adam算法上[17]。陸陽等人在建模基礎(chǔ)上,通過為表示情緒特性的軸兩端建立模型,使其轉(zhuǎn)換成二層分類器進(jìn)行加權(quán)判別,提出了一種在四分類坐標(biāo)下建立高斯混合模型進(jìn)行音樂信號(hào)歸類的研究方法,解決了音樂情感復(fù)雜難以歸類的問題[18]。殷宏威等人通過引入組相似度概念,提出一種改進(jìn)算法,使得當(dāng)待測(cè)樣本位于易判區(qū)域時(shí),減少KNN大量無用計(jì)算,能很快得出判定結(jié)果[19]。

      本文借鑒Adadelta模擬牛頓迭代求解和Adam對(duì)參數(shù)更新量進(jìn)行偏差修正,得到改進(jìn)的學(xué)習(xí)率優(yōu)化算法替換原學(xué)習(xí)率,得到在線學(xué)習(xí)LR模型,并以此模型作為情感分類工具,構(gòu)建完整的在線學(xué)習(xí)情感分類體系。

      1 改進(jìn)學(xué)習(xí)率的FTRL-Proximal算法

      1.1 改進(jìn)的學(xué)習(xí)率優(yōu)化算法

      Adadelta算法解決了Adagrad算法學(xué)習(xí)率總是衰減、左右更新單位不統(tǒng)一的問題,并具有不需手動(dòng)設(shè)置初始學(xué)習(xí)率的優(yōu)點(diǎn),訓(xùn)練前中期具有良好的加速度,缺點(diǎn)是訓(xùn)練后期易在極值附近發(fā)生抖動(dòng)。Adam算法在Adagrad算法基礎(chǔ)上,引入和修正梯度的一、二階矩估計(jì),使參數(shù)更新較平穩(wěn),避免了頻繁抖動(dòng),因此訓(xùn)練后期能夠更快的尋到最優(yōu)值,但仍依賴手動(dòng)輸入全局初始學(xué)習(xí)率。

      為了改善Adadelta算法訓(xùn)練后期的頻繁抖動(dòng)以及Adam算法依賴手動(dòng)輸入初始學(xué)習(xí)率的問題,本文將Adam算法對(duì)梯度的一、二階矩估計(jì)進(jìn)行偏差修正的做法引入到Adadelta中,命名為Adamdelta:首先使用動(dòng)量法計(jì)算梯度的一階和二階矩估計(jì):

      其中,ρ1,ρ2為衰減率;gt為損失梯度。再對(duì)一階和二階矩估計(jì)進(jìn)行偏差修正:

      并做擬牛頓迭代處理:

      使用Δθ更新累計(jì)參數(shù)更新量的期望:

      最后使用以上公式更新參數(shù)θ,得到最終的更新公式:θt=θt-1+Δθt。

      1.2 優(yōu)化學(xué)習(xí)率的FTRL-Proximal算法

      Adamdelta算法繼承了Adam與Adadelta適合處理稀疏數(shù)據(jù)、學(xué)習(xí)率自適應(yīng)調(diào)整的特點(diǎn),解決了Adagrad訓(xùn)練后期累積梯度爆炸導(dǎo)致學(xué)習(xí)率消失的問題,同時(shí)具有Adam更新穩(wěn)定、Adadelta無需手動(dòng)搜索初始學(xué)習(xí)率的優(yōu)點(diǎn),因此使用Adamdelta算法來調(diào)整FTRL-Proximal的學(xué)習(xí)率,以期達(dá)到提升在線學(xué)習(xí)算法性能的效果。設(shè)定學(xué)習(xí)率ηt表示為:

      迭代步長(zhǎng)變化率可表示為:

      L1正則項(xiàng)系數(shù)為λ1,那么,F(xiàn)TRL-Proximal算法的參數(shù)更新公式可如下計(jì)算:

      本文使用Adamdelta算法來替換FTRLProximal的學(xué)習(xí)率,以期達(dá)到提升在線學(xué)習(xí)算法性能的效果,其更新公式為:

      通過上面的推導(dǎo)得到改進(jìn)FTRL-Proximal算法的參數(shù)更新公式,下面給出算法的流程。

      images/BZ_109_246_2635_1192_2689.png輸入:L1正則項(xiàng)系數(shù) λ1,衰減率 ρ1,ρ2,ρ3,常數(shù)∈輸出:參數(shù)θ 1 初始化 θ1,1,...,N,z1,1,...,..,N,v0,1,...,N=0 ,E[N=0 ,一階和二階矩m0,1,.Δθ2]0,1,...,N=0 ,ρ1=0.9 ,ρ2=0.999,ρ3=0.95,∈=10-8 2 fort=1 toT do 3 學(xué)習(xí)優(yōu)化目標(biāo)損失函數(shù)?t 4 for alli∈N do 5 計(jì)算

      gt,i=??i(θt)θt,i E[Δθ2]t-1+∈代入公式(13)計(jì)算 σt;使用公式(1)-(4)一階和二階矩估計(jì)進(jìn)行偏差修正對(duì)使用公式(5)修正參數(shù)變化量的均方根偏差R?t使用公式(6)更新參數(shù)Δθt,i使用公式(7)更新參數(shù)歷史累計(jì)量E[Δθ2]t,i使用公式(14)計(jì)算zt RMS[Δθ]t-1=6 使用使用公式7 end for 8 end for∈更新學(xué)習(xí)率(8)-(12)更新參數(shù)θt R?timages/BZ_109_1492_947_1612_994.png

      2 基于在線學(xué)習(xí)的情感分類模型

      2.1 Doc2vec模型

      Word2vec模型通過訓(xùn)練得到詞向量,通過計(jì)算詞向量之間距離度量詞語間關(guān)系,但缺乏對(duì)句子和文本之間語義分析的能力。因此,Quoc Le和Tomas Mikolov在Word2vec的基礎(chǔ)上提出了Doc2vec模型[20]。Doc2vec除了增加一個(gè)段落向量以外,其他地方同Word2vec幾乎相同,包括PV-DM和PV-DBOW兩個(gè)模型。

      PV-DM模型利用上下文和增加的段落向量預(yù)測(cè)單詞概率,增加的一個(gè)段落向量保存句子或文本的語義信息。每一個(gè)段落向量唯一標(biāo)識(shí)一個(gè)句子或文本,在同一個(gè)句子或文本訓(xùn)練過程中,詞向量共享一個(gè)段落向量。將段落向量和詞向量加和取平均或連接起來作為Softmax函數(shù)的輸入。PV-DBOW則是利用段落向量來預(yù)測(cè)段落中一組隨機(jī)單詞的概率。

      2.2 在線學(xué)習(xí)情感分類模型

      對(duì)于中、英文情感信息數(shù)據(jù),需分別對(duì)其進(jìn)行分詞、去停用詞、過濾標(biāo)點(diǎn)符號(hào)和過濾標(biāo)點(diǎn)符號(hào)、去停用詞、變化大小寫等預(yù)處理。然后使用Doc2vec模型對(duì)預(yù)處理后的情感信息進(jìn)行訓(xùn)練,得到段落向量和詞向量表示。得到了句子或文本的向量表示后,使用在線學(xué)習(xí)分類模型對(duì)其進(jìn)行在線訓(xùn)練,通過不斷的學(xué)習(xí)和更新模型,來提高模型的分類能力。經(jīng)過一段時(shí)間學(xué)習(xí)后,模型的分類能力達(dá)到預(yù)期效果,便可對(duì)未知情感類別的文本或語句進(jìn)行情感分類。整個(gè)模型的示意圖如圖1所示。

      圖1 在線學(xué)習(xí)情感分類模型

      2.3 在線學(xué)習(xí)邏輯回歸算法

      傳統(tǒng)的邏輯回歸通過訓(xùn)練大量樣本可得到精度較高的分類模型,但將大量樣本加載到內(nèi)存中,對(duì)計(jì)算機(jī)內(nèi)存要求很高。若樣本數(shù)量超出計(jì)算機(jī)內(nèi)存,則無法進(jìn)行模型訓(xùn)練。本文采用在線學(xué)習(xí)來訓(xùn)練模型,每訓(xùn)練完一個(gè)樣本就對(duì)模型更新一次,降低了對(duì)計(jì)算機(jī)內(nèi)存的要求。使用改進(jìn)學(xué)習(xí)率優(yōu)化算法的FTRL-Proximal取代梯度下降來更新邏輯回歸模型的參數(shù),得到在線學(xué)習(xí)邏輯回歸模型,算法的流程如下。

      images/BZ_110_246_1677_1192_1731.png輸入:L1正則項(xiàng)系數(shù) λ1,衰減率 ρ1,ρ2,ρ3,常數(shù)∈輸出:特征屬性的權(quán)重參數(shù)θ 1 初始化 θ1,...,N,z1,...,N=0 ,一階矩和二階矩 m0,1,...,N,v0,1...N=0 ,E[Δθ2]0,1,...,N=0 ,ρ1=0.9,ρ2=0.999,ρ3=0.95,∈=10-8 2 while停止條件3 從訓(xùn)練樣本集中取一個(gè)樣本(xt,yt)4 假設(shè)函數(shù)hθ(xt)5 損失函數(shù)J(θ)6 for alli∈N do gt,i=(hθ(xt)-yt)xt i更新參數(shù)θ #優(yōu)化學(xué)習(xí)率的FTRL-Proximal算法7 end for 8 end while

      3 實(shí)驗(yàn)與結(jié)果分析

      3.1 實(shí)驗(yàn)環(huán)境與數(shù)據(jù)

      為了驗(yàn)證改進(jìn)學(xué)習(xí)率優(yōu)化算法的效果,在Ubuntu Kylin 16.04系統(tǒng)上進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)程序?yàn)镻ython2.7所編寫。實(shí)驗(yàn)數(shù)據(jù)為IMDB電影評(píng)論文本,數(shù)據(jù)包括兩類,一類為樂觀評(píng)論,一類為悲觀評(píng)論,每類評(píng)論25 000篇。訓(xùn)練集和測(cè)試集按1∶1的比例分配,即均包含樂觀評(píng)論和悲觀評(píng)論各12 500條。如表1所示。

      表1 數(shù)據(jù)集

      3.2 數(shù)據(jù)預(yù)處理

      對(duì)文本評(píng)論數(shù)據(jù)先進(jìn)行分詞處理,然后去停用詞、標(biāo)點(diǎn)符號(hào)之后,輸入到Doc2vec模型中,訓(xùn)練得到每篇文本的向量表示。Doc2vec采用PV-DM模型來進(jìn)行訓(xùn)練,使用負(fù)采樣來進(jìn)行優(yōu)化,負(fù)采樣噪聲詞數(shù)設(shè)置為5,滑動(dòng)窗口大小設(shè)置為10,輸出特征向量的維度設(shè)置為100。將得到的文本特征向量作為分類模型的訓(xùn)練集和測(cè)試集,兩者的比例為1∶1。

      3.3 評(píng)價(jià)指標(biāo)

      在分類問題中,常使用混淆矩陣對(duì)分類結(jié)果進(jìn)行可視化,二分類的混淆矩陣如表2所示。

      表2 混淆矩陣

      表中,TP表示被預(yù)測(cè)為正的正樣本,F(xiàn)N表示被預(yù)測(cè)為負(fù)的正樣本,F(xiàn)P表示被預(yù)測(cè)為正的負(fù)樣本,TN表示被預(yù)測(cè)為負(fù)的負(fù)樣本?;诨煜仃囉?jì)算如下指標(biāo):

      (1)準(zhǔn)確率:Accuracy=(T P+TN)/(TP+FN+FP+TN);

      (2)精確率:Precision=TP/(T P+FP);

      (3)召回率:Recall=TP/(T P+FN);

      (4)F1值:F1=2×Precision×Recall/(Precison+Recall);

      3.4 實(shí)驗(yàn)結(jié)果分析

      3.4.1 實(shí)驗(yàn)1:學(xué)習(xí)率優(yōu)化算法對(duì)比

      為了直觀了解各個(gè)優(yōu)化算法的特點(diǎn),對(duì)比每個(gè)算法的優(yōu)缺點(diǎn),通過在馬鞍面(z=-2(x2-y2))上的三維運(yùn)行軌跡以及二維等高線上的軌跡,來對(duì)算法進(jìn)行可視化展示。使用SGD、Momentum、Adagrad、Adadelta、Adam作為對(duì)照算法,與本文改進(jìn)算法Adamdelta作對(duì)比。通過多次實(shí)驗(yàn),將各個(gè)算法的參數(shù)設(shè)置如下表所示,得到如圖所示軌跡圖,“-”表示算法無此參數(shù)。此外,將SGD、Adagrad、Adam算法初始學(xué)習(xí)率η設(shè)置為0.05,Momentum初始學(xué)習(xí)率η設(shè)置為0.01。

      表3 各算法參數(shù)設(shè)置

      由此,得到如圖2所示軌跡圖,圖3為圖2在二維等高線上的對(duì)應(yīng)圖,源自相同的參數(shù)設(shè)置。通過實(shí)驗(yàn)發(fā)現(xiàn),如果將算法在x軸的初始位置設(shè)置為0,所有算法都將陷入馬鞍面的中心(0,0,0)點(diǎn);因此將算法的初始位置設(shè)置為(0.001,0.8),通過表3中迭代次數(shù)達(dá)到圖2所示位置。圖中每個(gè)標(biāo)記點(diǎn)代表經(jīng)過一次迭代后的位置。

      圖2 三維馬鞍面上運(yùn)行軌跡圖

      圖3 二維馬鞍面等高線上軌跡圖

      結(jié)合圖2和圖3可以看出,SGD算法的軌跡總是沿著梯度下降最快的方向更新,因此每次更新方向只跟當(dāng)前梯度有關(guān)。Momentum算法運(yùn)行到中心位置后不能立刻調(diào)整方向,是因?yàn)槠涓路较蚪Y(jié)合了上次更新方向和當(dāng)前梯度下降方向。Adagrad算法前期每步更新距離較大,后期更新距離越來越小,是由于其使用累積梯度平方和作為學(xué)習(xí)率的分母項(xiàng),因此隨著迭代次數(shù)增加,學(xué)習(xí)率越來越小。從表3中可以看出,Adagrad迭代了85次才到達(dá)圖2中的位置,相比其他算法這個(gè)迭代次數(shù)最多。Adadelta算法前期每步更新距離較小,后期更新距離較大,這是因?yàn)槠涫∪チ耸謩?dòng)設(shè)置初始學(xué)習(xí)率的步驟,因此前期更新速度受∈值的影響較大,此處∈值為1e-8,因此初始更新距離較小,如果將∈值設(shè)置成1e-4,只需要迭代12次便可到達(dá)圖2所示位置,可以看出這個(gè)更新速度比其他算法都快,因此后期會(huì)出現(xiàn)抖動(dòng)情況。Adam算法每次更新距離差別不大,是因?yàn)槠鋵?duì)梯度進(jìn)行了偏差修正,因此算法比較穩(wěn)定。Adamdelta算法前期每步更新距離相比Adadelta要大,是因?yàn)樗惴▽?duì)參數(shù)更新量進(jìn)行了偏差修正,因此算法啟動(dòng)速度比Adadelta要快;隨著迭代次數(shù)增加,算法更新趨于穩(wěn)定,更新方向合理。表明改進(jìn)學(xué)習(xí)率算法相比Adagrad解決了學(xué)習(xí)率消失的問題,同時(shí)具有Adam算法更新穩(wěn)定,Adadelta算法不用手動(dòng)搜索一個(gè)合適的初始學(xué)習(xí)率,且不會(huì)啟動(dòng)過慢的優(yōu)點(diǎn)。

      3.4.2 實(shí)驗(yàn)2:在線學(xué)習(xí)情感分類效果對(duì)比

      為了度量算法對(duì)分類器的影響,分別使用SGD、Momentum、Adagrad、Adadelta、Adam以及本文提出的Adamdelta算法,結(jié)合LR分類器,使用在線學(xué)習(xí)對(duì)經(jīng)過Doc2vec模型處理的情感數(shù)據(jù)進(jìn)行分類。各算法的參數(shù)設(shè)置如表4所示,為防止Adadelta啟動(dòng)過慢,將其參數(shù)∈設(shè)置為1e-4。此外,將SGD、Momentum、Adagrad、Adam初始學(xué)習(xí)率η設(shè)置為0.01。

      表4 各算法參數(shù)設(shè)置

      將起始迭代次數(shù)設(shè)置為100,最大迭代次數(shù)設(shè)置為7 100,每輪增加250次,得到各算法在不同迭代次數(shù)下的分類準(zhǔn)確率,如圖4所示,以及各算法消耗的時(shí)間,如圖5所示。其中,改進(jìn)方法與傳統(tǒng)方法特征詞提取示例如表5所示。

      圖4 分類準(zhǔn)確率對(duì)比

      圖5 消耗時(shí)間對(duì)比

      表5 特征詞提取示例的比較

      從圖4中可以看出,Adamdelta算法的準(zhǔn)確率明顯比SGD,Momentum,Adagrad,Adadelta的準(zhǔn)確率高,相比Adam也有小幅度提升。另外迭代次數(shù)大于3 500次后,SGD,Momentum,Adagrad,Adadelta的準(zhǔn)確率基本不再提高,而Adam和Adamdelta的準(zhǔn)確率隨著迭代次數(shù)的增加仍在上升。說明本文提出的Adamdelta算法解決了Adagrad訓(xùn)練后期學(xué)習(xí)率消失導(dǎo)致算法效果無法提升的問題。從曲線的變化趨勢(shì)可以看出,Adamdelta比其他算法更穩(wěn)定。說明引入Adam偏差修正的做法對(duì)梯度和參數(shù)更新量進(jìn)行偏差修正,對(duì)于提升算法的穩(wěn)定性有良好的效果。從圖5中可以看出,SGD,Momentum,Adadelta以及Adamdelta算法消耗的時(shí)間幾乎相同,而Adagrad和Adam算法消耗的時(shí)間是前者的3倍多。說明Adamdelta繼承了Adadelta訓(xùn)練速度快的優(yōu)點(diǎn)。通過準(zhǔn)確率和時(shí)間的對(duì)比表明,本文提出的改進(jìn)學(xué)習(xí)率算法相較于Adagrad,無論是分類準(zhǔn)確率還是速度上都有明顯的優(yōu)勢(shì),相比Adadelta準(zhǔn)確率上有一定優(yōu)勢(shì),相比Adam訓(xùn)練速度上有明顯優(yōu)勢(shì)。從表5中可以看出,相同的樣本分別使用改進(jìn)的方法和傳統(tǒng)的方法進(jìn)行特征提取,改進(jìn)的方法提取出了傳統(tǒng)方法沒有提取出的特征詞,進(jìn)而提高了分類精度。例如,改進(jìn)算法提取出yawn,imitation等詞語,但傳統(tǒng)的算法沒有提取出。

      3.4.3 實(shí)驗(yàn)3:離線學(xué)習(xí)與在線學(xué)習(xí)情感分類效果對(duì)比

      使用LR分類器作為離線學(xué)習(xí)的分類模型,利用批量梯度下降來更新LR模型的參數(shù),使用基于Adagrad的FTRL-Proximal結(jié)合LR得到的在線學(xué)習(xí)分類模型,以及基于Adamdelta的FTRL-Proximal結(jié)合LR得到的在線學(xué)習(xí)分類模型,分別對(duì)經(jīng)過Doc2vec模型處理的情感數(shù)據(jù)進(jìn)行離線學(xué)習(xí)和在線學(xué)習(xí)。由于離線學(xué)習(xí)和在線學(xué)習(xí)每次迭代使用的樣本數(shù)量不同,因此不以相同迭代次數(shù)的結(jié)果來進(jìn)行對(duì)比,而是以各自模型達(dá)到最佳效果時(shí)的分類指標(biāo)和訓(xùn)練時(shí)間來進(jìn)行對(duì)比。實(shí)驗(yàn)發(fā)現(xiàn)離線學(xué)習(xí)模型迭代至140次時(shí)結(jié)果穩(wěn)定,各指標(biāo)值基本不再變化,在線學(xué)習(xí)模型迭代至6 000次時(shí)各指標(biāo)值穩(wěn)定,因此將離線學(xué)習(xí)模型迭代次數(shù)設(shè)置為20至140次,每輪增加10次,將在線學(xué)習(xí)模型迭代次數(shù)設(shè)置為100至6 100次,每輪增加300次,得到分類準(zhǔn)確率、精確率、召回率、F1值和訓(xùn)練時(shí)間對(duì)比如圖6、圖7所示。

      圖6 學(xué)習(xí)模型的評(píng)估指標(biāo)分析

      對(duì)比圖6中三個(gè)模型的各項(xiàng)分類指標(biāo)值可以看出,離線學(xué)習(xí)模型的準(zhǔn)確率與原FTRL-Proximal算法差別不大,而改進(jìn)FTRL-Proximal算法的準(zhǔn)確率相比離線學(xué)習(xí)和原算法提升了1%~2%。對(duì)比精確率、召回率和F1值可以看出,相比離線學(xué)習(xí)模型,在線學(xué)習(xí)模型的召回率偏高,精確率偏低,F(xiàn)1值稍高。表明在線學(xué)習(xí)模型偏向于將悲觀評(píng)論預(yù)測(cè)為樂觀評(píng)論。對(duì)比圖7三個(gè)模型的訓(xùn)練時(shí)間可以看出,模型達(dá)到最佳訓(xùn)練效果時(shí),離線學(xué)習(xí)模型消耗的時(shí)間是原在線學(xué)習(xí)模型的2倍左右,是改進(jìn)在線學(xué)習(xí)模型的6倍左右。說明在線學(xué)習(xí)模型相比離線模型訓(xùn)練速度有很大的優(yōu)勢(shì),而改進(jìn)的在線學(xué)習(xí)相比原算法的訓(xùn)練速度也有明顯的提升。相比離線學(xué)習(xí)模型,改進(jìn)學(xué)習(xí)率的在線學(xué)習(xí)模型不僅準(zhǔn)確率有所提升,訓(xùn)練時(shí)間更是大大縮短,說明本文提出的在線學(xué)習(xí)情感分類模型具有一定的可行性。

      圖7 學(xué)習(xí)模型的耗時(shí)分析

      4 結(jié)論

      本文首先對(duì)FTRL-Proximal算法的學(xué)習(xí)率進(jìn)行了分析,針對(duì)其學(xué)習(xí)率在訓(xùn)練后期消失的問題,對(duì)參數(shù)更新量的均方根以及梯度的一階和二階矩估計(jì)進(jìn)行偏差修正,然后再使用改進(jìn)的FTRL-Proximal算法來迭代求解LR模型的參數(shù),得到在線學(xué)習(xí)LR模型。以此模型作為情感分類模型的分類器,使用Doc2vec工具生成的文本特征向量作為模型的輸入向量,構(gòu)成了完整的在線學(xué)習(xí)情感分類模型,通過實(shí)驗(yàn)驗(yàn)證出改進(jìn)學(xué)習(xí)率優(yōu)化算法具有更好的分類效果,以及改進(jìn)學(xué)習(xí)率的在線學(xué)習(xí)模型具有更高的準(zhǔn)確率,和大大縮短的訓(xùn)練時(shí)間。

      猜你喜歡
      離線梯度準(zhǔn)確率
      一個(gè)改進(jìn)的WYL型三項(xiàng)共軛梯度法
      異步電機(jī)離線參數(shù)辨識(shí)方法
      乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
      健康之家(2021年19期)2021-05-23 11:17:39
      不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
      呼吸閥離線檢驗(yàn)工藝與評(píng)定探討
      2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
      淺談ATC離線基礎(chǔ)數(shù)據(jù)的準(zhǔn)備
      一種自適應(yīng)Dai-Liao共軛梯度法
      一類扭積形式的梯度近Ricci孤立子
      高速公路車牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
      涟水县| 皋兰县| 德惠市| 翼城县| 苏尼特右旗| 卓资县| 方山县| 永修县| 宝山区| 西丰县| 霍林郭勒市| 普定县| 商河县| 乌鲁木齐市| 宁强县| 郸城县| 闻喜县| 托克托县| 遂川县| 台中县| 睢宁县| 陵川县| 蒲城县| 兴和县| 成武县| 南召县| 漠河县| 淅川县| 陵川县| 永德县| 宜兰市| 阳原县| 巴马| 宁津县| 开阳县| 海伦市| 新干县| 化德县| 黔西| 石河子市| 临江市|