姚婷婷 劉國華
摘?要:隨著互聯(lián)網(wǎng)的快速發(fā)展以及電子設(shè)備的逐漸普及,越來越多的人選擇在網(wǎng)上購物,買家在購買商品之后,可以通過平臺(tái)提供的評(píng)價(jià)系統(tǒng)表達(dá)自己對(duì)服裝產(chǎn)品的感受,因此會(huì)產(chǎn)生大量的服裝評(píng)價(jià)信息。由于這些評(píng)價(jià)信息的標(biāo)簽是通過人工選擇的,會(huì)受到外在因素的影響,所以具有不確定性。這些不確定性產(chǎn)生的誤差會(huì)影響到平臺(tái)以及其他用戶對(duì)服裝產(chǎn)品的評(píng)判。針對(duì)這一問題,本文研究了一種基于圖卷積的分類方法,將單詞、文檔、主題視為節(jié)點(diǎn),三者之間的關(guān)系作為邊構(gòu)建大型異構(gòu)圖網(wǎng)絡(luò)。將該異構(gòu)圖作為圖卷積網(wǎng)絡(luò)模型的輸入,并引入了注意力機(jī)制,根據(jù)不同鄰居節(jié)點(diǎn)與某一特定節(jié)點(diǎn)的關(guān)系具有不同的重要程度,構(gòu)建了關(guān)注矩陣。最后對(duì)一個(gè)公開的服裝評(píng)價(jià)文本進(jìn)行實(shí)驗(yàn)評(píng)估以及分析,實(shí)驗(yàn)結(jié)果表明本方法取得的分類結(jié)果優(yōu)于傳統(tǒng)神經(jīng)網(wǎng)絡(luò)。
關(guān)鍵詞: 文本分類;文檔主題生成模型;服裝評(píng)價(jià);圖卷積網(wǎng)絡(luò);注意力機(jī)制
文章編號(hào): 2095-2163(2021)01-0036-06 中圖分類號(hào):TP181 文獻(xiàn)標(biāo)志碼:A
【Abstract】With the rapid development of the Internet and the gradual popularization of electronic devices, more and more people choose to shop online. After buying goods, buyers can provide their own feelings about clothing products through the comment system provided by the platform, which will generate a lot of apparel comment information. Since the labels of these comment information are manually selected and will be affected by external factors, they are uncertain. The errors caused by these uncertainties will affect the judgment of the platform and other users on clothing products. To solve this problem, this paper studies a classification method based on graph convolution, which regards words, documents, and topics as nodes, and the relationship among the three as edges to build a large heterogeneous graph network. The heterogeneous graph is used as the input of the graph convolution network model, and the attention mechanism is introduced. According to the different importance of the relationship among different neighbor nodes and a specific node, the attention matrix is constructed. Finally, an experimental evaluation and analysis of a public clothing evaluation text are carried out. The experimental results show that the classification results obtained by this method are better than traditional neural networks.
【Key words】text classification; Latent Dirichlet allocation; apparel comment; Graph Convolution Network; attention mechanism
0 引?言
隨著電子商務(wù)的飛速發(fā)展以及電子設(shè)備的普及,越來越多的人選擇在網(wǎng)上購物并且發(fā)表自己對(duì)商品的評(píng)價(jià),服裝行業(yè)亦是如此。這些服裝評(píng)價(jià)信息反映了已購用戶對(duì)服裝的滿意程度。服裝評(píng)價(jià)信息中所包含的對(duì)服裝特征的自然語言表述,一方面會(huì)對(duì)潛在用戶的購買行為產(chǎn)生影響,另一方面可以為商戶和電商平臺(tái)對(duì)服裝的市場價(jià)值的評(píng)估提供重要的評(píng)判依據(jù),同時(shí)也為商家能不斷改進(jìn)服裝提供了方向[1]。所以,服裝評(píng)價(jià)信息對(duì)所有用戶、電商平臺(tái)、商戶、數(shù)據(jù)研究者都具有重要意義。如果能夠采用合適的算法對(duì)服裝評(píng)價(jià)信息進(jìn)行研究,無疑對(duì)生產(chǎn)生活都能提供幫助。
本文基于圖卷積網(wǎng)絡(luò),對(duì)售賣服裝的網(wǎng)站的評(píng)論信息進(jìn)行分析。分析的意義在于,在某服裝頁面下的評(píng)價(jià)信息非常多的情況下,用戶和商家想要查看已購用戶對(duì)該服裝的看法無疑會(huì)耗費(fèi)大量時(shí)間和精力。雖然現(xiàn)在有些服裝售賣網(wǎng)站提供了好評(píng)/差評(píng)的選項(xiàng)給買家進(jìn)行人工選擇。但是由于人工選擇會(huì)有很多外在因素影響,所以具有不確定性。例如,一部分用戶雖然對(duì)服裝不滿意,但是由于商家耐心的服務(wù)態(tài)度以及良好的物流體驗(yàn)選擇了好評(píng),同理,也會(huì)有一部分用戶將基于商家不好的服務(wù)態(tài)度,物流速度慢等原因給出了差評(píng),但是該用戶群體對(duì)服裝本身還是滿意的,這就可能對(duì)商家和其他用戶對(duì)商品的判定產(chǎn)生誤差[2]。所以,本文采用的半監(jiān)督圖卷積文本分類能實(shí)現(xiàn)在少量標(biāo)注文檔的情況下實(shí)現(xiàn)較強(qiáng)的分類性能,并能可解釋地學(xué)習(xí)單詞和文檔節(jié)點(diǎn)嵌入。
1 相關(guān)技術(shù)
1.1 傳統(tǒng)文本分類
傳統(tǒng)文本分類主要是由特征工程加分類模型兩部分組成的。特征工程的主要目的是將數(shù)據(jù)轉(zhuǎn)換成計(jì)算機(jī)可以理解的形式,且保留了足夠用于分類的信息,能夠正確表達(dá)文本的內(nèi)容。詞袋模型或向量空間模型是最常用的傳統(tǒng)特征工程方法,方法中容易忽略文本的上下文關(guān)系,每個(gè)詞之間彼此獨(dú)立,并且無法表征語義信息[3]。而傳統(tǒng)分類器主要作用是對(duì)特征工程處理過的信息進(jìn)行分類,常見分類模型有樸素貝葉斯分類算法、KNN、SVM、最大熵和神經(jīng)網(wǎng)絡(luò)等,分別有計(jì)算量大、內(nèi)存消耗大、欠擬合、分類精度低等缺點(diǎn)。
1.2 深度神經(jīng)網(wǎng)絡(luò)
傳統(tǒng)的文本分類高維度高稀疏的特性,導(dǎo)致了其計(jì)算量大,內(nèi)存占用多等缺點(diǎn);特征表達(dá)能力差的特性,導(dǎo)致分類精度低;而且需要人工進(jìn)行特征工程,耗費(fèi)人力。因此圖神經(jīng)網(wǎng)絡(luò)這一課題近年來受到越來越多的關(guān)注,在大量的文本數(shù)據(jù)面前將首先要研究文本表示,然后再利用CNN或RNN等神經(jīng)網(wǎng)絡(luò)模型進(jìn)行文本分類,省去了人工進(jìn)行特征工程的麻煩。
首先關(guān)于文本表示,學(xué)者們研究了很多有效的詞嵌入方法,將文本用詞向量的形式表示出來,?在2013年Mikolov等人[4]發(fā)表了2篇關(guān)于word2vec的文章,同時(shí)還發(fā)布了word2vec工具包,跳字模型(skip-gram)和連續(xù)詞袋模型(CBOW),將詞嵌入模型變得更加成熟,并得到大規(guī)模應(yīng)用。還有一些研究者將詞嵌入聚合成文檔嵌入并作為分類器的輸入,至此,文本數(shù)據(jù)的表示解決了高維度高稀疏的問題。
其次,利用CNN、RNN等深度神經(jīng)網(wǎng)絡(luò)及其變體實(shí)現(xiàn)文本分類的問題。2014年,Kim提出的TextCNN主要對(duì)CNN的輸入層做變形來進(jìn)行文本分類[5]。利用訓(xùn)練好的詞向量完成分類任務(wù),簡單的網(wǎng)格結(jié)構(gòu)使得TextCNN具有計(jì)算量少,訓(xùn)練速度快等優(yōu)勢,在很多公共數(shù)據(jù)集上取得了不錯(cuò)的效果。但是TextCNN依然有局限性,其視野局限在窗口大小范圍內(nèi),使其面對(duì)較長的文本序列時(shí)分類能力下降,只適合短文本分類。為了對(duì)長文本分類,且更好地表達(dá)上下文信息,Liu等人[5]在2016年和Luo等人[6]在2014年使用LSTM來學(xué)習(xí)文本表示。CNN和RNN在文本分類中都能取得顯著的效果,但是可解釋性不好,所以又引入了注意力機(jī)制來捕獲每個(gè)詞對(duì)結(jié)果的貢獻(xiàn)程度。雖然這些方法有效地實(shí)現(xiàn)了利用神經(jīng)網(wǎng)絡(luò)進(jìn)行文本分類,但是都忽略了全局詞共現(xiàn)的問題,詞共現(xiàn)中攜帶了不連續(xù)以及長距離的語義信息。
1.3 圖神經(jīng)網(wǎng)絡(luò)
由于生活中很多數(shù)據(jù)并不具備規(guī)則的空間結(jié)構(gòu),對(duì)于這些不規(guī)則的數(shù)據(jù),普通卷積顯得難以使用固定的卷積核來適應(yīng)不規(guī)則的圖結(jié)構(gòu),所以研究者們又提出了一種新的圖卷積模型?;趫D的深度學(xué)習(xí)最早由Gori等人[7]在2005年提出,使得學(xué)習(xí)過程可直接架構(gòu)于圖數(shù)據(jù)之上。之后2009年Scarselli等人[8]又提出了一種監(jiān)督學(xué)習(xí)的方法GNN,基于信息傳播機(jī)制,每一個(gè)節(jié)點(diǎn)通過相互交換信息來更新自己的節(jié)點(diǎn)狀態(tài),直到達(dá)到某一個(gè)穩(wěn)定值。但是這種算法計(jì)算量非常大。2016年,Defferrard等人[9]開始探討積分在文本分類上有好的結(jié)果的原因,從頻譜上論證了方法的可行性。2016年,Kipf等人[10]的方法把頻譜圖卷積的定義進(jìn)行簡化,將文本文檔建模為文檔詞圖,極大提高計(jì)算效率。該模型在一系列基準(zhǔn)數(shù)據(jù)集上取得了很好的分類結(jié)果。2019年,Yao等人[11]首次提出構(gòu)建以單詞和文檔為節(jié)點(diǎn)的異構(gòu)圖網(wǎng)絡(luò),并沒有使用注意力機(jī)制來捕獲節(jié)點(diǎn)與節(jié)點(diǎn)之間的重要程度,使得在評(píng)價(jià)類文本中準(zhǔn)確率略低于CNN,LSTM等神經(jīng)網(wǎng)絡(luò)模型。本文的方法基于頻譜圖卷積神經(jīng)網(wǎng)絡(luò),對(duì)Yao等人的模型進(jìn)行了進(jìn)一步改進(jìn),將單詞和文檔作為節(jié)點(diǎn)構(gòu)建圖數(shù)據(jù),再用GCN進(jìn)行卷積。并引入了注意力機(jī)制,關(guān)注節(jié)點(diǎn)之間的重要程度。
2 服裝分類模型
2.1 問題描述
已知一個(gè)用戶評(píng)價(jià)信息的集合O={O1,O2,O3,…,On},Oi=id,class,review,(Oi∈O),表示每個(gè)用戶的評(píng)價(jià)信息,以及一個(gè)預(yù)先定義的類別C={c1,c2},求一個(gè)映射模型F(·),使Oi∈OF(·)C。
本文需要對(duì)具有少量標(biāo)簽數(shù)的服裝文本信息進(jìn)行分類,提出了一種基于圖神經(jīng)網(wǎng)絡(luò)的半監(jiān)督文本分類的方法,從語料庫中構(gòu)建了一個(gè)大型異構(gòu)圖,圖中節(jié)點(diǎn)為單詞、文檔和主題,圖中的邊由單詞文檔和主題之間的關(guān)系連接,這樣可以捕捉到全局的詞共現(xiàn)信息。再使用Kipf和Welling在 2017年提出的圖卷積網(wǎng)絡(luò)對(duì)圖中節(jié)點(diǎn)進(jìn)行訓(xùn)練,還引入了Kiran在2017年提出的注意力機(jī)制,對(duì)節(jié)點(diǎn)之間的邊添加注意力權(quán)重。使之更加適應(yīng)情感分類。
2.2 異構(gòu)圖的構(gòu)建
本次研究中,構(gòu)建了一個(gè)集合了單詞節(jié)點(diǎn)C={c1,…,cm},文檔節(jié)點(diǎn)D={d1,…,dn},以及主題節(jié)點(diǎn)T={T1,…,Ti}的異構(gòu)圖網(wǎng)絡(luò)G(V,E),并使用基于Wikipedia語料庫的word2vec學(xué)習(xí)單詞以及文檔的嵌入,而潛在主題的嵌入選用單詞上的概率分布來表示。如圖1所示,將{C,D,T}所有節(jié)點(diǎn)的集合來表示圖G。其中,G節(jié)點(diǎn)數(shù)量為m,n,i三者之和。每個(gè)節(jié)點(diǎn)都被表征為特征向量。文檔節(jié)點(diǎn)之間的邊可通過2個(gè)節(jié)點(diǎn)之間的相似度評(píng)分點(diǎn)互信息PMI確定,如果PMI大于0,則在文檔和單詞之間建立一條邊,且邊的權(quán)重為PMI(i,j),單詞和單詞之間的邊采用詞頻-逆文檔頻率來判斷,每個(gè)話題和文檔之間,可將每個(gè)文檔分配給概率最大的前k個(gè)主題[12]。因此,如果將文檔分配給主題,則會(huì)建立文檔和主題之間的邊緣。
由于不同類型的節(jié)點(diǎn)之間特征值是不同的,所以文中對(duì)不同類型的節(jié)點(diǎn)分別進(jìn)行卷積。研究時(shí)對(duì)不同類型的節(jié)點(diǎn)設(shè)為={φd,φt}[13]。其中,φd表示文檔和單詞組成的節(jié)點(diǎn)類型,φt表示主題節(jié)點(diǎn)的類型,可將同一節(jié)點(diǎn)類型的節(jié)點(diǎn)卷積后相加,對(duì)應(yīng)數(shù)學(xué)運(yùn)算公式可寫為:
2.3 圖卷積分類
構(gòu)建一個(gè)圖G(V,E),V和E分別是節(jié)點(diǎn)和邊的集合,設(shè)|V|=n為節(jié)點(diǎn)個(gè)數(shù),Xi∈Rm,其中,i∈(1,n),m是節(jié)點(diǎn)i的維度。引入節(jié)點(diǎn)i的鄰接矩陣A以及度矩陣D,為了使每個(gè)節(jié)點(diǎn)卷積過程中不僅集合了鄰域信息,還保留自身的信息,所以給鄰接矩陣添加自環(huán),將A矩陣的對(duì)角元素置1,A的數(shù)學(xué)表達(dá)可寫為:
同時(shí)設(shè)置雙層GCN,其中第一層矩陣的特征值被更新為:
其中A=D-12AD-12為歸一化鄰接矩陣;W0為權(quán)重矩陣;α(·)為激活函數(shù)。
可以獲取第二層領(lǐng)域信息,即:
其中,l表示層數(shù)。
2.4 半監(jiān)督分類
對(duì)于半監(jiān)督分類,使用交叉熵來評(píng)估帶有標(biāo)簽的文檔,具體公式見如下:
其中,yL是所有帶標(biāo)簽節(jié)點(diǎn)的索引,使用梯度下降法可以更新W0,W1參數(shù)矩陣;Ylf表示標(biāo)注類別;Zdf為預(yù)測的類別;F是輸出層的特征維數(shù),等于類別的數(shù)量。由于本文研究是二分類問題,所以F等于2。
2.5 注意力機(jī)制
在構(gòu)建圖的過程中,由于節(jié)點(diǎn)之間相關(guān)則有邊,無關(guān)則沒有邊,但是對(duì)于某一節(jié)點(diǎn),不同鄰居節(jié)點(diǎn)對(duì)其影響是不同的,有些節(jié)點(diǎn)可能攜帶了更多有用的信息。為了區(qū)分不同鄰居節(jié)點(diǎn)對(duì)于該節(jié)點(diǎn)的重要程度,本文引入了注意力機(jī)制,單詞和單詞之間的權(quán)重采用的是PMI(i, j)的值表示,單詞與文檔之間的權(quán)重采用的是詞頻-逆文檔頻率,文檔節(jié)點(diǎn)i與主題節(jié)點(diǎn)j之間的相關(guān)性將采用公式具體如下:
其中,符號(hào)“‖”表示將節(jié)點(diǎn)vi、vj變換后的特征進(jìn)行拼接,函數(shù)α(·)作用是把拼接后的特征映射到一個(gè)實(shí)數(shù)上。假設(shè)一個(gè)特征為F的輸入節(jié)點(diǎn)滿足hi∈RF,一個(gè)特征為F′的輸出節(jié)點(diǎn)滿足h′j∈RF′,則要對(duì)所有節(jié)點(diǎn)訓(xùn)練一個(gè)W∈RF×F′的權(quán)重矩陣,W即輸入與輸出的關(guān)系[14]。
由于節(jié)點(diǎn)vi只與其鄰居節(jié)點(diǎn)有關(guān)聯(lián),所以研究中的注意力系數(shù)表達(dá)的是目標(biāo)節(jié)點(diǎn)vi與其鄰居節(jié)點(diǎn)j∈Ni之間的關(guān)系。為了便于計(jì)算和比較,文中采用了softmax函數(shù)對(duì)vi與所有鄰居節(jié)點(diǎn)的注意力系數(shù)進(jìn)行正則化,最終能得到本次研究中的注意力機(jī)制為:
研究過程中,原先的鄰接矩陣只是簡單地將有關(guān)聯(lián)的邊置1,加上注意力機(jī)制后文中的鄰接矩陣變成了傳播矩陣,定義為:
最后,加入了注意力機(jī)制的輸出層為:
3 實(shí)驗(yàn)與評(píng)估
3.1 參數(shù)設(shè)置
文中采用的數(shù)據(jù)集來自于kaggle網(wǎng)站的公開數(shù)據(jù)集Womens Clothing E-Commerce Reviews,該數(shù)據(jù)集有11個(gè)字段,詳見表1。研究中選取了第五列的評(píng)價(jià)文本,以及第七列的文本標(biāo)簽用于實(shí)驗(yàn)。經(jīng)統(tǒng)計(jì)在該數(shù)據(jù)集中,共有23486條評(píng)論數(shù)據(jù)。其中有19314個(gè)好評(píng),以及4172個(gè)差評(píng),為了能夠使好評(píng)和差評(píng)數(shù)量均衡,隨機(jī)選取了4172個(gè)好評(píng),以及全部的差評(píng)進(jìn)行了實(shí)驗(yàn),共計(jì)8344條文本數(shù)據(jù)。至此,單詞結(jié)點(diǎn)數(shù)有4557個(gè),設(shè)置詞嵌入維度為200,主題數(shù)為15。訓(xùn)練集輸入70%、即5840條數(shù)據(jù),測試集為30%、即2504條數(shù)據(jù),窗口大小20,對(duì)文本進(jìn)行200個(gè)epoch的訓(xùn)練,如果損失函數(shù)超過10個(gè)epoch沒有減少,就停止訓(xùn)練。學(xué)習(xí)率設(shè)置為0.02,dropout為0.5。
3.2 準(zhǔn)確度
模型分類的結(jié)果最終會(huì)被歸為以下4類:
(1)TP:將正類預(yù)測為正類數(shù)。
(2)TN:將負(fù)類預(yù)測為負(fù)類數(shù)。
(3)FP:將負(fù)類預(yù)測為正類數(shù)。
(4)FN:將正類預(yù)測為負(fù)類數(shù)。
研究時(shí)對(duì)模型的準(zhǔn)確率做出評(píng)價(jià),通過以下公式計(jì)算得到最終的準(zhǔn)確率為0.76438,其中需用到的公式可寫為:
3.3 實(shí)驗(yàn)結(jié)果
本文還使用了最常見的神經(jīng)網(wǎng)絡(luò)的分類模型CNN以及RNN對(duì)文本數(shù)據(jù)進(jìn)行了分類,與本文的模型進(jìn)行了對(duì)比,對(duì)比結(jié)果見表2??梢钥吹奖敬窝芯拷Y(jié)果是優(yōu)于傳統(tǒng)的文本分類的,這表明了本文提出的方法對(duì)半監(jiān)督文本分類具有不錯(cuò)的分類效果。究其原因有以下三點(diǎn):
(1)GCN考慮了文檔與文檔之間、單詞與單詞之間、以及文檔與主題之間的詞共現(xiàn)關(guān)系。
(2)CNN是將中心像素點(diǎn)與相鄰像素點(diǎn)求均值來實(shí)現(xiàn)空間特征的提取,而GCN是利用圖的拉普拉斯矩陣的特征值和特征向量來研究圖的性質(zhì),通過聚合所有二階領(lǐng)域的信息加權(quán)平均,通過圖的邊來傳遞節(jié)點(diǎn)的信息,使節(jié)點(diǎn)既保留了自身特征又聚合了鄰居節(jié)點(diǎn)特征,將標(biāo)簽信息在圖上傳播。
(3)本文引入的注意力機(jī)制使中心節(jié)點(diǎn)在聚合過程中關(guān)注到節(jié)點(diǎn)之間的關(guān)系的重要程度的影響,使得本文構(gòu)建的模型更加適應(yīng)情感分類。
實(shí)驗(yàn)通過改變第一層嵌入維度的大小,來觀察對(duì)模型的影響,結(jié)果如圖2所示。該結(jié)果表明,隨著嵌入維度的增加,本文模型分類準(zhǔn)確度先增加后減少,這是由于一開始隨著嵌入維度的增加,嵌入能更好地將標(biāo)簽信息傳播到整個(gè)圖中,而當(dāng)?shù)竭_(dá)峰值200維的時(shí)候,詞向量的增加反而會(huì)影響分類的性能和速度。
實(shí)驗(yàn)通過改變不同比例的訓(xùn)練數(shù)據(jù)來觀察該指標(biāo)對(duì)模型的影響,如圖3所示。由圖3可以得出結(jié)論,準(zhǔn)確度隨著訓(xùn)練標(biāo)簽的增加而增加,但是同時(shí)還發(fā)現(xiàn)GCN在較少的訓(xùn)練數(shù)據(jù)的情況下,也能具有良好的性能。這是因?yàn)镚CN是半監(jiān)督分類,以及圖結(jié)構(gòu)可以很好地將標(biāo)簽信息傳播到整個(gè)圖中。
實(shí)驗(yàn)通過改變滑動(dòng)窗口大小對(duì)模型進(jìn)行評(píng)估,如圖4所示。圖4表明隨著窗口的增大準(zhǔn)確度先增大,這是因?yàn)榇藭r(shí)窗口的增大包含了更多的全局信息,但是到達(dá)峰值15窗口后,再增加只能為添加更多的無關(guān)節(jié)點(diǎn)增加新的邊,所以準(zhǔn)確度不再增長。
圖5顯示了主題數(shù)對(duì)模型準(zhǔn)確性的影響,可以觀察到,準(zhǔn)確度現(xiàn)隨著主題數(shù)的增加而增加,因?yàn)橹黝}數(shù)很好地豐富了異構(gòu)圖表示的語義信息,當(dāng)主題數(shù)到達(dá)15的時(shí)候,準(zhǔn)確度隨著主題數(shù)的增加而減少,證明過多的主題反而會(huì)影響圖卷積分類模型的性能。
4 結(jié)束語
本文改進(jìn)了圖卷積文本分類的方法,為語料庫構(gòu)建基于單詞、文檔、主題的異構(gòu)圖網(wǎng)絡(luò),將文檔分類轉(zhuǎn)化成節(jié)點(diǎn)分類。并進(jìn)行了實(shí)驗(yàn),取得了不錯(cuò)的效果。該模型的研究在很大程度上豐富了異構(gòu)圖表達(dá)的語義信息,能很好地利用有限的標(biāo)記文檔,能有效實(shí)現(xiàn)語義信息在圖上傳播。因此,對(duì)服裝評(píng)價(jià)信息進(jìn)行正確分類一方面對(duì)電商平臺(tái)制造更多高品質(zhì)服裝提供方向,另一方面對(duì)用戶具有重要參考意義。所以圖卷積文本分類具有較高的研究價(jià)值。
參考文獻(xiàn)
[1]高永兵, 王亮, 胡文江. 淘寶商品評(píng)價(jià)屬性分類研究[J]. 微型機(jī)與應(yīng)用, 2014, 33(11):8-11,15.
[2]李宏媛, 陶然. 服裝電商評(píng)論情感分析研究[J]. 智能計(jì)算機(jī)與應(yīng)用, 2017, 7(1):27-30,34.
[3]KIPF T N, WELLING M . Semi-supervised classification with graph Convolutional Networks[J]. arXiv preprint arXiv:1609.02907,2016.
[4]MIKOLOV T, SUTSKEVER I, CHEN Kai, et al. Distributed representations of words and phrases and their compositionality[C]∥Proceedings of the 26th International Conference on Neural Information Processing Systems(NIPS'13). NY, United States:NIPS,2013,2: 3111-3119.
[5]LIU Pengfei, QIU Xipeng, HUANG Xuanjing. Recurrent Neural Network for text classification with multi-task learning[C]∥Proceedings of the Twenty-Fifth International Joint Conference on Artificial Intelligence(IJCAI'16). New York:IJCAI,2016:2873-2879.
[6]LUO Yuan, SOHANI A R, HOCHBERG E P, et al. Automatic lymphoma classification with sentence subgraph mining from pathology reports[J]. Journal of the American Medical Informatics Association Jamia, 2014,21(5):824-832.
[7]GORI M, MONFARDINI G, SCARSELLI F. A new model for learning in graph domains[C]∥Proceedings of 2005 IEEE International Joint Conference on Nerual Network. Montreal,Que. Canada: IEEE, 2005:729-734.
[8]SCARSELLI F, GORI M, TSOI A C, et al. The graph neural network model[J]. IEEE Transactions on Neural Networks, 2009, 20(1):61-80.
[9]DEFFERRARD M, BRESSON X, VANDERGHEYNST P. Convolutional neural networks on graphs with fast localized spectral filtering[C]∥Proceedings of the 30th International Conference on Neural Information Proceeding Systems(NIPS'16). Barcelona,Spain:NIPS, 2016: 3844-3852.
[10]KIPF T N, WELLING M. Semi-supervised classification with graph Convolutional Networks[J]. arXiv preprint arXiv:1609.02907,2016.
[11]YAO Liang, MAO Chengsheng, LUO Yuan. Graph convolutional networks for text classification[C]∥AAAI Conference on Artificial Intelligence. Honolulu, Hawaii, USA:AAAI, 2019, 33: 7370-7377.
[12]ZENG Jichuan, LI Jing, SONG Yan, et al. Topic memory networks for short text classification[J]. arXiv preprint arXiv:1809.03664, 2018.
[13]BLEI D M, NG A Y, JORDAN M I, et al. Latent Dirichlet allocation[J]. Journal of Machine Learning Research, 2012, 3:993-1022.
[14]THEKUMPARAMPIL K K, WANG Chong, OH S, et al. Attention-based graph neural network for semi-supervised learning[J]. arXiv preprint arXiv:1803.03735, 2018.