• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于元圖卷積的異質(zhì)網(wǎng)絡(luò)嵌入學(xué)習(xí)算法

      2022-08-12 14:28:04任嘉睿張海燕朱夢涵
      計算機研究與發(fā)展 2022年8期
      關(guān)鍵詞:鄰接矩陣異質(zhì)語義

      任嘉睿 張海燕 朱夢涵 馬 波

      1(寧夏大學(xué)信息工程學(xué)院 銀川 750021)2(寧夏財經(jīng)職業(yè)技術(shù)學(xué)院 銀川 750021)

      隨著各種社交媒體的廣泛流行,在虛擬社交網(wǎng)絡(luò)上產(chǎn)生了大量的交互數(shù)據(jù),虛擬社會網(wǎng)絡(luò)是現(xiàn)實社會的一種映射,從而分析和研究社會網(wǎng)絡(luò)為解決現(xiàn)實社會問題提供了有效的方法.社會網(wǎng)絡(luò)呈現(xiàn)出圖網(wǎng)絡(luò)的結(jié)構(gòu)形式,圖網(wǎng)絡(luò)中的節(jié)點通常代表現(xiàn)實社會的諸多實體,邊代表節(jié)點之間的各種有意義的現(xiàn)實關(guān)系.圖神經(jīng)網(wǎng)絡(luò)[1]可將圖數(shù)據(jù)轉(zhuǎn)換為低維向量表示的方法,在處理高維圖數(shù)據(jù)方面具有優(yōu)勢,且由于其在各種應(yīng)用領(lǐng)域處理圖數(shù)據(jù)顯示出的高效率,引起了廣泛的研究興趣,使其在推薦系統(tǒng)[2-3]、實體識別[4-5]、相似搜索[6-7]等領(lǐng)域發(fā)揮了重要作用.

      已有許多的圖神經(jīng)網(wǎng)絡(luò)模型被提出,基于圖譜的圖神經(jīng)網(wǎng)絡(luò)模型,例如圖卷積網(wǎng)絡(luò)(graph con-volutional network, GCN)[8]、自適應(yīng)的圖卷積網(wǎng)絡(luò)(adaptive graph convolutional network, AGCN)[9],這類模型是從圖信號處理的角度引入濾波器來定義圖卷積,對圖的傅里葉域進行卷積運算,以學(xué)習(xí)圖的嵌入表示.另一種基于圖上空間的圖神經(jīng)網(wǎng)絡(luò)模型,如GraphSAGE(graph sample and aggregate)[10]、圖注意力網(wǎng)絡(luò)(graph attention network, GAT)[11],通過聚集鄰居節(jié)點的信息來構(gòu)建圖卷積,得到目標(biāo)節(jié)點的聚合表示.但以上模型主要是針對同質(zhì)網(wǎng)絡(luò),即同種類型的節(jié)點及邊類型,對于包含多類型節(jié)點及多維關(guān)系的異質(zhì)信息網(wǎng)絡(luò)將不再適用.

      然而真實世界中的網(wǎng)絡(luò)數(shù)據(jù)大多都為異質(zhì)網(wǎng)絡(luò),例如引文網(wǎng)絡(luò)、交通網(wǎng)絡(luò)、蛋白質(zhì)網(wǎng)絡(luò)等.由于之前的圖神經(jīng)網(wǎng)絡(luò)模型無法挖掘出異質(zhì)網(wǎng)絡(luò)蘊含的豐富語義信息和結(jié)構(gòu)信息,因此為了能夠處理異質(zhì)網(wǎng)絡(luò),許多工作都基于元路徑對異質(zhì)網(wǎng)絡(luò)進行建模.元路徑是一種實體類型和關(guān)系交替而成的序列,可以描述異質(zhì)圖中特有的語義信息.雖然現(xiàn)有的研究在處理異質(zhì)網(wǎng)絡(luò)以及社會計算的基本應(yīng)用任務(wù)上取得了一定的進展,例如節(jié)點分類和聚類任務(wù),但仍存在一些局限:

      1) 大多數(shù)模型的圖卷積層沒有充分利用異質(zhì)網(wǎng)絡(luò)中高階鄰居的信息.相比于同質(zhì)網(wǎng)絡(luò),在異質(zhì)網(wǎng)絡(luò)中對于要分類或聚類的同類型節(jié)點不會直接相連,因此它們之間存在更高階的間接關(guān)系,而現(xiàn)有的模型很多只利用到了二階鄰居的信息,即“鄰居的鄰居”,如何挖掘節(jié)點之間的高階關(guān)系來學(xué)習(xí)更有效的網(wǎng)絡(luò)節(jié)點嵌入是非常重要的.

      2) 單條元路徑無法準(zhǔn)確地反映出節(jié)點間的復(fù)雜語義.比如在引文網(wǎng)絡(luò)中,如果想要捕獲2個作者(Author)在同一會議(Conference)發(fā)表論文(Paper)的語義,同時又要滿足這2篇論文中出現(xiàn)了相同的關(guān)鍵術(shù)語(Term),即2篇論文研究的是相似的主題,這時僅靠一條元路徑Author→Paper→Conference→Paper→Author顯然無法滿足.雖然之前的很多工作使用元路徑來建模異質(zhì)網(wǎng)絡(luò),但如何融合多條元路徑上所包含的語義信息,仍是一個值得研究的問題.

      對于以上的局限以及挑戰(zhàn),本文提出了一種基于元圖卷積的異質(zhì)網(wǎng)絡(luò)嵌入學(xué)習(xí)算法MGCN(meta-graph convolutional network).元圖在文獻[12]和[13]中被用來計算異質(zhì)網(wǎng)絡(luò)中同類型實體之間的相似度,是一種比元路徑能夠包含更多語義信息的異質(zhì)網(wǎng)絡(luò)表示模式.本文提出的算法利用元圖融合不同元路徑上的信息,挖掘異質(zhì)網(wǎng)絡(luò)中同類型節(jié)點之間的高階間接關(guān)系.本文工作的主要貢獻有3個方面:

      1) 引入元圖的概念,提出基于元圖的異構(gòu)鄰接矩陣計算方法,用以融合多條元路徑上的不同語義信息,挖掘節(jié)點間的高階間接關(guān)系,保留異質(zhì)網(wǎng)絡(luò)中的復(fù)雜語義信息.

      2) 提出基于元圖卷積的異質(zhì)網(wǎng)絡(luò)嵌入學(xué)習(xí)算法MGCN,在不影響模型性能的情況下,相比于基于空間卷積的圖神經(jīng)網(wǎng)絡(luò)基線模型顯著縮短了訓(xùn)練時間.

      3) 分別在DBLP,IMDB數(shù)據(jù)集上進行了大量的實驗,結(jié)果說明本文提出的MGCN在多個指標(biāo)上優(yōu)于基線模型.

      1 相關(guān)工作

      目前已有許多研究工作致力于借用元路徑對異質(zhì)網(wǎng)絡(luò)進行建模.Sun等人[14]在2011年提出元路徑的概念用以處理異質(zhì)網(wǎng)絡(luò),他們提出的PathSim算法,通過計算2個節(jié)點間的元路徑實例的數(shù)量關(guān)系來衡量節(jié)點之間的相似性,可以捕獲對象間的相似性的細(xì)微之處.之后在2012年提出的PathSelClus算法[15],基于用戶的引導(dǎo)對元路徑進行選擇,進而對網(wǎng)絡(luò)中的對象進行聚類,具體實現(xiàn)方法是首先為每個聚類提供一個種子節(jié)點,算法學(xué)習(xí)元路徑的權(quán)值,根據(jù)權(quán)值進一步產(chǎn)生社區(qū).

      針對PathSim沒有探索異質(zhì)網(wǎng)絡(luò)結(jié)構(gòu)中的相似性以及沒有生成頂點的嵌入向量這2個問題, Shang等人[16]提出了ESim算法,結(jié)合給定的元路徑和網(wǎng)絡(luò)結(jié)構(gòu)來學(xué)習(xí)頂點嵌入向量,以更好地捕捉節(jié)點間的相似度.

      Wang等人[17]借助注意力機制,提出了一種基于層次注意的異質(zhì)圖注意力網(wǎng)絡(luò)(heterogeneous graph attention network, HAN),包括節(jié)點級和語義級的注意力機制.節(jié)點級的注意力目的是為了挖掘基于元路徑的鄰居對該目標(biāo)節(jié)點的重要性,而語義級的注意力則能夠挖掘不同元路徑對目標(biāo)節(jié)點的重要性.然后,該模型通過分層聚合基于元路徑的鄰居的特征來生成節(jié)點嵌入,用于下游任務(wù).

      但HAN在聚合基于元路徑的鄰居信息過程中,只考慮了由元路徑連接的頭尾2個節(jié)點,拋棄了元路徑上中間節(jié)點的信息.針對這個限制,F(xiàn)u等人[18]提出了一種基于元路徑的聚合圖神經(jīng)網(wǎng)絡(luò)(meta-graph aggregated graph neural network, MAGNN).具體來說,MAGNN使用了3個主要組件,其中節(jié)點內(nèi)容轉(zhuǎn)換用以封裝輸入節(jié)點的屬性,元路徑內(nèi)聚合用來合并元路徑上的中間語義節(jié)點,最后元路徑間聚合組件合并來自多條元路徑的信息.但由于需要為每個目標(biāo)節(jié)點計算多頭注意力,以及在模型訓(xùn)練過程中需要計算大量的元路徑,因此HAN以及MAGNN這2個模型需要很大的訓(xùn)練時間以及資源.為了避免選擇大量的元路徑,Zhao等人[19]提出了一種基于元路徑的高階異質(zhì)圖卷積網(wǎng)絡(luò)(higher-order heterogeneous graph convolutional network, HOHGCN),他們設(shè)計了一種基于高階元路徑的鄰接矩陣計算方法,在消息傳遞的每一步,線性地聚合來自高階元路徑鄰居的信息.但該模型對于具有多種節(jié)點和邊類型的異質(zhì)圖,必須使用較大的嵌入維數(shù)來編碼來自各種高階元路徑的信息,會導(dǎo)致大量的矩陣運算,從而影響計算效率.

      這些基于圖神經(jīng)網(wǎng)絡(luò)的方法已經(jīng)在學(xué)習(xí)異質(zhì)網(wǎng)絡(luò)嵌入表示方面取得了一定的進展,但對于挖掘節(jié)點間高階的間接關(guān)系以及對多條元路徑的融合方案上,仍有改進的空間.

      2 概念定義

      本節(jié)介紹相關(guān)概念及定義,本文使用的符號如表1所示:

      Table 1 Notation Explanation Table表1 符號對照表

      定義1.異質(zhì)網(wǎng)絡(luò)[20].異質(zhì)網(wǎng)絡(luò)被定義為有向圖G=(V,E,φ,φ,A,R),其中V代表節(jié)點集,E代表邊集.對于每個節(jié)點v∈V和邊e∈E,都有其到各自對象類型的映射函數(shù)φ(v):V→A和φ(e):E→R,其中A和R分別表示節(jié)點類型和關(guān)系類型,且|A|+|R|>2.

      圖1(a)是一個在DBLP引文網(wǎng)絡(luò)中異質(zhì)網(wǎng)絡(luò)的例子,該異質(zhì)網(wǎng)絡(luò)擁有4個節(jié)點類型,即作者(Author)、論文(Paper)、會議(Conference)和論文中出現(xiàn)的關(guān)鍵術(shù)語(Term),以及3個關(guān)系類型,即作者撰寫論文(Author→Paper)、論文發(fā)表在會議(Paper→Conference)和論文中包含某個關(guān)鍵術(shù)語(Paper→Term).由此可見,異質(zhì)網(wǎng)絡(luò)不僅包括多種類型的對象,還提供了豐富的高級語義.

      Fig. 1 An example of related concepts in a heterogeneous network圖1 異質(zhì)網(wǎng)絡(luò)中相關(guān)概念的示例

      定義3.元圖[13].一個元圖S被定義為一個有向無環(huán)圖,只有一個源節(jié)點(入度為0)和一個目標(biāo)節(jié)點(出度為0).具體地,S=(Vs,Es),其中Vs為節(jié)點的集合,Es為邊的集合.對于每個節(jié)點v∈Vs,都有φ(v)∈A.同理,對于每條邊e∈Es,都有φ(e)∈R.

      CP=CA1A2?CA2A3?…?CAl-1Al,

      (1)

      3 基于元圖卷積的異質(zhì)網(wǎng)絡(luò)嵌入學(xué)習(xí)算法

      由于GCN具有很強的聚合圖中鄰居節(jié)點信息的能力,本文基于GCN設(shè)計了元圖卷積算法模型MGCN.本節(jié)對提出的MGCN算法框架進行介紹,并詳細(xì)描述基于元圖的異構(gòu)鄰接矩陣的計算方法,以及MGCN的圖卷積網(wǎng)絡(luò)層的學(xué)習(xí)節(jié)點嵌入表示的過程.

      3.1 算法框架描述

      為了對異質(zhì)網(wǎng)絡(luò)中多條元路徑上的語義信息進行有效融合,本文提出的基于元圖卷積的異質(zhì)網(wǎng)絡(luò)嵌入學(xué)習(xí)算法MGCN,能夠保存比單條元路徑更復(fù)雜的語義信息.

      在以往學(xué)習(xí)異質(zhì)網(wǎng)絡(luò)中的語義信息和結(jié)構(gòu)信息時,通常先將異質(zhì)網(wǎng)絡(luò)轉(zhuǎn)化為同質(zhì)網(wǎng)絡(luò),即將對稱元路徑的頭尾節(jié)點直接進行連接,忽略元路徑上的中間節(jié)點,將異質(zhì)網(wǎng)絡(luò)簡化為一個新的只有同類型節(jié)點的同質(zhì)網(wǎng)絡(luò),然后利用圖神經(jīng)網(wǎng)絡(luò)模型學(xué)習(xí)節(jié)點嵌入.然而,僅使用孤立的單條元路徑無法對一些特定復(fù)雜語義進行有效的描述,即割裂了多條元路徑之間的潛在聯(lián)系,因此,需要對多條元路徑上包含的不同的語義信息進行融合,本文利用元圖對多條元路徑上的語義信息進行融合,該過程將整條元路徑上的所有節(jié)點信息都計算在內(nèi).

      該算法主要包括2個階段:1)異構(gòu)鄰接矩陣的計算;2)節(jié)點嵌入表示學(xué)習(xí).整體框架如圖2所示.首先計算基于元圖的異構(gòu)鄰接矩陣,該矩陣含有目標(biāo)節(jié)點間基于元路徑的高階語義信息,并融合了不同元路徑上的復(fù)雜語義,之后將歸一化后的異構(gòu)鄰接矩陣與目標(biāo)節(jié)點的屬性特征矩陣輸入MGCN的卷積層,MGCN使用了2層的圖卷積網(wǎng)絡(luò),學(xué)習(xí)節(jié)點的嵌入表示,并將該嵌入表示應(yīng)用于社會計算的下游任務(wù)中.

      Fig. 2 The overall architecture of MGCN圖2 MGCN總體框架

      3.2 基于元圖的異構(gòu)鄰接矩陣

      為了更清楚地解釋元圖的概念,本文選取DBLP數(shù)據(jù)集中的部分?jǐn)?shù)據(jù)來說明,如圖3所示,S1,S2,S3表示DBLP中的3條元路徑,它們都可以看作是一種特殊的元圖.S4和S5表示元圖,可以看到它們都是有向無環(huán)圖,具體地,以元圖S5來說明基于元圖的異構(gòu)鄰接矩陣的計算問題.

      Fig. 3 Meta-graph used for DBLP datasets圖3 DBLP數(shù)據(jù)集元圖示例

      為了計算基于該元圖的異構(gòu)鄰接矩陣,并融合這2條元路徑上不同的語義信息,本文對這2條元路徑未重合的子結(jié)構(gòu)部分的異構(gòu)鄰接矩陣進行Hadamard乘積來融合不同的語義信息,之后再通過矩陣乘法得到包含元圖復(fù)雜語義的異構(gòu)鄰接矩陣.基于元圖S5的異構(gòu)鄰接矩陣具體計算過程如算法1所示,⊙表示矩陣的Hadamard積.此基于元圖的異構(gòu)鄰接矩陣,不僅包含了節(jié)點間基于元路徑的高階語義信息,還融合了不同元路徑之間的語義信息,在挖掘異質(zhì)網(wǎng)絡(luò)節(jié)點間的高階關(guān)系和多條元路徑語義的融合方案上提供了新的思路.

      算法1.基于元圖S5的異構(gòu)鄰接矩陣計算.

      輸入:不同類型節(jié)點間的鄰接矩陣CAP,CPC,CPT;

      輸出:基于元圖S5的異構(gòu)鄰接矩陣CS5.

      ① https://dblp.uni-trier.de/

      ② https://www.imdb.com/

      ③CP1P2=CP1⊙CP2;/*計算CP1P2*/

      ⑤ returnCS5./*返回結(jié)果*/

      3.3 MGCN節(jié)點嵌入學(xué)習(xí)過程

      在異質(zhì)網(wǎng)絡(luò)中,節(jié)點彼此之間的連接分布不均勻,導(dǎo)致部分節(jié)點擁有大量的鄰居節(jié)點,部分節(jié)點的鄰居節(jié)點非常稀少,進而導(dǎo)致鄰接矩陣內(nèi)部元素的差值非常巨大.所以在計算得到基于元圖的異構(gòu)鄰接矩陣C之后,和傳統(tǒng)的GCN類似,本文對異構(gòu)鄰接矩陣C進行度歸一化,降低異質(zhì)網(wǎng)絡(luò)中節(jié)點鄰居數(shù)量不一致的影響,具體計算方法:

      (2)

      (3)

      其中,H(l)∈N×D表示第l層的輸出,H(0)=X為節(jié)點的原始屬性特征矩陣,W(l)表示特定層的可訓(xùn)練權(quán)重矩陣,σ(·)表示一個激活函數(shù),本文使用函數(shù)ReLU(·)=max(0,· ).

      整個正向傳播過程如算法2所示.行①②表示基于輸入的元圖利用算法1中的計算方法,計算相應(yīng)的異構(gòu)鄰接矩陣,行③表示選擇輸入到圖卷積層的異構(gòu)鄰接矩陣Cs,行④~⑦表示計算每個節(jié)點v∈V的低維嵌入表示zv的過程.

      算法2.異質(zhì)網(wǎng)絡(luò)嵌入學(xué)習(xí)算法MGCN.

      輸入:異質(zhì)網(wǎng)絡(luò)G=(V,E,φ,φ,A,R),元圖集合S,層數(shù)L,節(jié)點原始屬性特征矩陣X;

      輸出:節(jié)點的低維嵌入表示{zv,?v∈V}.

      ① forsinSdo/*處理元圖*/

      使用算法1計算基于元圖s的異構(gòu)鄰接矩陣Cs;

      ② end for/*終止循環(huán)*/

      ③ 選擇異構(gòu)鄰接矩陣Cs;

      ④ forl=1…Ldo

      /*多層圖卷積層計算節(jié)點嵌入向量*/

      ⑥ end for/*終止循環(huán)*/

      ⑦ returnzv←H(L),?v∈V.

      /*返回輸出結(jié)果*/

      4 實 驗

      本節(jié)詳細(xì)介紹實驗過程中使用的數(shù)據(jù)集、對比的基準(zhǔn)方法與實驗度量標(biāo)準(zhǔn),同時展示實驗結(jié)果并對該結(jié)果進行分析.

      4.1 實驗數(shù)據(jù)集

      為了評估提出的MGCN的有效性,本文采用來自不同領(lǐng)域的2種廣泛使用的異質(zhì)網(wǎng)絡(luò)數(shù)據(jù)集,即DBLP和IMDB數(shù)據(jù)集,之后針對這2個數(shù)據(jù)集本文進行節(jié)點分類與節(jié)點聚類實驗,表2總結(jié)了2個數(shù)據(jù)集的相關(guān)統(tǒng)計信息.

      Table 2 Statistics of Datasets表2 數(shù)據(jù)集統(tǒng)計信息

      1) DBLP數(shù)據(jù)集①.DBLP是計算機領(lǐng)域內(nèi)一個英文文獻的集成網(wǎng)站.本文采用與文獻[18]相同的DBLP數(shù)據(jù)集,該數(shù)據(jù)集是文獻[21]提取的DBLP子集,整個數(shù)據(jù)集包括4個計算機研究領(lǐng)域(數(shù)據(jù)庫、數(shù)據(jù)挖掘、人工智能和信息檢索)的文獻、作者以及學(xué)術(shù)會議信息.包括4 057個作者節(jié)點、14 328個論文節(jié)點、7 723個關(guān)鍵字節(jié)點,以及20個學(xué)術(shù)會議節(jié)點(其中每個研究領(lǐng)域選擇5個學(xué)術(shù)會議).作者節(jié)點的屬性特征為他們所發(fā)表論文關(guān)鍵詞組成的詞袋,其中在對作者節(jié)點的分類和聚類任務(wù)中,訓(xùn)練集、驗證集以及測試集的大小分別為400(9.86%),400(9.86%),3257(80.28%).

      2) IMDB數(shù)據(jù)集②.IMDB是一個關(guān)于電影、電影演員和電影導(dǎo)演的在線數(shù)據(jù)庫,包括影片的演員、內(nèi)容介紹、分級、評論等眾多信息.本文同樣使用與文獻[18]相同的IMDB數(shù)據(jù)集,包括3個類型(動作電影、喜劇電影和戲劇電影)的電影、導(dǎo)演以及演員信息.其中包括4 278個電影節(jié)點、2 081個導(dǎo)演節(jié)點、5 257個演員節(jié)點.電影節(jié)點的屬性特征是描述電影情節(jié)的詞袋特征向量,對電影節(jié)點的分類和聚類任務(wù)中,訓(xùn)練集、驗證集以及測試集的大小分別為400(9.86%),400(9.86%),3478(80.28%).

      4.2 實驗對比方法

      為了更好地說明本文提出的算法MGCN,選擇6種不同類型的圖嵌入模型在節(jié)點分類和節(jié)點聚類任務(wù)比較各自的性能,包括傳統(tǒng)的經(jīng)典算法、基于圖神經(jīng)網(wǎng)絡(luò)的同質(zhì)網(wǎng)絡(luò)嵌入模型和異質(zhì)網(wǎng)絡(luò)嵌入模型:

      1) Node2vec[22].一個基于傳統(tǒng)機器學(xué)習(xí)方法的同質(zhì)網(wǎng)絡(luò)嵌入模型,Node2vec是對DeepWalk[23]的拓展,引入有偏的隨機游走,使所選擇的隨機游走序列更有指向性.本文將其應(yīng)用在異質(zhì)網(wǎng)絡(luò)上,需要忽略圖結(jié)構(gòu)的異質(zhì)性,并清除所有節(jié)點上的屬性特征.

      2) Metapath2vec[24].一個基于傳統(tǒng)機器學(xué)習(xí)方法的異質(zhì)網(wǎng)絡(luò)嵌入模型,該算法基于元路徑進行隨機游走,使用skip-gram將節(jié)點映射為低維的嵌入向量,但元路徑的選擇需要用戶指定.

      3) GCN[8].一個同質(zhì)圖神經(jīng)網(wǎng)絡(luò)模型,通過譜圖卷積學(xué)習(xí)節(jié)點的嵌入表示.本文中,在基于元路徑的同質(zhì)網(wǎng)絡(luò)上對GCN進行實驗.

      4) GAT[11].一個同質(zhì)圖神經(jīng)網(wǎng)絡(luò)模型,使用注意力機制為不同鄰居節(jié)點指定不同的權(quán)重,聚合鄰居節(jié)點上的信息.類似地,本文在基于元路徑的同質(zhì)網(wǎng)絡(luò)上對GAT進行實驗.

      5) HAN[17].一個異質(zhì)圖神經(jīng)網(wǎng)絡(luò)模型,同樣使用注意力機制為多條元路徑分配不同的權(quán)重,融合多條元路徑上的信息,學(xué)習(xí)生成基于元路徑的節(jié)點嵌入表示.

      6) MAGNN[18].一個異質(zhì)圖神經(jīng)網(wǎng)絡(luò)模型,可以看作是HAN的拓展,其將元路徑上的中間節(jié)點也計算在內(nèi),利用注意力機制學(xué)習(xí)得到最終的節(jié)點嵌入表示.

      與文獻[18]相同,對于傳統(tǒng)的圖嵌入模型,包括Node2vec和Metapath2vec,本文將窗口大小設(shè)置為5,隨機游走的長度設(shè)置為100,每個節(jié)點的隨機游走序列個數(shù)為40.對于基于圖神經(jīng)網(wǎng)絡(luò)的模型,包括GCN,GAT,HAN,MAGNN以及本文提出的MGCN,使用相同的訓(xùn)練集、驗證集和測試集劃分方式,使用dropout率為0.5,權(quán)重衰減為0.001的Adam優(yōu)化器.對于節(jié)點分類和節(jié)點聚類任務(wù),使用一小部分有標(biāo)簽的節(jié)點以一種半監(jiān)督的方式訓(xùn)練.對于GAT,HAN和MAGNN,將多頭注意力的數(shù)量設(shè)置為8個.特別地,對于HAN和MAGNN,將元路徑間聚合的注意力向量維數(shù)設(shè)置為128.為了便于實驗的比較,本文將上述所有模型的嵌入維數(shù)都設(shè)置為64,訓(xùn)練輪次為100輪,并使用容忍度為30 輪的提前終止策略.

      4.3 實驗結(jié)果及分析

      4.3.1 節(jié)點分類

      本文在DBLP和IMDB數(shù)據(jù)集上進行了節(jié)點分類任務(wù),比較不同的圖嵌入模型在不同數(shù)據(jù)集上的性能.對于2個數(shù)據(jù)集,本文分別對作者節(jié)點和電影節(jié)點進行分類.具體方法是,將模型學(xué)習(xí)生成的節(jié)點嵌入表示輸入到一個可以應(yīng)用不同比例的數(shù)據(jù)進行訓(xùn)練的SVM分類器中.為了公平比較,本文只將測試集中的節(jié)點提供給SVM分類器,即DBLP為3 257個作者節(jié)點,IMDB為3 478個電影節(jié)點,因為在半監(jiān)督模型的訓(xùn)練過程中,對訓(xùn)練集和驗證集中的數(shù)據(jù)標(biāo)簽已經(jīng)知曉.

      每個圖嵌入模型運行10次的平均Macro-F1值和Micro-F1值如表3和表4所示,在不同比例的訓(xùn)練數(shù)據(jù)以及不同的數(shù)據(jù)集上,MGCN的分類性能始終優(yōu)于其他基線模型.與最好的基線模型相比,對于DBLP數(shù)據(jù)集,在Macro-F1值和Micro-F1值上分別提高了0.7%和0.67%,同時對于IMDB數(shù)據(jù)集,分別提高了0.32%和1.01%.說明本文所提出的算法能夠?qū)Σ煌窂缴系膹?fù)雜語義信息有效融合,且能夠有效利用節(jié)點間的高階間接關(guān)系.

      Table 3 Experimental Results of Different Methods on Macro -F1 for Node Classification表3 節(jié)點分類任務(wù)中不同方法在Macro -F1值上的實驗結(jié)果對比 %

      Table 4 Experimental Results of Different Methods on Micro -F1 for Node Classification表4 節(jié)點分類任務(wù)中不同方法在Micro -F1值上的實驗結(jié)果對比 %

      其次,可以看到基于圖神經(jīng)網(wǎng)絡(luò)的深度圖嵌入模型要比傳統(tǒng)的圖嵌入模型Node2vec和Metapath2vec具有更好的分類效果,說明深層的模型具有更強的學(xué)習(xí)表達能力,能夠生成更有效的節(jié)點嵌入.以及異質(zhì)圖嵌入模型HAN,MAGNN和MGCN的性能要比同質(zhì)圖嵌入模型GCN和GAT更好,說明異質(zhì)圖神經(jīng)網(wǎng)絡(luò)對圖中的復(fù)雜語義信息具有更強的捕獲及表達能力.

      4.3.2 節(jié)點聚類

      本文在DBLP和IMDB數(shù)據(jù)集上進行了節(jié)點聚類任務(wù),比較不同的圖嵌入模型在不同數(shù)據(jù)集上的性能.與分類任務(wù)中的策略類似,將測試集中的節(jié)點提供給HC層次聚類器,對每個圖嵌入模型學(xué)習(xí)生成的節(jié)點嵌入表示進行聚類(DBLP中的作者節(jié)點和IMDB中的電影節(jié)點).本文采用NMI和ARI指數(shù)作為評價指標(biāo),將每個模型的節(jié)點嵌入在聚類器運行10次的平均結(jié)果記錄在表5內(nèi).

      Table 5 Experimental Results of Different Methods for Node Clustering表5 節(jié)點聚類任務(wù)中不同方法的實驗結(jié)果對比 %

      從聚類結(jié)果可以看出,本文提出的MGCN優(yōu)于傳統(tǒng)的圖嵌入模型以及基于同質(zhì)圖神經(jīng)網(wǎng)絡(luò)的深度模型,原因是MGCN借助元圖卷積融合了不同元路徑上的高階語義信息.但在DBLP數(shù)據(jù)集上略低于2種異質(zhì)圖神經(jīng)網(wǎng)絡(luò)模型HAN和MAGNN,是因為HAN和MAGNN利用多頭注意力機制從元路徑聚合鄰居節(jié)點的語義信息,而本文的算法基于GCN直接對包含不同元路徑語義信息的異構(gòu)鄰接矩陣做聚合.另外本文提出的MGCN利用GCN能夠聚合鄰居信息的優(yōu)勢,收集目標(biāo)節(jié)點基于元圖的高階鄰居的信息,在損失函數(shù)的收斂性能以及模型的訓(xùn)練時間上要明顯優(yōu)于其他所有的基線方法,減少了因多頭注意力機制產(chǎn)生的計算開銷,具體對比結(jié)果在4.3.3節(jié)做詳細(xì)分析.

      4.3.3 可視化

      為了更直觀地比較,本文在圖4中展示了不同圖嵌入模型節(jié)點嵌入的可視化結(jié)果.首先使用不同的圖嵌入模型在DBLP數(shù)據(jù)集上學(xué)習(xí)作者節(jié)點的嵌入表示,之后本實驗利用t-SNE方法對節(jié)點嵌入表示進行降維,將學(xué)習(xí)到的嵌入表示投影到一個二維空間中得到二維的可視化結(jié)果,為每個作者節(jié)點確定一個坐標(biāo),并根據(jù)不同的研究領(lǐng)域為節(jié)點確定不同的顏色.

      從圖4可以看出,傳統(tǒng)的同質(zhì)網(wǎng)絡(luò)圖嵌入模型Node2vec不能很好地學(xué)習(xí)節(jié)點嵌入表示,可視化結(jié)果較為分散,不能有效區(qū)分不同類別的節(jié)點.與傳統(tǒng)模型相比,基于同質(zhì)圖神經(jīng)網(wǎng)絡(luò)的模型GCN和GAT,大致劃分出了每個研究領(lǐng)域的節(jié)點,但4個區(qū)域的交界還是存在大量不同顏色節(jié)點相互混雜的情況.而與同質(zhì)圖神經(jīng)網(wǎng)絡(luò)模型相比,異質(zhì)圖神經(jīng)網(wǎng)絡(luò)模型HAN,MAGNN以及本文提出的MGCN,明顯優(yōu)于上述圖嵌入模型,能夠很好地將節(jié)點嵌入劃分為4個區(qū)域,且區(qū)域彼此之間邊界明顯.以上的分析結(jié)果表明,MGCN能夠?qū)W習(xí)到異質(zhì)網(wǎng)絡(luò)中有意義的節(jié)點嵌入表示,但與HAN和MAGNN不同,MGCN減少了因計算多頭注意力而花費的訓(xùn)練時間.

      Fig. 4 Embedding visualization of nodes on the DBLP dataset圖4 DBLP數(shù)據(jù)集上的節(jié)點嵌入表示可視化

      圖5顯示了MGCN與另外2種異質(zhì)圖神經(jīng)網(wǎng)絡(luò)模型HAN和MAGNN在訓(xùn)練過程中損失函數(shù)值收斂性能的具體對比,在100輪的訓(xùn)練中,可見MGCN的損失在第20輪之后就達到了一個穩(wěn)定的值,MAGNN在第50輪左右下降到局部最低,在60輪左右出現(xiàn)一個明顯的波動之后也逐漸達到穩(wěn)定值,而HAN在第70輪之后才逐漸收斂.以上結(jié)果表明,本文提出的MGCN在損失函數(shù)值收斂的性能上要明顯優(yōu)于另外2種異質(zhì)圖神經(jīng)網(wǎng)絡(luò)模型HAN和MAGNN.

      Fig. 5 Comparison of convergence performance of loss圖5 不同方法的損失函數(shù)收斂性能對比

      如圖6所示,本文對比了MGCN,HAN以及MAGNN這3種異質(zhì)圖神經(jīng)網(wǎng)絡(luò)模型每輪次的平均訓(xùn)練時間.在100輪的訓(xùn)練中,可以看到MGCN每輪次的平均訓(xùn)練時間要明顯少于其他2種基線模型,為3.39 s,其次是HAN,每輪次的平均訓(xùn)練時間為13.04 s,訓(xùn)練時間最長的是MAGNN,每輪次為23.64 s.在3個模型的訓(xùn)練過程中,采用了相同的提前終止策略,進而MGCN能夠在損失函數(shù)收斂之后就可停止訓(xùn)練保存模型.以上結(jié)果表明在模型的訓(xùn)練時間上,本文提出的MGCN具有顯著的優(yōu)勢.

      Fig. 6 Comparison of average training time per epoch圖6 不同方法每輪平均訓(xùn)練時間對比

      5 總 結(jié)

      本文提出了一種基于元圖卷積的異質(zhì)網(wǎng)絡(luò)嵌入學(xué)習(xí)算法MGCN,設(shè)計了基于元圖的異構(gòu)鄰接矩陣計算方法,用以融合多條元路徑上的不同語義信息,挖掘節(jié)點間的高階間接關(guān)系,以解決單條元路徑無法對異質(zhì)網(wǎng)絡(luò)中的特定復(fù)雜語義進行描述的困難.在實驗中,MGCN在2個公開的真實異質(zhì)網(wǎng)絡(luò)數(shù)據(jù)集的節(jié)點分類等任務(wù)上取得了更好的性能以及更少的模型訓(xùn)練時間.未來的研究工作計劃將該模型應(yīng)用到具體的社區(qū)發(fā)現(xiàn)任務(wù)中,設(shè)計以節(jié)點聚類為目標(biāo)導(dǎo)向的社區(qū)發(fā)現(xiàn)算法.

      猜你喜歡
      鄰接矩陣異質(zhì)語義
      輪圖的平衡性
      語言與語義
      基于鄰接矩陣變型的K分網(wǎng)絡(luò)社團算法
      “上”與“下”語義的不對稱性及其認(rèn)知闡釋
      隨機與異質(zhì)網(wǎng)絡(luò)共存的SIS傳染病模型的定性分析
      一種判定的無向圖連通性的快速Warshall算法
      Ag2CO3/Ag2O異質(zhì)p-n結(jié)光催化劑的制備及其可見光光催化性能
      MoS2/ZnO異質(zhì)結(jié)的光電特性
      物理實驗(2015年10期)2015-02-28 17:36:52
      認(rèn)知范疇模糊與語義模糊
      Inverse of Adjacency Matrix of a Graph with Matrix Weights
      青冈县| 大田县| 元氏县| 南丰县| 龙陵县| 松潘县| 抚松县| 沾益县| 肇州县| 林州市| 闵行区| 邵武市| 武汉市| 瑞安市| 舒城县| 公安县| 泾川县| 双牌县| 景泰县| 平陆县| 武宁县| 诸城市| 沂水县| 边坝县| 成安县| 长治市| 临江市| 德江县| 昭觉县| 桐梓县| 合阳县| 和政县| 平湖市| 积石山| 容城县| 得荣县| 汽车| 年辖:市辖区| 丰都县| 淮北市| 浦县|