摘 要:基于圖神經(jīng)網(wǎng)絡(luò)的多層網(wǎng)絡(luò)社團(tuán)檢測(cè)方法面臨以下兩個(gè)挑戰(zhàn)。一是如何有效利用多層網(wǎng)絡(luò)的節(jié)點(diǎn)內(nèi)容信息,二是如何有效利用多層網(wǎng)絡(luò)的層間關(guān)系。因此,提出多層網(wǎng)絡(luò)社團(tuán)檢測(cè)模型AGCFN(autoencoder-enhanced graph convolutional fusion network)。首先通過(guò)自編碼器獨(dú)立提取每個(gè)網(wǎng)絡(luò)層的節(jié)點(diǎn)內(nèi)容信息,通過(guò)傳遞算子將提取到的節(jié)點(diǎn)內(nèi)容信息傳遞給圖自編碼器進(jìn)行當(dāng)前網(wǎng)絡(luò)層節(jié)點(diǎn)內(nèi)容信息與拓?fù)浣Y(jié)構(gòu)信息的融合,從而得到當(dāng)前網(wǎng)絡(luò)層每個(gè)節(jié)點(diǎn)的表示,這種方法充分利用了網(wǎng)絡(luò)的節(jié)點(diǎn)內(nèi)容信息與拓?fù)浣Y(jié)構(gòu)信息。對(duì)于得到的節(jié)點(diǎn)表示,通過(guò)模塊度最大化模塊和圖解碼器對(duì)其進(jìn)行優(yōu)化。其次,通過(guò)多層信息融合模塊將每個(gè)網(wǎng)絡(luò)層提取到的節(jié)點(diǎn)表示進(jìn)行融合,得到每個(gè)節(jié)點(diǎn)的綜合表示。最后,通過(guò)自訓(xùn)練機(jī)制訓(xùn)練模型并得到社團(tuán)檢測(cè)結(jié)果。與6個(gè)模型在三個(gè)數(shù)據(jù)集上進(jìn)行對(duì)比,ACC與NMI評(píng)價(jià)指標(biāo)有所提升,驗(yàn)證了AGCFN的有效性。
關(guān)鍵詞:多層網(wǎng)絡(luò);社團(tuán)檢測(cè);圖神經(jīng)網(wǎng)絡(luò);自編碼器;自監(jiān)督學(xué)習(xí)
中圖分類號(hào):TP301.6 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):1001-3695(2024)10-007-2926-06
doi:10.19734/j.issn.1001-3695.2024.03.0056
AGCFN: multiplex network community detection model based on graph neural network
Chen Long1a, Zhang Zhenyu1b, Li Xiaoming2, Bai Hongpeng3
(1. a.College of Software, b.College of Information Science & Engineering, Xinjiang University, rümqi 830000, China; 2.College of International Business, Zhejiang Yuexiu University, Shaoxing Zhejiang 312000, China; 3.College of Intelligence & Computing, Tianjin University, Tianjin 300000, China)
Abstract:Multiplex network community detection methods based on graph neural network face two main challenges. Firstly, how to effectively utilize the node content information of multiplex network; and secondly, how to effectively utilize the interlayer relationships in multiplex networks. Therefore, this paper proposed the multiplex network community detection model AGCFN. Firstly, the autoencoder independently extracted the node content information of each network layer and passed the extracted node content information to the graph autoencoder for fusing the node content information of the current network layer with the topology information through the transfer operator to obtain the representation of each node of the current network layer, which made full use of the node content information of the network and the topology information of the network. The modularity maximization module and graph decoder optimized the obtained node representation. Secondly, the multilayer information fusion module fused the node representations extracted from each network layer to obtain a comprehensive representation of each node. Finally, the model under went training, and it achieved community detection results through a self-training mechanism. Comparison with six models on three datasets demonstrate improvements in both ACC and NMI evaluation metrics, thereby va-lidating the effectiveness of AGCFN.
Key words:multiplex network; community detection; graph neural network; autoencoder; self-supervised learning
0 引言
現(xiàn)實(shí)生活中許多復(fù)雜的系統(tǒng)都可以抽象成一個(gè)網(wǎng)絡(luò),如社交網(wǎng)絡(luò)[1]、學(xué)術(shù)合作網(wǎng)絡(luò)[2]、商品推薦網(wǎng)絡(luò)[3]等。網(wǎng)絡(luò)的一個(gè)顯著特征就是它們的社團(tuán)結(jié)構(gòu)。社團(tuán)檢測(cè)研究目標(biāo)是將網(wǎng)絡(luò)劃分成為不同的社團(tuán)結(jié)構(gòu),同一個(gè)社團(tuán)中的節(jié)點(diǎn)具有相似的特征或功能。當(dāng)前有許多社團(tuán)檢測(cè)方法被提出,但它們大多數(shù)僅適用于單層網(wǎng)絡(luò)[4,5]。然而實(shí)際上,很多網(wǎng)絡(luò)通常由多個(gè)層次組成,每一個(gè)層次都反映了網(wǎng)絡(luò)中不同類型的關(guān)系[6]。比如,在引文網(wǎng)絡(luò)中,兩篇論文的連接可以是不同類型的,如兩篇論文因?yàn)橥粋€(gè)作者而連接,或兩篇論文因?yàn)橐藐P(guān)系而連接[2]。在電影網(wǎng)絡(luò)中,兩個(gè)電影可以因?yàn)橛泄餐难輪T相連,也可以因?yàn)槭枪餐膶?dǎo)演相連。這兩個(gè)網(wǎng)絡(luò)都可以分成兩個(gè)層次,在兩個(gè)層次中,節(jié)點(diǎn)是相同的,而節(jié)點(diǎn)之間的邊是不同的。
許多文獻(xiàn)提出了不同的社團(tuán)檢測(cè)方法,如文獻(xiàn)[7,8],這些方法通過(guò)將多層網(wǎng)絡(luò)合并為一個(gè)單層網(wǎng)絡(luò),然后使用單層網(wǎng)絡(luò)社團(tuán)檢測(cè)方法來(lái)發(fā)現(xiàn)社團(tuán)結(jié)構(gòu)。然而這類方法忽略了多層網(wǎng)絡(luò)的層間關(guān)系。比如在引文網(wǎng)絡(luò)的引用層中,僅知道論文的引用關(guān)系不能很好地將它們進(jìn)行社團(tuán)劃分,但是如果這些論文在另一個(gè)層次中有通過(guò)作者相連接,則確定這些論文的主題就會(huì)變得容易,因?yàn)樽髡叩难芯糠较蛲ǔJ谴_定的。因此,為了克服這個(gè)問(wèn)題,文獻(xiàn)[10~12]進(jìn)行了新的研究,將多層網(wǎng)絡(luò)層間關(guān)系進(jìn)行提取,然而這類方法沒(méi)有利用網(wǎng)絡(luò)中豐富的節(jié)點(diǎn)內(nèi)容信息。以引文網(wǎng)絡(luò)為例,如果利用論文中的關(guān)鍵詞,則對(duì)它們進(jìn)行社團(tuán)劃分也會(huì)變得容易[2]。文獻(xiàn)[2,12]利用了節(jié)點(diǎn)內(nèi)容信息來(lái)進(jìn)行多層網(wǎng)絡(luò)社團(tuán)檢測(cè),并取得了一定的成果。然而,受到圖卷積網(wǎng)絡(luò)層數(shù)的限制,這些方法在提取節(jié)點(diǎn)內(nèi)容信息并將其與網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)信息融合方面存在一些不足之處。換言之,這些方法未能充分發(fā)揮網(wǎng)絡(luò)節(jié)點(diǎn)內(nèi)容信息和拓?fù)浣Y(jié)構(gòu)信息的潛在優(yōu)勢(shì)。因此,本文提出了一種能夠同時(shí)考慮多層網(wǎng)絡(luò)層間信息和節(jié)點(diǎn)內(nèi)容信息的無(wú)監(jiān)督多層網(wǎng)絡(luò)社團(tuán)檢測(cè)模型AGCFN(autoencoder-enhanced graph convolutional fusion network)。
1 相關(guān)研究
目前主流多層網(wǎng)絡(luò)社團(tuán)檢測(cè)方法集中于基于展平的方法、直接方法和基于聚合的方法[13]。
基于展平的方法的核心思想是采用基于權(quán)重的方式將多層網(wǎng)絡(luò)轉(zhuǎn)換為單層網(wǎng)絡(luò)的形式,然后在上面使用基于單層網(wǎng)絡(luò)的社團(tuán)檢測(cè)方法來(lái)發(fā)現(xiàn)社團(tuán)結(jié)構(gòu)。文獻(xiàn)[7]將多層網(wǎng)絡(luò)展平為一個(gè)單層網(wǎng)絡(luò),然后利用標(biāo)簽傳播算法進(jìn)行社團(tuán)檢測(cè),具體來(lái)說(shuō),它們使用一種新的目標(biāo)函數(shù)和基于約束標(biāo)簽傳播的優(yōu)化策略來(lái)自動(dòng)識(shí)別社團(tuán)。文獻(xiàn)[8]提出了一種改進(jìn)的粒子競(jìng)爭(zhēng)模型,通過(guò)引入本地化度量,使模型可以正確確定社團(tuán)數(shù)量。同時(shí),該模型通過(guò)構(gòu)建一個(gè)擴(kuò)展鄰接矩陣來(lái)表示多層網(wǎng)絡(luò),能夠很好地進(jìn)行社團(tuán)檢測(cè)工作?;谡蛊降姆椒ê?jiǎn)單直觀,易于理解和實(shí)現(xiàn),常常能夠使用單層網(wǎng)絡(luò)社團(tuán)檢測(cè)方法的成果。然而這種方法忽略了不同層次的信息差異,可能導(dǎo)致對(duì)多層網(wǎng)絡(luò)中復(fù)雜關(guān)系的損失,不適用于包含豐富層次信息的網(wǎng)絡(luò)。
基于聚合的方法從多層網(wǎng)絡(luò)的每一個(gè)單一的層中提取信息,然后將其聚合成綜合的節(jié)點(diǎn)特征,以此來(lái)進(jìn)行多層網(wǎng)絡(luò)的社團(tuán)檢測(cè)工作。這類方法的核心思想是將多個(gè)網(wǎng)絡(luò)層上的信息進(jìn)行整合,從而獲得更優(yōu)的社團(tuán)結(jié)構(gòu)[9,10,12]。如文獻(xiàn)[9]提出一種用于多層網(wǎng)絡(luò)社團(tuán)檢測(cè)的圖卷積融合模型GCFM,通過(guò)設(shè)計(jì)一個(gè)多尺度融合網(wǎng)絡(luò),融合節(jié)點(diǎn)在不同層和不同尺度上的編碼來(lái)學(xué)習(xí)節(jié)點(diǎn)嵌入表示。文獻(xiàn)[12]提出了一種基于圖神經(jīng)網(wǎng)絡(luò)的多層網(wǎng)絡(luò)社團(tuán)檢測(cè)模型 MGCAE,首先引入互信息來(lái)對(duì)不同層的節(jié)點(diǎn)進(jìn)行局部表示和全局表示,以此探索不同網(wǎng)絡(luò)層之間的關(guān)系。其次通過(guò)結(jié)合伯努利-泊松損失和模塊化最大化損失來(lái)共同優(yōu)化原始鄰接矩陣的重建,最終得到更好的節(jié)點(diǎn)嵌入表示。
直接方法指的是直接在多層網(wǎng)絡(luò)上進(jìn)行社團(tuán)檢測(cè)的方法,這種方法同時(shí)對(duì)每個(gè)網(wǎng)絡(luò)層進(jìn)行特征提取,從而檢測(cè)出社團(tuán)結(jié)構(gòu)。如文獻(xiàn)[14]將模塊度指標(biāo)進(jìn)行擴(kuò)展,提出了新的模塊度指標(biāo)QM,用于代替原本的模塊度最大化指標(biāo),使其可以適應(yīng)多層網(wǎng)絡(luò)社團(tuán)檢測(cè)。
上述方法對(duì)于多層網(wǎng)絡(luò)社團(tuán)檢測(cè)都有推動(dòng)作用,然而也存在著一些問(wèn)題,如利用多層網(wǎng)絡(luò)的節(jié)點(diǎn)內(nèi)容信息不充分、不能充分融合多層網(wǎng)絡(luò)層間信息等。
通過(guò)分析上述方法,本文提出了AGCFN模型。首先通過(guò)在多層網(wǎng)絡(luò)的每一層構(gòu)建深度自編碼器模塊與圖自編碼器模塊MGCAE,獲得網(wǎng)絡(luò)中每個(gè)節(jié)點(diǎn)在每個(gè)網(wǎng)絡(luò)層的表示,使模型有效學(xué)習(xí)網(wǎng)絡(luò)的節(jié)點(diǎn)內(nèi)容信息與拓?fù)浣Y(jié)構(gòu)信息;其次,通過(guò)模塊度最大化模塊對(duì)每個(gè)節(jié)點(diǎn)的表示進(jìn)行優(yōu)化,同時(shí),MGCAE解碼器部分對(duì)提取到的節(jié)點(diǎn)表示進(jìn)行重構(gòu),使其恢復(fù)到每個(gè)網(wǎng)絡(luò)層的鄰接矩陣的形式,對(duì)于獲取的每個(gè)網(wǎng)絡(luò)層的節(jié)點(diǎn)的表示,通過(guò)多層信息融合模塊MIF進(jìn)行融合,得到每個(gè)節(jié)點(diǎn)的綜合表示;最后,通過(guò)自監(jiān)督模塊將各個(gè)模塊統(tǒng)一在一個(gè)框架中,完成無(wú)須標(biāo)簽信息的多層網(wǎng)絡(luò)社團(tuán)檢測(cè)任務(wù)。
2 基于圖神經(jīng)網(wǎng)絡(luò)的多層網(wǎng)絡(luò)社團(tuán)檢測(cè)模型
2.1 問(wèn)題定義
假定一個(gè)多層網(wǎng)絡(luò)G={G1,G2,…,GM},其中Gm=(V,Em,X)。V={vi}i=1,…,N為具有N個(gè)節(jié)點(diǎn)的網(wǎng)絡(luò)的節(jié)點(diǎn)集合。Em={(vi,vj)|1≤i,j≤N,i≠j}為多層網(wǎng)絡(luò)第m個(gè)網(wǎng)絡(luò)層的邊集。X=[x1,x2,…,xN]為G的屬性,其中xi為vi的屬性。A={A1,A2,…,AM}為網(wǎng)絡(luò)鄰接矩陣的集合,Am=Euclid ExtraaBpN×N表示網(wǎng)絡(luò)第m層的鄰接矩陣。其中Amij=1表示節(jié)點(diǎn)vi與vj之間存在邊,否則Amij=0。
2.2 模型框架
本文模型AGCFN的框架如圖1所示。模型主要包含自編碼器模塊、多層圖卷積自編碼器模塊、模塊度最大化模塊、多層信息融合模塊和自監(jiān)督模塊。
2.2.1 多層自編碼器模塊
雖然普通的圖卷積網(wǎng)絡(luò)可以自動(dòng)融合節(jié)點(diǎn)內(nèi)容信息與拓?fù)浣Y(jié)構(gòu)信息,但是這種融合僅僅將節(jié)點(diǎn)內(nèi)容信息直接輸入到圖卷積網(wǎng)絡(luò)中與拓?fù)浣Y(jié)構(gòu)進(jìn)行卷積,可能會(huì)使模型忽略節(jié)點(diǎn)內(nèi)容信息中的細(xì)節(jié)部分,并且會(huì)使得圖卷積層數(shù)不能加深,容易出現(xiàn)過(guò)擬合問(wèn)題。換言之,其對(duì)節(jié)點(diǎn)內(nèi)容信息與拓?fù)浣Y(jié)構(gòu)信息利用不夠充分。為了充分利用節(jié)點(diǎn)內(nèi)容信息,使用自編碼器對(duì)每個(gè)網(wǎng)絡(luò)層的節(jié)點(diǎn)內(nèi)容信息進(jìn)行提取。為了降低算法的復(fù)雜性,本文使用線性結(jié)構(gòu)的自編碼器[15]。
在多層網(wǎng)絡(luò)中,節(jié)點(diǎn)的內(nèi)容信息是一致的,而每一層的拓?fù)浣Y(jié)構(gòu)信息不同,因此對(duì)于每一個(gè)網(wǎng)絡(luò)層,本文都設(shè)置了自編碼器模塊用來(lái)提取內(nèi)容信息,而后通過(guò)傳遞算子傳遞給對(duì)應(yīng)的MGCAE層進(jìn)行卷積操作。
假設(shè)多層網(wǎng)絡(luò)具有M個(gè)網(wǎng)絡(luò)層,每一個(gè)網(wǎng)絡(luò)層具有L個(gè)層次結(jié)構(gòu)的自編碼器,則對(duì)于第m個(gè)網(wǎng)絡(luò)層的第l層自編碼器提取到的內(nèi)容信息,可由下式得到:
H()m=(W()m,eH(-1)m+b()m,e)(1)
其中:表示激活函數(shù);W()m,e和b()m,e分別表示編碼器部分第層的權(quán)重矩陣和偏置。特別地,對(duì)于原始輸入,使用網(wǎng)絡(luò)的節(jié)點(diǎn)內(nèi)容信息X。與編碼器對(duì)應(yīng)的是解碼部分,公式如下:
H()m=(W()m,dH(-1)m+b()m,d)(2)
其中:W()m,d和b()m,d分別表示解碼器部分第層的權(quán)重矩陣和偏置。第m個(gè)網(wǎng)絡(luò)層解碼器部分的輸出H(L)m=X^是對(duì)原始節(jié)點(diǎn)內(nèi)容信息的重構(gòu),因此可以得到如下目標(biāo)函數(shù):
m,res=‖X-X^‖2F(3)
其中:‖·‖F(xiàn)表示矩陣的弗羅貝尼烏斯范數(shù)。因?yàn)槎鄬泳W(wǎng)絡(luò)共有M個(gè)層,因此,關(guān)于節(jié)點(diǎn)內(nèi)容信息重構(gòu)的總損失為
res=∑Mm=1m,res(4)
通過(guò)優(yōu)化該目標(biāo)函數(shù),可以使算法學(xué)習(xí)到更加優(yōu)質(zhì)的節(jié)點(diǎn)內(nèi)容信息。
2.2.2 多層圖卷積自編碼器模塊
自編碼器能夠有效學(xué)習(xí)多層網(wǎng)絡(luò)的節(jié)點(diǎn)內(nèi)容信息,但是卻不能利用網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)信息。經(jīng)典的圖卷積網(wǎng)絡(luò)在利用兩種信息上具有優(yōu)勢(shì),然而為了緩解圖卷積層不能加深導(dǎo)致模型提取不到更好的節(jié)點(diǎn)表示的問(wèn)題,本節(jié)提出多層圖卷積自編碼器模塊MGCAE,通過(guò)傳遞算子將不同尺度自編碼器提取到的節(jié)點(diǎn)內(nèi)容信息傳遞給對(duì)應(yīng)的圖自編碼器層,以完成對(duì)多層網(wǎng)絡(luò)每個(gè)網(wǎng)絡(luò)層的節(jié)點(diǎn)內(nèi)容信息與拓?fù)浣Y(jié)構(gòu)信息的聚合操作,使得模型可以捕捉到更加豐富的全局信息。
對(duì)于多層網(wǎng)絡(luò)第m個(gè)網(wǎng)絡(luò)層,MGCAE的編碼器第l層學(xué)習(xí)到的表示Z()m可以通過(guò)下式得到:
Z()m=(D-12mAmD-12mZ(-1)mW(-1)m)(5)
其中:表示激活函數(shù);D-12mAmD-12m表示關(guān)于第m個(gè)網(wǎng)絡(luò)層的鄰接矩陣的規(guī)范化拉普拉斯矩陣;Am=Am+I表示第m個(gè)網(wǎng)絡(luò)層的鄰接矩陣加單位矩陣。為了將自編碼器學(xué)習(xí)到的對(duì)應(yīng)層的節(jié)點(diǎn)內(nèi)容信息也考慮進(jìn)來(lái),從而增強(qiáng)MGCAE的學(xué)習(xí)能力,使用傳遞算子將Z(-1)m和H(-1)m結(jié)合在一起。結(jié)合后的新的表示為
Z(-1)m=(1-ε)Z(-1)m+εH(-1)m(6)
其中:ε為平衡參數(shù),其值設(shè)置為0.5。通過(guò)這種傳遞方法,將自編碼器與MGCAE逐層連接在一起。本文使用Z(-1)m作為第m個(gè)網(wǎng)絡(luò)層的MGCAE編碼器的第層的輸入,生成的表示Z()m如下:
Z()m=(D-12mAmD-12mZ(-1)mW(-1)m)(7)
特別地,對(duì)于每個(gè)網(wǎng)絡(luò)層的MGCAE的第一層的輸入,使用節(jié)點(diǎn)內(nèi)容信息和當(dāng)前網(wǎng)絡(luò)層的鄰接矩陣。
在MGCAE的解碼器部分,使用如下公式對(duì)得到的中間表示Z()m進(jìn)行重構(gòu),使其恢復(fù)成鄰接矩陣的形式:
A^m=sigmod(Z(L)m(Z(L)m)T)(8)
其中:A^m表示重構(gòu)的第m層的鄰接矩陣。對(duì)于每個(gè)網(wǎng)絡(luò)層的重構(gòu)損失,使用交叉熵?fù)p失函數(shù):
m,adj=-1N∑Ni=1 ∑Nj=1[Am(ij)log(A^m(ij))+
(1-Am(ij))log(1-A^m(ij))](9)
根據(jù)式(9),每個(gè)網(wǎng)絡(luò)層的MGCAE關(guān)于鄰接矩陣重構(gòu)總損失為
adj=∑Mm=1m,adj(10)
2.2.3 多層信息融合模塊
對(duì)于多層網(wǎng)絡(luò)的每個(gè)網(wǎng)絡(luò)層,本文設(shè)計(jì)了自編碼器模塊與圖自編碼器模塊進(jìn)行網(wǎng)絡(luò)節(jié)點(diǎn)內(nèi)容信息與拓?fù)浣Y(jié)構(gòu)信息的融合,進(jìn)而得到節(jié)點(diǎn)表示,并且自編碼器與圖自編碼器都是多尺度的,這樣就會(huì)得到每個(gè)節(jié)點(diǎn)在每個(gè)網(wǎng)絡(luò)層不同尺度的表示。又因?yàn)槊總€(gè)網(wǎng)絡(luò)層的鄰接矩陣都代表了不同的連接類型,所以每個(gè)網(wǎng)絡(luò)層得到的不同尺度的節(jié)點(diǎn)中間表示都是非常重要的。
為了將這些不同層不同尺度的中間表示進(jìn)行融合,本文提出了一個(gè)多層信息融合模塊MIF。具體來(lái)說(shuō),對(duì)于一個(gè)具有M個(gè)網(wǎng)絡(luò)層的多層網(wǎng)絡(luò),因?yàn)闆](méi)有先驗(yàn)信息決定每個(gè)網(wǎng)絡(luò)層的重要程度,本文認(rèn)為每個(gè)網(wǎng)絡(luò)層提取到的信息同等重要,所以每個(gè)網(wǎng)絡(luò)層的MGCAE的第層提取到的信息使用如下公式將它們進(jìn)行融合:
Z()=∑Mm=1Z()m(11)
受到LSTM網(wǎng)絡(luò)的啟發(fā),在得到了當(dāng)前尺度的Z()后,可以使用LSTM單元來(lái)整合不同尺度的F(),這樣做的好處是可以全面學(xué)習(xí)不同尺度的中間表示。此外,只有一個(gè)單元的LSTM結(jié)構(gòu)還具有簡(jiǎn)單高效的優(yōu)勢(shì)。首先,將第一層的LSTM輸入設(shè)置為
F(1)=Z(1)(12)
其中:Z(1)為初始維度的表示。接下來(lái),對(duì)于第l個(gè)維度的節(jié)點(diǎn)表示,將多尺度節(jié)點(diǎn)表示Z(-1)和F(-1)結(jié)合起來(lái)。使用如下公式進(jìn)行計(jì)算:
F()=LSTMCell(F(-1)+Z(-1))(13)
其中:LSTMCell表示的是LSTM單元。算法通過(guò) LSTM 單元可以學(xué)到不同尺度特征之間的復(fù)雜關(guān)系,進(jìn)而更好地融合這些信息。門控機(jī)制有助于模型選擇性地關(guān)注和保留重要的多尺度信息,避免梯度消失或爆炸的問(wèn)題,同時(shí)提供更強(qiáng)大的建模能力。
對(duì)于MIF最后一層的計(jì)算,直接將Z()和F()進(jìn)行加和操作。
F=F()+Z()(14)
2.2.4 模塊度最大化模塊
在多層網(wǎng)絡(luò)社團(tuán)檢測(cè)模型中,模塊度是衡量社團(tuán)結(jié)構(gòu)的一個(gè)關(guān)鍵指標(biāo)[16],它衡量了網(wǎng)絡(luò)中節(jié)點(diǎn)的社團(tuán)歸屬度與隨機(jī)網(wǎng)絡(luò)的差異程度。模塊度的最大化意味著將節(jié)點(diǎn)分配到不同的社團(tuán)中,使得網(wǎng)絡(luò)的內(nèi)部連接密集,社團(tuán)之間的連接稀疏,從而達(dá)到社團(tuán)結(jié)構(gòu)的優(yōu)化目標(biāo)。
為了優(yōu)化模型學(xué)習(xí)到的網(wǎng)絡(luò)節(jié)點(diǎn)嵌入表示,本文設(shè)計(jì)了一個(gè)多層模塊度最大化模塊,即為每個(gè)網(wǎng)絡(luò)層都使用模塊度最大化方法以確保節(jié)點(diǎn)嵌入保留了網(wǎng)絡(luò)的社團(tuán)結(jié)構(gòu)。具體而言,在每個(gè)網(wǎng)絡(luò)層都對(duì)圖解碼器部分重構(gòu)的鄰接矩陣計(jì)算模塊度,以達(dá)到優(yōu)化節(jié)點(diǎn)表示的目的。模塊度定義如下:
Q=14m∑ni, j(Aij-didj2m)(HiHTj)(15)
其中:di和dj表示節(jié)點(diǎn)vi和vj的度。通過(guò)定義模塊度矩陣B=[Bij]n×n,令Bij=Aij-didj2m,則有
Q=14m∑ni,j(Bij)(HiHTj)(16)
進(jìn)一步化簡(jiǎn)可以得到
m,Mod=Tr(HTmBmHm)(17)
其中:Tr(·)表示矩陣的跡且Tr(HTH)=N。H表示節(jié)點(diǎn)的社團(tuán)歸屬度矩陣,它的每一行都可以看做是節(jié)點(diǎn)對(duì)應(yīng)的嵌入表示。接下來(lái)將H進(jìn)行歸一化,這樣的好處是可以在保留網(wǎng)絡(luò)社團(tuán)結(jié)構(gòu)的情況下得到更好的節(jié)點(diǎn)嵌入表示[17]。
由于與節(jié)點(diǎn)數(shù)量相比,社團(tuán)的數(shù)量是非常少的,這種情況下如果以實(shí)際社團(tuán)的個(gè)數(shù)作為嵌入維度,那么不足以學(xué)習(xí)到豐富的節(jié)點(diǎn)表示。因此,設(shè)計(jì)一個(gè)可學(xué)習(xí)的全連接層[4]。多層網(wǎng)絡(luò)第m個(gè)網(wǎng)絡(luò)層的模塊度最大化模塊損失可以表示為
m,Mod=Tr(HTmBmHm)(18)
其中:Hm=softmax(Z()mC()m)。最終關(guān)于模塊度最大化模塊總損失為
Mod=∑Mm=1Tr(HTmBmHm)(19)
2.2.5 自監(jiān)督模塊
通過(guò)多層信息融合模塊,可以得到關(guān)于多層網(wǎng)絡(luò)中每個(gè)節(jié)點(diǎn)的最終表示,這個(gè)表示融合了每個(gè)網(wǎng)絡(luò)層的層內(nèi)信息、層間信息和節(jié)點(diǎn)的內(nèi)容信息。為了適應(yīng)無(wú)標(biāo)簽的任務(wù),使用自監(jiān)督模塊來(lái)進(jìn)一步處理節(jié)點(diǎn)表示,并使用KL散度計(jì)算損失,用以指導(dǎo)算法自動(dòng)更新。
首先,使用K-means算法尋找社團(tuán)中心。確定社團(tuán)中心后,對(duì)于第i個(gè)樣本和第j個(gè)社團(tuán),本文使用Student’S-T[18]分布來(lái)計(jì)算函數(shù)分布,公式如下:
qij=(1+‖fi-μj‖2/α)-α+12∑j′(1+‖fi-μj‖2)-α+12(20)
其中: fi表示節(jié)點(diǎn)最終表示F(L)的第i行;μj表示由自編碼器通過(guò)K-means方法得到的社團(tuán)中心;α表示的是帶寬參數(shù),本文設(shè)置α的值為1。為了提高檢測(cè)出社團(tuán)的內(nèi)聚性,使得最終表F在空間中的相似性更接近其所屬的社團(tuán)中心,將Q進(jìn)一步計(jì)算,得到分布P。計(jì)算公式如下:
pij=q2ij/kj∑j′q2ij′/kj′(21)
其中:kj=∑iqij。得到分布P后,使用KL散度來(lái)衡量P與Q之間的差距:
KL=KL(P‖Q)=∑i ∑jpijlogpijqij(22)
進(jìn)一步將計(jì)算的所有損失進(jìn)行統(tǒng)一,得到了算法的損失函數(shù):
=res+adj-λMod+ηKL(23)
其中:λ和η為超參數(shù)。本文最終以分布Q來(lái)進(jìn)行社團(tuán)檢測(cè),因?yàn)樗硕鄬泳W(wǎng)絡(luò)的綜合信息。對(duì)于樣本i,分配給社團(tuán)j的計(jì)算公式為
gi=arg maxj qij(24)
其中:qij由式(20)得到。
2.2.6 復(fù)雜度分析
AGCFN模型的復(fù)雜度主要取決于多層網(wǎng)絡(luò)的層數(shù)和MGCAE的層數(shù)。假設(shè)多層網(wǎng)絡(luò)的層數(shù)為M,MGCAE模塊深度為L(zhǎng),輸入數(shù)據(jù)的維度為d,網(wǎng)絡(luò)節(jié)點(diǎn)個(gè)數(shù)為N。自編碼器模塊的時(shí)間復(fù)雜度為O(Nd1d2…dL-1dLdLdL-1…d2d1),即O(Nd21d22…d2L)。MGCAE模塊編碼器的時(shí)間復(fù)雜度與鄰接矩陣的邊數(shù)|ε|呈線性關(guān)系,為O(|ε|d1d2…dL),解碼器的時(shí)間復(fù)雜度取決于網(wǎng)絡(luò)中節(jié)點(diǎn)的數(shù)量,為O(N)。模塊度最大化模塊的時(shí)間復(fù)雜度為O(N2)。對(duì)于多層信息融合模塊,使用的LSTM單元的時(shí)間復(fù)雜度也為O(Nd21d22…d2L)。自監(jiān)督機(jī)制的時(shí)間復(fù)雜度為O(NM+Nlog N)。綜上所述,AGCFN的總時(shí)間復(fù)雜度為O(2Nd21d22…d2L+|ε|d1d2…dL+N2+NM+Nlog N)。
3 實(shí)驗(yàn)結(jié)果與分析
3.1 數(shù)據(jù)集
本文選取ACM、DBLP、IMDP三個(gè)數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)。數(shù)據(jù)集的具體細(xì)節(jié)如表1所示。
ACM和DBLP數(shù)據(jù)集是引文網(wǎng)絡(luò)數(shù)據(jù)集,ACM數(shù)據(jù)集具有兩個(gè)層次,第一層中節(jié)點(diǎn)的連接關(guān)系為同一作者,第二層的連接關(guān)系為相同主題。它的目標(biāo)是將論文分為數(shù)據(jù)庫(kù)、無(wú)線通信和數(shù)據(jù)挖掘三個(gè)社團(tuán)。DBLP數(shù)據(jù)集的網(wǎng)絡(luò)有三個(gè)層次,在三層網(wǎng)絡(luò)中,節(jié)點(diǎn)之間的連接關(guān)系分別為同一作者、同一會(huì)議和作者所屬團(tuán)隊(duì)。它的目標(biāo)是將論文分為DM、AI、CV和NLP四個(gè)社團(tuán)。IMDB數(shù)據(jù)集是一個(gè)關(guān)于電影網(wǎng)絡(luò)的數(shù)據(jù)集,它具有兩個(gè)層次,分別是通過(guò)相同導(dǎo)演相連接和通過(guò)相同演員連接。它的任務(wù)是將電影分為動(dòng)作、喜劇和戲劇三個(gè)社團(tuán)。
3.2 對(duì)比模型與評(píng)估指標(biāo)
為了驗(yàn)證AGCFN的性能,實(shí)驗(yàn)將AGCFN與其他6個(gè)先進(jìn)算法進(jìn)行比較。GCFM[9]通過(guò)使用圖卷積網(wǎng)絡(luò)提取節(jié)點(diǎn)表示,而后將節(jié)點(diǎn)表示融合進(jìn)行社團(tuán)檢測(cè)。MGCAE[12]通過(guò)對(duì)多層網(wǎng)絡(luò)的節(jié)點(diǎn)拓?fù)浣Y(jié)構(gòu)信息進(jìn)行增強(qiáng),使用基于互信息的方式提取特征進(jìn)行社團(tuán)檢測(cè)。GEAM[10]通過(guò)構(gòu)建層對(duì)比學(xué)習(xí)模塊,從每個(gè)網(wǎng)絡(luò)層的局部和全局圖視圖對(duì)節(jié)點(diǎn)和圖嵌入進(jìn)行編碼,并提出一種自關(guān)注自適應(yīng)融合機(jī)制,通過(guò)多層融合學(xué)習(xí)節(jié)點(diǎn)表示的綜合版本。GAE-avg[19]為GAE模型在多層網(wǎng)絡(luò)社團(tuán)檢測(cè)的擴(kuò)展。以上幾種方法為基于聚合的方法。PMNE[20]是直接方法,在每個(gè)網(wǎng)絡(luò)層上直接進(jìn)行社團(tuán)檢測(cè)。PwMC[21]為展平方法,是一種參數(shù)加權(quán)的多層網(wǎng)絡(luò)社團(tuán)檢測(cè)方法。
對(duì)于社團(tuán)檢測(cè)結(jié)果的評(píng)價(jià)指標(biāo),使用準(zhǔn)確性度量(ACC)、歸一化互信息(NMI)這兩個(gè)廣泛使用的指標(biāo)。ACC是衡量模型在社團(tuán)檢測(cè)任務(wù)中預(yù)測(cè)結(jié)果與真實(shí)結(jié)果之間匹配程度的指標(biāo)。它的高低直接反映了算法在檢測(cè)社團(tuán)結(jié)構(gòu)時(shí)的準(zhǔn)確性和可靠性。NMI是衡量?jī)蓚€(gè)分布之間相似度的指標(biāo),用于評(píng)估模型劃分的社團(tuán)結(jié)構(gòu)與真實(shí)社團(tuán)結(jié)構(gòu)之間的一致性程度。其取值為0~1,其結(jié)果越大表示檢測(cè)出的社團(tuán)越貼近真實(shí)情況。
3.3 參數(shù)設(shè)置
本實(shí)驗(yàn)配置為Windows 10操作系統(tǒng),CPU型號(hào)為AMD EPYC 7542 32-Core Processor,內(nèi)存204.8 GB,GPU類型為3090-24G。實(shí)驗(yàn)使用Python 3.8開發(fā)環(huán)境。
實(shí)驗(yàn)設(shè)置AGCFN的迭代次數(shù)為50輪,學(xué)習(xí)率為0000 1。對(duì)于AGCFN的自編碼器部分,進(jìn)行20輪的預(yù)訓(xùn)練。自編碼器模塊的維度設(shè)置為d-500-500-2000-30,MGCAE模塊的維度與自編碼器維度相同并將權(quán)重參數(shù)設(shè)置為0.5。
3.4 結(jié)果分析
因?yàn)椴糠址椒ㄓ玫搅薑-means方法,所以會(huì)有實(shí)驗(yàn)誤差,為了防止極端情況發(fā)生,將這些方法運(yùn)行10次,取10次結(jié)果的平均值作為最終結(jié)果進(jìn)行評(píng)價(jià)。表2和3展示了結(jié)果,其中最佳結(jié)果的前兩名使用加粗字體標(biāo)識(shí)。
從表2可以得出結(jié)論:在三個(gè)數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果上,對(duì)于ACC評(píng)價(jià)指標(biāo),AGCFN優(yōu)于所有其他方法;AGCFN具有很好的聚類性能,進(jìn)行社團(tuán)檢測(cè)時(shí)準(zhǔn)確度很高;自編碼器學(xué)習(xí)到的節(jié)點(diǎn)內(nèi)容信息成功傳遞給MGCAE模塊進(jìn)行兩種信息的融合,并且多層信息融合模塊也得到了更優(yōu)的節(jié)點(diǎn)綜合表示。自監(jiān)督模塊成功地進(jìn)行了反向傳播,使得模型表現(xiàn)出優(yōu)勢(shì)。
通過(guò)表3可以得出:對(duì)于NMI評(píng)價(jià)指標(biāo),相較于除MGCAE方法外的最好方法,分別提高了12.27%,1.90%,041%。但是AGCFN表現(xiàn)次于MGCAE,這是因?yàn)锳GCFN的各個(gè)模塊注重學(xué)習(xí)網(wǎng)絡(luò)中節(jié)點(diǎn)的嵌入表示并將其進(jìn)行整合,這個(gè)過(guò)程會(huì)提高節(jié)點(diǎn)嵌入的準(zhǔn)確性,但在計(jì)算社團(tuán)檢測(cè)結(jié)果與真實(shí)社團(tuán)匹配一致性程度上,MGCAE通過(guò)引入超圖的計(jì)算,選取每個(gè)網(wǎng)絡(luò)層的前k個(gè)最大連通子圖對(duì)拓?fù)浣Y(jié)構(gòu)信息進(jìn)行了加強(qiáng),所以其NMI指標(biāo)高于AGCFN。本文算法沒(méi)有引入超圖的原因是計(jì)算超圖會(huì)使時(shí)間復(fù)雜度很高,影響算法的效率。
此外,值得注意的是,在IMDB數(shù)據(jù)集上,所有的方法在NMI指標(biāo)上表現(xiàn)都不是很好。這是因?yàn)镮MDB網(wǎng)絡(luò)中的節(jié)點(diǎn)之間的關(guān)聯(lián)信息比較分散,不具有很高的置信度。但是AGCFN依然能夠取得第二名的效果,說(shuō)明聚合層間關(guān)系和考慮節(jié)點(diǎn)內(nèi)容信息有助于社團(tuán)檢測(cè)工作。
3.5 消融分析
為了探究AGCFN模型中各個(gè)模塊的有效性,本節(jié)設(shè)計(jì)了消融實(shí)驗(yàn)。具體來(lái)說(shuō),本次實(shí)驗(yàn)設(shè)計(jì)了三個(gè)變體,分別為AGCFN-NAE 、AGCFN-FC 和AGCFN-NM 。AGCFN-NAE在AGCFN的基礎(chǔ)上,將AE自編碼器去除,不使用其獨(dú)立提取節(jié)點(diǎn)內(nèi)容信息,用來(lái)探究節(jié)點(diǎn)內(nèi)容信息對(duì)多層網(wǎng)絡(luò)社團(tuán)檢測(cè)的影響。AGCFN-FC是為了探究多層網(wǎng)絡(luò)融合模塊的作用,本變體將其進(jìn)行替換,不使用LSTM單元,只使用普通的全連接網(wǎng)絡(luò)[9]。AGCFN-NM則是將模塊度最大化模塊去除,用來(lái)探究模塊度最大化模塊對(duì)模型的影響。
對(duì)于每種變體,同樣使用ACC和NMI作為評(píng)價(jià)指標(biāo),使用三個(gè)數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如圖2所示。
圖2中,圖(a)表示不同變體社團(tuán)檢測(cè)的精度,圖(b)為不同變體社團(tuán)檢測(cè)的歸一化互信息,從中可以看出:在幾種變體中,AGCFN-NAE表現(xiàn)與其他幾種變體以及AGCFN相比性能最差。這說(shuō)明了自編碼器模塊對(duì)模型的貢獻(xiàn)很大。自編碼器能夠有效學(xué)習(xí)多層網(wǎng)絡(luò)的節(jié)點(diǎn)內(nèi)容信息,并通過(guò)傳遞算子傳遞給MGCAE模塊,這樣可以使模型有效學(xué)習(xí)多層網(wǎng)絡(luò)每一層的節(jié)點(diǎn)表示。AGCFN-FC的表現(xiàn)說(shuō)明了本研究提出的多層融合模塊的重要性。將多層網(wǎng)絡(luò)每一個(gè)網(wǎng)絡(luò)層學(xué)習(xí)到的節(jié)點(diǎn)表示整合出來(lái),并使用LSTM單元進(jìn)行傳播與學(xué)習(xí),能夠成功融合不同尺度的節(jié)點(diǎn)表示,最終得到一個(gè)優(yōu)質(zhì)的節(jié)點(diǎn)綜合表示。AGCFN-NM變體則體現(xiàn)出了模塊度最大化模塊的作用,表明模塊度最大化模塊有利于模型進(jìn)行社團(tuán)檢測(cè)工作。
3.6 運(yùn)行時(shí)間與收斂性分析
本節(jié)通過(guò)在三個(gè)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)來(lái)對(duì)AGCFN算法的運(yùn)行時(shí)間以及收斂性進(jìn)行分析。因?yàn)閷?shí)驗(yàn)結(jié)果具有隨機(jī)性,本文在每個(gè)數(shù)據(jù)集上進(jìn)行5次實(shí)驗(yàn)。對(duì)于模型的運(yùn)行時(shí)間,選擇GCFM、GEAM兩個(gè)模型與AGCFN進(jìn)行對(duì)比,其對(duì)比結(jié)果如表4所示。
如表4所示,在ACM數(shù)據(jù)集上,GCFM、GEAM與AGCFN模型5次的運(yùn)行平均時(shí)間分別為64.76 s、123.94 s、58.59 s;在DBLP數(shù)據(jù)集上分別為193.28 s、265.01 s、190.09 s;在IMDB數(shù)據(jù)集上分別為103.57 s、189.11 s、112.47 s??梢钥闯觯珹GCFN的運(yùn)行時(shí)間與GCFM運(yùn)行時(shí)間相近,說(shuō)明AGCFN在具有較高精度的情況下,沒(méi)有付出過(guò)多的時(shí)間代價(jià)。而GEAM的運(yùn)行時(shí)間較長(zhǎng)是因?yàn)樗淖躁P(guān)注與自適應(yīng)融合機(jī)制需要進(jìn)行大量計(jì)算。此外,可以看出,多層網(wǎng)絡(luò)的網(wǎng)絡(luò)層數(shù)與節(jié)點(diǎn)數(shù)量會(huì)影響模型的運(yùn)行時(shí)間,這也從實(shí)驗(yàn)角度驗(yàn)證了本文的時(shí)間復(fù)雜度分析。
對(duì)于模型的收斂性,實(shí)驗(yàn)結(jié)果如圖3所示,因?yàn)樵趯?shí)驗(yàn)中模型收斂性差距很小,并且在IMDB數(shù)據(jù)集上的表現(xiàn)情況與ACM和DBLP數(shù)據(jù)集上的表現(xiàn)情況相近,所以為了避免冗余,圖3展示在ACM和DBLP數(shù)據(jù)集中進(jìn)行兩次實(shí)驗(yàn)的結(jié)果。
圖3中,每個(gè)子圖的橫坐標(biāo)代表迭代次數(shù),本節(jié)將最大迭代次數(shù)設(shè)置為50。縱坐標(biāo)代表?yè)p失值。其中圖(a)和(b)為在ACM數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果圖(c)和(d)表示在DBLP數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果。從圖中可以看出,在兩個(gè)數(shù)據(jù)集上,隨著迭代次數(shù)的增加,損失函數(shù)逐漸減小并趨于穩(wěn)定,雖然圖(c)具有一定波動(dòng)性,但是在迭代20輪以后也可以很快趨近于固定值。因此可以從實(shí)驗(yàn)角度得出,AGCFN模型是可以隨著訓(xùn)練次數(shù)增加而快速收斂的。
3.7 超參數(shù)分析
為了探究超參數(shù)取值對(duì)模型的影響,本節(jié)設(shè)計(jì)了超參數(shù)實(shí)驗(yàn)。對(duì)于式(23)提到的兩個(gè)用來(lái)度量KL散度損失和模塊度最大化模塊損失的超參數(shù)λ和η,對(duì)其敏感性進(jìn)行分析。對(duì)于超參數(shù)λ,實(shí)驗(yàn)設(shè)計(jì)它的取值為λ={0.1,0.3,0.5,0.7,09,10}。對(duì)于超參數(shù)η,設(shè)計(jì)它的取值為η={001,003,005,007,0.09,0.10}。實(shí)驗(yàn)使用ACM數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如圖4所示。
從圖4中可以看出,AGCFN對(duì)自訓(xùn)練模塊的KL損失的敏感度大于對(duì)模塊度最大化模塊的損失。但總的來(lái)說(shuō),AGCFN模型對(duì)超參數(shù)不敏感。實(shí)際中選擇兩個(gè)超參數(shù)λ和η的值分別為0.1和0.01。
4 實(shí)例分析
本章通過(guò)在ACM數(shù)據(jù)集上進(jìn)行實(shí)例分析以展現(xiàn)AGCFN模型的有效性。具體而言,使用Gephi工具對(duì)AGCFN的社團(tuán)檢測(cè)結(jié)果進(jìn)行直觀展示,因?yàn)锳CM數(shù)據(jù)集節(jié)點(diǎn)數(shù)量較多,為了更清晰地展現(xiàn)AGCFN的效果,從其三個(gè)社團(tuán)分別隨機(jī)選取若干節(jié)點(diǎn)進(jìn)行可視化。隨機(jī)抽取的節(jié)點(diǎn)編號(hào)分別為499,511,562,622,829,858,1023,1078,1143,1194,1382,1792,1803,1944,2230,2522,2540,2703,2754,2790,2897,2987,3014。為了直觀地展示與分析,將其進(jìn)行重新編號(hào),形成0~22號(hào)節(jié)點(diǎn)。社團(tuán)檢測(cè)結(jié)果如圖5所示,其中(a)為真實(shí)社團(tuán)情況,(b)為AGCFN社團(tuán)檢測(cè)結(jié)果。依此驗(yàn)證AGCFN模型的有效性。
5 結(jié)束語(yǔ)
本文提出了一個(gè)新的社團(tuán)檢測(cè)模型AGCFN。通過(guò)構(gòu)建自編碼器模塊、MGCAE模塊、多層信息融合模塊、模塊度最大化模塊和自監(jiān)督模塊,使得模型能夠同時(shí)考慮多層網(wǎng)絡(luò)節(jié)點(diǎn)內(nèi)容信息和層間信息。自編碼器模塊與MGCAE模塊配合進(jìn)行每個(gè)網(wǎng)絡(luò)層的兩種信息提?。浑S后多層信息融合模塊將其進(jìn)行融合,得到每個(gè)節(jié)點(diǎn)的綜合表示;自監(jiān)督模塊與模塊度最大化模塊用來(lái)進(jìn)行損失度量,進(jìn)而得到完整的損失函數(shù),以完成模型的自訓(xùn)練與收斂。最后通過(guò)實(shí)驗(yàn)驗(yàn)證了AGCFN模型及所提各個(gè)模塊的有效性。當(dāng)前模型僅在中等規(guī)模數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),然而現(xiàn)實(shí)中存在節(jié)點(diǎn)規(guī)模龐大的數(shù)據(jù)集,未來(lái)工作將進(jìn)一步研究分析,使模型適用于大規(guī)模節(jié)點(diǎn)的網(wǎng)絡(luò)。
參考文獻(xiàn):
[1]宗傳玉, 李箬竹, 夏秀峰. 基于位置社交網(wǎng)絡(luò)的用戶社區(qū)和屬性位置簇搜索 [J]. 計(jì)算機(jī)應(yīng)用研究, 2023, 40(9): 2657-2662. (Zong Chuanyu, Li Ruozhu, Xia Xiufeng. User community and attribute location cluster search in location-based social networks [J]. Application Research of Computers, 2023, 40(9): 2657-2662.)
[2]Park C, Kim D, Han J,et al. Unsupervised attributed multiplex network embedding [C]// Proc of AAAI Conference on Artificial Intelligence. Palo Alto,CA:AAAI Press,2020: 5371-5378.
[3]馮興杰, 生曉宇. 基于圖神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的商品推薦算法 [J]. 計(jì)算機(jī)應(yīng)用研究, 2021, 38(12): 3617-3622. (Feng Xingjie, Sheng Xiaoyu. Item recommendation algorithm based on GNN and deep learning [J]. Application Research of Compu-ters, 2021, 38(12): 3617-3622.)
[4]Zhou Xinchuan, Su Lingtao, Li Xiangju,et al. Community detection based on unsupervised attributed network embedding[J]. Expert Systems with Applications, 2023, 213: 118937.
[5]Berahmand K, Mohammadi M, Saberi-Movahed F,et al. Graph regularized nonnegative matrix factorization for community detection in attributed networks[J]. IEEE Trans on Network Science and Engineering, 2022, 10(1): 372-385.
[6]Huang Xinyu, Chen Dongming, Ren Tao,et al. A survey of community detection methods in multilayer networks[J]. Data Mining and Knowledge Discovery, 2021, 35: 1-45.
[7]Boutemine O, Bouguessa M. Mining community structures in multidimensional networks[J]. ACM Trans on Knowledge Discovery from Data, 2017, 11(4): 1-36.
[8]Gao Xubo, Zheng Qiusheng, Verri F A N,et al. Particle competition for multilayer network community detection [C]// Proc of the 11th International Conference on Machine Learning and Computing. New York: ACM Press, 2019: 75-80.
[9]Cai Xiang, Wang Bang. A graph convolutional fusion model for community detection in multiplex networks[J]. Data Mining and Knowledge Discovery, 2023, 37(4): 1518-1547.
[10]Wang Bang, Cai Xiang, Xu Minghua,et al. A graph-enhanced attention model for community detection in multiplex networks[J]. Expert Systems with Applications, 2023, 230: 120552.
[11]Li Chunying, Guo Xiaojiao, Lin Weijie,et al. Multiplex network community detection algorithm based on motif awareness[J]. Know-ledge-Based Systems, 2023, 260: 110136.
[12]Liu Xingyu, Cheng Junwei, Cheng Hao,et al. Self-supervised community detection in multiplex networks with graph convolutional autoencoder [C]// Proc of the 26th International Conference on Computer Supported Cooperative Work in Design. Piscataway,NJ:IEEE Press, 2023: 1378-1383.
[13]Magnani M, Hanteer O, Interdonato R,et al. Community detection in multiplex networks[J]. ACM Computing Surveys, 2021, 54(3): 1-35.
[14]Pramanik S, Tackx R, Navelkar A,et al. Discovering community structure in multilayer networks [C]// Proc of IEEE International Conference on Data Science and Advanced Analytics. Piscataway,NJ:IEEE Press, 2017: 611-620.
[15]Shao Minglai, Lin Yujie, Peng Qiyao,et al. Learning graph deep autoencoder for anomaly detection in multi-attributed networks[J]. Knowledge-Based Systems, 2023, 260: 110084.
[16]Newman M E J. Fast algorithm for detecting community structure in networks[J]. Physical Review E, 2004, 69(6): 066133.
[17]He Chaobo, Zheng Yulong, Cheng Junwei,et al. Semi-supervised overlapping community detection in attributed graph with graph convolutional autoencoder[J]. Information Sciences, 2022, 608: 1464-1479.
[18]Bo Deyu, Wang Xiao, Shi Chuan,et al. Structural deep clustering network [C]// Proc of Web Conference. New York: ACM Press, 2020: 1400-1410.
[19]Fan Shaohua, Wang Xiao, Shi Chuan,et al. One2multi graph autoencoder for multi-view graph clustering [C]// Proc of Web Conference. New York: ACM Press, 2020: 3070-3076.
[20]Liu Weiyi, Chen P Y, Yeung S,et al. Principled multilayer network embedding [C]// Proc of IEEE International Conference on Data Mining Workshops. Piscataway,NJ:IEEE Press, 2017: 134-141.
[21]Nie Feiping, Li Jing, Li Xuelong. Self-weighted multiview clustering with multiple graphs[C]//Proc of IJCAI. San Francisco: Morgan Kaufmann Publishers, 2017: 2564-2570.