摘 要:
基于非對(duì)比學(xué)習(xí)(NCL)的異構(gòu)圖嵌入模型不依賴負(fù)樣本學(xué)習(xí)數(shù)據(jù)的內(nèi)在特征和模式,可能導(dǎo)致模型無法有效地學(xué)習(xí)節(jié)點(diǎn)之間的區(qū)分度。提出了一種基于跨視圖原型非對(duì)比學(xué)習(xí)的異構(gòu)圖嵌入模型(XP-NCL),通過尋找額外的正樣本提供更多關(guān)于源節(jié)點(diǎn)的上下文信息,并重新考慮了正樣本之間的相似性,從而為下游任務(wù)學(xué)習(xí)更高效的節(jié)點(diǎn)表征。該模型首先設(shè)計(jì)了一種基于異構(gòu)圖隨機(jī)游走的樹型結(jié)構(gòu),通過篩選出滿足局部結(jié)構(gòu)約束的隨機(jī)游走路徑,從而構(gòu)建正樣本的有向篩選樹(DFT),該樹包含豐富的鄰居信息和語義信息;其次針對(duì)異構(gòu)圖的特性,定義了跨視圖原型指數(shù)(ISDR)和峰值算子(peak operator),從多個(gè)維度考慮了同類樣本在數(shù)量和數(shù)值上的對(duì)齊;在此基礎(chǔ)上,模型利用停止梯度更新進(jìn)行訓(xùn)練。最后,在ACM、DBLP和freebase數(shù)據(jù)集上,實(shí)驗(yàn)驗(yàn)證了節(jié)點(diǎn)的分類和聚類性能,結(jié)果表明,即使不使用負(fù)樣本,XP-NCL表征與其他同構(gòu)圖和異構(gòu)圖基線相比,很多情況下都可以呈現(xiàn)出更優(yōu)越的性能。
關(guān)鍵詞:異構(gòu)圖嵌入;非對(duì)比學(xué)習(xí);有向篩選樹正樣本采樣;交對(duì)稱差比;峰值算子
中圖分類號(hào):TP181 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):1001-3695(2024)09-007-2611-09
doi:10.19734/j.issn.1001-3695.2024.01.0016
Heterogeneous graph embedding based on cross-view prototype non-contrastive learning
Zhang Min, Yang Yuqing, He Yanting, Shi Chenhui
(School of Computer Science & Technology, Taiyuan University of Science & Technology, Taiyuan 030024, China)
Abstract:
Heterogeneous graph embedding models based on non-contrastive learning (NCL) do not rely on negative sampling to learn the intrinsic features and patterns, which may cause the model fail to efficiently learn the differences between vertexes. This paper proposed a heterogeneous graph embedding model based on cross-view prototype non-contrastive learning (XP-NCL), which learnt better node representations for downstream tasks by finding additional positive samples with more contextual information, and reconsidered the similarity between positive samples. The model firstly designed a tree structure based on random walks in heterogeneous graph. This directed filtering tree (DFT) about positive samples contained rich neighboring and semantic information by filtering out random walk paths that satisfied local structural constraints. Secondly, to achieve the alignment of similar samples in terms of numerical and quantitative from multiple dimensions, XP-NCL defined the cross-view prototype index (ISDR) and peak operator based on the characteristics of heterogeneous graphs. Furthermore, the model trained using stop-gradient updating. Finally, experiments verify the classification and clustering performance of the node on ACM, DBLP and freebase datasets, and the results show that even without the negative samples, the XP-NCL representation can achieve superior performance in many cases compared to other homogeneous and heterogeneous graph baselines.
Key words:heterogeneous graph embedding; non-contrastive learning; directed filtering tree positive sampling; intersection to symmetric difference ratio; peak operator
0 引言
非對(duì)比學(xué)習(xí)通常使用一些技術(shù)來實(shí)現(xiàn)下游任務(wù)的良好表示,如梯度更新策略[1,2]和額外的預(yù)測(cè)操作[3~5]等。與對(duì)比學(xué)習(xí)(CL)相比,非對(duì)比學(xué)習(xí)不依賴負(fù)樣本對(duì),這使得它們?cè)谠S多情況下更容易實(shí)現(xiàn),訓(xùn)練過程也更加簡單和直觀。例如,當(dāng)沒有明確的負(fù)樣本定義時(shí),非對(duì)比學(xué)習(xí)可能更適用。另一方面,選擇高質(zhì)量的負(fù)樣本是一個(gè)挑戰(zhàn),負(fù)樣本應(yīng)該與正樣本在語義上不相關(guān),但在實(shí)踐中,確定哪些樣本不相關(guān)常常是困難的,不恰當(dāng)選擇的負(fù)樣本可能導(dǎo)致模型的性能下降。如果負(fù)樣本的數(shù)量遠(yuǎn)遠(yuǎn)大于正樣本,模型可能會(huì)過度關(guān)注于負(fù)樣本,而忽略了正樣本的精確識(shí)別,且非對(duì)比學(xué)習(xí)通常具有更強(qiáng)的泛化能力。由于非對(duì)比學(xué)習(xí)不依賴于對(duì)比學(xué)習(xí)樣本,在許多應(yīng)用場景中能夠更好地適應(yīng)不同分布的數(shù)據(jù)集。特別是在包含復(fù)雜的多類型節(jié)點(diǎn)和關(guān)系的異構(gòu)圖(如真實(shí)的生物網(wǎng)絡(luò)、社交網(wǎng)絡(luò)和引文網(wǎng)絡(luò))中,其中的正樣本通常是具有相似語義或相關(guān)性的節(jié)點(diǎn)對(duì),而負(fù)樣本則是隨機(jī)采樣的,與正樣本之間可能存在較大的語義鴻溝,這種語義鴻溝可能會(huì)影響模型的學(xué)習(xí)效果。因此,在本文中,利用非對(duì)比學(xué)習(xí)對(duì)異構(gòu)圖進(jìn)行表示。有關(guān)異構(gòu)圖表示學(xué)習(xí)的相關(guān)技術(shù)及應(yīng)用,可以參考文獻(xiàn)[6~9]。
然而,目前基于NCL的異構(gòu)圖嵌入模型仍處于早期階段,存在一些局限性。特別是,異構(gòu)圖中不同類型和數(shù)量的節(jié)點(diǎn)和邊表示了各種各樣的關(guān)系,這種復(fù)雜性使得對(duì)其進(jìn)行統(tǒng)一的表示變得困難。在異構(gòu)圖非對(duì)比學(xué)習(xí)任務(wù)中,常常通過構(gòu)建多個(gè)視圖對(duì)其中的節(jié)點(diǎn)信息進(jìn)行編碼,然后利用不同視圖下的編碼向量完成對(duì)比學(xué)習(xí)任務(wù),如元路徑視圖和網(wǎng)絡(luò)模式視圖。這些視圖通過不同角度考慮異構(gòu)圖中的節(jié)點(diǎn)關(guān)系和屬性,可以充分挖掘異構(gòu)圖中的異質(zhì)性。與對(duì)比學(xué)習(xí)相比,非對(duì)比學(xué)習(xí)無須額外的負(fù)樣本,可以簡化訓(xùn)練過程,降低數(shù)據(jù)處理的復(fù)雜性,但由此產(chǎn)生的統(tǒng)一表征可能無法有效捕捉節(jié)點(diǎn)之間的局部拓?fù)浣Y(jié)構(gòu)。因此,常常需要額外的正樣本提供更多關(guān)于源節(jié)點(diǎn)的上下文信息,以幫助模型更好地理解異構(gòu)圖中的結(jié)構(gòu)和語義信息。另一方面,非對(duì)比學(xué)習(xí)可能更關(guān)注于學(xué)習(xí)樣本的內(nèi)在特性,而不是僅僅依賴于樣本之間的相似性。因此,它具有更好的泛化能力,能夠在未見過的數(shù)據(jù)上表現(xiàn)更好。但是由于負(fù)樣本的缺失,模型可能無法有效地學(xué)習(xí)節(jié)點(diǎn)之間的區(qū)分度,從而影響模型的性能,由此產(chǎn)生的統(tǒng)一表示可能會(huì)導(dǎo)致下游任務(wù)崩潰。因此,在構(gòu)建NCL任務(wù)時(shí),常常需要重新考慮正樣本之間的相似性。本文通過元路徑視圖及網(wǎng)絡(luò)模式視圖對(duì)異構(gòu)圖進(jìn)行嵌入表示,并且以原型損失為指導(dǎo),構(gòu)建了新的跨視圖原型指數(shù)和峰值算子,從數(shù)值上和數(shù)量上實(shí)現(xiàn)了不同視圖下節(jié)點(diǎn)特征表示的對(duì)齊。作為非對(duì)比學(xué)習(xí)模型的代表作,BYOL旨在最大限度地減少在線網(wǎng)絡(luò)預(yù)測(cè)的目標(biāo)網(wǎng)絡(luò)表示之間的相似性損失。以BYOL[1]為基本框架,本文的貢獻(xiàn)包括以下幾點(diǎn):
a)提出了一種用于異構(gòu)圖嵌入的跨視圖原型非對(duì)比學(xué)習(xí)模型,該模型在沒有負(fù)樣本的情況下,也可以為下游任務(wù)學(xué)到節(jié)點(diǎn)的良好表示,且XP-NCL是第一個(gè)從有向篩選樹中選擇正樣本而不需要任何負(fù)樣本的工作。
b)設(shè)計(jì)了一種基于異構(gòu)圖隨機(jī)游走的樹型結(jié)構(gòu),通過選擇異構(gòu)圖中滿足局部結(jié)構(gòu)約束的隨機(jī)游走路徑,從而構(gòu)建正樣本有向篩選樹,該樹包含豐富的鄰居信息和語義信息。
c)針對(duì)異構(gòu)圖的特性,定義了跨視圖原型指數(shù)(交對(duì)稱差比,ISDR)和峰值算子(peak operator),分別從多個(gè)角度實(shí)現(xiàn)了樣本在數(shù)量和數(shù)值上的對(duì)齊,包括跨視圖同類樣本在數(shù)量上的對(duì)齊,每個(gè)視圖中實(shí)例和原型的對(duì)齊,以及跨視圖實(shí)例之間的對(duì)齊。
1 符號(hào)描述
在本章中,給出了異構(gòu)圖的一些形式化定義和異構(gòu)圖嵌入的定義。圖1提供了圖示說明,表1總結(jié)了常用符號(hào)。
4 實(shí)驗(yàn)
在本章中,將通過實(shí)驗(yàn)來證明XP-NCL在異構(gòu)圖嵌入方面的作用。實(shí)驗(yàn)旨在回答以下幾個(gè)問題:
Q1:XP-NCL在節(jié)點(diǎn)分類方面表現(xiàn)如何?
Q2:XP-NCL在節(jié)點(diǎn)聚類方面表現(xiàn)如何?
Q3:上述各部分損失的影響是什么?
Q4:不同動(dòng)態(tài)加權(quán)方式對(duì)下游任務(wù)的影響如何?
4.1 數(shù)據(jù)描述
實(shí)驗(yàn)使用了三種常見的異構(gòu)圖,以評(píng)估XP-NCL與其他基線相比的性能。具體來說,使用ACM、DBLP和freebase數(shù)據(jù)集進(jìn)行節(jié)點(diǎn)分類和聚類測(cè)試,表3提供了這些數(shù)據(jù)集的簡單統(tǒng)計(jì)信息。
a)ACM:該數(shù)據(jù)集提取了發(fā)表在KDD、SIGMOD、SIGCOMM、MobiCOMM和VLDB上的論文,并將論文分為三類(數(shù)據(jù)庫、無線通信和數(shù)據(jù)挖掘)。每篇論文都有與之相關(guān)的作者和術(shù)語,這些關(guān)系由元路徑集{PAP, PSP}表示。
b)DBLP:這是一個(gè)計(jì)算機(jī)科學(xué)書目網(wǎng)站。采用的是文獻(xiàn)[22]提取的DBLP子集。最終的任務(wù)是將作者分為數(shù)據(jù)庫、數(shù)據(jù)挖掘、人工智能和信息檢索四個(gè)研究領(lǐng)域。
c)freebase:該數(shù)據(jù)集的目標(biāo)節(jié)點(diǎn)是電影,并將其分為三類。采用了文獻(xiàn)[37]中的一個(gè)子集。在實(shí)驗(yàn)中,考慮了元路徑{MAM、MDM、MWM}。
4.2 對(duì)比算法
將XP-NCL與不同類型的圖嵌入模型(包括無監(jiān)督同構(gòu)圖和異構(gòu)圖嵌入模型)進(jìn)行了比較。
a)無監(jiān)督同構(gòu)圖嵌入方法:DGI[5]最大化節(jié)點(diǎn)局部表示和全局表示之間的互信息來學(xué)習(xí)節(jié)點(diǎn)的表示。GraphCL[11]提出了一種圖對(duì)比學(xué)習(xí)框架,用于學(xué)習(xí)圖數(shù)據(jù)的無監(jiān)督表示。
b)無監(jiān)督異構(gòu)圖嵌入方法:HERec[38]基于元路徑的隨機(jī)游走策略來學(xué)習(xí)節(jié)點(diǎn)表示。MetaGraph2Vec[39]使用元圖進(jìn)行隨機(jī)游走的生成,并學(xué)習(xí)多類型異構(gòu)圖節(jié)點(diǎn)的潛在表示。DMGI[23]引入了正則化框架,以最小化特定關(guān)系類型節(jié)點(diǎn)嵌入之間的不一致性。HeCo[22]首次使用網(wǎng)絡(luò)模式和元路徑來構(gòu)建對(duì)比視圖。
c)對(duì)比實(shí)驗(yàn)設(shè)置:對(duì)于同構(gòu)圖嵌入方法{DGI、GraphCL},測(cè)試了它們的所有元路徑,并報(bào)告了最佳性能。在DGI和DMGI中,將epoch設(shè)為1 000,學(xué)習(xí)率設(shè)為0.000 5。其他參數(shù)保持默認(rèn)值。在GraphCL和HeCo中,設(shè)置提前停止的patience為20。在MetaGraph2Vec中,設(shè)置每個(gè)節(jié)點(diǎn)的游走次數(shù)為10,每次隨機(jī)游走的長度為100。對(duì)于所有基線,在模型運(yùn)行結(jié)束后都會(huì)保留其嵌入結(jié)果,并使用相同的分類和聚類方法對(duì)其進(jìn)行驗(yàn)證。
4.3 實(shí)驗(yàn)設(shè)計(jì)
至于本文提出的模型,實(shí)驗(yàn)是在Python 3.7環(huán)境下使用PyTorch 1.10.2實(shí)現(xiàn)的。所有實(shí)驗(yàn)均在配備80 GB顯存的NVIDIA A800 GPU上進(jìn)行。實(shí)驗(yàn)采用Adam優(yōu)化器訓(xùn)練模型,并從{8E-4, 9E-4, 1E-3, 1E-2}中微調(diào)學(xué)習(xí)率。在線網(wǎng)絡(luò)和目標(biāo)網(wǎng)絡(luò)中的投影頭和預(yù)測(cè)頭的參數(shù)設(shè)計(jì):在線網(wǎng)絡(luò)中,同時(shí)包含投影頭和預(yù)測(cè)頭,投影頭為兩層全連接網(wǎng)絡(luò),其輸入維度、中間層維度、輸出維度分別為64、384、64;預(yù)測(cè)頭為兩層全連接層,其輸入維度、中間層維度、輸出維度分別為64、128、64;在目標(biāo)網(wǎng)絡(luò)中,僅包含投影頭,其輸入維度、中間層維度、輸出維度分別為64、384、64。起初,鄰近樣本的數(shù)量通過HeCo選擇,并對(duì)其進(jìn)行了微調(diào)。對(duì)于正樣本屏蔽,從{0.1, 0.2, 0.3}中選擇比例。為進(jìn)行公平比較,將嵌入維度設(shè)為64,并隨機(jī)運(yùn)行10次實(shí)驗(yàn)。在測(cè)試分類任務(wù)模塊時(shí),學(xué)習(xí)率設(shè)定為0.01;在測(cè)試聚類任務(wù)時(shí),應(yīng)用K-means,最大迭代次數(shù)設(shè)為500。
4.4 分類結(jié)果
使用學(xué)習(xí)到的表示來訓(xùn)練線性分類器,在每個(gè)數(shù)據(jù)集中,隨機(jī)選擇每類20、40、60個(gè)標(biāo)記節(jié)點(diǎn)作為訓(xùn)練集,1 000個(gè)節(jié)點(diǎn)作為驗(yàn)證集,1 000個(gè)節(jié)點(diǎn)作為測(cè)試集,并使用macro-F1、micro-F1和AUC作為評(píng)估指標(biāo)。表4列出了所有結(jié)果,這些結(jié)果都是在α=cos(θ/2)-θ/2-1/2取得的。從表4中可以看出,XP-NCL在很多情況下都取得了最佳性能。通過對(duì)結(jié)果的分析,得出以下結(jié)論:
a)在所有基線中,異構(gòu)圖表示方法的整體結(jié)果要比同構(gòu)圖更好一些,這表明充分挖掘異構(gòu)圖中的豐富語義信息是十分必要的。如圖6所示,對(duì)在線網(wǎng)絡(luò)和目標(biāo)網(wǎng)絡(luò)在模型訓(xùn)練過程中的語義級(jí)注意力系數(shù)進(jìn)行了可視化。在ACM數(shù)據(jù)集中,每個(gè)論文節(jié)點(diǎn)有一個(gè)主題和多個(gè)作者鄰居,因此隨著模型的訓(xùn)練,作者類節(jié)點(diǎn)的注意力系數(shù)越來越大。與節(jié)點(diǎn)級(jí)語義信息相比,基于元路徑的語義信息的注意力系數(shù)變化較小。這說明在模型訓(xùn)練的初始階段,元路徑通常包含更豐富的語義信息。在DBLP數(shù)據(jù)集中,作者只與論文有邊連接,因此關(guān)于論文的節(jié)點(diǎn)級(jí)注意力系數(shù)總是1。隨著模型的訓(xùn)練,元路徑APCPA的權(quán)重越來越大,這是因?yàn)榇蟛糠謺?huì)議中本身就包含了術(shù)語的信息。
b)從AUC指標(biāo)來看,在ACM數(shù)據(jù)集中,XP-NCL的結(jié)果比其他算法要差一些,但在BDLP數(shù)據(jù)集中卻取得了最好的結(jié)果。這一現(xiàn)象可能與數(shù)據(jù)集中樣本類別的數(shù)量分布有關(guān)系,在ACM數(shù)據(jù)集中,最多的一類節(jié)點(diǎn)數(shù)量是最少一類節(jié)點(diǎn)數(shù)量的二倍。
c)與HeCo相比,本文的方法在很多情況下取得了更好的結(jié)果。這表明,即使沒有負(fù)樣本,XP-NCL仍然有效,也就是說,負(fù)樣本在對(duì)比學(xué)習(xí)框架中并不是必需的。
總的來說,通過實(shí)驗(yàn)驗(yàn)證了XP-NCL在三個(gè)真實(shí)異構(gòu)圖上的分類性能,可以看出,XP-NCL表征與同構(gòu)圖和異構(gòu)圖基線相比,呈現(xiàn)出更優(yōu)越的性能。以DBLP數(shù)據(jù)集為例,該數(shù)據(jù)集包含四類節(jié)點(diǎn)(paper, author, conference, term)和三類邊(write, publish, belong),這些節(jié)點(diǎn)之間的多種關(guān)系構(gòu)成了異構(gòu)圖。通過應(yīng)用本文研究的異構(gòu)圖嵌入方法,可以將這些復(fù)雜的異構(gòu)圖轉(zhuǎn)換為低維的向量表示,從而挖掘節(jié)點(diǎn)之間的潛在關(guān)聯(lián)。在本文中,將這些向量表示作為特征輸入到機(jī)器學(xué)習(xí)模型中,用于節(jié)點(diǎn)的分類和聚類任務(wù)中。在表4中,展示了使用模型對(duì)author類節(jié)點(diǎn)的分類結(jié)果,結(jié)果表明,XP-NCL表征與同構(gòu)圖和異構(gòu)圖基線相比,很多情況下都可以呈現(xiàn)出更優(yōu)越的性能。圖7(e)展示了XP-NCL在DBLP數(shù)據(jù)集上的聚類結(jié)果,從聚類結(jié)果可以看出,本文方法聚類結(jié)果更加緊湊,且無法區(qū)分的樣本大多分布在簇邊緣部分。
4.5 聚類結(jié)果
在這項(xiàng)任務(wù)中,進(jìn)一步使用學(xué)習(xí)到的表示進(jìn)行K-means聚類,以驗(yàn)證所學(xué)節(jié)點(diǎn)嵌入的質(zhì)量。采用NMI和ARI作為評(píng)價(jià)指標(biāo),結(jié)果如表5所示。為了緩解初始聚類中心不同帶來的不穩(wěn)定性,重復(fù)了10次聚類實(shí)驗(yàn),并匯報(bào)了平均結(jié)果??梢钥闯?,XP-NCL在大多數(shù)情況下都表現(xiàn)良好。尤其是在DBLP數(shù)據(jù)集上,本文方法獲得了最好的結(jié)果,證明了模型的優(yōu)越性。這得益于原型損失的設(shè)計(jì),其促使節(jié)點(diǎn)在同一簇中的表示更加緊湊,從而有助于提高聚類效果。
為了提供更直觀的評(píng)估,對(duì)三個(gè)數(shù)據(jù)集聚類后的結(jié)果進(jìn)行了可視化。使用t-SNE繪制了DGI、DMGI、GraphCL、HeCo和XP-NCL的學(xué)習(xí)嵌入,結(jié)果如圖7~圖9所示,不同顏色代表不同的類別。相比于其他方法,XP-NCL得到的簇更加緊湊,且誤分的樣本通常只存在于簇邊界部分。這一點(diǎn)得益于該模型不需要負(fù)樣本和局部結(jié)構(gòu)約束的正樣本選擇策略,且只有少量的樣本無法進(jìn)行區(qū)分。
4.6 損失函數(shù)分析
在本節(jié)中,將分別使用原型和峰值作為損失函數(shù),然后討論將這兩個(gè)部分結(jié)合的必要性。實(shí)驗(yàn)在三個(gè)模型上進(jìn)行:a)去掉了原型損失,因此模型被稱為peak;b)去掉了峰值損失,模型被稱為proto;c)文中提出的模型peak+proto。
圖10分別顯示了三個(gè)數(shù)據(jù)集的所有評(píng)價(jià)指標(biāo),從第一行到第三行分別為ACM、DBLP和freebase數(shù)據(jù)集在不同采樣情況下的原型、峰值和原型+峰值損失對(duì)模型評(píng)價(jià)指數(shù)的影響??梢钥吹?,無論是分類任務(wù)還是聚類任務(wù),總體結(jié)果在大多數(shù)
情況下都是peak+proto>peak>proto。以ACM數(shù)據(jù)集為例,在圖11中更加直觀地使用t-SNE展示了單獨(dú)使用每種損失后的聚類結(jié)果。通過聚類結(jié)果發(fā)現(xiàn):a)proto主要用于將同類樣本聚類在一起,但聚類的最終形狀很難保持一致,例如可能是球狀或帶狀;b)peak則是將正樣本之間的距離拉得更近,讓簇更緊密。
4.7 動(dòng)態(tài)加權(quán)方案分析
在3.3節(jié)中,設(shè)計(jì)了四種不同類型的動(dòng)態(tài)加權(quán)方案,表6列出了所有實(shí)驗(yàn)結(jié)果,最高性能以粗體標(biāo)出。結(jié)果表明,當(dāng)選α=cos(θ/2)-θ/2-1/2時(shí),在ACM和DBLP數(shù)據(jù)集中得到了最好的結(jié)果,而在α=cos(θ)-1/2,freebase數(shù)據(jù)集中得到了最好的結(jié)果。但是在freebase數(shù)據(jù)集中,聚類任務(wù)中學(xué)習(xí)到的嵌入效果很差,這可能與數(shù)據(jù)集本身有關(guān)。
5 結(jié)束語
本文提出了一個(gè)基于跨視圖原型非對(duì)比學(xué)習(xí)的異構(gòu)圖嵌入模型。該模型不使用負(fù)樣本,而是通過有向篩選樹為每個(gè)節(jié)點(diǎn)選擇一個(gè)最相似的正樣本。在此基礎(chǔ)上,定義了交對(duì)稱差比與峰值算子來重構(gòu)跨視圖特征對(duì)齊,并設(shè)計(jì)了動(dòng)態(tài)損失加權(quán)方案。當(dāng)設(shè)計(jì)非對(duì)比學(xué)習(xí)模型時(shí),從多個(gè)維度考慮不同視圖之間的對(duì)齊是至關(guān)重要的,更多的對(duì)齊方案即將發(fā)布。在異構(gòu)圖非對(duì)比學(xué)習(xí)中,如何選擇更好的正樣本也是下一步要解決的問題。
參考文獻(xiàn):
[1]Grill J B,Strub F,Altché F,et al. Bootstrap your own latent-a new approach to self-supervised learning [C]//Advances in Neural Information Processing Systems. 2020: 21271-21284.
[2]Tang Shixiang,Su Peng,Chen Dapeng,et al. Gradient regularized contrastive learning for continual domain adaptation [C]// Proc of AAAI Conference on Artificial Intelligence. 2021: 2665-2673.
[3]He Kaiming,F(xiàn)an Haoqi,Wu Yuxin,et al. Momentum contrast for unsupervised visual representation learning [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2020: 9729-9738.
[4]Chen Xinlei,F(xiàn)an Haoqi,Girshick R,et al. Improved baselines with momentum contrastive learning [EB/OL]. (2020). https://arxiv.org/abs/2003. 04297.
[5]Velikovic' P,F(xiàn)edus W,Hamilton W L,et al. Deep graph infomax [EB/OL]. (2018).https://arxiv.org/abs/1809. 10341.
[6]Wang Xiao,Bo Deyu,Shi Chuan,et al. A survey on heterogeneous graph embedding: methods,techniques,applications and sources [J]. IEEE Trans on Big Data,2022,9(2): 415-436.
[7]Liu Xiao,Zhang Fanjin,Hou Zhenyu,et al. Self-supervised learning: generative or contrastive [J]. IEEE Trans on Knowledge and Data Engineering,2021,35(1): 857-876.
[8]Balestriero R,Ibrahim M,Sobal V,et al. A cookbook of self-supervised learning [EB/OL].(2023).https://arxiv.org/abs/2304. 12210.
[9]吳相帥,孫福振,張文龍,等. 基于圖注意力的異構(gòu)圖社交推薦網(wǎng)絡(luò) [J]. 計(jì)算機(jī)應(yīng)用研究,2023,40(10): 3076-3081,3106. (Wu Xiangshuai,Sun Fuzhen,Zhang Wenlong,et al. GAT based heterogeneous graph neural network for social recommendation [J]. Application Research of Computers,2023,40(10): 3076-3081,3106.)
[10]Zhou Zhichao,Hu Yu,Zhang Yue,et al. Multiview deep graph infomax to achieve unsupervised graph embedding [J]. IEEE Trans on Cybernetics,2022,53(10):6329-6339.
[11]You Yuning,Chen Tianlong,Sui Yongduo,et al. Graph contrastive learning with augmentations [C]// Advances in Neural Information Processing Systems. 2020: 5812-5823.
[12]Yu Ruiyun,Yang Kang,Wang Zhihong,et al. Multimodal interaction aware embedding for location-based social networks [J]. AI Communications,2023,36(1): 41-55.
[13]You Yuning,Chen Tianlong,Shen Yang,et al. Graph contrastive learning automated [C]//Proc of International Conference on Machine Learning. 2021: 12121-12132.
[14]Zhang Rui,Zimek A,Schneider-Kamp P. Unsupervised representation learning on attributed multiplex network [C]// Proc of the 31st ACM International Conference on Information & Knowledge Management. New York:ACM Press,2022: 2610-2619.
[15]Shang Jingbo,Qu Meng,Liu Jialu,et al. Meta-path guided embedding for similarity search in large-scale heterogeneous information networks [EB/OL]. (2016). https://arxiv.org/abs/1610. 09769.
[16]Zhao Jianan,Wen Qianlong,Sun Shiyu,et al. Multi-view self-supervised heterogeneous graph embedding [C]//Proc of Joint European Conference on Machine Learning and Knowledge Discovery in Databases. Cham: Springer International Publishing,2021: 319-334.
[17]Li Qi,Chen Wenping,F(xiàn)ang Zhaoxi,et al. A multi-view contrastive learning for heterogeneous network embedding [J]. Scientific Reports,2023,13(1): 6732.
[18]Zhong Hongwei,Wang Mingyang,Zhang Xinyue. Unsupervised embedding learning for large-scale heterogeneous networks based on metapath graph sampling [J]. Entropy,2023,25(2): 297.
[19]Fu Xinyu,Zhang Jiani,Meng Ziqiao,et al. MAGNN: metapath aggregated graph neural network for heterogeneous graph embedding [C]// Proc of Web Conference. 2020: 2331-2341.
[20]Yu Jianxiang,Li Xiang. Heterogeneous graph contrastive learning with meta-path contexts and weighted negative samples [C]// Proc of SIAM International Conference on Data Mining. 2023: 37-45.
[21]Xu Keyulu,Hu Weihua,Leskovec J,et al. How powerful are graph neural networks? [EB/OL]. (2018). https://arxiv.org/abs/ 1810. 00826.
[22]Wang Xiao,Liu Nian,Han Hui,et al. Self-supervised heterogeneous graph neural network with co-contrastive learning [C]// Proc of the 27th ACM SIGKDD Conference on Knowledge Discovery & Data Mining. 2021: 1726-1736.
[23]Park C,Kim D,Han J,et al. Unsupervised attributed multiplex network embedding [C]// Proc of AAAI Conference on Artificial Intelligence. 2020: 5371-5378.
[24]Jin Di,Huo Cuiying,Dang Jianwu,et al. Heterogeneous graph neural networks using self-supervised reciprocally contrastive learning [EB/OL]. (2022).https://arxiv.org/abs/2205. 00256.
[25]Wang Zehong,Li Qi,Yu Donghua,et al. Heterogeneous graph con-trastive multi-view learning [C]// Proc of SIAM International Confe-rence on Data Mining. 2023: 136-144.
[26]Wan Ziming,Wang Deqing,Ming Xuehua,et al. RHCO: a relation-aware heterogeneous graph neural network with contrastive learning for large-scale graphs [EB/OL]. (2022).https://arxiv.org/abs/ 2211. 11752.
[27]Qian Yiyue,Zhang Yiming,Chawla N,et al. Malicious repositories detection with adversarial heterogeneous graph contrastive learning [C]// Proc of the 31st ACM International Conference on Information & Knowledge Management. New York:ACM Press,2022: 1645-1654.
[28]Zhu Yanqiao,Xu Yichen,Cui Hejie,et al. Structure-enhanced heterogeneous graph contrastive learning [C]// Proc of SIAM International Conference on Data Mining.2022: 82-90.
[29]Che Feihu,Tao Jianhua,Yang Guohua,et al. Multi-aspect self-supervised learning for heterogeneous information network [J]. Know-ledge-Based Systems,2021,233: 107474.
[30]Chen Xinlei,He Kaiming. Exploring simple siamese representation learning [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2021: 15750-15758.
[31]Bielak P,Kajdanowicz T,Chawla N V. Graph barlow twins: a self-supervised representation learning framework for graphs [J]. Know-ledge-Based Systems,2022,256: 109631.
[32]Zhang Hengrui,Wu Qitian,Yan Junchi,et al. From canonical correlation analysis to self-supervised graph neural networks [C]//Advances in Neural Information Processing Systems. 2021: 76-89.
[33]Park M. Cross-view self-supervised learning on heterogeneous graph neural network via bootstrapping [EB/OL]. (2022). https://arxiv.org/abs/2201. 03340.
[34]Dong Yuxiao,Chawla N V,Swami A. metapath2vec: scalable representation learning for heterogeneous networks [C]// Proc of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York:ACM Press,2017: 135-144.
[35]Li Junnan,Zhou Pan,Xiong Caiming,et al. Prototypical contrastive learning of unsupervised representations [EB/OL]. (2020).https://arxiv.org/abs/2005. 04966.
[36]He Mingguo,Wei Zhewei,Huang Zengfeng,et al. BernNet: learning arbitrary graph spectral filters via bernstein approximation [C]//Advances in Neural Information Processing Systems. 2021: 14239-14251.
[37]Li Xiang,Ding Danhao,Kao Ben,et al. Leveraging meta-path contexts for classification in heterogeneous information networks [C]// Proc of IEEE 37th International Conference on Data Engineering. Pisca-taway,NJ:IEEE Press,2021: 912-923.
[38]Shi Chuan,Hu Binbin,Zhao W X,et al. Heterogeneous information network embedding for recommendation [J]. IEEE Trans on Knowledge and Data Engineering,2018,31(2): 357-370.
[39]Zhang Daokun,Yin Jie,Zhu Xingquan,et al. MetaGraph2Vec: complex semantic path augmented heterogeneous network embedding [C]//Proc of the 22nd Pacific-Asia Conference on Knowledge Discovery and Data Mining. Berlin:Springer International Publishing,2018: 196-208.
收稿日期:2024-01-12;修回日期:2024-03-20 基金項(xiàng)目:國家自然科學(xué)基金資助項(xiàng)目(U1931209);山西省科技合作交流專項(xiàng)區(qū)域合作項(xiàng)目(202204041101037,202204041101033);太原科技大學(xué)研究生教育創(chuàng)新項(xiàng)目(BY2023015)
作者簡介:張敏(1998—),男,山西長治人,碩士研究生,主要研究方向?yàn)閿?shù)據(jù)挖掘與機(jī)器學(xué)習(xí);楊雨晴(1992—),女,湖南常德人,講師,博士,主要研究方向?yàn)閿?shù)據(jù)挖掘與機(jī)器學(xué)習(xí);賀艷婷(1988—),女(通信作者),山西晉城人,講師,博士研究生,主要研究方向?yàn)闄C(jī)器學(xué)習(xí)(yantinghe@tyust.edu.cn);史晨輝(1998—),男,河南周口人,博士研究生,主要研究方向?yàn)閿?shù)據(jù)挖掘與機(jī)器學(xué)習(xí).