湯 乾,武 浩
(云南大學(xué) 信息學(xué)院,云南 昆明 650500)
網(wǎng)絡(luò)作為一種圖結(jié)構(gòu)數(shù)據(jù),通常被用于反映現(xiàn)實世界中實體間的關(guān)系,例如引文網(wǎng)絡(luò)、蛋白質(zhì)交互網(wǎng)絡(luò)和社交網(wǎng)絡(luò)等.與之相關(guān)的研究內(nèi)容包括圖分類[1],節(jié)點分類[2],節(jié)點聚類[3],社區(qū)發(fā)現(xiàn)[4],異常檢查[5]和邊預(yù)測[6]等.
節(jié)點表示學(xué)習(xí)是分析網(wǎng)絡(luò)的基礎(chǔ)方法,旨在將網(wǎng)絡(luò)上的節(jié)點映射到一個低維、緊湊、連續(xù)的潛在空間,并盡可能保留網(wǎng)絡(luò)有效信息[7].由于圖神經(jīng)網(wǎng)絡(luò)在融合網(wǎng)絡(luò)結(jié)構(gòu)和節(jié)點特征信息方面的突出能力[8],出現(xiàn)了基于圖自編碼器的節(jié)點表示學(xué)習(xí)方法.例如圖自編碼器(graph autoencoder,GAE)和變分圖自編碼器(variational autoencoder,VGAE)[9]使用圖卷積網(wǎng)絡(luò)(graph convolutional network,GCN)編碼網(wǎng)絡(luò)結(jié)構(gòu)和節(jié)點特征到低維向量空間,并通過重建網(wǎng)絡(luò)結(jié)構(gòu)的方式學(xué)習(xí)節(jié)點表示.對抗式圖自編碼器(adversarially regularized graph autoencoder,ARGAE)和對抗式變分圖自編碼器(adversarially regularized variational graph autoencoder,ARVGE)[10]使用對抗學(xué)習(xí)機制學(xué)習(xí)健壯的節(jié)點表示.然而,網(wǎng)絡(luò)上龐大的節(jié)點數(shù)量和冗長的節(jié)點信息,導(dǎo)致重建每個節(jié)點的鄰居信息和特征信息的代價是高昂的.
近年來,基于互信息最大化原理[11]的圖對比學(xué)習(xí)方法受到越來越多的關(guān)注,該類方法可以學(xué)習(xí)區(qū)分性節(jié)點表示.例如GCA[12]對原始圖增強獲得兩個不同的增強視圖,并投影到低維向量空間最大化兩個節(jié)點表示的一致性;DGI[13]最大化節(jié)點表示與全局圖表示間的互信息;GIC[14]在低維表示空間中引入聚類算法獲得聚類表示,最大化節(jié)點表示與聚類表示間的互信息.盡管這些方法在圖分析任務(wù)中取得了很好的效果,但是它們未能同時挖掘輸入空間的多視圖信息與潛在空間的聚類相關(guān)的語義信息進行節(jié)點表示學(xué)習(xí).為此,本文提出一種基于互信息最大化和聚類感知的節(jié)點表示學(xué)習(xí)模型用于學(xué)習(xí)高質(zhì)量的節(jié)點表示.
本文的主要貢獻如下:
(1) 提出一種基于互信息最大化和聚類感知的節(jié)點表示學(xué)習(xí)模型(MCNRL);
(2) 對原始圖使用圖擴散方法構(gòu)造擴散圖,基于互信息最大化原理,通過對比原始圖的節(jié)點表示和擴散圖的全局圖表示,反之亦然,最大化兩個圖間的互信息;
(3) 將語義相似的節(jié)點聚類到同一個簇,并最大化原始圖的節(jié)點表示和擴散圖的節(jié)點表示間的聚類一致性.
1.1 基于圖自編碼器的節(jié)點表示學(xué)習(xí)圖神經(jīng)網(wǎng)絡(luò)(graph neural network,GNN)已經(jīng)成為近年來應(yīng)用于圖結(jié)構(gòu)數(shù)據(jù)的一種流行模型,其能夠有效地融合網(wǎng)絡(luò)結(jié)構(gòu)和節(jié)點屬性.一些研究致力于將圖神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)相結(jié)合,以實現(xiàn)節(jié)點表示學(xué)習(xí).例如,圖自編碼器GAE[9]將圖卷積神經(jīng)網(wǎng)絡(luò)GCN 和自編碼器結(jié)合,通過GCN 聚合鄰居特征以獲得每個節(jié)點的特征表示.然后,通過計算節(jié)點表示向量的內(nèi)積重建網(wǎng)絡(luò)的鄰接矩陣,并通過減小重建鄰接矩陣與原始鄰接矩陣間的誤差優(yōu)化節(jié)點表示.VGAE 假設(shè)節(jié)點表示服從高斯分布并利用KL 散度將表示擬合高斯分布.ARGE 和ARVGE[10]通過分別向GAE 和VGAE 添加對抗性約束學(xué)習(xí)穩(wěn)健的節(jié)點表示.DGAE[15]首先使用GCN 作為編碼器編碼鄰接矩陣和特征矩陣到潛在空間獲得節(jié)點表示,最后使用GCN 作為解碼器重建鄰接矩陣和特征矩陣,通過最小化重建誤差學(xué)習(xí)節(jié)點表示.
1.2 基于互信息最大化原理的圖對比學(xué)習(xí)基于互信息最大化原理[11]的圖對比學(xué)習(xí)方法,通常先對一個錨樣本構(gòu)造正樣本對和負(fù)樣本對,然后最大化正樣本對的一致性,最小化負(fù)樣本對的一致性,從而學(xué)習(xí)判別性節(jié)點表示或圖表示.根據(jù)表示的不同對比層次,可以分為節(jié)點與節(jié)點間的對比,節(jié)點與全局間的對比,節(jié)點與聚類原型間的對比.對于節(jié)點與節(jié)點間的對比方法,GCA[12]使用邊擾動方法和特征隨機掩碼方法對原始的網(wǎng)絡(luò)結(jié)構(gòu)和節(jié)點特征進行增強,獲得兩個不同的增強視圖,并投影到低維向量空間進行對比表示學(xué)習(xí);GMI[16]最大化輸入圖和編碼器輸出間關(guān)于邊和節(jié)點特征間的互信息學(xué)習(xí)節(jié)點表示;對于節(jié)點與全局間的對比方法,DGI[13]將節(jié)點表示池化為全局圖表示,通過最大化局部的節(jié)點表示和全局的圖表示間的互信息獲得節(jié)點表示.對于節(jié)點與聚類原型間的對比方法,GIC[14]在DGI 的基礎(chǔ)上引入一個節(jié)點與聚類對比正則化項,它最大化同一個簇的節(jié)點間的互信息,期望模型可以同時學(xué)習(xí)粗粒度和細(xì)粒度的節(jié)點表示.
2.1 基本符號給定一個無向圖G={V,E,X},其中V={v1,v2,···,vN} 是節(jié)點集,E={e1,e2,···,eN}是邊集,X∈RN×d是節(jié)點特征矩陣.G的網(wǎng)絡(luò)結(jié)構(gòu)用鄰接矩陣A∈RN×N表示,其中Ai,j=1,滿足 (vi,vj)∈E;否則Ai,j=0.此外,本文的無向圖也可以表示為G={X,A}.
2.2 模型框架本文提出的MCNRL 模型結(jié)構(gòu)如圖1 所示.首先,對原始圖G={X,A}的網(wǎng)絡(luò)結(jié)構(gòu)A使用圖擴散方法得到擴散圖G′={X,A′}.然后,兩個圖被喂入到不共享權(quán)重的圖卷積網(wǎng)絡(luò)fθ和fφ提取節(jié)點表示Z和Z′,并經(jīng)過平均池化獲得全局圖表示s和s′.接著,基于互信息最大化原理,通過最大化節(jié)點表示Z和全局圖表示s′,節(jié)點表示Z′和全局圖表示s間的一致性最大化兩個圖間的互信息,使節(jié)點表示Z和Z′同時學(xué)習(xí)局部和全局鄰居信息.同時,在潛在向量空間中預(yù)先構(gòu)造一個可學(xué)習(xí)的聚類矩陣C,節(jié)點表示Z和Z′經(jīng) 過C得到聚類分配表示Q和Q′,最大化聚類分配表示間的一致性可以挖掘節(jié)點表示間潛在的語義信息.
圖1 MCNRL 模型結(jié)構(gòu)Fig.1 The structure of MCNRL model
2.3 擴散圖圖擴散方法已經(jīng)被廣泛用于圖節(jié)點表示學(xué)習(xí)提供更大范圍的鄰居信息[17].為此,對原始圖G的鄰接矩陣A使用基于個性化PageRank 的圖擴散方法,具體如下:
式中:D∈RN×N為度矩陣,其對角線上的每個元素為A的每一行之和;α為傳送概率,通常設(shè)置為0.2.然后得到擴散圖G′={X,A′}.
2.4 圖編碼器本文使用圖卷積網(wǎng)絡(luò)作為基本編碼器融合圖結(jié)構(gòu)和節(jié)點特征信息.對原始圖的鄰接矩陣A使用重歸一化技巧得到一個對稱歸一化鄰接矩陣其中的度矩陣.設(shè)計兩個不共享參數(shù)的單層圖卷積網(wǎng)絡(luò)分別為:
2.5 基于互信息最大化原理的節(jié)點與全局對比優(yōu)化目標(biāo)基于互信息最大化原理的表示學(xué)習(xí)[11]旨在學(xué)習(xí)一個特征提取器f,使得輸入樣本,例如G,和該輸入的表示Z=f(G)間的互信息最大化,表示為maxI(G,Z).
基于互信息最大化原理的圖對比學(xué)習(xí)[12]旨在最大化圖G的節(jié)點表示Z和該圖經(jīng)過擾動后的圖G′的節(jié)點表示Z′間的一致性,從而學(xué)習(xí)擾動不變性特征,表示為 maxI(Z,Z′).
類似地,為了同時學(xué)習(xí)一階鄰居信息和高階鄰居信息,本文基于互信息最大化原理,最大化節(jié)點表示Z和全局圖表示s′,節(jié)點表示Z′和 全局圖表示s間的一致性,表示為:
本文從多視圖信息瓶頸角度出發(fā)[18],給出如下關(guān)系:
式中的s和s′可以被聚類表示i∈[1,k]替換,進一步有:
式(5)和(6)為實現(xiàn)節(jié)點與節(jié)點層次,節(jié)點與聚類原型層次,節(jié)點與全局層次的表示間的對比學(xué)習(xí)提供了理論依據(jù).
式(4)作為本節(jié)的優(yōu)化目標(biāo),使用Jensen-Shannon估計器估計互信息,于是優(yōu)化損失定義為:
式中D(·,·)用于評估節(jié)點表示和全局圖表示間的一致性,使用雙線性評分函數(shù)估計:
2.6 聚類一致性優(yōu)化目標(biāo)本文引入一個可學(xué)習(xí)的聚類矩陣它由k個聚類質(zhì)心向量ci∈組 成.對于原始圖G,計算任一節(jié)點表示zi和k個質(zhì)心向量間的相似度,如下:
然而,直接優(yōu)化式(11)可能導(dǎo)致平凡解,使所有的樣本劃分到同一個簇.
為解決這個問題,目標(biāo)是讓N個樣本節(jié)點可以均勻地劃分到k個聚類質(zhì)心.假設(shè)有Q=[q1,···,是聚類分配矩陣,為實現(xiàn)前面提的目標(biāo)可以按式(12)優(yōu)化Q.
式中:tr()為矩陣的跡,表示矩陣的主對角線之和;H為熵函數(shù)是N維全一向量,1k是k維全一向量.優(yōu)化式(12)的作用:Q要相似于CTZT并替代它,同時CTZT要相似于Q∈T,并且當(dāng)Q中的每個元素服從均勻分布且都為時,此時H(Q)最大.ε是一個參數(shù),在CTZT由Q表示時調(diào)節(jié)Q的聚類分配的均勻程度,本文設(shè)置ε=0.05.Q與CTZT彼此約束可以保證聚類矩陣C中的每個聚類質(zhì)心向量ci至少被N個樣本節(jié)點選中次,從而達到N個樣本被均勻劃分到k個聚類質(zhì)心的目的.式(12)可以看作一個最優(yōu)傳輸問題,它的解Q可以寫成歸一化指數(shù)矩陣[19]:
式中:u∈Rk×1和v∈RN×1為重歸一化向量,可以使用Sinkhorn-Knopp 算法計算u和v.
同理可以按式(12)計算擴散圖的Q′.最后按列歸一化Q和Q′,式(11)可重寫為:
此外,為確保聚類質(zhì)心向量盡量彼此遠(yuǎn)離,引入分離損失:
本研究結(jié)果表明,廣州市湖泊、河涌、航道以及入???類地表水體溶解相中HHCB、AHTN和MK的濃度比顆粒相高。馮柳(2011)通過研究也得出相似的結(jié)論,主要原因是合成麝香微溶于水,且本研究水體中合成麝香濃度較低。此外,無論是溶解相還是顆粒相,HHCB的濃度均遠(yuǎn)高于AHTN和MK。這與國內(nèi)外的許多研究結(jié)果是一致的(Peck et al.,2004;Stevens et al.,2003;陳多宏等,2009),因為香水、面霜、肥皂和沐浴露等日用化工品中的主要合成麝香均為HHCB(Reiner et al.,2006;王征,2012)。
2.7 總體優(yōu)化目標(biāo)最終MCNRL 模型的總體優(yōu)化目標(biāo)如下所示:
式中 λ1和 λ2是權(quán)衡系數(shù).模型優(yōu)化后,將學(xué)習(xí)到的節(jié)點表示Z和Z′相加用于下游圖分析任務(wù).
3.1 實驗數(shù)據(jù)集提出的模型在兩個廣泛使用的引文網(wǎng)絡(luò)Cora 和Citeseer 進行實驗.網(wǎng)絡(luò)上的節(jié)點代表論文,邊對應(yīng)于引用關(guān)系,節(jié)點特征是二進制詞向量.數(shù)據(jù)集的統(tǒng)計信息見表1.
表1 實驗數(shù)據(jù)集統(tǒng)計Tab.1 Statistics of experimental dataset
3.2 評估指標(biāo)對于節(jié)點分類任務(wù),使用準(zhǔn)確率(accuracy,AAC)作為評估指標(biāo),它是指模型預(yù)測正確的標(biāo)簽數(shù)量和所有標(biāo)簽數(shù)量的比值,計算方法如下:
式中:TP、FP、TN和FN分別表示真正樣本數(shù),假正樣本數(shù),真負(fù)樣本數(shù)和假負(fù)樣本數(shù).考慮到數(shù)據(jù)集中存在樣本不均衡現(xiàn)象,為此使用F1 值作為評估指標(biāo),它是精確率(precision,P)和召回率(recall,R)的加權(quán)調(diào)和平均,其定義如下:
式中:P表示預(yù)測為正的樣本中實際為正的樣本的比例,R則表示實際為正的樣本中被預(yù)測為正的樣本的比例.P和R分別定義如下:
對于節(jié)點聚類任務(wù),采用聚類準(zhǔn)確率(clustering accuracy,ACA),歸一化互信息(normalized mutual information,INM)和調(diào)整后的蘭德指數(shù)(adjusted rand index,IAR) 評估聚類結(jié)果.假設(shè)C={c1,c2,···,ck}且P={p1,p2,···,}分別代表聚類結(jié)果和包含N個數(shù)據(jù)的數(shù)據(jù)集的預(yù)定義的類別.這里k和k′分 別是簇C和類別P數(shù);Ni,j是簇C和類P的公共目標(biāo)數(shù);是簇ci中數(shù)據(jù)點數(shù);是類pi中數(shù)據(jù)點數(shù).
ACA表示聚類結(jié)果中正確分類的數(shù)據(jù)點與預(yù)定義類標(biāo)簽的百分比,計算公式如下:
INM可以有效地測量隨機變量共享的統(tǒng)計信息量,這些變量代表集群分配和對象的預(yù)定義標(biāo)簽分配,計算公式如下:
3.3 對比方法對于節(jié)點分類任務(wù),本文使用DGI、GMI、GIC、GCA 等基線模型對比實驗結(jié)果.
DGI[13]:專注于單視圖,通過對比節(jié)點表示和全局圖表示學(xué)習(xí)同時學(xué)習(xí)節(jié)點表示和圖表示.
GMI[16]:核心在于直接最大化圖神經(jīng)編碼器的輸入和輸出間在節(jié)點特征和拓?fù)浣Y(jié)構(gòu)方面的互信息.
GIC[14]:學(xué)習(xí)節(jié)點表示時,不僅考慮到了節(jié)點表示和全局表示間的互信息,還引入可微分Kmeans 聚類算法最大化同一個簇的節(jié)點間的互信息.
GCA[12]:通過對同一個輸入視圖進行增強得到兩個視圖,并最大化一個視圖的節(jié)點表示與另一個視圖的節(jié)點表示間的互信息學(xué)習(xí)具有擾動不變性特征的節(jié)點表示.
對于節(jié)點聚類任務(wù),使用GAE、VGAE、ARGAE、ARVGAE 基線模型.
GAE、VGAE[9]:使用圖卷積網(wǎng)絡(luò)作為編碼輸入的圖拓?fù)浣Y(jié)構(gòu)和節(jié)點特征,并重建圖的拓?fù)浣Y(jié)構(gòu)來學(xué)習(xí)節(jié)點表示.VGAE 在GAE 的基礎(chǔ)上,要求學(xué)習(xí)到的表示匹配一個先驗高斯分布,使得學(xué)習(xí)到的節(jié)點表示的分量具有一定概率分布特點.
ARGA、ARVGA[10]:在GAE 和VGAE 的基礎(chǔ)上引入了對抗學(xué)習(xí)機制,期望學(xué)習(xí)到的表示具有一定的魯棒性.
3.4 參數(shù)設(shè)置實驗中會影響到MCNRL 模型性能的超參數(shù)有嵌入維度d′,學(xué)習(xí)率,聚類矩陣C的聚類質(zhì)心數(shù)目k,權(quán)衡系數(shù) λ1和 λ2.模型使用Adam優(yōu)化,并引入早停技術(shù)停止訓(xùn)練,早停參數(shù)為P.MCNRL 模型的超參數(shù)設(shè)置見表2.
表2 MCNRL 模型的超參數(shù)設(shè)置Tab.2 Hyperparameters settings of MCNRL model
3.5 結(jié)果對比所有方法在Cora 和Citeseer 上進行節(jié)點分類和節(jié)點聚類,實驗結(jié)果見表3、4,最佳值表示為粗體.
表3 所有方法在Cora 和Citeseer 上的節(jié)點分類結(jié)果Tab.3 Node classification results of all methods on Cora and Citeseer %
對于節(jié)點分類實驗,分析表3 中數(shù)據(jù)可以看出,GIC 和GMI 在所有數(shù)據(jù)集上的所有評估指標(biāo)均優(yōu)于DGI,這是因為DGI 只考慮了節(jié)點表示和全局表示間的互信息最大化,而GMI 同時考慮了拓?fù)浣Y(jié)構(gòu)和節(jié)點特征相關(guān)的互信息最大化;GIC 同時考慮了節(jié)點表示和全局表示以及同一個簇的節(jié)點表示間互信息最大化.GCA 作為多視圖節(jié)點與節(jié)點級別的對比學(xué)習(xí)方法,是最強的基線方法,這說明多個視圖可以提供更加豐富的對比信息.本文所提出的模型MCNRL 是多視圖對比節(jié)點與全局的對比學(xué)習(xí)方法,而且使用聚類方法,挖掘了潛在空間中的節(jié)點表示間的語義信息,所以MCNRL 實現(xiàn)了最好的性能.具體而言,對比GCA,本方法在Cora數(shù)據(jù)集上準(zhǔn)確率和F1 值指標(biāo)分別提高了2.7 和0.6 個百分點;在Citeseer 數(shù)據(jù)集上準(zhǔn)確率和F1 值指標(biāo)分別提高了0.6 和0.5 個百分點.
對于節(jié)點聚類實驗,分析表4 中數(shù)據(jù)可以看到,對比所有基線方法,MCNRL 仍然實現(xiàn)了最好的性能,這可以歸因于聚類過程依賴于全局信息,而本文模型使用了對比學(xué)習(xí)方法最大化節(jié)點表示和全局表示間的一致性.此外,還鼓勵兩個視圖間的聚類一致性,這有利于聚類過程.
表4 所有方法在Cora 和Citeseer 上的節(jié)點聚類結(jié)果Tab.4 Node clustering results of all methods on Cora and Citeseer %
3.6 參數(shù)分析本節(jié)在節(jié)點分類實驗上研究嵌入維度d′、聚類質(zhì)心數(shù)目k以及權(quán)衡系數(shù)λ1和λ2對MCNRL模型的影響,其他模型參數(shù)保持不變.嵌入維度d′的大小直接影響節(jié)點表示和全局表示間的互信息的計算.聚類質(zhì)心數(shù)目k影響兩個視圖的節(jié)點表示間的聚類一致性程度.λ1和 λ2是權(quán)衡系數(shù)用于調(diào)整正則化損失Lconsistency和Lseparate與主損失Llocal-global的關(guān)系對模型性能的影響程度.實驗結(jié)果如圖2~5 所示.
圖2 MCNRL 模型在不同嵌入維度下的節(jié)點分類準(zhǔn)確率Fig.2 Node classification accuracy of MCNRL model under different embedding dimension
從圖2中可以看出,隨著嵌入維度的增大,模型的分類準(zhǔn)確率也隨之提高,在嵌入維度d′=512時,模型取得最好效果.但是隨著嵌入維度繼續(xù)增大,模型性能也開始降低,這是因為過大的特征維度會導(dǎo)致表示學(xué)習(xí)冗余特征,而過小的特征維度會導(dǎo)致學(xué)習(xí)的表示損失信息,這表明適當(dāng)?shù)那度刖S度更有利于模型的性能.
從圖3 中可以看出,對于Cora 和Citeseer 數(shù)據(jù)集,聚類質(zhì)心數(shù)目分別取k=7 和k=8 時,節(jié)點分類效果最好.盡管Citeseer 實際類別數(shù)目是6,但是同一分類下的所有節(jié)點也可以繼續(xù)進一步分類,從而挖掘更細(xì)粒度的語義信息.最后,借助t-SNE 技術(shù)[20],圖4 給出了真實標(biāo)簽下Cora 和Citeseer 的節(jié)點表示的可視化結(jié)果.圖中的實心黑點表示聚類質(zhì)心,其他不同顏色的點表示不同類別節(jié)點.
圖3 MCNRL 模型在不同聚類質(zhì)心數(shù)目 k下的節(jié)點分類準(zhǔn)確率Fig.3 Node classification accuracy of MCNRL model under different number of clustering centroid k
圖4 真實標(biāo)簽下的節(jié)點表示的可視化結(jié)果Fig.4 Visualization results of node representations under ground truth labels
從圖5 可以看出,當(dāng) λ1在[0.000 5,0.001,···,1 000]范圍時,隨著權(quán)衡系數(shù) λ1增大,模型在Cora和Citeseer 上的分類準(zhǔn)確率逐漸下降,這是因為在模型訓(xùn)練過程中側(cè)重優(yōu)化主損失Llocal-global,但是正則化損失Lconsistency的值遠(yuǎn)大于主損失,所以應(yīng)該調(diào)整 λ1使得 λ1×Lconsistency略小于Llocal-global.為此,本文在Cora 上設(shè)置 λ1=0.001,在Citeseer 上設(shè)置λ1=0.02. 當(dāng) λ2>0時,明顯發(fā)現(xiàn)模型分類準(zhǔn)確率比λ2=0時 更好,同時,為調(diào)整 λ2使得 λ2×Lseparate略小于Llocal-global,為此,本文在Cora 和Citeseer 上均設(shè)置λ2=0.001. 最后,當(dāng) λ1>0,λ2>0時,模型分類準(zhǔn)確率比 λ1=0,λ2=0時更好,這說明優(yōu)化聚類一致性損失和簇心向量分離損失確實可以進一步提高模型性能.
圖5 不同權(quán)衡系數(shù) λ1,λ2下節(jié)點分類準(zhǔn)確率Fig.5 Node classification accuracy under different number of λ1 andλ2
節(jié)點表示學(xué)習(xí)是研究各類圖結(jié)構(gòu)數(shù)據(jù)的基礎(chǔ).本文提出的基于互信息最大化原理和聚類感知的無監(jiān)督節(jié)點表示學(xué)習(xí)方法,不僅考慮輸入空間中的一階和高階鄰居信息,而且進一步挖掘節(jié)點在潛在空間中的語義信息,從而學(xué)習(xí)高質(zhì)量的節(jié)點表示用于下游圖分析任務(wù).本模型在兩個引文數(shù)據(jù)集上進行了節(jié)點分類和節(jié)點聚類實驗,與基線方法相比,所提出的模型取得了最好的效果.未來考慮基于多視圖信息瓶頸最大化多視圖間的共享信息,同時最小化多視圖間非共享信息進行節(jié)點表示學(xué)習(xí).