• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于增強多通道圖注意力的推薦模型

      2024-05-31 00:00:00張昱蘇仡琳李繼濤陳廣書張明魁
      河北大學學報(自然科學版) 2024年2期
      關(guān)鍵詞:協(xié)同過濾

      DOI:10.3969/j.issn.10001565.2024.02.010

      摘" 要:圖神經(jīng)網(wǎng)絡具備融合節(jié)點信息與拓撲結(jié)構(gòu)的能力,近年來在推薦算法中得到了廣泛的應用.然而,現(xiàn)有的基于圖神經(jīng)網(wǎng)絡的推薦模型用戶行為建模粒度較粗,用戶特征學習算法對歷史信息使用不足,兩者阻礙了用戶偏好特征的提取.針對以上問題,本文提出一種基于增強多通道圖注意力的推薦模型(enhanced multi-channel graph attention based collaborative filtering recommendation model,EMGACF).在鄰域聚合部分,采用多通道圖注意力對細粒度用戶評分等級建模,有效提升了模型對用戶偏好的學習能力;在節(jié)點更新部分,提出基于增強自信息的節(jié)點更新算法,使用鄰居節(jié)點聚合表示的同時保留了節(jié)點自身歷史信息和內(nèi)在偏好,提升了迭代過程中用戶偏好的學習效果.實驗部分在4種規(guī)模的常用推薦系統(tǒng)基準數(shù)據(jù)集上訓練模型,實驗結(jié)果表明,預測誤差相比于主流模型降低了1.43%~7.81%.

      關(guān)鍵詞:圖注意力;用戶偏好;自編碼器;協(xié)同過濾

      中圖分類號:TP391""" 文獻標志碼:A""" 文章編號:10001565(2024)02019009

      Enhanced multi-channel graph attention based on recommendation model

      ZHANG Yu1,2, SU Yilin1, LI Jitao1, CHEN Guangshu1, ZHANG Mingkui1

      (1. Beijing Key Laboratory of Intelligent Processing for Building Big Data, School of Electrical and Information Engineering, Beijing University of Civil Engineering and Architecture, Beijing 100044, China;2. State Key Laboratory in China for GeoMechanics and Deep Underground Engineering, Institute of Deep Underground Space Science and Engineering, China University of Mining and Technology, Beijing 100083, China)

      Abstract: Graph neural networks can fuse node information and topology, and are widely used in recommendation algorithms in recent years. However, the existing recommendation models based on graph neural networks have coarse granularity when modeling user behavior, and the user feature learning algorithm lacks consideration of historical information, both of which hinder the extraction of user preference features. To address the above problems, this paper proposes an enhanced multi-channel graph attention based collaborative filtering recommendation model (EMGACF). In the neighborhood aggregation phase, multi-channel graph attention is used to model fine-grained user rating levels, which effectively improves the learning ability of the model for user preferences; in the node update phase, an

      收稿日期:20231031;修回日期:20240113

      基金項目:國家重點實驗室深地空間科學與工程研究院基金資助項目(XD2021021);北京建筑大學2022年度研究生教育教學質(zhì)量提升資助項目(J2022003)

      第一作者:張昱(1979—),男,北京建筑大學副教授,博士,主要從事大數(shù)據(jù)、人工智能、智慧城市與巖爆研究.E-mail: bigdata@bucea.edu.cn

      通信作者:蘇仡琳(1997—),女,北京建筑大學在讀碩士研究生,主要從事大數(shù)據(jù)和人工智能、推薦算法研究.E-mail: syl9790@163.com

      enhanced self-information-based node update algorithm is proposed, which uses the aggregated representation of neighboring nodes while preserving the nodes' own historical information and intrinsic preferences. This improves the learning effect of user preferences in the iterative process. By training the model on three benchmark datasets of different sizes of recommender systems, the experimental results show that the prediction error is reduced by 1.43% to 7.81% compared with the mainstream model.

      Key words: graph attention; user preference; autoencoder; collaborative filtering

      隨著電子商務和社交媒體平臺的快速發(fā)展,生產(chǎn)和傳輸?shù)男畔⑺俣纫呀?jīng)遠超人們接受的范圍,“信息過載”的現(xiàn)象越發(fā)顯著.推薦系統(tǒng)能夠有效捕獲用戶興趣點,為信息提供有效傳播方向,從而有效緩解信息過載[1].傳統(tǒng)的推薦算法可分為以下3種[2]:基于內(nèi)容推薦[3]、協(xié)同過濾推薦[4]和混合推薦[5],其中,協(xié)同過濾算法挖掘用戶之間相似的偏好并進行推薦,不受推薦對象限制,是最經(jīng)典的推薦算法之一[6],但是傳統(tǒng)的協(xié)同過濾算法普遍使用淺層模型,無法學習項目以及用戶的深層特性,影響了推薦效果.

      近年來深度學習發(fā)展迅速[7],提供了多種推薦算法學習模型,其中以圖結(jié)構(gòu)數(shù)據(jù)為輸入的圖神經(jīng)網(wǎng)絡(graph neural network,GNN)能夠有效提升項目和用戶交互數(shù)據(jù)的學習效果.推薦系統(tǒng)中的交互數(shù)據(jù)使用用戶和項目節(jié)點之間的二部圖表示,節(jié)點間的鏈接代表觀察到的交互數(shù)據(jù)[8],使用圖神經(jīng)網(wǎng)絡能夠?qū)W習節(jié)點之間的交互信息,通過聚合、迭代鄰居節(jié)點的特征可以捕捉到用戶以及項目特征,進而用于推薦.注意力機制具有可變的輸入向量長度,能夠從輸入信息中捕獲關(guān)鍵部分.注意力機制在計算機視覺[9]、自然語言處理[10]等領域應用廣泛.圖自動編碼器(graph autoencoders)是圖節(jié)點信息的無監(jiān)督學習的常用方式,變分圖自編碼器模型[11]通過2層圖卷積組成的編碼器學習得到節(jié)點的向量表示,Salha等[12]提出了在圖自編碼器模型中采用一階線性編碼器,達到了與圖卷積同等的效果.Li等[13]提出了一種無監(jiān)督的圖自編碼器R-VGAE用于鏈接預測,提高了推薦精度.文獻[14]將注意力機制引入圖神經(jīng)網(wǎng)絡的鄰域聚合階段,提出了圖注意力網(wǎng)絡(graph attention networks,GAT)完成了節(jié)點分類的任務.目前已有一些將注意力機制引入到自編碼器中的研究,但大多針對于半監(jiān)督機制的自編碼器中的監(jiān)督模塊[15-16].文獻[17]提出一種異構(gòu)圖融合框架,在聚合部分引入一個注意力層用于結(jié)合邊嵌入和節(jié)點嵌入,能夠更有效地處理異構(gòu)圖.文獻[18]提出了一種多分量圖卷積協(xié)同過濾方法,用注意力機制來將用戶-項目交互分解為多種可能構(gòu)成購買關(guān)系的潛在組件,提升了推薦效果.但現(xiàn)有方法存在以下2方面的問題,使推薦模型無法有效學習用戶偏好,導致推薦效果下降:第一,推薦模型對用戶行為建模的粒度較粗,無法捕獲評分細節(jié)所表達的用戶偏好;第二,推薦模型的中心節(jié)點更新時,節(jié)點的原始信息通常被覆蓋,導致每次訓練時的中心節(jié)點特征無法迭代,使用戶偏好學習受阻.

      為學習用戶偏好以提升推薦效果,本文設計了一種基于增強多通道圖注意力的協(xié)同過濾推薦模型(enhanced multi-channel graph attention based collaborative filtering recommendation model, EMGACF).用戶行為建模方面,本文設計基于多通道特征的聚合算法,基于圖注意力提取多通道特征,并使用多通道特征聚合鄰居節(jié)點,以多種特征描述并學習用戶偏好;節(jié)點更新方面,本文設計了自信息增強節(jié)點更新算法,訓練中心節(jié)點時增加節(jié)點歷史信息作為輸入,提升迭代過程中用戶偏好的學習效果.為驗證本文方法有效性,實驗部分使用4個不同規(guī)模的具有顯式評分的推薦系統(tǒng)數(shù)據(jù)集MovieLens和Douban進行,使用均方根誤差作為評價指標,結(jié)果表明本文模型相比現(xiàn)有主流模型,在基準數(shù)據(jù)集上的均方根誤差降低了1.43%~7.81%.

      1" EMGACF推薦模型

      1.1" 模型整體架構(gòu)

      本文模型整體框架如圖1所示,本模型考慮到圖自編碼器在表示學習方面的優(yōu)勢,將矩陣補全視為圖上的評分預測問題,使用端到端技術(shù)對用戶和項目節(jié)點構(gòu)成的二部圖進行建模,選取合適的聚合函數(shù)來獲取節(jié)點之間的關(guān)系,從而得到用戶和項目節(jié)點的隱層特征.解碼器部分采用文獻[19]提出的雙線性解碼器來重構(gòu)評分矩陣.模型整體分為數(shù)據(jù)預處理、編碼和解碼3部分,本文提出的基于多通道圖注意力的鄰域聚合算法和基于增強自信息的節(jié)點更新算法在編碼階段使用.數(shù)據(jù)預處理階段從原始數(shù)據(jù)集提取用戶對于項目的評分數(shù)據(jù)并構(gòu)建每個評分類別下的交互子圖稀疏矩陣.編碼部分根據(jù)評分劃分多個通道提取特征,聚合并更新中心節(jié)點信息.解碼部分預測評分矩陣中未觀察項的值,實現(xiàn)評分預測的任務.

      1.2" 編碼環(huán)節(jié)

      模型的編碼器部分主要通過實現(xiàn)圖上的消息傳播得到用戶和項目節(jié)點的嵌入表示.具體計算流程如下:首先根據(jù)不同評分在多個通道內(nèi)通過圖注意力模塊來完成鄰域聚合,接著進行保留自身節(jié)點信息的增強自信息的節(jié)點更新,最后對各個通道內(nèi)更新得到的節(jié)點信息進行二重聚合,得到最終的節(jié)點表示.編碼器架構(gòu)示意圖如圖2所示.

      1.2.1" 基于多通道圖注意力的鄰域聚合算法

      推薦場景中,系統(tǒng)會得到用戶對于項目的顯式反饋,如對項目的評分、評價等,這些顯式反饋直接體現(xiàn)了細粒度的用戶偏好,即用戶對于項目的喜好程度.例如用戶對一部電影的評分,接近滿分代表非常推薦,而接近零分往往代表用戶對該部電影的評價較低,應減少該類項目的推薦.本模型設計編碼器捕捉這一細粒度用戶偏好,并根據(jù)不同評分等級進行針對細粒度用戶偏好的建模,以得到更優(yōu)的推薦效果.具體來說,考慮到不同的評分等級代表的用戶偏好不同,本模型編碼器在特征提取的過程中按照評分等級的不同分為多個通道,圖2中代表不同通道的標簽Label 1,Label 2,…,Label n即代表從評分1到評分n的不同等級.在本模型中,將圖自動編碼器模型表示為Z=f(X,W1,W2,…,WR),它以特征矩陣X和圖鄰接矩陣W1、W2、…、WR作為輸入,其中WR是與評分類型r∈R相關(guān)聯(lián)的鄰接矩陣,即在評分矩陣WR中被用戶評分為R的項目對應位置元素設為1,否則為0.經(jīng)過編碼器的聚合更新算法得到節(jié)點嵌入矩陣Z.由此,本節(jié)算法基于用戶評分等級建模,按照評分等級分為多個通道提取特征,在每個通道內(nèi)部使用圖注意力模塊傳播消息,鄰域聚合使用注意力機制來區(qū)分鄰居節(jié)點的貢獻.本節(jié)算法流程如圖3所示,編碼器通過在圖上的消息傳播得到用戶表示和項目表示.

      本節(jié)算法使用多通道圖注意力網(wǎng)絡作為編碼器,各評分使用單獨的通道,并在每個通道內(nèi)聚合同種評分類型的鄰居節(jié)點.具體來說,多通道圖注意力算法的輸入是用戶及項目構(gòu)建成的交互子圖,首先交互子圖構(gòu)建時使用“用戶-項目”二部圖表示,評分信息用節(jié)點之間的邊表示.節(jié)點的內(nèi)容信息以節(jié)點特征的形式包含在整體框架之中.鄰居聚合時,對于二部圖上的“用戶-項目”對(u,i),定義從i到u的信息傳播如式(1)所示.

      mu←i=f(e1,eu,pui),(1)

      式(1)中的mu←i表示要傳播的信息,f(·)表示消息編碼函數(shù),ei和eu表示初始嵌入,利用pui來控制每次在邊(u,i)上傳播的衰減因子.在本節(jié)算法中,f(·)如式(2)所示.

      mu←i,r=a(Wreu,Wrei),(2)

      式(2)中,r表示用戶評分的類別,且r∈{0~R},其中R表示用戶評分的具體等級,每個評分類別使用單獨的消息傳播通道.具體來說,此處的R一般代表具體評分數(shù)值(如0~5分),也可應用于其他評分形式的數(shù)據(jù),如文字評價“滿意”“不滿意”等.根據(jù)評分或評價的不同將初始評分矩陣多個通道內(nèi)的矩陣Wr.每個通道中輸入的是一組節(jié)點特征.消息編碼函數(shù)首先對每個節(jié)點進行共享線性變換,并賦予每類評分對應的權(quán)重參數(shù),然后在節(jié)點上執(zhí)行自注意力機制.式(2)中的a為自注意力機制,其值由式(3)求得,是中心節(jié)點與其鄰居節(jié)點的注意力系數(shù)(此處Ni指i節(jié)點的所有鄰居節(jié)點),其中a、W為可學習參數(shù),l表示嵌入傳播的層數(shù).通過式(3)求得的歸一化的注意力系數(shù)可用于計算與之對應的特征的線性組合,作為節(jié)點聚合所有鄰居節(jié)點信息后的輸出特征.

      αui=exp(LeakyReLU(aT[W(l)e(l)uW(l)e(l)i]))∑k∈Niexp(LeakyReLU(aT[W(l)e(l)uW(l)e(l)k])).(3)

      基于注意力機制的嵌入傳播計算過程算法原理如圖3所示,輸入為用戶、項目屬性特征矩陣,a、Wr為式(2)中的可學習參數(shù),圖3中的Repeat操作代表對節(jié)點向量進行復制、拼接,得到每個節(jié)點與其他節(jié)點向量的拼接結(jié)果.通過引入鄰接矩陣An將非相鄰節(jié)點舍去,從而得到節(jié)點與其所有相鄰節(jié)點的注意力系數(shù)αui.

      1.2.2" 基于增強自信息的節(jié)點更新算法

      本節(jié)算法為提升用戶偏好學習效果,在更新節(jié)點信息時不僅使用聚合的鄰居節(jié)點信息,還使用節(jié)點自身信息,如式(4)所示.

      e(l)u=LeakyReLUW1eu+∑j∈NiαuiWej,(4)

      式(4)表示經(jīng)過圖上的消息傳播后,生成新的用戶節(jié)點u的嵌入表示e(1)u.類似地,可以得到項目節(jié)點經(jīng)過消息傳播后新的節(jié)點嵌入表示e(1)i.

      考慮到文獻[14]中提出的多頭注意力可以穩(wěn)定自注意力機制的學習過程,更好地獲得節(jié)點間的相關(guān)性,本節(jié)算法在節(jié)點更新的過程中運用多頭注意力機制,在通過圖注意力聚合節(jié)點信息的過程中調(diào)用多頭注意力機制,可以將鄰居節(jié)點的特征提取得更加充分.具體即通過多次計算注意力系數(shù)學習中心節(jié)點及其鄰居節(jié)點的關(guān)系,將結(jié)果拼接在一起當作節(jié)點的最終表示,利用k個獨立的自注意力機制對式(4)進行變換,得到的e′u為執(zhí)行了k次自注意力機制后結(jié)果的串聯(lián)表示.公式如式(5)所示,其中σ代表激活函數(shù),采用LeakyRelu作為激活函數(shù),“‖”表示拼接操作,αkui為由第k個注意力機制計算的歸一化注意系數(shù),Wk為相應的線性變換權(quán)值矩陣.

      e′u=‖Kk=1σW1eu+∑j∈NiαkuiWkej.(5)

      得到每個通道對應的特征表示后,對于所有的鄰居進行第二重聚合,此處采用拼接的方式進行聚合,此處采用LeakyReLU作為激活函數(shù),具體公式見式(6),stack代表拼接操作,hu為編碼器最終得到的用戶節(jié)點的表示.對于項目節(jié)點的表示同理.

      hu=Leaky ReLUstack∑j∈Ni,1e′j→u,1,…,∑j∈Ni,Re′j→u,R.(6)

      上面得到的編碼特征需要再經(jīng)過一個非線性變換層以得到最終的特征,如式(7)所示.

      h′u=LeakyReLU(Whu+b).(7)

      同時,在非線性變換層執(zhí)行節(jié)點的dropout,即在模型訓練的過程中隨機刪除節(jié)點的傳播信息.經(jīng)過本節(jié)提出的多通道圖注意力編碼器中圖注意力層和非線性變換層,得到用戶和項目的嵌入.

      1.3" 解碼器及損失函數(shù)

      在解碼器的部分,模型將由編碼器得到的用戶及項目的隱層特征輸入到解碼器,通過解碼器來重構(gòu)鄰接矩陣,在本模型中將重構(gòu)問題轉(zhuǎn)化為一個分類問題,即通過用戶和項目的特征得到條件概率p(ij=r|ui,vj),其具體運算過程如式(8)所示,其中Ui、Vj分別為用戶和項目的隱層特征,Qr、Qs均為可訓練的參數(shù)矩陣,Qs為每類評分下對應的參數(shù),Qr∈RN×N,其中N為編碼特征維度,Aij為預測到的用戶節(jié)點對項目的評分,最終通過softmax歸一化得到每類評分的概率.

      p(ij=r)=eUTiQrVj∑s∈ReUTiQsVj.(8)

      在本模型中,將矩陣重構(gòu)問題看作分類問題,將每種評分類別看作一個類,因此選取分類問題常用的交叉熵損失作為模型的損失函數(shù),其中每類評分的損失通過求和得到,如式(9)所示.

      L=-∑i,j;Ωij=1∑RIr=1I[r=Aij]log p(ij=r),(9)

      其中,I[r=Aij]為指示函數(shù),即r=Aij時I[r=Aij]為1,否則為0;矩陣Ω∈{0,1}Nu×Ni,作為未觀察評級的掩碼.

      2" 實驗及結(jié)果分析

      2.1" 數(shù)據(jù)集介紹

      為驗證本文所提出的推薦模型算法,本實驗使用ML-100k、ML-1M、ML-10M、Douban共4個數(shù)據(jù)集.表1記錄了各數(shù)據(jù)集的特征參數(shù),包括用戶、項目數(shù)量、評分數(shù)量、評分范圍、評分間隔和數(shù)據(jù)密度.隨數(shù)據(jù)集評分數(shù)量增加,數(shù)據(jù)稀疏度提升.本實驗使用所述數(shù)據(jù)集時已經(jīng)過數(shù)據(jù)清洗,評分數(shù)目少于20條及個人屬性信息缺失的用戶已刪除.

      評價指標選取均方根誤差(RMSE)具體公式如式(10)所示,其中ui表示預測評分,rui表示真實評分,n代表樣本數(shù)量.

      RMSE=∑nu,i=1(ui-rui)2n.(10)

      2.2" 神經(jīng)網(wǎng)絡測試參數(shù)

      本實驗在PyTorch深度學習框架下進行模型的搭建與訓練,運行環(huán)境為Windows 10操作系統(tǒng),GPU為1塊RTX 3080顯卡.參數(shù)初始化用Xavier作為初始化器,并選擇Adam作為模型的優(yōu)化器.神經(jīng)網(wǎng)絡訓練epoch為500,初始學習率為0.001,dropout取值為0.55,數(shù)據(jù)集劃分訓練集和測試集的比例為4∶1,并在訓練集中按照95∶5的比例設置驗證集.

      2.3" 實驗結(jié)果

      2.3.1" 訓練結(jié)果

      本模型實驗過程共訓練了500個epoch,本節(jié)實驗著重展示本文推薦模型的前200個epoch的訓練結(jié)果,如圖4所示.其中訓練集和測試集的Loss值在100個epoch后下降逐漸緩慢,在200個epoch后下降緩慢,訓練集和測試集的Loss值基本一致.

      2.3.2" 用戶偏好提取結(jié)果

      為驗證本文所提出的用戶偏好提取方案的有效性,本節(jié)實驗以單通道聚合、節(jié)點更新不使用自身信息的推薦模型為基準,分別實現(xiàn)并對比了使用多通道注意力聚合和自信息增強節(jié)點更新算法的推薦模型,表2記錄了推薦結(jié)果的RMSE.3個數(shù)據(jù)集的實驗結(jié)果表明,本文設計的多通道聚合算法以及節(jié)點自更新算法均有助于捕捉用戶偏好,進而提升推薦精度.特別地,同時使用多通道注意力和自信息增強算法的RMSE降幅高于單獨使用時下降之和.

      2.3.3" 推薦效果對比

      本節(jié)實驗對比EMGACF和現(xiàn)有推薦模型的推薦精度,對比模型包括矩陣補全算法(MC)[20]、可分離的循環(huán)圖卷積推薦模型(sRGCNN)[21]、圖卷積矩陣補全模型(GCMC)[19]、基于協(xié)同過濾的神經(jīng)自回歸分布估計(CF-NADE)[22]和基于協(xié)同自編碼器的推薦算法(NCAE)[23].本文模型分別使用單頭和多頭注意力學習機制,即k取1和2(見式(5)),評分預測的均方根誤差如表3所示,最優(yōu)結(jié)果加粗顯示.

      圖5展示了EMGACF在ML-1M和ML-10M上推薦效果和對比模型的比較結(jié)果,EMGACF相比模型CF-NADE、NCAE、GCMC的推薦結(jié)果,具有更低的RMSE值,該結(jié)果表明,本文提出的多通道圖注意力的鄰域聚合算法以及基于增強自信息的節(jié)點更新算法,所提取用戶的偏好特征能夠有效提升推薦效果.圖6對比了EMGACF和對比模型在ML-100k數(shù)據(jù)集上的推薦效果,RMSE值顯示EMGACF尤其是雙頭EMGACF對于推薦效果的提升相比ML-1M和ML-10M數(shù)據(jù)集更加明顯,EMGACF相比MC、sRGCNN以及GCMC的RMSE值分別降低了7.81%、3.44%、1.43%.這是由于ML-100k的稀疏度低于ML-1M和ML-10M數(shù)據(jù)集,項目和用戶之間聯(lián)系更加緊密,因此用戶偏好對推薦效果的提升更加明顯.對于ML-10M數(shù)據(jù)集,本文所提出模型的推薦效果提升不顯著,考慮是由于該數(shù)據(jù)集的數(shù)據(jù)密度較低,因此模型得到的評分矩陣稀疏度較大,導致算法提取節(jié)點間關(guān)聯(lián)度不夠充分.后續(xù)研究將進一步引入用戶及項目的屬性信息來緩解稀疏性問題.

      3" 結(jié)語

      為實現(xiàn)推薦系統(tǒng)的評分預測任務,設計并實現(xiàn)了一種基于增強多通道圖注意力的協(xié)同過濾推薦模型.在編碼階段的鄰域聚合部分,采取多通道的形式利用圖注意力模塊聚合表示不同偏好程度的用戶評分;在節(jié)點更新部分,增強自信息的節(jié)點更新算法充分學習到了中心節(jié)點的自身信息和內(nèi)在偏好.實驗結(jié)果表明,本模型針對交互數(shù)據(jù)具備較好的建模及特征表達能力,相比現(xiàn)有方案有更高的推薦精度.此外,本研究目前還存在一些需要改進的地方:在特征提取的過程當中,運用雙頭注意力對向量進行了復制,因此模型占用的顯存有所增加;本研究主要著力于分析交互數(shù)據(jù),對于多種類型的輔助信息未進一步利用,在后續(xù)的研究中將考慮融入更多反映用戶個性化的屬性信息,如用戶的社交屬性等來進一步緩解協(xié)同過濾算法的數(shù)據(jù)稀疏性問題.

      參" 考" 文" 獻:

      [1]" ADOMAVICIUS G, TUZHILIN A. Toward the next generation of recommender systems: a survey of the state-of-the-art and possible extensions[J]. IEEE Trans Knowl Data Eng, 2005, 17(6): 734-749. DOI: 10.1109/TKDE.2005.99.

      [2]" VERBERT K, MANOUSELIS N, OCHOA X, et al. Context-aware recommender systems for learning: a survey and future challenges[J]. IEEE Trans Learn Technol, 2012, 5(4): 318-335. DOI: 10.1109/TLT.2012.11.

      [3]" MOONEY R J, ROY L. Content-based book recommending using learning for text categorization[C]//Proceedings of the fifth ACM conference on Digital libraries, June 2-7, 2000, San Antonio, Texas, USA. ACM, 2000: 195-204. DOI: 10.1145/336597.336662.

      [4]" BREESE J S, HECKERMAN D, KADIE C. Empirical analysis of predictive algorithms for collaborative filtering[J]. ArXiv Preprint ArXiv:1301.7363, 2013.DOI:10.48550/arXiv.1301.7363.

      [5]" BALABANOVIC′ M, SHOHAM Y. Fab[J]. Commun ACM, 1997, 40(3): 66-72. DOI: 10.1145/245108.245124.

      [6]" 黃立威,江碧濤,呂守業(yè),等.基于深度學習的推薦系統(tǒng)研究綜述[J].計算機學報, 2018, 41(7): 1619-1647. DOI: 10.11897/SP.J.1016.2018.01619.

      [7]" LECUN Y, BENGIO Y, HINTON G. Deep learning[J]. Nature, 2015, 521: 436-444. DOI: 10.1038/nature14539.

      [8]" WU S W, SUN F, ZHANG W T, et al. Graph neural networks in recommender systems: a survey[J]. ACM Comput Surv, 2022, 55(5): 97. DOI: 10.1145/3535101.

      [9]" 林曉,周云翔,李大志,等.利用多尺度特征聯(lián)合注意力模型的圖像修復[J].計算機輔助設計與圖形學學報, 2022, 34(8): 1260-1271. DOI: 10.3724/SP.J.1089.2022.19172.

      [10]" 柴玉梅,員武蓮,王黎明,等.基于雙注意力機制和遷移學習的跨領域推薦模型[J].計算機學報, 2020, 43(10): 1924-1942. DOI: 10.11897/SP.J.1016.2020.01924.

      [11]" KIPF T N, WELLING M. Variational graph auto-encoders[J]. ArXiv Preprint ArXiv:1611.07308,2016.DOI:10.48550/arXiv.1611.07308.

      [12]" SALHA G, HENNEQUIN R, VAZIRGIANNIS M. Keep it simple: Graph autoencoders without graph convolutional networks[J]. ArXiv Preprint ArXiv:1910.00942, 2019.DOI:10.48550/arXiv.1910.00942.

      [13]" LI I, FABBRI A, HINGMIRE S, et al. R-vgae: Relational-variational graph autoencoder for unsupervised prerequisite chain learning[J]. ArXiv Preprint ArXiv:2004.10610, 2020.DOI: 10.48550/arXiv.2004.10610.

      [14]" VELIKOVIC′ P,CUCURULL G,CASANOVA A,et al.Graph attention networks[J]. ArXiv Preprint ArXiv:1710.10903,2017.DOI: 10.48550/arXiv.1710.10903.

      [15]" MA C, KANG P, WU B, et al. Gated attentive-autoencoder for content-aware recommendation[C]//Proceedings of the Twelfth ACM International Conference on Web Search and Data Mining, February 11 - 15, 2019, Melbourne VIC, Australia. ACM, 2019: 519-527. DOI: 10.1145/3289600.3290977.

      [16]" YU J L, YIN H Z, LI J D, et al. Enhancing social recommendation with adversarial graph convolutional networks[J]. IEEE Trans Knowl Data Eng, 2022, 34(8): 3727-3739. DOI: 10.1109/TKDE.2020.3033673.

      [17]" XU J X, ZHU Z L, ZHAO J X, et al. Gemini: a novel and universal heterogeneous graph information fusing framework for online recommendations[C]//Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery amp; Data Mining, July 6 - 10, 2020, Virtual Event, CA, USA. ACM, 2020: 3356-3365. DOI: 10.1145/3394486.3403388.

      [18]" WANG X, WANG R J, SHI C, et al. Multi-component graph convolutional collaborative filtering[J]. Proc AAAI Conf Artif Intell, 2020, 34(4): 6267-6274. DOI: 10.1609/aaai.v34i04.6094.

      [19]" BERG R, KIPF T N, WELLING M. Graph convolutional matrix completion[J]. ArXiv Preprint ArXiv:1706.02263,2017.DOI: 10.48550/arXiv.1706.02263.

      [20]" CANDS E J, RECHT B. Exact matrix completion via convex optimization[J]. Found Comput Math, 2009, 9(6): 717-772. DOI: 10.1007/s10208-009-9045-5.

      [21]" MONTI F, BRONSTEIN M M, BRESSON X. Geometric matrix completion with recurrent multi-graph neural networks[C]//Proceedings of the 31st International Conference on Neural Information Processing Systems, December 4-9, 2017, Long Beach, California, USA. ACM, 2017: 3700-3710. DOI: 10.5555/3294996.3295127.

      [22]" ZHENG Y, TANG B S, DING W K, et al. A neural autoregressive approach to collaborative filtering[C]//Proceedings of the 33rd International Conference on International Conference on Machine Learning - Volume 48, June 19 - 24, 2016, New York, NY, USA. ACM, 2016: 764-773. DOI: 10.5555/3045390.3045472.

      [23]" LI Q, ZHENG X, WU X. Collaborative autoencoder for recommender systems[J]. ArXiv E-prints, 2017.DOI:10.1145/3097983.3098077.

      (責任編輯:孟素蘭)

      猜你喜歡
      協(xié)同過濾
      基于用戶評分和項目類偏好的協(xié)同過濾推薦算法
      軟件導刊(2016年12期)2017-01-21 14:49:10
      基于用戶相似度加權(quán)的Slope One算法
      軟件(2016年4期)2017-01-20 09:44:28
      圖書推薦算法綜述
      改進的協(xié)同過濾推薦算法
      基于鏈式存儲結(jié)構(gòu)的協(xié)同過濾推薦算法設計與實現(xiàn)
      軟件導刊(2016年11期)2016-12-22 21:40:40
      基于相似傳播和情景聚類的網(wǎng)絡協(xié)同過濾推薦算法研究
      基于協(xié)同過濾算法的個性化圖書推薦系統(tǒng)研究
      混合推薦算法在電影推薦中的研究與評述
      關(guān)于協(xié)同過濾推薦算法的研究文獻綜述
      商(2016年29期)2016-10-29 15:22:08
      基于混合信任模型的協(xié)同過濾推薦算法
      404 Not Found

      404 Not Found


      nginx
      双城市| 区。| 大丰市| 大同市| 西青区| 新龙县| 如东县| 富源县| 华阴市| 临夏市| 平顺县| 樟树市| 南丹县| 班玛县| 绥化市| 婺源县| 永胜县| 峨眉山市| 金沙县| 贵港市| 闽清县| 平江县| 广安市| 鄂州市| 陆川县| 河北省| 平远县| 中江县| 大丰市| 盐亭县| 岱山县| 濉溪县| 大连市| 阿克| 武功县| 广昌县| 九台市| 邮箱| 威信县| 杭锦后旗| 武山县|