• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      一種基于深度學(xué)習(xí)的精準(zhǔn)商品推薦方法

      2021-11-05 02:48:02周思鳴畢忠勤李永斌
      關(guān)鍵詞:排序概率曲線

      周思鳴, 畢忠勤, 李永斌

      (上海電力大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院, 上海 200090)

      推薦系統(tǒng)在電子商務(wù)平臺(tái)中發(fā)揮著極其重要的作用,因?yàn)樗軒椭脚_(tái)向用戶推廣廣告和產(chǎn)品,帶來巨大的商業(yè)效益[1]。目前,協(xié)同過濾是應(yīng)用最廣泛的商業(yè)推薦算法。該算法通過學(xué)習(xí)已有的商品用戶評(píng)價(jià)建立評(píng)價(jià)矩陣,預(yù)測(cè)未評(píng)分商品的用戶評(píng)價(jià)[2]。隨著大數(shù)據(jù)時(shí)代的到來,用戶和產(chǎn)品的數(shù)量都在飆升。大多數(shù)產(chǎn)品只被一小部分用戶評(píng)價(jià)過。因此,評(píng)價(jià)矩陣的稀疏性嚴(yán)重影響了推薦結(jié)果的質(zhì)量[3]。

      為了提高推薦結(jié)果的準(zhǔn)確率,本文利用基于貝葉斯個(gè)性化排序(Bayesian Personalized Ranking,BPR)和棧式降噪自編碼器(Stack Denoising Auto-Encoder,SDAE)的深度學(xué)習(xí)網(wǎng)絡(luò)來確定每個(gè)商品獨(dú)有的相關(guān)性排序表,提出了一種新的推薦方法。此方法與以前依賴特定上下文信息的方法不同,對(duì)每個(gè)商品在特征提取步驟中選擇SDAE方法。該方法在輸入數(shù)據(jù)中加入噪聲,具有較強(qiáng)的泛化能力和魯棒性[4]。另外,通過對(duì)其他商品和自身的相似度排序,可以保證更相似的商品比不相似商品的相似度高,從而解決不平衡問題。

      1 模型描述

      1.1 模型結(jié)構(gòu)

      本文提出的模型融合了SDAE和BPR的優(yōu)點(diǎn),形成了一個(gè)新的深度學(xué)習(xí)模型(SDAE-BPR)。首先,通過SDAE對(duì)深度網(wǎng)絡(luò)進(jìn)行提取,每個(gè)條目的評(píng)價(jià)向量可以得到更復(fù)雜的隱藏特征表示。同時(shí)噪聲的加入也提高了模型的抗干擾性,使得提取的特征更加可靠。其次,最后的BPR排序部分可以更好地捕捉每個(gè)商品的獨(dú)特特征,給出每個(gè)商品之間相似度的概率,有效減少數(shù)據(jù)稀疏性的影響。模型結(jié)構(gòu)示意如圖1所示。

      圖1 系統(tǒng)模型結(jié)構(gòu)示意

      1.2 問題定義

      在提出的模型中,用u∈RN表示用戶,i∈RI表示商品。定義E∈[0,1]I×N表示全部用戶對(duì)所有商品的評(píng)分構(gòu)成的評(píng)價(jià)矩陣。eiu=E(i,u)=1表示用戶u∈RN對(duì)商品i∈RI感興趣,eiu=E(i,u)=0表示用戶u∈RN對(duì)商品i∈RI不感興趣。在實(shí)際應(yīng)用中,評(píng)價(jià)矩陣E通常是稀疏的,因?yàn)榇蟛糠钟脩艚佑|到的商品只是整個(gè)商品數(shù)據(jù)庫中極少的一部分。

      定義R∈[0,1]I×N表示商品之間相似概率構(gòu)成的相似概率矩陣,rij=R(i,j)=p(eij=1)表示商品i和商品j相似的概率。這樣對(duì)于每個(gè)商品i都可以分為兩個(gè)不相交的集合——即具有相似關(guān)系的商品集合Pi={u|rij=1},其余不確定相似關(guān)系的商品集合Mi={u|rij<1}。定義相似概率矩陣的目的是要實(shí)現(xiàn)推薦排序任務(wù)的學(xué)習(xí)模型,也就是保證有相似關(guān)系的商品全部排在相似關(guān)系不確定的商品前面。通過進(jìn)一步分析,把不確定相似關(guān)系的商品Mi分為未知的商品Ui和沒有相似關(guān)系的商品Ni,即Mi=Ui∪Ni。在排序任務(wù)的訓(xùn)練過程中,應(yīng)保證j∈Pi和k∈Mi,或者j∈Ui和k∈Ni,則商品相似概率rij應(yīng)該大于rik。在BPR中,這個(gè)關(guān)系稱為偏序關(guān)系j>ik。

      基于以上定義,本文的商品推薦可以分為兩類偏序關(guān)系:Pi與Mi之間的偏序關(guān)系{j>ik|j∈Pi和k∈Mi}和Ui與Ni之間的偏序關(guān)系{j>ik|j∈Ui和k∈Ni}。商品i的所有偏序關(guān)系式的集合表示為Ri={(j,k)|j>ik}。因此,可以看出在本文中商品推薦任務(wù)的實(shí)質(zhì)就是排序任務(wù),相比分類和擬合,排序任務(wù)可以更好地避免不平衡問題。這個(gè)排序任務(wù)的最終目標(biāo)是排序似然概率最大化,公式如下

      (1)

      1.3 特征提取

      SDAE將多個(gè)降噪編碼器連接在一起,是一種深度模型結(jié)構(gòu)。對(duì)于普通的自編碼器來說,如果僅僅通過最小化輸入、輸出之間的誤差來提取商品評(píng)分的特征,那么很容易得到一個(gè)恒等函數(shù)。本文采用多層降噪編碼器相連的原因在于,如果在每個(gè)商品的用戶評(píng)分中加入噪聲,自編碼器在重構(gòu)輸入數(shù)據(jù)時(shí)就需要被迫去除這種噪聲,因?yàn)樵黾恿巳コ肼暤倪^程,特征提取層訓(xùn)練后也會(huì)相應(yīng)得到一個(gè)比恒等函數(shù)更為復(fù)雜的函數(shù)。為了消除評(píng)分中噪聲的影響,在損失函數(shù)中加入L2正則項(xiàng)[5],其目的是對(duì)過大的權(quán)重進(jìn)行懲罰。在如今互聯(lián)網(wǎng)海量數(shù)據(jù)信息的背景下,淺層模型面對(duì)眾多商品的評(píng)分向量時(shí)表達(dá)能力有限,不能準(zhǔn)確區(qū)分出不同商品的特征。深度模型可以通過更強(qiáng)大的深層提取能力獲得用戶對(duì)每個(gè)商品評(píng)分背后隱藏的特質(zhì),在提取方面更形象、更具有代表性[6]。

      模型中的SDAE部分隱層H共3層,結(jié)構(gòu)為U-A-B,U為每條商品評(píng)分向量的輸入層,A,B分別為第1個(gè)隱層和第2個(gè)隱層。對(duì)于原始評(píng)分x按照比例在輸入網(wǎng)絡(luò)之前將其中的部分?jǐn)?shù)據(jù)賦值為0得到x~。把x~代入后采用逐層貪婪訓(xùn)練策略依次訓(xùn)練網(wǎng)絡(luò)的每一層,進(jìn)而預(yù)訓(xùn)練整個(gè)深度網(wǎng)絡(luò),最終使用最后一個(gè)隱層訓(xùn)練得到的編碼為該商品的隱特征,考慮到輸入數(shù)據(jù)的非線性和非負(fù)性,選擇Sigmoid函數(shù)作為SDAE部分的激活函數(shù),其中的權(quán)值矩陣為W,偏置向量為b。

      訓(xùn)練過程如下:首先代入x~經(jīng)過第1個(gè)隱層得到f1,再把f1代入解碼函數(shù)得到x′1,對(duì)于每一條輸入的商品評(píng)分,它在任一層的重構(gòu)誤差函數(shù)為

      (1-xn)log2(1-x′n)

      (2)

      式中:x′——評(píng)分經(jīng)編碼和解碼后的重構(gòu)。

      對(duì)于整個(gè)包含I條商品數(shù)據(jù)的訓(xùn)練集來說,它在該層的整體誤差函數(shù)為

      (3)

      式中:θ,λ——正則化參數(shù);

      h——神經(jīng)網(wǎng)絡(luò)的層數(shù);

      In——該層神經(jīng)網(wǎng)絡(luò)中商品元素的個(gè)數(shù)。

      每一次的訓(xùn)練目標(biāo)就是最小化這個(gè)誤差函數(shù)。其中,為了防止過擬合引入正則化參數(shù)λ來減小權(quán)重幅,對(duì)于每一層的誤差函數(shù)使用反向傳播法和隨機(jī)梯度下降法相結(jié)合求出這一層的參數(shù)θl,在這個(gè)參數(shù)下該層得到的輸出fl即為下一層隱層的輸入。重復(fù)迭代以上訓(xùn)練過程,保留每層訓(xùn)練得到的參數(shù)。

      1.4 排序?qū)W習(xí)

      模型結(jié)構(gòu)其余部分基于隱層H,在最后的輸出層采用BPR方法,對(duì)輸出結(jié)果做排序?qū)W習(xí),使最相似的商品排在最前面,最終推薦出的商品就從排名前k個(gè)商品中選取。訓(xùn)練模型使式(1)的似然概率最大化,整個(gè)模型的損失函數(shù)為

      λ1‖θc‖2+λ2‖θr‖2

      (4)

      θc={W11,W21,b11,b21}為SDAE部分的權(quán)重和偏置,θr={W2,b2,b3}是其他部分的參數(shù),即隱藏層和推理層的權(quán)重和偏置。經(jīng)過SDAE層的預(yù)訓(xùn)練后,再次對(duì)θc和θr使用反向傳播的隨機(jī)梯度下降法確定。當(dāng)梯度穩(wěn)定后,針對(duì)每個(gè)商品i計(jì)算其余所有商品和它相似的概率rij,并制作一個(gè)排名列表。系統(tǒng)根據(jù)這張排名列表向用戶推薦商品。在模型訓(xùn)練結(jié)束后,輸入任意兩個(gè)商品的用戶評(píng)價(jià)向量,可以得到這兩個(gè)商品相似的概率值即rij=p(eij=1),而這個(gè)概率值就是推薦商品的理由。

      隱藏層的輸入部分為Fi,Fj,Fk,即商品i,j,k經(jīng)過SDAE后提取出的特征,作用為將其嵌入Hi,Hj,Hk中作進(jìn)一步的計(jì)算。在該層的神經(jīng)網(wǎng)絡(luò)中選擇ReLU函數(shù)作為激活函數(shù),這里的隱層作用并非提取特征,因此可以選用一個(gè)信息量相對(duì)較少但收斂速度更快的ReLU函數(shù),即

      Hi=ReLU(W2Fi+b2)

      (5)

      推理層的輸入為Hi,Hj,Hk,輸出為rij和rik的相似概率,即

      (6)

      這里的激活函數(shù)選擇Sigmoid函數(shù)是因?yàn)橐WC最后輸出的概率rij∈[0,1]。在隱藏層中,為了提高訓(xùn)練的效率,所有的商品都使用了相同的參數(shù){w2,b2},但是在推理層每個(gè)商品都有自己獨(dú)特的參數(shù)b3,這樣更有利于發(fā)掘每個(gè)商品內(nèi)在的潛質(zhì),提高推薦的準(zhǔn)確性。rij與rik之間相似關(guān)系的概率定義為

      (7)

      2 實(shí)驗(yàn)結(jié)果分析

      2.1 數(shù)據(jù)集

      實(shí)驗(yàn)部分將本文所提出的模型SDAE-BPR與兩個(gè)現(xiàn)有經(jīng)典協(xié)同過濾商品推薦算法模型,即基于商品的協(xié)同過濾(IB-CF)、基于用戶的協(xié)同過濾(UB-CF)進(jìn)行了比較。以下實(shí)驗(yàn)分別基于互聯(lián)網(wǎng)上已經(jīng)公開的Movielens 20 M數(shù)據(jù)集和Movielens 1 M數(shù)據(jù)集,數(shù)據(jù)集分別包含20 M和1 M大小的真實(shí)用戶對(duì)各個(gè)電影的評(píng)分txt文件。每種方法都在數(shù)據(jù)集中使用10折交叉驗(yàn)證,并顯示平均結(jié)果。

      2.2 評(píng)價(jià)指標(biāo)

      為了檢驗(yàn)不同方法在指定數(shù)據(jù)集上的性能,使用受試者工作曲線下的面積(AUC)和歸一化折損累計(jì)增益(NDCG)作為指標(biāo)[7]來評(píng)估不同推薦方法的性能,并繪制P-R曲線圖進(jìn)行直觀比較。AUC能夠衡量一個(gè)學(xué)習(xí)器的優(yōu)劣,AUC的值越大,通常可以說明該學(xué)習(xí)器的效果越好。NDCG表示高關(guān)聯(lián)度結(jié)果是否排名靠前,NDCG值越高,說明排序靠前的結(jié)果相關(guān)性越高。P-R曲線是以精準(zhǔn)率和召回率為變量而做出的曲線,其中召回率為橫坐標(biāo),精準(zhǔn)率為縱坐標(biāo)。如果一個(gè)學(xué)習(xí)器的P-R曲線被另一個(gè)學(xué)習(xí)器的P-R曲線完全包住,則可斷言后者的性能優(yōu)于前者。

      2.3 實(shí)驗(yàn)結(jié)果

      為了測(cè)量3種模型在不同大小數(shù)據(jù)集上的性能,分別使用Movielens 20 M和Movielens 1 M數(shù)據(jù)集對(duì)這些模型進(jìn)行驗(yàn)證。AUC和NDCG@6以及P-R曲線的結(jié)果對(duì)比如表1、圖2、圖3所示。

      圖2 Movielens 20 M上的PR曲線

      圖3 Movielens 1 M上的PR曲線

      表1 3種模型的AUC和NDCG@6結(jié)果對(duì)比

      由表1的數(shù)據(jù)可以看出:對(duì)于Movielens 20 M數(shù)據(jù)集,SDAE-BPR的AUC比IB-CF高2.6%。比UB-CF高4.1%;對(duì)于Movielens 1 M數(shù)據(jù)集,SDAE-BPR的AUC比IB-CF高1.7%,比UB-CF高3.1%。在橫向比較的基礎(chǔ)上,隨著訓(xùn)練樣本大小的增加,模型能夠更好地?cái)M合。因此,這3種模型在大型數(shù)據(jù)集上的性能都優(yōu)于小型數(shù)據(jù)集。從縱向上看,SDAE-BPR在每個(gè)訓(xùn)練集上的表現(xiàn)最好,其次是IB-CF,而UB-CF的性能最差。

      由圖2和圖3可以看出,SDAE-BPR的P-R曲線基本包住了其他兩個(gè)模型的曲線。根據(jù)前文對(duì)P-R曲線的定義,可以得出SDAE-BPR的綜合性能在大數(shù)據(jù)集和小數(shù)據(jù)集上都是最好的。這里得出的結(jié)論與AUC的結(jié)果一致。通過比較這兩個(gè)結(jié)果,可以清楚地看出SDAE-BPR比其他兩種經(jīng)典協(xié)同過濾商品推薦算法模型具有更好的綜合性能。但是在圖3中,所有模型的P-R曲線幾乎重合。這一現(xiàn)象說明本文提出的模型在數(shù)據(jù)量大的情況下更能表現(xiàn)出較好的效果。

      圖4和圖5為選取不同n值時(shí)3種模型的NDCG結(jié)果圖。由圖4和圖5可以看出:當(dāng)n=6時(shí),NDCG趨于穩(wěn)定,因此選擇6作為n的值;SDAE-BPR的曲線遠(yuǎn)高于其他兩條曲線,即SDAE-BPR模型的NDCG@n也大于其他兩種經(jīng)典協(xié)同過濾商品推薦算法模型。由此可以證明SDAE-BPR的排序結(jié)果總是比經(jīng)典算法模型更精確。

      圖5 Movielens 1 M上的NDCG結(jié)果

      3 結(jié) 語

      本文把已有的BPR模型和SDAE相結(jié)合來推薦商品,其中SDAE部分用來提取用戶評(píng)價(jià)向量的隱特征,BPR部分利用已提取的隱特征來獲取商品的深層特性,并在此基礎(chǔ)上提出了一套適用于該模型的預(yù)訓(xùn)練和微調(diào)策略用于提高訓(xùn)練效率和推薦準(zhǔn)確度。經(jīng)過實(shí)驗(yàn)驗(yàn)證,所提出的模型比現(xiàn)有的經(jīng)典協(xié)同過濾商品推薦算法模型具有更良好的性能,如準(zhǔn)確率更高,排序結(jié)果更好,也避免了稀疏性的影響。但是該模型仍有一些缺點(diǎn),如當(dāng)數(shù)據(jù)量較大時(shí),對(duì)每個(gè)商品提取特征并且計(jì)算任意兩個(gè)商品的相似概率,模型的學(xué)習(xí)和數(shù)據(jù)的保存都可能會(huì)遇到困難,因此在大規(guī)模的商業(yè)應(yīng)用之前還需要進(jìn)行優(yōu)化。

      猜你喜歡
      排序概率曲線
      未來訪談:出版的第二增長(zhǎng)曲線在哪里?
      出版人(2022年8期)2022-08-23 03:36:50
      第6講 “統(tǒng)計(jì)與概率”復(fù)習(xí)精講
      排序不等式
      第6講 “統(tǒng)計(jì)與概率”復(fù)習(xí)精講
      概率與統(tǒng)計(jì)(一)
      概率與統(tǒng)計(jì)(二)
      幸福曲線
      英語文摘(2020年6期)2020-09-21 09:30:40
      沿平坦凸曲線Hilbert變換的L2有界性
      恐怖排序
      節(jié)日排序
      大邑县| 慈溪市| 色达县| 绩溪县| 成武县| 娱乐| 平顺县| 禄劝| 华坪县| 昌平区| 五原县| 东城区| 丰镇市| 乐平市| 栖霞市| 合山市| 富川| 扎鲁特旗| 余姚市| 鄂托克旗| 宝坻区| 舒城县| 武宁县| 陆河县| 尉氏县| 赤峰市| 通榆县| 防城港市| 辽阳市| 枣阳市| 嵊泗县| 新巴尔虎左旗| 芷江| 玉门市| 瑞丽市| 沁水县| 忻州市| 休宁县| 闸北区| 昆明市| 龙口市|