• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      面向推薦系統(tǒng)中有偏和無偏一元反饋建模的三任務變分自編碼器

      2021-11-10 07:20:04林子楠劉杜鋼潘微科
      信息安全學報 2021年5期
      關鍵詞:偏置編碼器校正

      林子楠, 劉杜鋼, 潘微科, 明 仲

      1 深圳大學大數(shù)據(jù)系統(tǒng)計算技術國家工程實驗室 深圳 中國 518060

      2 人工智能與數(shù)字經(jīng)濟廣東省實驗室(深圳) 深圳 中國 518060

      3 深圳大學計算機與軟件學院 深圳 中國 518060

      1 引言

      隨著互聯(lián)網(wǎng)的快速發(fā)展, 信息的數(shù)量呈現(xiàn)出爆炸性的增長, 這進一步加劇了信息過載的問題。為了緩解這一問題, 推薦系統(tǒng)應運而生[1-4], 并被用于從海量的信息中為用戶提供有效的信息, 從而滿足用戶的需求。推薦系統(tǒng)的基本思路是通過對用戶的歷史行為、興趣偏好等信息進行建模和分析, 挖掘出用戶的需求, 進而為用戶推薦可能感興趣的物品。

      在推薦系統(tǒng)中, 用戶的行為(即對物品的反饋)可分為多元反饋、二元反饋和一元反饋等。多元反饋指的是用戶對物品的反饋是顯式且具有多個等級的,例如用戶給物品進行打分, 打分范圍為{1,2,3,4,5}。二元反饋和多元反饋類似, 用戶對物品的反饋也是顯式的, 但不同于多元反饋, 用戶的反饋只有兩個等級, 即喜歡和不喜歡。而一元反饋指的是用戶對物品的反饋是隱式的, 是由系統(tǒng)根據(jù)用戶的行為自行記錄的, 例如點擊和購買等。在現(xiàn)實生活中, 多元反饋和二元反饋都需要用戶主動對物品進行反饋, 收集過程較為困難, 而一元反饋是由系統(tǒng)自行記錄的,收集過程相對容易, 這使得一元反饋在推薦系統(tǒng)中更為常見, 并且得到了更廣泛的應用。然而, 一元反饋建模存在一個巨大的挑戰(zhàn), 即用戶的反饋不一定能反映用戶的真實偏好, 比如點擊并不代表用戶一定喜歡, 而沒有反饋也不代表用戶不感興趣, 有可能只是物品沒有被用戶觀測到, 從而使得沒有瀏覽、點擊或購買等行為被系統(tǒng)記錄下來。

      現(xiàn)有的大部分推薦模型在建模的過程中, 往往忽略了一個重要問題, 即推薦系統(tǒng)中的偏置問題。因為推薦系統(tǒng)作為一個閉環(huán)的反饋系統(tǒng), 在用戶與系統(tǒng)的交互過程中容易出現(xiàn)多種偏置問題[5-8]。例如位置偏置, 它指的是用戶傾向于點擊展示位置靠前的物品[6]; 流行偏置, 它指的是系統(tǒng)傾向于向用戶推薦流行度較高的物品, 也就是越受歡迎的物品越可能被推薦給用戶[7]。除此之外, 還有選擇偏置、曝光偏置等等, 這些偏置使得系統(tǒng)收集到的用戶歷史行為數(shù)據(jù)存在有偏性, 而現(xiàn)有的大部分推薦模型都只基于這樣的有偏數(shù)據(jù)來構(gòu)建。一些研究工作從理論和實驗兩方面說明, 忽略偏置問題會導致得到次優(yōu)的推薦模型, 而解決這些偏置問題能夠提高推薦模型的性能[5,9-11]。因此, 基于這樣的背景, 本文重點研究了推薦系統(tǒng)中一元反饋的偏置問題, 旨在提出一種新的推薦模型。

      為了緩解這一偏置問題, 本文引入了無偏數(shù)據(jù),通過與有偏數(shù)據(jù)進行聯(lián)合建模, 來獲得更加精準的推薦模型。其中, 無偏數(shù)據(jù)指的是推薦系統(tǒng)通過采用隨機的推薦策略而收集到的反饋數(shù)據(jù), 因為推薦策略的隨機性, 故可以被認為是不受偏置影響的[10-12]。有偏數(shù)據(jù)指的是推薦系統(tǒng)通過采用常規(guī)的推薦策略而收集到的反饋數(shù)據(jù), 被認為是固有地受到偏置影響的。一般而言, 因為采用隨機策略的推薦結(jié)果較差,會帶來用戶的流失和平臺的損失, 所以無偏數(shù)據(jù)的收集規(guī)模通常都較小。因此, 如何有效地利用無偏數(shù)據(jù)是本文研究問題的挑戰(zhàn)之一。除此之外, 有偏數(shù)據(jù)的規(guī)模比無偏數(shù)據(jù)大得多, 且由于推薦策略的不同導致有偏數(shù)據(jù)和無偏數(shù)據(jù)之間存在異構(gòu)性, 如何有效地結(jié)合有偏數(shù)據(jù)和無偏數(shù)據(jù)進行聯(lián)合建模是本文研究問題的另一個挑戰(zhàn)。

      先前的研究工作表明引入無偏數(shù)據(jù)可以有效緩解偏置的影響[10-11]。在文獻[10]中, 作者提出了一種新的領域自適應算法, 通過正則化約束來糾正模型的參數(shù), 從而達到消除偏置的目的。但是, 當模型參數(shù)維度較高時, 參數(shù)對齊較難訓練, 使得模型不能取得很好的效果。在文獻[11]中, 作者提出了一個新的基于知識蒸餾的框架, 并從四個不同層面提出了多種策略, 旨在通過利用無偏數(shù)據(jù)或由無偏數(shù)據(jù)訓練的預訓練模型來消除偏置, 但是作者只是簡單地使用了某一種策略, 不能充分利用無偏數(shù)據(jù)中的信息。除此之外, 先前的大部分研究工作認為偏置隱式地反映在標簽或者模型參數(shù)上, 并且只在標簽或模型參數(shù)的層面上來緩解偏置問題[5,9-13], 很少有研究工作從特征的角度來解決偏置問題[14]。

      因此, 根據(jù)研究問題的挑戰(zhàn)和已有研究工作的局限, 本文提出了一種新的視角, 即從多任務學習的角度來解決偏置問題, 把有偏數(shù)據(jù)、無偏數(shù)據(jù)和聯(lián)合數(shù)據(jù)當作三種相互關聯(lián)的信號, 分別對應三個不同但相關的學習任務。其中, 聯(lián)合數(shù)據(jù)指的是有偏數(shù)據(jù)和無偏數(shù)據(jù)的并集。目前在一元反饋問題中, 變分自編碼器模型取得了非常好的推薦性能[15-16]。為此,本文基于變分自編碼器提出了一個新的模型, 即三任務變分自編碼器。該模型包含三個變分自編碼器,分別對這三種數(shù)據(jù)進行重構(gòu)。變分自編碼器之間共享同一個編碼器和同一個解碼器。此外, 在三個任務之間, 本文設計了特征校正模塊和標簽增強模塊來加強任務之間的關聯(lián)。其中, 特征校正模塊用于校正用戶的潛在特征, 得到更無偏的潛在特征, 進而從潛在特征的角度來緩解偏置的影響。標簽增強模塊通過無偏數(shù)據(jù)訓練的無偏模型來生成可靠性較高的偽標簽并加以利用, 從而更有效地利用無偏數(shù)據(jù)中的信息。

      本文的主要貢獻如下:

      1) 研究了推薦系統(tǒng)中的一個重要問題——一元反饋的偏置問題, 提出了一種新的解決方案, 將結(jié)合有偏數(shù)據(jù)和無偏數(shù)據(jù)的偏置消除問題建模成一個多任務學習問題, 即把有偏數(shù)據(jù)、無偏數(shù)據(jù)和聯(lián)合數(shù)據(jù)當作三種不同但相互關聯(lián)的數(shù)據(jù), 并為此設計了一個新的三任務變分自編碼器;

      2) 提出了特征校正模塊和標簽增強模塊, 其中,特征校正模塊用于獲得無偏的用戶潛在特征, 進而從潛在特征的角度緩解偏置的影響, 而標簽增強模塊能夠更加充分地利用無偏數(shù)據(jù)中的信息;

      3) 在兩個不同領域的真實數(shù)據(jù)集上進行了大量的實驗, 結(jié)果表明, 相比于現(xiàn)有最新的解決偏置的推薦模型, 本文提出的模型取得了更好的推薦效果。

      2 相關工作

      2.1 面向推薦系統(tǒng)中一元反饋建模的方法

      面向推薦系統(tǒng)中一元反饋建模的方法指的是通過一元反饋數(shù)據(jù)來學習用戶和物品之間的關系, 為每個用戶生成對應的個性化推薦列表。到目前為止,推薦系統(tǒng)中一元反饋方法大致可以劃分為基于鄰域的方法、基于分解的方法和基于神經(jīng)網(wǎng)絡的方法。

      基于鄰域的方法包括基于用戶鄰域的方法和基于物品鄰域的方法。基于用戶鄰域的方法通過計算用戶之間的相似度, 為每個用戶找到最相似的用戶集合, 并推薦與相似用戶有交互而與用戶本身未交互的物品[17-19]; 類似地, 基于物品鄰域的方法則是計算物品之間的相似度, 為每個用戶找到和他自身有交互的物品的相似物品, 并進行推薦[20-21]。常用的計算相似度的方法有余弦相似度、杰卡德指數(shù)和關聯(lián)規(guī)則[22]等等。此類算法計算簡單、可解釋性較好,但無法學習用戶與物品之間較為復雜的關系。

      基于分解的方法的主要思想是構(gòu)建低維度的數(shù)學模型來表示用戶與物品之間的關系, 再通過訓練數(shù)據(jù)來學習模型的參數(shù)。比較有代表性的工作有貝葉斯個性化排序[23]、分解的物品相似度模型(Factored Item Similarity Models, FISM)[24]和對數(shù)幾率矩陣分解(Logistic Matrix Factorization, LMF)[25]。貝葉斯個性化排序采用成對的思想來構(gòu)建形如三元組( u , i ,j)的訓練數(shù)據(jù), 并認為用戶u 對i 的喜歡程度大于j,其中u 表示用戶, i 表示與用戶u 有交互的物品, j表示與用戶u 沒有交互的物品。結(jié)合基于矩陣分解的思想, 即使用兩個維度更小的矩陣來表示用戶和物品的潛在特征, 通過使用三元組數(shù)據(jù)進行訓練, 學習用戶和物品的潛在特征。分解的物品相似度模型(FISM)創(chuàng)新性地提出物品之間的相似度可以通過學習得到, 并通過構(gòu)建物品的潛在特征向量, 利用訓練數(shù)據(jù)來學習用戶對物品的偏好程度。類似地, 對數(shù)幾率矩陣分解(LMF)結(jié)合矩陣分解的思想, 并利用對數(shù)幾率損失函數(shù)來擬合數(shù)據(jù), 學習用戶和物品的潛在特征。此類方法能夠有效學習用戶與物品之間的線性關系, 但無法學習它們之間更為復雜的非線性關系。

      基于神經(jīng)網(wǎng)絡的方法在近幾年才被提出, 通過利用深度學習技術來學習用戶與物品之間的高維度關系, 彌補了以往算法無法學習它們之間非線性關系的缺陷[16,26-27]。此類方法包括基于多層感知器的方法和基于自編碼器的方法, 其中比較有代表性的工作有神經(jīng)協(xié)同過濾(Neural Collaborative Filtering,NCF)[26]和變分自編碼器(Variational Autoencoder,VAE)[16]等。神經(jīng)協(xié)同過濾(NCF)使用多層感知器代替原本用戶和物品潛在特征之間的點乘操作, 從而實現(xiàn)非線性交互。此外, NCF 將矩陣分解和多層感知器統(tǒng)一在同一個框架下, 結(jié)合了它們之間的優(yōu)勢,同時捕獲用戶和物品的潛在特征之間的線性和非線性交互。變分自編碼器(VAE)是目前在一元反饋建模方法中推薦性能最好的方法之一。它首先將用戶與物品的交互記錄編碼成變分概率分布, 并使用多項式似然來模擬一元反饋數(shù)據(jù)的生成過程, 對原始輸入數(shù)據(jù)進行重構(gòu)。區(qū)別于以往的研究工作, 變分自編碼器學到的是用戶潛在特征的概率分布, 而不是用戶潛在特征的點值, 這也是該算法取得非常突出的性能的主要原因。

      2.2 面向推薦系統(tǒng)中有偏反饋建模的方法

      推薦系統(tǒng)中偏置消除問題起步較晚, 近幾年才逐漸被學術界和工業(yè)界重視。目前偏置消除的方法大致可以分為基于反事實學習的方法、基于啟發(fā)式的方法和基于無偏數(shù)據(jù)增強的方法[11]。

      基于反事實學習的方法主要是從因果推理的角度來緩解偏置問題, 目前其中一個主流的方法是引入逆傾向性得分(Inverse Propensity Score, IPS)評估器, 即給每一個觀測到的樣本都賦予一個傾向性得分, 從而學習一個更無偏的模型[9,28-29]。此類方法需要根據(jù)一些假設來設計傾向得分評估器, 因為真實的傾向性得分是無法求得的, 從而導致此類方法的準確性和穩(wěn)定性取決于評估方法本身。在文獻[28]中, 作者通過引入曝光概率, 根據(jù)物品的流行度來計算每個樣本的傾向性得分。在文獻[29]中, 作者通過神經(jīng)網(wǎng)絡模型來學習樣本的傾向性得分。但是, 這些傾向性得分的評估方法容易出現(xiàn)高方差等缺點,為了緩解這一問題, 在文獻[30]中, 作者提出了雙穩(wěn)健(Doubly Robust, DR)評估器, 利用插補模型來提高模型的穩(wěn)定性。除此之外, 在文獻[13]中, 作者提出了一個非對稱訓練框架, 利用兩個模型來產(chǎn)生更具無偏性的偽標簽, 以此加強第三個模型的訓練。但該方法的有效性取決于偽標簽的準確性, 而偽標簽的生成又受限于超參數(shù)的設置。在文獻[31]中, 作者建立了有關流行偏置產(chǎn)生的因果圖, 認為用戶對物品的反饋和用戶與物品之間的匹配程度、物品的流行度和用戶的活躍度有關, 并為此設計了一個多任務學習框架。但該方法僅用于解決流行偏置問題, 具有一定的局限性。

      基于啟發(fā)式的方法目前較少, 其主要思路是通過分析造成偏置的原因并作適當?shù)募僭O, 以此達到消除偏置的目的。但是偏置往往較為復雜, 并不是由單一因素造成的, 所以采用此類方法來解決偏置是也是比較困難的。在文獻[32]中, 作者假設推薦系統(tǒng)中偏置的產(chǎn)生和沉默的螺旋理論有關, 并提出了一種模擬沉默螺旋產(chǎn)生的概率模型。

      基于無偏數(shù)據(jù)增強的方法通過引入無偏數(shù)據(jù),對有偏數(shù)據(jù)和無偏數(shù)據(jù)進行聯(lián)合建模, 從而達到解決偏置問題的目的[10-11,33-35]。此類方法是目前穩(wěn)定性和準確性較好的方法, 因為與上述方法相比, 此類方法引入了更多真實的無偏信息。在文獻[34-35]中,作者利用無偏數(shù)據(jù)來協(xié)助傾向性得分的計算, 得到更加穩(wěn)定且準確的傾向性得分。同樣地, 此類方法也受限于傾向性得分評估方法的準確性。在文獻[10]中, 作者認為偏置的產(chǎn)生可以通過模型參數(shù)來進行糾正并提出了CauseE 算法, 通過引入額外的正則化項來約束有偏模型和無偏模型的參數(shù)。其中, 有偏模型是指使用有偏數(shù)據(jù)進行訓練得到的模型, 而無偏模型是指使用無偏數(shù)據(jù)進行訓練得到的模型。然而,當模型參數(shù)的維度較高時, 參數(shù)對齊本身也是一個較難的問題。在文獻[11]中, 作者提出了一個基于知識蒸餾的框架, 即利用無偏數(shù)據(jù)訓練得到一個無偏模型, 從蒸餾的角度提取無偏模型中的有效信息,進而和有偏數(shù)據(jù)進行聯(lián)合訓練來消除偏置的影響。但是, 該方法沒有充分利用無偏數(shù)據(jù)中蘊含的信息,因為僅僅是簡單地使用了某一種策略。在文獻[33]中, 作者先利用無偏數(shù)據(jù)訓練得到因果遷移隨機森林模型, 接著再利用有偏數(shù)據(jù)和無偏數(shù)據(jù)進行校正。該方法主要用于解決位置偏置問題, 且模型復雜度較高。因此, 為了更好地利用無偏數(shù)據(jù)中的信息, 本文從多任務學習的角度出發(fā), 聯(lián)合有偏數(shù)據(jù)和無偏數(shù)據(jù)進行建模, 并設計了特征校正模塊和標簽增強模塊來緩解偏置問題。

      3 問題描述

      3.1 定義

      本文使用 U = {u } = {1 ,2,… ,n}表示所有用戶的集合, I = {i} = {1 ,2, …,m}表示所有物品的集合,SA= {( u ,i)}和 ST= {( u ,i)}表示包含這些用戶對物品的一元反饋的兩個日志數(shù)據(jù)。其中, SA是系統(tǒng)使用常規(guī)的推薦策略進行推薦時產(chǎn)生的, 具有規(guī)模較大和相對有偏的特點; ST是系統(tǒng)使用隨機的推薦策略進行推薦時產(chǎn)生的, 具有規(guī)模較小和相對無偏的特點。本文使用 XA?{0 ,1}n×m和XT?{0 ,1}n×m分別表示由SA和ST構(gòu)成的用戶與物品的交互矩陣。此外, 本文使用SC表示聯(lián)合數(shù)據(jù), 即SC= SA∪ST,以及 XC?{ 0,1}n×m表示由SC構(gòu)成的用戶與物品的交互矩陣。本文的目標是在給定有偏數(shù)據(jù)SA和無偏數(shù)據(jù)ST的前提下, 如何對它們進行聯(lián)合建模來緩解偏置問題, 從而獲得一個更加精準的個性化推薦模型。

      3.2 挑戰(zhàn)

      本文研究的問題存在以下三個挑戰(zhàn):

      1) 通常情況下, 無偏數(shù)據(jù)的規(guī)模較小。為了盡可能地減少偏置的影響, 從推薦系統(tǒng)中收集無偏數(shù)據(jù)需要采用隨機的推薦策略。然而, 采用隨機策略的推薦結(jié)果往往很差, 這不僅會降低用戶的體驗, 而且會導致系統(tǒng)帶來的收益大幅下降。因此, 為了盡可能地減少損失, 無偏數(shù)據(jù)的收集過程不會持續(xù)很久,從而使得其數(shù)據(jù)規(guī)模是較為有限的。

      2) 有偏數(shù)據(jù)和無偏數(shù)據(jù)的規(guī)模差別較大, 有著嚴重的不平衡性。不同于無偏數(shù)據(jù), 獲取有偏數(shù)據(jù)是相對容易的, 從而導致了它們之間的數(shù)據(jù)規(guī)模的不一致性。

      3) 有偏數(shù)據(jù)和無偏數(shù)據(jù)具有異構(gòu)性, 因為它們分別是由兩組不同性質(zhì)的推薦策略產(chǎn)生的, 導致用戶對物品的反饋所代表的偏好信息有所不同。在有偏數(shù)據(jù)中, 用戶對物品的反饋不一定是因為用戶喜歡物品, 有可能是受到了偏置的影響; 而在無偏數(shù)據(jù)中, 這通常表示用戶喜歡相應的物品。

      4 三任務變分自編碼器

      4.1 概述

      針對上述挑戰(zhàn), 本文從一個新的角度對有偏數(shù)據(jù)和無偏數(shù)據(jù)進行聯(lián)合建模, 將有偏數(shù)據(jù)SA、無偏數(shù)據(jù)ST和聯(lián)合數(shù)據(jù)SC看作3 種不同但相互關聯(lián)的信號, 分別用于學習不同的用戶偏好, 并基于變分自編碼器, 提出了一種新的推薦模型, 即三任務變分自編碼器(Tri-VAE), 如圖1 所示。Tri-VAE 包含了3 個子模型, 分別記為MA、MT和MC。它們的作用分別是對SA、ST和SC進行重構(gòu)。在這個3 個子模型中, MC作為目標子模型, 其預測輸出作為最終的推薦結(jié)果, 而另外兩個子模型作為輔助子模型。3個子模型之間通過以下兩個方面進行關聯(lián), 一是它們共享同一個編碼器和同一個解碼器, 二是MA和MT通過特征校正模塊(Feature Calibration Module,FCM)和標簽增強模塊(Label Enhancement Module,LEM)來協(xié)助MC的學習。其中, 特征校正模塊指的是利用MA和MT的用戶潛在特征來校正MC的用戶潛在特征, 以獲得更無偏的用戶潛在特征; 標簽增強模塊則是進一步利用MT的預測輸出來訓練MC, 因為MT是重構(gòu)無偏數(shù)據(jù), 可以認為是相對無偏的模型, 其預測輸出包含了較為豐富的無偏信息。

      圖1 三任務變分自編碼器模型架構(gòu)。該模型包含三個子模型, 分別是MA 、MT 和MC , 其中MC 作為目標子模型, 旨在產(chǎn)生更精準的推薦結(jié)果。三個子模型之間共享同一個編碼器和同一個解碼器, 并通過特征校正模塊(Feature Calibration Module, FCM)和標簽增強模塊(Label Enhancement Module, LEM)進行關聯(lián)Figure 1 llustration of tri-task variational autoencoder (Tri-VAE). It contains three sub-models of MA , MT and MC , where MC is used as the target sub-model to produce more accurate recommendation results. The three sub-models share the same encoder and decoder, and are associated through the feature calibration module (FCM)and the label enhancement module (LEM).

      4.2 有偏數(shù)據(jù)重構(gòu)

      在Tri-VAE中, 子模型MA的作用是重構(gòu)有偏數(shù)據(jù)SA。該子模型是變分自編碼器, 其模型結(jié)構(gòu)和Mult-VAE[16]一樣, 包含編碼器和解碼器。其中, 編碼器是推理模型, 將輸入數(shù)據(jù)通過多層感知器壓縮成用戶潛在特征的變分分布, 得到均值和標準差; 解碼器則是生成模型, 從用戶潛在特征的變分分布中隨機采樣, 通過多層感知器對原始輸入數(shù)據(jù)進行重構(gòu)。在子模型MA中, 使用?R1×k表示用戶潛在特征,?R1×k和?R1×k分別表示用戶潛在特征的變分分布的均值和標準差, 其中k 指的是用戶潛在特征的維度。由XA可以得到每個用戶與所有物品產(chǎn)生的交互向量, 記為?{ 0,1}1×m, 并將其作為編碼器的輸入, 通過多層感知器可以得到用戶潛在特征的變分分布qφ(|), 從該變分分布隨機采樣可得到, 進而有

      其 中, Wμ?Rm×k和 Wσ?Rm×k指 的 是 權 重 矩 陣,bμ?R1×k和 bσ?R1×k指的是偏置向量。

      根據(jù)以上描述, 可以得到子模型MA總的損失函數(shù), 即

      其中, β 是超參數(shù)。

      4.3 無偏數(shù)據(jù)重構(gòu)

      在Tri-VAE中, 子模型MT的作用是重構(gòu)無偏數(shù)據(jù)ST。該子模型的模型結(jié)構(gòu)和MA一樣, 具有相同的編碼器和解碼器。在子模型MT中, 使用?R1×k表示用戶的潛在特征,?R1×k和?R1×k分別表示用戶潛在特征的變分分布的均值和標準差。在給定XT的情況下, 可以得出每個用戶和所有物品產(chǎn)生的交互向量, 記為?{ 0,1}1×m。具體而言, 將的潛在特征的變分分布并由該分布隨作為MT的輸入,通過多層感知器可以得到用戶機采樣得到, 即

      其中, β 是超參數(shù)。

      4.4 聯(lián)合數(shù)據(jù)重構(gòu)

      在Tri-VAE 中, 子模型MC的作用是重構(gòu)聯(lián)合數(shù)據(jù)SC, 即同時重構(gòu)SA和ST。與MA和MT一樣, 該子模型也是變分自編碼器, 有著相同的編碼器和解碼器。在子模型MC中, 使用?R1×k表示用戶的潛在特征,和分別表示用戶潛在特征的變分分布的均值和標準差。由XC可以得出每個用戶和所有物品產(chǎn)生的交互向量, 記為。將作為MC的輸入, 通過多層感知器來得到用戶潛在特征的變分分布, 并由該分布隨機采樣得到, 即有

      從信息的角度來看, 聯(lián)合數(shù)據(jù)是由有偏數(shù)據(jù)和無偏數(shù)據(jù)組成的, 那么它所包含的信息是最豐富的,故在Tri-VAE 中, 將MC作為目標子模型。然而, 因為有偏數(shù)據(jù)和無偏數(shù)據(jù)的規(guī)模不同, 有偏數(shù)據(jù)占據(jù)了大部分。因此, 為了獲得更精準的無偏的個性化推薦模型, MC應當有效地緩解偏置的影響。然而, 偏置本身是隱蔽的, 無法直接通過某種測量方式來衡量, 所以只能從間接的角度來解決這一問題。

      先前的大部分研究工作認為偏置隱式地反映在標簽或模型參數(shù)上[5,9-13], 并從標簽的角度或從模型參數(shù)的角度上來緩解偏置的影響。很少有研究工作從特征的角度、潛在特征的角度、或結(jié)合多個角度來解決偏置問題。

      受潛在特征的性質(zhì)的啟發(fā), 不同類型的數(shù)據(jù)所對應的潛在特征不同。故本文從潛在特征的角度來緩解偏置問題, 即認為偏置實際上隱藏在用戶的潛在特征中。也就是說, 由子模型MA和MC得到的和是相對有偏的, 而子模型MT得到的是相對無偏的。因為是從有偏數(shù)據(jù)學習得到的, 而是從無偏數(shù)據(jù)學習得到的。對于而言, 盡管它是從聯(lián)合數(shù)據(jù)學習而來, 但聯(lián)合數(shù)據(jù)中大部分都屬于有偏數(shù)據(jù)。那么此時, 可以通過衡量,和的之間的差異來間接地緩解偏置的影響。因此,基于這樣的動機, 本文設計了一個特征校正模塊(Feature Calibration Module, FCM), 即以為基準,利用和之間的差異來消除中的偏置特征,從而獲得無偏的用戶潛在特征。

      其中, d ?R1×k指的是和的差異。

      其中, g (?)指的是一個具體的激活函數(shù), Wf?R2k×k和 bf?R1×k分別是特征校正模塊的權重矩陣和偏置向量。

      在子模型MC中, 本文使用表示由解碼器生成的用戶和所有物品產(chǎn)生的交互向量, 其計算公式如(24)所示。之后再通過最小化重構(gòu)損失函數(shù)來優(yōu)化模型。但不同于子模型MA和MT直接對輸入的數(shù)據(jù)進行重構(gòu), 子模型MC在重構(gòu)過程中, 并沒有直接讓和盡可能地接近, 而是對有偏數(shù)據(jù)SA和無偏數(shù)據(jù)ST作了區(qū)別對待。理想情況下, MC的輸出應當更接近無偏, 而SA本身是有偏的。受偏置信息反映在標簽上的啟發(fā), 如果直接對SA進行重構(gòu)可能會影響模型最后的推薦性能。因此, 借鑒文獻[11]中的Weight 策略的思路, 本文在重構(gòu)SA時設置置信度來控制, 以保證模型的無偏性。具體而言, 本文為重構(gòu)的損失函數(shù)設置了權重 α ? ( 0,1), 而將重構(gòu)的損失函數(shù)的權重設置為1, 即有

      另外, 在本文提出的Tri-VAE 中, 由于MT是在重構(gòu)無偏數(shù)據(jù), 故MT的預測輸出可以被認為是相對無偏的標簽。受文獻[11]中的啟發(fā), MT的預測輸出包含了較為豐富的無偏信息。因此, 為了加強對無偏數(shù)據(jù)中的信息的利用, 借鑒于文獻[11]中的Bridge策略的思路, 本文設計了一個標簽增強模塊(Label Enhancement Module, LEM), 旨在訓練過程中加強利用MT的預測輸出。

      算法1. 三任務變分自編碼器的訓練過程

      輸入:用戶與物品的交互矩陣XA、XT和XC,用戶總數(shù)n, 物品總數(shù)m, 潛在特征維度rank, 正則化項權重λ, 重構(gòu)損失函數(shù)權重α 和γ , KL 約束項權 重 β , dropout rate ρ , 最 大 迭 代 次 數(shù)iteration number, 學習率learning rate, 一次訓練所選取的樣本數(shù)batch size

      輸出:編碼器φ, 解碼器θ , 特征校正模塊FCM

      1. 隨機初始化編碼器φ, 解碼器θ 和特征校正模塊FCM

      2. FOR iter = 1:iteration number DO

      3. 從D 中隨機采樣和SA規(guī)模大小一樣的(用戶,物品)對, 并對用戶ID 和物品ID 進行標記

      4. 根據(jù)n 和batch size, 按照用戶ID 順序分成多個batches

      5. FOR batch = 1: length(bacthes) DO

      6. FOR 對于batch 中的所有用戶 DO

      7. 分別從XA、XT和XC取出用戶u 對應的交互向量、和

      14. 根據(jù)公式(5)、(12)和(24)重構(gòu)輸入數(shù)據(jù), 即、和

      16. 根據(jù)公式(29)求出總的損失函數(shù) LTri-VAE, 進而求出梯度

      17. END FOR

      18. 對batch 中所求出的所有梯度進行平均

      19. 對編碼器φ, 解碼器θ 和特征校正模塊FCM進行更新

      20. END FOR

      21. END FOR

      22. RETURN 編碼器φ, 解碼器θ 和特征校正模塊FCM

      本文使用D 表示所有用戶和物品交互的集合,包括可觀測到的和不可觀測到的(用戶, 物品)對。在訓練過程中, 每一次迭代都從D 中隨機采樣和SA規(guī)模大小一樣的(用戶, 物品)對, 再利用MT對這些(用戶, 物品)對進行預測得到相應的偽標簽, 即用戶對物品的反饋。本文將這一個偽數(shù)據(jù)集記為。另外, 本文使用?{ 0,1}1×m表示由S~T 得到的每個用戶和所有物品產(chǎn)生的交互向量。本文期望MC的預測輸出和盡可能地接近, 為此構(gòu)造了它們之間的重構(gòu)損失函數(shù), 如公式(27)所示。類似地, 本文在該重構(gòu)損失函數(shù)設置了權重 γ ? ( 0,1), 因為無偏數(shù)據(jù)規(guī)模通常較小, 不足以讓無偏模型MT得到充分的訓練, 所以中的偽標簽不一定都是正確的。因此, 為了解決這一問題, 本文設置了權重γ加以調(diào)整。

      根據(jù)以上描述, 可以得到子模型MC總的損失函數(shù), 即

      其中, α , β 和γ 都是超參數(shù)。

      4.5 優(yōu)化

      結(jié)合以上所有描述, 本文采用聯(lián)合訓練的方式來訓練模型, 并采用批量梯度下降(BGD)來最小化各個子模型的損失函數(shù)之和, 即

      另外, 整個模型的訓練過程如算法1 所示。

      5 實驗結(jié)果與分析

      5.1 數(shù)據(jù)集

      本文對解決偏置問題的有效性進行評估, 故所采用的數(shù)據(jù)集必須包含無偏數(shù)據(jù)。目前已公開的數(shù)據(jù)集只有兩個, 即Yahoo! R3[38]和Coat Shopping[9],關于它們的具體信息如表1 所示。

      表1 實驗所采用的數(shù)據(jù)集的統(tǒng)計信息。其中“#Feedback”指的是反饋樣本的數(shù)量, “P/N”指的是數(shù)據(jù)集中正反饋和負反饋的比例Table1 Statistics of the datasets used in the experiments. Notice that #Feedback denotes the number of feedback samples and P/N denotes the ratio between the numbers of positive feedback and negative feedback

      · Yahoo! R3[38]: 這是一個關于用戶對音樂評分的數(shù)據(jù)集, 包含了一個有偏的常規(guī)數(shù)據(jù)子集和一個無偏的隨機數(shù)據(jù)子集。其中, 常規(guī)數(shù)據(jù)子集包含15400 個用戶, 1000 首歌曲和大約30 萬條評分記錄, 評分范圍是{1,2,3,4,5}。常規(guī)數(shù)據(jù)子集是由系統(tǒng)使用常規(guī)的推薦策略進行推薦, 用戶根據(jù)自身選擇來對歌曲進行評價而收集到的, 故被認為是有偏的。隨機數(shù)據(jù)子集是通過要求前5400 個用戶對10 首隨機選擇的歌曲進行評分收集而來的, 故被認為是無偏的。因為本文研究的問題是一元反饋的偏置問題, 故需將評分轉(zhuǎn)換成一元反饋。因此, 本文對數(shù)據(jù)集進行了預處理。如果評分大于3 分, 那么該記錄被認為是正反饋[10-11], 即 rui= 1。在實驗中,本文將常規(guī)數(shù)據(jù)子集作為有偏數(shù)據(jù)(SA), 并將隨機數(shù)據(jù)子集隨機劃分成3 個子集, 其中10%作為目標訓練的無偏數(shù)據(jù)(ST), 10%作為驗證集用以選擇超參數(shù), 最后的80%作為測試集用以評估模型的性能。

      · Coat Shopping[9]: 這是一個關于用戶對外衣(coat)評分的數(shù)據(jù)集, 是通過讓Amazon Mechanical Turk 平臺上的290 用戶對300 件外衣進行評分收集而來的。和Yahoo! R3 一樣, 該數(shù)據(jù)集包含了一個有偏的常規(guī)數(shù)據(jù)子集和一個無偏的隨機數(shù)據(jù)子集。其中, 常規(guī)數(shù)據(jù)子集是用戶根據(jù)自身選擇來對外衣進行評價而收集的, 大約有7000 條評分記錄, 評分范圍是{1,2,3,4,5}, 被認為是有偏的。隨機數(shù)據(jù)子集是通過要求所有用戶對16 件隨機選擇的外衣進行評分收集的, 被認為是無偏的。常規(guī)數(shù)據(jù)子集和隨機數(shù)據(jù)子集的預處理及劃分方式和Yahoo! R3 一樣。

      5.2 評價指標

      為了評估模型的推薦性能, 本文采用推薦系統(tǒng)中常用的評價指標進行評估, 包括ROC(Receiver Operating Characteristic, ROC)曲線下的面積(Area Under Roc Curve, AUC)、歸一化折損累積增益(Normalized Discounted Cumulative Gain, NDCG)、精確率(Precision@N, P@N)和召回率(Recall@N, R@N)4 個指標, 各個指標的定義如下所示。其中, 在實驗過程中, N 設置為10、20 和50。另外, 在實驗過程中, 本文將AUC 作為主要指標, 其他作為參考指標[10-12]。

      下面對4 個指標的定義進行一一闡述。

      · ROC 曲線下的面積(AUC): 其計算公式如下所示

      其中, Ω 指的是測試集上(在選擇參數(shù)過程中為驗證集)的所有正反饋的集合, Lp指的是Ω 中正反饋的總數(shù), Rankij指的是根據(jù)預測結(jié)果進行降序排列得到的正反饋(i , j) 在所有的反饋中的排序位置, L 指的是在測試集上(在選擇參數(shù)過程中為驗證集)的反饋總數(shù), 包括正反饋和負反饋。

      ·歸一化折損累積增益(NDCG): 其計算公式如下

      其中, Ute指的是測試集上(在選擇參數(shù)過程中為驗證集)的用戶集合, NDCGu@K 指的是用戶u 的歸一化折損累積增益, DCGu@K 指的是用戶u 的折損累積增益, IDCGu指的是理想情況下用戶u 的折損累積增益, 即根據(jù)返回的結(jié)果, 按照真實的相關性重新排序, 進而計算 DCGu@K 得來的, K 指的是推薦列表的長度, reli指的是推薦物品的相關性。在實驗過程中, K 設置為50。

      · 精確率(P@N): 其計算公式如下

      其中, R ( u )指的是模型給用戶生成的長度為N 的推薦列表, T ( u )指的是用戶在測試集上(在選擇參數(shù)過程中為驗證集)的反饋形成的推薦列表。

      · 召回率(R@N): 其計算公式如下

      其中, R ( u )指的是模型給用戶生成的長度為N 的推薦列表, T ( u )指的是用戶在測試集上(在選擇參數(shù)過程中為驗證集)的反饋形成的推薦列表。

      5.3 基線模型

      本文提出的模型是在VAE的基礎上進行改進的,故將VAE 作為最相關的基線模型。不同類型的數(shù)據(jù)進行訓練會產(chǎn)生不同版本的VAE。在本文中, 有以下3 個版本, 即分別使用有偏數(shù)據(jù)SA、無偏數(shù)據(jù)ST和聯(lián)合數(shù)據(jù)SC進行訓練, 本文將它們依次記為VAE(SA)、VAE(ST)和VAE(SC)。除此之外, 本文還將近年來提出的具有代表性的方法作為基線模型,分別是基于逆傾向性得分的模型(IPS)[9,28-29]、CausE[10]和KDCRec[11]。

      · 基于逆傾向性得分的模型(IPS)[9,28-29]: 基于逆傾向性得分消除偏置的算法是目前學術界比較主流的方法, 通過對訓練集中的每個樣本賦予一個傾向性得分, 從而來訓練一個無偏的模型。傾向性得分的計算方法有很多[13,28-29], 本文采用的是其中一個具有代表性的方法, 即樸素貝葉斯評估方法。該方法通過樸素貝葉斯來計算物品的曝光概率, 以此得到每個樣本的傾向性得分, 具體計算公式如下:

      其中, P( I=i |O =1)指的是在可觀測到的樣本中,所有用戶對物品i 產(chǎn)生交互的樣本所占的比例;P (O = 1)指的是在全部樣本中(包括未觀測樣本), 可觀測的樣本所占的比例; P( I=i)指的是在無偏數(shù)據(jù)中,所有用戶對物品i 產(chǎn)生交互的樣本所占的比例。另外,為了實驗的公平性, 本文使用VAE 作為基本模型。

      · CausE[10]: 其思想是通過正則化項來約束有偏模型和無偏模型的參數(shù), 進而緩解偏置的影響。首先通過無偏數(shù)據(jù)進行訓練得到無偏模型,接著使用有偏數(shù)據(jù)訓練新的模型, 同時以無偏模型的模型參數(shù)作為參考, 使用正則化項進行約束。同樣地, 為了公平比較, 本文使用VAE作為CasuE 的基本模型。

      · KDCRec[11]: 一個基于知識蒸餾的框架。作者在文中提出了多種策略, 其中最具有代表性的策略是Bridge 策略。因為從作者提供的實驗結(jié)果來看, 使用Bridge 策略訓練出來的模型的推薦性能表現(xiàn)最佳。因此, 本文采用Bridge 策略作為基線模型之一。類似地, 為了公平比較,本文使用VAE 作為基本模型。

      5.4 實驗設置

      本文使用Python 3.6 和TensorFlow 1.14 進行實驗, 模型訓練和測試都是在搭載了Ubuntu18.04 系統(tǒng)的計算機集群上進行的。該集群包含2 個26 核的CPU, 256GB 內(nèi)存和2 個Nvidia Tesla P100 GPU。在Tri-VAE 中, 對于特征校正模塊中的激活函數(shù) g(?),本文采用了tanh 函數(shù)和sigmoid 函數(shù)。本文使用網(wǎng)格搜索的方式對超參數(shù)進行搜索, 并通過驗證集上AUC 的值來確定最佳的超參數(shù)。其中, 超參數(shù)的設置范圍如表2 所示。另外, 對于Coat Shopping 數(shù)據(jù)集, 由于驗證集的規(guī)模較小, 為了讓實驗結(jié)果更具有說服力, 在選參的過程中, 先使用網(wǎng)格搜索的方式進行搜索, 再選擇在驗證集上AUC 性能最好的前5 組參數(shù), 讓每組參數(shù)運行5 遍, 最后選擇平均性能最好的那組參數(shù)作為最佳的超參數(shù)。此外, 在模型評估過程中, 本文通過改變隨機種子, 對每個模型分別進行10 次訓練和測試, 最后將平均值作為最終的測試結(jié)果。同時, 本文還使用雙樣本t 檢驗對各個指標進行了顯著性檢驗, 即在各個指標上檢驗比較本文提出的模型的結(jié)果和最好的基線模型的結(jié)果。本文所涉及的實驗數(shù)據(jù)、源代碼和腳本將會公開, 可從http://csse.szu.edu.cn/staff/panwk/Tri-VAE/獲得。

      5.5 實驗結(jié)果分析

      5.5.1 性能比較

      對于數(shù)據(jù)集Yahoo! R3和Coat Shopping, 本文提出的模型Tri-VAE 和基線模型的推薦性能比較如表3和表4 所示。其中, Tri-VAE-tanh 表示特征校正模塊使用tanh 函數(shù)作為激活函數(shù), Tri-VAE-sig 表示特征校正模塊使用sigmoid 函數(shù)作為激活函數(shù)。從實驗結(jié)果可以看出: (1)不管是Yahoo! R3 還是Coat Shopping,在絕大多數(shù)情況下, Tri-VAE 的推薦性能比所有基線模型都要好。注意AUC 是最關鍵的指標, 且模型參數(shù)是通過AUC 進行選擇的。另外, 本文通過雙樣本t 檢驗進行了顯著性檢驗, 發(fā)現(xiàn)大部分指標的p 值都小于0.01。這說明本文所提出的模型能夠更好地對有偏數(shù)據(jù)和無偏數(shù)據(jù)進行聯(lián)合建模, 有效地利用無偏數(shù)據(jù)中的信息來緩解偏置帶來的影響; (2)對于本文提出的特征校正模塊, 使用不同的激活函數(shù)對最終的推薦性能有一定的影響。從主要指標來看, 在Yahoo! R3 上, tanh 函數(shù)的推薦性能更好, 而在Coat Shopping 上, 則是sigmoid 函數(shù)的性能更好。造成這種差異的原因可能是不同的激活函數(shù)所提取到的偏置信息有所不同, 而這兩個數(shù)據(jù)集包含的偏置信息存在一定的差異; (3)關于使用不同類型的數(shù)據(jù)進行訓練產(chǎn)生的 3 個版本的 VAE, 其實驗效果是VAE(SC)> VAE(SA)> VAE(ST), 這說明有偏數(shù)據(jù)和無偏數(shù)據(jù)之間具有互補性。而本文提出的Tri-VAE比這三個基準模型的效果都要好, 說明Tri-VAE能更好地對有偏數(shù)據(jù)和無偏數(shù)據(jù)之間的互補性進行建模;(4)IPS-VAE 的實驗效果比較差, 這說明本文中所采用的利用無偏數(shù)據(jù)和樸素貝葉斯法來計算傾向性得分并不能很好地解決偏置問題; (5)CausE 和KDCRec的實驗效果比VAE(SA)要好, 但比VAE(SC)差, 這是因為這兩個基線模型都需要利用單獨使用無偏數(shù)據(jù)得到的預訓練模型, 而由于無偏數(shù)據(jù)的規(guī)模較小,導致預訓練模型不能得到充分的訓練。

      5.5.2 消融實驗

      為了進一步研究Tri-VAE, 本文設計了消融實驗。在本文所提出的模型中, 子模型之間通過特征校正模塊和標簽增強模塊進行關聯(lián)。簡而言之, 通過利用、和的信息來協(xié)助目標子模型MC的訓練。因此, 本文首先一一去除、和中的一個, 分別記為“-T”, “-A” 和“-P”, 接著再去除它們之間的組合, 包括同時去除和(記為“-TA”), 以及同時去除、和(記為“-TAP”)。從表3 和表4 的分析來看, 在Yahoo! R3 上采用tanh函數(shù)的推薦性能更好, 而在Coat Shopping 上則是采用sigmoid 函數(shù)。因此, 為了實驗的公平性, 在Yahoo!R3 上的消融實驗選擇tanh 函數(shù)作為激活函數(shù), 在Coat Shopping 上的消融實驗則選擇sigmoid 函數(shù)作為激活函數(shù), 具體的實驗結(jié)果如圖2 所示。從實驗結(jié)果可以看出, 去除Tri-VAE中的某一部分或者同時去除某幾部分, 都會使推薦性能變差。其中, 去除之后, 模型的推薦性能小幅度下降, 而去除或者之后, 模型的推薦性能大幅度下降。這說明特征校正模塊在Tri-VAE 中起到了重要的作用, 而標簽增強模塊是輔助作用, 同時也驗證了從潛在特征的角度來緩解偏置的有效性。另外, 對于特征校正模塊和標簽增強模塊對推薦性能的作用程度不同, 這是因為特征校正模塊是直接對用戶的潛在特征進行校正, 而標簽增強模塊通過標簽增強的方式間接地對用戶的潛在特征進行校正。

      圖2 消融實驗中推薦性能的比較Figure 2 Recommendation performance in ablation studi es

      表3 在數(shù)據(jù)集Yahoo! R3 上, 本文提出的模型和基線模型的推薦性能比較, 其中最佳結(jié)果用粗體標記, 次優(yōu)結(jié)果用下劃線標記。另外, 顯著性檢驗中p 值小于0.01 的最佳結(jié)果用星號(*)標記Table 3 Recommendation performance of our proposed model and the baselines on Yahoo! R3, where the best results are marked in bold and the second best results are marked underlined. In addition, the significantly best results are marked with a star (*), where the p-value is smaller than 0.01

      表4 在數(shù)據(jù)集Coat Shopping 上, 本文提出的模型和基線模型的推薦性能比較, 其中最佳結(jié)果用粗體標記, 次優(yōu)結(jié)果用下劃線標記。另外, 顯著性檢驗中p 值小于0.01 的最佳結(jié)果用星號(*)標記Table 4 Recommendation performance of our proposed model and the baselines on Coat Shopping, where the best results are marked in bold and the second best results are marked underlined. In addition, the significantly best results are marked with a star (*), where the p-value is smaller than 0.01

      5.5.3 超參數(shù)敏感性分析

      本文所提出的模型引入了兩個主要的超參數(shù),分別是α 和γ , 因此本文設計了以下實驗對超參數(shù)進行分析。首先, 為了分析α , 先固定其他超參數(shù),α 值依次從0.1變化到0.6, 重新訓練并測試模型, 最后的實驗結(jié)果如圖3 所示。從圖3 可以看出, 最優(yōu)的α 值在數(shù)據(jù)集Yahoo! R3 和Coat Shopping 上分別是0.1 和0.5。α 值的大小可能和有偏數(shù)據(jù)與無偏數(shù)據(jù)的數(shù)據(jù)規(guī)模之比(即|SA|/|ST|)有關系。因為有偏數(shù)據(jù)與無偏數(shù)據(jù)規(guī)模差異直接影響到對SA的重構(gòu)損失函數(shù)與對ST的重構(gòu)損失函數(shù)的差異。當有偏數(shù)據(jù)規(guī)模較大時, 對SA的重構(gòu)損失函數(shù)的影響相對會大一些, 此時為了削弱SA的重構(gòu)損失函數(shù)的影響, α值就應當相對小一些。接著分析γ , 類似地, 先固定其他超參數(shù), γ 值依次從0.0001 變化到0.1, 重新訓練并測試模型, 最后的實驗結(jié)果如圖4 所示。從圖4 可以看出, 最優(yōu)的γ 值在數(shù)據(jù)集Yahoo! R3 和Coat Shopping 上分別是0.001 和0.0001, γ 值越大, 最終的推薦性能越差。這和無偏數(shù)據(jù)的數(shù)據(jù)規(guī)模有關。盡管通過無偏數(shù)據(jù)可以訓練得到相對比較無偏的模型, 但由于無偏數(shù)據(jù)的規(guī)模較小, 較難充分訓練得到一個很準確的預測結(jié)果, 也就是說, 標簽增強模塊產(chǎn)生的偽標簽的可信度不會很高, 故γ 值不會很大。

      圖3 不同α 值對推薦性能的影響Figure 3 Recommendation performance of our proposed model with different values of α

      圖4 不同γ 值對推薦性能的影響Figure 4 Recommendation performance of our proposed model with different values of γ

      5.5.4 模型的收斂性分析

      為了進一步分析本文提出的模型Tri-VAE 的收斂性, 本文進行了實驗驗證。通過5.5.1 節(jié)的實驗結(jié)果可知, 在眾多的基線模型中, VAE(SC)的模型性能最好, 同時VAE 也是與Tri-VAE 最相關的基線模型。因此, 本文通過分析Tri-VAE 和VAE(SC)這兩個模型在訓練時總的損失和驗證集上的AUC 隨迭代次數(shù)的變化情況來驗證模型的收斂性。具體實驗結(jié)果如圖5 所示。從實驗結(jié)果可以看出, 本文提出的模型的收斂性較好, 收斂速度不會隨著模型復雜度的增加而減緩。首先, 在Yahoo! R3 數(shù)據(jù)集上, Tri-VAE 和VAE(SC)在訓練時總的損失的收斂趨勢較為相近。而對于驗證集上的AUC, Tri-VAE 的收斂性要優(yōu)于VAE(SC)。其次, 在Coat Shopping 數(shù)據(jù)集上, 與Yahoo! R3 數(shù)據(jù)集上的結(jié)果類似, Tri-VAE 和VAE(SC)在訓練時總的損失的收斂性相當。而在驗證集上的AUC, 卻表現(xiàn)出了不一樣的結(jié)果。通過比較發(fā)現(xiàn), VAE(SC)出現(xiàn)了過擬合的現(xiàn)象, 即在訓練集上總的損失越來越小, 但驗證集上的AUC 卻在變差。而本文提出的模型(Tri-VAE-sig)不僅能夠正常收斂, 而且沒有出現(xiàn)過擬合的現(xiàn)象。

      圖5 模型訓練時總的損失和驗證集上AUC 隨迭代次數(shù)的變化情況Figure 5 Variation of the total loss when training the model and the AUC on the validation set with the number of iterations

      5.5.5 關于特征校正模塊的進一步探討

      其中, g (?)指的是一個具體的激活函數(shù), Wf1?Rk×k和 bf1?R1×k分別指的是的權重矩陣和偏置向量。

      本文將使用上述公式的模型記為Tri-VAE-sub,并使用了tanh函數(shù)和sigmoid函數(shù)作為激活函數(shù)進行實驗, 最后的實驗結(jié)果如表5 所示。結(jié)合表3、表4和表5 的實驗結(jié)果可以看出, Tri-VAE-sub 的推薦性能比Tri-VAE 稍差一些, 但比所有基線模型都要好。這說明通過利用和之間的差異能夠糾正用戶的潛在特征, 進而有效緩解偏置帶來的影響。另外,對于衡量和差異的方式, 使用拼接的方法比作差的方法要好一點, 這是因為使用拼接能夠最大程度地保留兩者差異的信息, 更有利于神經(jīng)網(wǎng)絡對偏置信息的提取。

      表5 在數(shù)據(jù)集Yahoo! R3 和Coat Shopping 上,Tri-VAE 和它的變體Tri-VAE-sub 的推薦性能比較, 其中最佳結(jié)果用粗體標記Table 5 Recommendation performance between Tri-VAE and its variant Tri-VAE-sub on Yahoo! R3 and Coat Shopping, where the best results are marked in bold

      此外, 在Tri-VAE 中, 特征校正模塊使用了帶激活函數(shù)的單層全連接網(wǎng)絡提取偏置特征。因此, 接下來本文從網(wǎng)絡層數(shù)的角度來進一步探討特征校正模塊, 并先后使用了雙層全連接網(wǎng)絡和三層全連接網(wǎng)絡。本文將使用雙層全連接網(wǎng)絡的模型記為Tri-VAE(雙層), 將使用三層全連接網(wǎng)絡的模型記為Tri-VAE(三層)。同樣地, 使用了tanh 函數(shù)和sigmoid函數(shù)作為激活函數(shù)進行實驗。另外, 對于同一個模型,多層全連接網(wǎng)絡的設置相同, 比如在實驗過程中,模型選擇tanh 函數(shù), 則雙層全連接網(wǎng)絡都使用tanh函數(shù)。Tri-VAE(雙層)和Tri-VAE(三層)的推薦性能結(jié)果如表6 所示。從實驗結(jié)果可以看出, 對于數(shù)據(jù)集Yahoo! R3 而言, 增加網(wǎng)絡層數(shù)并不能提高模型的推薦性能, 而對于數(shù)據(jù)集Coat Shopping 而言, 增加網(wǎng)絡層數(shù)能夠進一步提高模型的推薦性能。這可能與數(shù)據(jù)集本身包含的偏置信息有關, 不同的數(shù)據(jù)集受偏置的影響程度不同。另外還有可能與無偏數(shù)據(jù)規(guī)模的大小有關, 對于Yahoo! R3 而言, 無偏數(shù)據(jù)的規(guī)模相對于有偏數(shù)據(jù)比Coat Shopping 更小, 在同樣的數(shù)據(jù)規(guī)模下, 增加網(wǎng)絡層數(shù)相當于增加了模型參數(shù),這使得模型的訓練更加困難。

      表6 在數(shù)據(jù)集Yahoo! R3 和Coat Shopping 上, 特征校正模塊網(wǎng)絡層數(shù)對推薦性能的影響, 其中最佳結(jié)果用粗體標記Table 6 Recommendation performance of our proposed model with different numbers of network layers on Yahoo! R3 and Coat Shopping, where the best results are marked in bold

      6 總結(jié)

      本文首先提出了推薦系統(tǒng)中一個重要且前沿的問題, 即一元反饋的偏置問題, 并對其進行了嚴格的定義和形式化。針對這一問題, 從一個新穎的角度提出了一種基于多任務學習和變分自編碼器的模型,即三任務變分自編碼器。該模型將有偏數(shù)據(jù)、無偏數(shù)據(jù)和聯(lián)合數(shù)據(jù)當作三個不同的學習任務, 同時任務之間通過特征校正模塊和標簽增強模塊進行關聯(lián)。其中, 特征校正模塊用于獲取無偏的用戶潛在特征, 而標簽增強模塊則是為了進一步利用無偏數(shù)據(jù)的信息。本文在兩個真實的數(shù)據(jù)集上進行實驗, 實驗結(jié)果表明該模型能夠有效緩解偏置的影響, 比現(xiàn)有的推薦模型有更好的推薦性能。此外, 為了進一步研究所提出的模型, 本文對其進行了消融實驗、超參數(shù)敏感性分析和收斂性分析, 同時還進一步對其中的特征校正模塊進行了探討。

      在推薦系統(tǒng)中, 保護用戶的隱私越來越受學術界和工業(yè)界的關注。在未來的工作中, 我們將進一步研究面向用戶反饋等隱私信息的保護技術[39], 以適應用戶對隱私和數(shù)據(jù)安全的需求。

      猜你喜歡
      偏置編碼器校正
      基于40%正面偏置碰撞的某車型仿真及結(jié)構(gòu)優(yōu)化
      基于雙向線性插值的車道輔助系統(tǒng)障礙避讓研究
      中國信息化(2022年5期)2022-06-13 11:12:49
      劉光第《南旋記》校正
      國學(2020年1期)2020-06-29 15:15:30
      基于FPGA的同步機軸角編碼器
      一類具有校正隔離率隨機SIQS模型的絕滅性與分布
      機內(nèi)校正
      基于PRBS檢測的8B/IOB編碼器設計
      一級旋流偏置對雙旋流杯下游流場的影響
      JESD204B接口協(xié)議中的8B10B編碼器設計
      電子器件(2015年5期)2015-12-29 08:42:24
      多總線式光電編碼器的設計與應用
      当雄县| 公主岭市| 兰州市| 东乌| 宁南县| 新丰县| 清远市| 洮南市| 温泉县| 天峨县| 汉中市| 乌拉特后旗| 扶沟县| 乐山市| 左贡县| 泸水县| 龙游县| 桦南县| 扶绥县| 广德县| 南岸区| 当阳市| 桃源县| 视频| 奉贤区| 黄石市| 手游| 丹寨县| 马边| 若羌县| 荥经县| 华宁县| 沾益县| 清远市| 谢通门县| 丰宁| 金乡县| 囊谦县| 郁南县| 永安市| 合山市|