謝 彬, 唐健常, 唐新懷
(1.南京理工大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院, 南京 210094; 2.中國(guó)電子科技集團(tuán)公司第三十二研究所,上海 200233; 3.上海交通大學(xué) 軟件學(xué)院, 上海 200240)
?
基于排序?qū)W習(xí)的混合推薦算法
謝彬1,2,唐健常3,唐新懷3
(1.南京理工大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院, 南京 210094; 2.中國(guó)電子科技集團(tuán)公司第三十二研究所,上海 200233; 3.上海交通大學(xué) 軟件學(xué)院, 上海 200240)
為了解決推薦系統(tǒng)如何適應(yīng)不同的應(yīng)用場(chǎng)景,以及推薦結(jié)果的排序問(wèn)題,提出以Boosting合并算法為基礎(chǔ)模型,以LambdaMART算法為主的更新算法,將排序?qū)W習(xí)技術(shù)運(yùn)用于混合推薦?;谟脩舴答佇畔⒌膶?shí)時(shí)更新排序模型,通過(guò)學(xué)習(xí)不同場(chǎng)景中的不同數(shù)據(jù),使推薦系統(tǒng)能夠適用于不同的應(yīng)用場(chǎng)景。同時(shí),基于排序評(píng)價(jià)指標(biāo)NDCG對(duì)混合推薦模型進(jìn)行了驗(yàn)證。
排序?qū)W習(xí); 混合推薦; Boosting合并算法; LambdaMART算法; NDCG
推薦系統(tǒng)已經(jīng)在眾多領(lǐng)域和行業(yè)中被廣泛地應(yīng)用,通過(guò)十多年的比較與實(shí)踐,隨著推薦需求的變化與推薦質(zhì)量要求的提高,單一的推薦算法由于自身的缺陷,已經(jīng)無(wú)法滿足當(dāng)今需求,學(xué)者們提出了混合推薦。
混合推薦[1]是指綜合使用多種推薦技術(shù),使多種算法能夠揚(yáng)長(zhǎng)避短,讓推薦效果得到提升。文獻(xiàn)[2]提出一個(gè)相似度混合模型,將用戶相似度和物品相似度統(tǒng)一起來(lái),能夠充分利用用戶評(píng)分矩陣中的信息進(jìn)行推薦。文獻(xiàn)[3]提出一種基于內(nèi)容的協(xié)同過(guò)濾方法,該算法分析并使用顯式數(shù)據(jù)和隱式數(shù)據(jù)進(jìn)行推薦,解決了冷啟動(dòng)問(wèn)題并降低了計(jì)算量和復(fù)雜度。文獻(xiàn)[4-5]采用線性公式按照一定權(quán)重累加合并幾種的推薦,從而讓推薦效果得到提高。Netflix Prize的獲獎(jiǎng)算法[6]混合了107種推薦的模型與算法,混合后的推薦效果非常優(yōu)秀。
筆者將排序?qū)W習(xí)技術(shù)[7]運(yùn)用到混合推薦系統(tǒng)中來(lái)。把各個(gè)基礎(chǔ)推薦算法的推薦結(jié)果作為弱排序器,并使用Boosting合并算法合并出基礎(chǔ)排序模型,然后利用用戶反饋信息,以LambdaMART算法[8]為更新算法生成實(shí)時(shí)的綜合排序模型,使它的推薦結(jié)果在排序評(píng)價(jià)指標(biāo)NDCG[9]上表現(xiàn)優(yōu)秀。同時(shí),通過(guò)學(xué)習(xí)不同場(chǎng)景的不同數(shù)據(jù),使得系統(tǒng)能夠適用于不同的應(yīng)用場(chǎng)景。
文獻(xiàn)[10]提出了RankBoost算法,將多個(gè)弱排序器線性疊加,并用順序?qū)嵗龑?duì)集合通過(guò)Boosting方法訓(xùn)練學(xué)習(xí)后,給出一個(gè)全局的排序。文獻(xiàn)[11]提出了AdaRank方法,通過(guò)多次構(gòu)造弱排序器,并將其結(jié)果合并成最終的排序,同時(shí)使用AdaBoost方法直接對(duì)基于排序的評(píng)價(jià)指標(biāo)的損失函數(shù)進(jìn)行優(yōu)化。
文中參考這兩種方法,根據(jù)混合推薦的特殊情況,把各個(gè)基礎(chǔ)推薦算法的推薦結(jié)果作為弱排序器,并使用Boosting的方法將它們合并成一個(gè)排序模型。
(1)
根據(jù)NDCG的計(jì)算公式,可知當(dāng)兩個(gè)實(shí)例之間的順序發(fā)生改變時(shí),NDCG的值也跟著變化。設(shè)這兩個(gè)實(shí)例為i和j,可知當(dāng)Si=Sj,這兩個(gè)實(shí)例的順序就將發(fā)生改變,此時(shí)NDCG值也將改變。將式(1)代入,即可計(jì)算此時(shí)的α值:
(2)
因此,只要枚舉所有可以令NDCG值發(fā)生改變的α值,即可據(jù)此計(jì)算出NDCG所有的可能值。同時(shí)可以容易的證明:對(duì)于只有兩個(gè)實(shí)例相等而產(chǎn)生的α值,NDCG值改變時(shí),必然是相鄰兩個(gè)實(shí)例之間的位置互換;而對(duì)于多個(gè)實(shí)例相等而產(chǎn)生的α值,改變位置的實(shí)例也必然是連續(xù)的。因?yàn)槿绻恢酶淖兊膶?shí)例之間還有其他實(shí)例,那么必然在更小的α值時(shí)已經(jīng)與這些實(shí)例中的至少一個(gè)發(fā)生位置變換,這時(shí)該實(shí)例的位置已經(jīng)不再這些實(shí)例之間了。
然后需要將各個(gè)基礎(chǔ)推薦算法的推薦結(jié)果作為弱排序器,并進(jìn)行類似歸一化的處理,使其所得的分?jǐn)?shù)能夠方便地用于NDCG值的計(jì)算中。
根據(jù)式(2)計(jì)算所有可能的α值,并將α值排序,然后從小到大計(jì)算所有可能的NDCG值。NDCG值計(jì)算方法如下:
(3)
式中:t——第t個(gè)α值;
It——在此α值相交的實(shí)例集;
Si,t——此時(shí)實(shí)例i的分?jǐn)?shù);
ri,t——此時(shí)實(shí)例i的在序列中的位置。
但是,上面的NDCG值只是一個(gè)請(qǐng)求的NDCG值。因此,對(duì)于多個(gè)請(qǐng)求,可以將全部請(qǐng)求的所有可能的α值計(jì)算并排序,然后從大到小,計(jì)算對(duì)應(yīng)的NDCG值的改變。于是就可以選擇使得NDCG的均值最大的α值作為這兩個(gè)弱排序器的合并參數(shù)。
(4)
使用上述方法來(lái)合并多個(gè)弱排序器,合并多個(gè)弱排序器的Boosting模型:
(5)
式中:x——實(shí)例的輸入特征;
hi——弱排序器。
根據(jù)上述方法α值計(jì)算,相比RankBoost算法,無(wú)需計(jì)算實(shí)例對(duì)權(quán)重分布值,使得此算法的計(jì)算量大大降低。
通過(guò)限制弱排序器的數(shù)量來(lái)防止過(guò)度擬合,同時(shí)這樣也減少了計(jì)算量??梢灾匦掠?jì)算所有的αi,并在計(jì)算時(shí)固定其他的α不變。于是每次計(jì)算都是在最優(yōu)化兩個(gè)弱排序器的合并,同時(shí)保證每次迭代NDCG值是單調(diào)不減的,并設(shè)置Δαi的閥值,小于此閥值則不再計(jì)算。通過(guò)這種方式,而不是引入學(xué)習(xí)速率,就可以極大的減少計(jì)算量。
這種合并方法可以適用于任意的弱排序器,不論這些弱排序器或者訓(xùn)練數(shù)據(jù)與方法是否有聯(lián)系。同時(shí)這種合并方法迭代次數(shù)少,訓(xùn)練速度較快。于是,可以將各個(gè)推薦算法的推薦結(jié)果進(jìn)行歸一化后作為弱排序器,并使用這種Boosting合并算法獲得合并后的基礎(chǔ)排序模型。
Boosting合并算法通過(guò)最優(yōu)化NDCG值的方法,迭代的將弱排序器合并在一起,形成了一個(gè)合并后的排序器。然而通過(guò)最優(yōu)化NDCG值的方法將用戶的喜好視為了一個(gè)整體,因此當(dāng)有用戶新的行為出現(xiàn),反映用戶的變化時(shí),只能重新進(jìn)行一次Boosting合并算法。但是這樣既需要大量的時(shí)間重新學(xué)習(xí)訓(xùn)練,又浪費(fèi)了過(guò)去已經(jīng)計(jì)算過(guò)的數(shù)據(jù)。因此需要一種能夠基于用戶反饋信息的更新算法。
LambdaMART算法是LambdaRank算法[12]使用MART的版本,其中Lambda是MART求解過(guò)程使用的梯度。而LambdaRank算法又是在RankNet算法[13]的基礎(chǔ)上改進(jìn)而來(lái)。
MART是一種迭代的決策樹(shù)算法,該算法通過(guò)構(gòu)建多棵回歸樹(shù),并將所有樹(shù)的結(jié)論累加做最終輸出結(jié)果。其核心就在于,每一棵回歸樹(shù)學(xué)習(xí)的目標(biāo)是最終學(xué)習(xí)目標(biāo)與之前所有樹(shù)結(jié)論累加的差距,即殘差。因此LambdaMART算法可以支持增量學(xué)習(xí),能夠使用上Boosting合并算法的輸出。
觀察LambdaMART算法的迭代過(guò)程,可以發(fā)現(xiàn)每次學(xué)習(xí)一棵回歸樹(shù)時(shí),最重要的也是最開(kāi)始的步驟就是計(jì)算λi。因?yàn)橹笏械挠?jì)算步驟都需要使用到λi,包括構(gòu)建當(dāng)次迭代的回歸樹(shù),也是據(jù)此進(jìn)行分類創(chuàng)建的。它的計(jì)算公式為
(6)
于是,計(jì)算λi可以分為兩個(gè)部分:確定實(shí)例對(duì)下標(biāo)集合I所包含的元素;計(jì)算對(duì)應(yīng)λij的值。
根據(jù)LambdaMART算法的具體過(guò)程,可知λij的計(jì)算公式:
(7)
其中Si可以通過(guò)之前迭代的結(jié)論累加Ft-1(xi)計(jì)算得來(lái)。ΔNDCGij為實(shí)例i和實(shí)例j交換順序后的NDCG值變化量。
(8)
式中:pi——實(shí)例i的位置;
pj——實(shí)例j的位置;
Z——?dú)w一化常量。
這時(shí)只需要確定實(shí)例對(duì)下標(biāo)集合I所包含的元素,就可能很容易的計(jì)算對(duì)應(yīng)的λij值了。而已經(jīng)知道Boosting合并算法輸出的排序器能夠在不考慮用戶新增的反饋信息的情況在,在NDCG指標(biāo)上給出令人滿意的結(jié)果。于是將此排序器作為L(zhǎng)ambdaMART算法的基礎(chǔ)模型時(shí),LambdaMART算法之后迭代的殘差,即回歸樹(shù)的學(xué)習(xí)目標(biāo)就是最終排序與Boosting合并模型排序之間的差距。這部分差距顯然是用戶新增的反饋信息產(chǎn)生的,所以在LambdaMART算法的迭代中,只需要考慮用戶新增的反饋信息即可。于是實(shí)例對(duì)下標(biāo)集合I的元素為用戶新增的反饋信息所包含的有序?qū)嵗龑?duì)的下標(biāo)。
此時(shí),已經(jīng)有了基于用戶反饋信息的更新算法,但是這個(gè)算法還有兩個(gè)問(wèn)題需要解決:
第一,隨著用戶反饋信息的不斷增多,如何保證LambdaMART算法不斷迭代的回歸樹(shù)的數(shù)量。因?yàn)槿绻貧w樹(shù)的數(shù)量增多,就意味著最終輸出的排序器變得復(fù)雜,計(jì)算量增大,從而不能夠保證移動(dòng)環(huán)境下的即時(shí)性需求。
第二,當(dāng)有用戶新的反饋信息時(shí),如何快速訓(xùn)練使得新的反饋信息能夠快速的反映到最終輸出的排序器上,使得用戶能夠最快地感受到系統(tǒng)對(duì)他的操作、行為的反饋。
第一個(gè)問(wèn)題比較容易解決,因?yàn)樗鼪](méi)有實(shí)時(shí)性的要求。因此可以在反饋信息產(chǎn)生的實(shí)例對(duì)下標(biāo)集合I的元素?cái)?shù)量大于某個(gè)閥值或者回歸樹(shù)的數(shù)量大于某個(gè)閥值時(shí),重新進(jìn)行Boosting合并算法,更新LambdaMART算法的基礎(chǔ)模型。這樣就能讓迭代的回歸樹(shù)的數(shù)量變?yōu)?,同時(shí)實(shí)例對(duì)下標(biāo)集合I變?yōu)榭占?。?dāng)然沒(méi)有必要一大于閥值就立刻重新訓(xùn)練,因?yàn)檫@樣會(huì)影響用戶的體驗(yàn),完全可以等到凌晨,沒(méi)有用戶使用系統(tǒng)的時(shí)候在進(jìn)行這部分計(jì)算。同樣也可以在無(wú)用戶使用系統(tǒng)的時(shí),即使為達(dá)到閥值也重新訓(xùn)練,這樣能夠減少第二天最終輸出的排序器的計(jì)算量,從而減少系統(tǒng)的響應(yīng)時(shí)間,可以將這種更新歸類于大批量數(shù)據(jù)的更新。
第二個(gè)問(wèn)題的解決,則需要繼續(xù)將更新的數(shù)據(jù)量范圍進(jìn)行劃分,分為小批量數(shù)據(jù)的更新和實(shí)時(shí)數(shù)據(jù)的更新。具體方法為每當(dāng)有新的用戶反饋信息時(shí),將其加入實(shí)例對(duì)下標(biāo)臨時(shí)集合It中,并用這個(gè)臨時(shí)集合It迭代出一棵臨時(shí)的回歸樹(shù)。由于只需要進(jìn)行一次迭代,而且一次迭代中需要計(jì)算的實(shí)例對(duì)數(shù)量|It|也不大,因此能夠較快的完成這個(gè)迭代任務(wù)。而當(dāng)|It|大于某個(gè)閥值時(shí),就可以將It合并入I中,將It清空,接著進(jìn)行T次迭代,將產(chǎn)生的回歸樹(shù)加入到累加函數(shù)中。這時(shí)雖然I較大,一次迭代時(shí)間大于實(shí)時(shí)更新的那次迭代,但是小批量數(shù)據(jù)的更新,對(duì)實(shí)時(shí)性的要求已經(jīng)沒(méi)有那么高了。
將Boosting合并算法的輸出作為基礎(chǔ)模型,并使用LambdaMART算法為更新算法,相比無(wú)基礎(chǔ)模型直接使用LambdaMART算法具有如下幾點(diǎn)優(yōu)勢(shì):
第一,Boosting合并算法的迭代次數(shù)和單次迭代的計(jì)算量遠(yuǎn)少于直接使用LambdaMART算法的方法,因此大大節(jié)省了訓(xùn)練的時(shí)間。
第二,Boosting合并算法的輸出函數(shù)形式更簡(jiǎn)潔,能夠簡(jiǎn)化最終的排序器,因此在即時(shí)推薦時(shí),系統(tǒng)的響應(yīng)也能更快。
第三,LambdaMART算法每次迭代計(jì)算時(shí)間是隨著隨著用戶反饋數(shù)據(jù)的增加。而B(niǎo)oosting合并算法作為基礎(chǔ)模型就完全沒(méi)有這個(gè)問(wèn)題。
文中選用兩個(gè)數(shù)據(jù)集:HetRec 2011的Last.FM數(shù)據(jù)集和HetRec 2011的MovieLens數(shù)據(jù)集。
Last.FM數(shù)據(jù)集包含了歌手信息,標(biāo)簽信息,用戶收聽(tīng)歌手的計(jì)數(shù),用戶社交信息以及用戶對(duì)歌手打標(biāo)簽的記錄。MovieLens數(shù)據(jù)集包含了電影信息,標(biāo)簽信息,用戶對(duì)電影的評(píng)分記錄以及用戶對(duì)電影打標(biāo)簽的記錄。這兩個(gè)數(shù)據(jù)集的統(tǒng)計(jì)信息如表1所示。
表1 數(shù)據(jù)集統(tǒng)計(jì)信息
3.1Boosting合并算法的評(píng)測(cè)
基于MovieLens數(shù)據(jù)集,以8∶2的比例將數(shù)據(jù)集分為兩個(gè)部分,大的部分為訓(xùn)練數(shù)據(jù),小的部分為測(cè)試數(shù)據(jù)。對(duì)Boosting合并算法的排序結(jié)果與沒(méi)有使用排序?qū)W習(xí)方法的原始方法排序的綜合推薦結(jié)果進(jìn)行訓(xùn)練與測(cè)試比較。這里原始方法排序的綜合推薦結(jié)果是將各個(gè)推薦算法結(jié)果列表的前幾名按順序合并成最終的推薦結(jié)果列表。使用NDCG這個(gè)評(píng)價(jià)指標(biāo)對(duì)上述的兩個(gè)排序結(jié)果進(jìn)行比較,為方便比較了NDCG@3和NDCG@9和NDCG@15這三個(gè)指標(biāo),如表2所示。
表2 Boosting合并算法的評(píng)測(cè)結(jié)果
從2表中發(fā)現(xiàn),Boosting合并算法在NDCG指標(biāo)上的表現(xiàn)均要好于原始合并排序方法。
3.2用戶反饋信息更新算法的評(píng)測(cè)
基于MovieLens數(shù)據(jù)集,以7∶1∶2的比例將數(shù)據(jù)集分為三個(gè)部分,其中只占1份的數(shù)據(jù)為更新數(shù)據(jù)。為方便測(cè)試將部分的用戶評(píng)分記錄轉(zhuǎn)化為用戶反饋信息。對(duì)只用Boosting合并的算法和將Boosting合并算法作為基礎(chǔ)模型的更新算法進(jìn)行訓(xùn)練與測(cè)試比較。這里的更新算法是指上文提到的小批量更新算法,沒(méi)有使用實(shí)時(shí)更新算法的原因是訓(xùn)練時(shí)的用戶反饋信息是批量傳遞給更新算法的。
從表3中發(fā)現(xiàn),更新算法是有意義的,它能夠在NDCG指標(biāo)上的表現(xiàn)更好。同時(shí)與表二的Boosting合并算法的測(cè)試結(jié)果比較,發(fā)現(xiàn)加入更新信息后NDCG值也會(huì)加大。這意味著大批量更新也是有必要的。
表3 更新算法的評(píng)測(cè)結(jié)果
3.3Boosting與LambdaMART的算法比較
基于MovieLens數(shù)據(jù)集,對(duì)Boosting合并算法和直接使用的LambdaMART算法進(jìn)行訓(xùn)練與測(cè)試比較。純LambdaMART算法是指將所有的用戶評(píng)分轉(zhuǎn)化為實(shí)例對(duì)順序,并在沒(méi)有基礎(chǔ)模型的情況下直接使用LambdaMART算法多次迭代訓(xùn)練出的排序算法。使用NDCG@9這個(gè)評(píng)價(jià)指標(biāo)對(duì)上述的兩個(gè)排序結(jié)果進(jìn)行比較,并記錄了不同迭代次數(shù)對(duì)這兩個(gè)排序算法的影響,如圖1所示。
圖1 迭代次數(shù)的影響
由圖1可見(jiàn),Boosting合并算法只需要30多次迭代,就能夠在NDCG@9這個(gè)評(píng)價(jià)指標(biāo)上達(dá)到訓(xùn)練的最佳效果。而無(wú)基礎(chǔ)模型的LambdaMART算法則需要200多次。同時(shí)Boosting合并算法的訓(xùn)練效果略優(yōu)于LambdaMART算法。
3.4不同數(shù)據(jù)集模擬不同場(chǎng)景情況的測(cè)試
基于MovieLens數(shù)據(jù)集和Last.FM數(shù)據(jù)集,將這兩個(gè)數(shù)據(jù)集作為不同場(chǎng)景的數(shù)據(jù)分別對(duì)Boosting合并算法進(jìn)行訓(xùn)練。同時(shí)在訓(xùn)練Last.FM數(shù)據(jù)集時(shí),啟用基于社會(huì)化的推薦算法。評(píng)測(cè)結(jié)果見(jiàn)表4。
表4 不同場(chǎng)景下的評(píng)測(cè)結(jié)果
由表4可知,Boosting合并算法在不同的訓(xùn)練集下都能夠在NDCG指標(biāo)上有較好的表現(xiàn)。
將排序?qū)W習(xí)技術(shù)運(yùn)用到混合推薦系統(tǒng)中,通過(guò)學(xué)習(xí)不同場(chǎng)景的不同數(shù)據(jù),系統(tǒng)能夠適用于不同的應(yīng)用場(chǎng)景。以Boosting合并算法為基礎(chǔ)模型、LambdaMART算法為更新算法的排序?qū)W習(xí)技術(shù),排序模型能夠基于用戶反饋信息實(shí)現(xiàn)實(shí)時(shí)更新。實(shí)驗(yàn)驗(yàn)證顯示,該方法的推薦結(jié)果列表能夠在排序評(píng)價(jià)指標(biāo)NDCG上表現(xiàn)優(yōu)秀。
[1]BURKE R. Hybrid recommender systems: survey and experiments[J]. User modeling and user-adapted interaction, 2002, 12(4): 331-370.
[2]WANG J, DE VRIES A P, REINDERS M J T. Unifying user-based and item-based collaborative filtering approaches by similarity fusion[C]//Proceedings of the 29th annual international ACM SIGIR conference on research and development in information retrieval. ACM, 2006: 501-508.
[3]CREMONESI P, TURRIN R, AIROLDI F. Hybrid algorithms for recommending new items[C]//Proceedings of the 2nd international workshop on information heterogeneity and fusion in recommender systems. ACM, 2011: 33-40.
[4]MIRANDA T, CLAYPOOL M, GOKHALE A, et al. Combining content-based and collaborative filters in an online newspaper[C]//In Proceedings of ACM SIGIR Workshop on Recommender Systems. ACM, 1999: 56-60.
[5]PAZZANI M J. A framework for collaborative, content-based and demographic filtering[J]. Artificial Intelligence Review, 1999, 13(5/6): 393-408.
[6]BELL R M, KOREN Y, VOLINSKY C. The bellkor solution to the netflix prize[J]. SIGKDD Explorations, 2007(9): 80-84.
[7]LIU T Y. Learning to rank for information retrieval[J]. Foundations and Trends in Information Retrieval, 2009, 3(3): 225-331.[8]BURGES C J C. From ranknet to lambdarank to lambdamart: An overview[J]. Learning, 2010(11): 23-581.
[9]WANG YINING, WANG LIWEI, LI YUANZHI, et al. A Theoretical analysis of normalized discounted cumulative gain (NDCG) ranking measures[C]//JMLR: Workshop and Conference Proceedings, 2013: 1-30.
[10]XU J, LI H. Adarank: a boosting algorithm for information retrieval[C]//Proceedings of the 30th annual international ACM SIGIR conference on Research and development in information retrieval. ACM, 2007: 391-398.
[11]PLATT T, HOMFMAN. Learning to rank with nonsmooth cost functions[J]. Learning, 2010(10): 23-581. 193-200.
[12]BURGES C, SHAKED T, RENSHAW E, et al. Learning to rank using gradient descent[C]//Proceedings of the 22nd international conference on Machine learning. ACM, 2005: 89-96.
[13]FREUND Y, IYER R, SCHAPIRE R E, et al. An efficient boosting algorithm for combining preferences[J]. The Journal of machine learning research, 2003(4): 933-969.
(編輯李德根)
Hybrid recommendation base on learning to rank
XIEBin1,2,TANGJianchang3,TANGXinhuai3
(1.College of Computer Science & Engineering, Nanjing University of Science & Technology, Nanjing 210094, China; 2.The Thirty-Second Research Institute of China Electronic Technology Group Corporation, Shanghai 200233, China; 3.School of Software, Shanghai Jiaotong University, Shanghai 200240, China)
This paper is a study of the way recommender system is adapted to different scenarios and the ranking of recommendation result. The paper proposes a hybrid recommendation algorithm which works by using boosting merging algorithm as the base model, applying LambdaMART update algorithm based on user feedback information and using ranking learning technology. The study is validated by the verification of the corresponding hybrid recommendation model using ranking evaluation index NDCG.
learning to rank; hybrid recommendation; boosting merging algorithm; lambdaMART algorithm; NDCG
2015-06-26
謝彬(1976-),男,湖南省衡陽(yáng)人,高級(jí)工程師,博士研究生,研究方向:計(jì)算機(jī)基礎(chǔ)、軟件云計(jì)算、大數(shù)據(jù)應(yīng)用,E-mail:xiebin-sh@163.com。
10.3969/j.issn.2095-7262.2015.04.018
TP181
2095-7262(2015)04-0445-05
A