• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于整體序列建模的會話推薦模型

      2021-03-09 02:38:40項欣光
      南京理工大學(xué)學(xué)報 2021年1期
      關(guān)鍵詞:會話特征向量建模

      閆 昭,項欣光

      (南京理工大學(xué) 計算機科學(xué)與工程學(xué)院,江蘇 南京 210094)

      隨著各互聯(lián)網(wǎng)平臺對用戶體驗的考慮,各類平臺均提升匿名訪問服務(wù)的體驗。例如在亞馬遜、淘寶、知乎等平臺中,用戶能夠在不登錄的情況下,訪問平臺中的信息。但是,當(dāng)用戶完成當(dāng)次訪問并關(guān)閉會話后,平臺將失去該用戶的身份。因而每次新增會話,均需要重新確立用戶偏好。為了能夠盡快地確立會話對應(yīng)用戶的喜好,為其提供優(yōu)質(zhì)的推薦服務(wù),研究會話推薦任務(wù)顯得尤其重要。

      作為推薦系統(tǒng)的經(jīng)典解決方案,協(xié)同過濾[1,2]利用協(xié)同信息推薦用戶感興趣的信息。項目K近鄰法(Item K nearest neighbors,Item-KNN)[2-5]和會話K近鄰法(Session K nearest neighbors,Session-KNN)[6]是會話推薦中基于記憶的協(xié)同過濾方法。Item-KNN忽略會話的歷史序列,向用戶推薦與最新交互項相似的項目。Session-KNN忽略項目間的時序相關(guān)性,利用與當(dāng)前會話相似的會話中出現(xiàn)的項目對項目評分。矩陣分解法[7-9]基于模型的協(xié)同過濾方法,該方法忽略了會話中項目重要性的差異,使用項目隱特征的均值來代替會話表示。

      近年來,隨著深度學(xué)習(xí)的快速發(fā)展,神經(jīng)網(wǎng)絡(luò)方法[10-14]已廣泛應(yīng)用于于各個領(lǐng)域??紤]到會話歷史為時序數(shù)據(jù),常使用遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent neural network,RNN)[15,16]來構(gòu)建會話的表示。文獻[17]忽略項目在會話中的全局信息,使用RNN獲得會話表示。文獻[18,19]引入用戶的身份信息,使用分級RNN融合用戶特征,但由于會話推薦面向匿名用戶,因而具有一定的局限性。文獻[20]使用了RNN與注意力機制結(jié)合的方法,考慮了項目與會話最新交互項目的關(guān)系,但忽略了項目所處會話中的位置信息。文獻[6]和[21]在當(dāng)前會話表示中融合相似會話表示,但由于性能的限制,只能融合部分相似會話。文獻[22]采取數(shù)據(jù)增強的方法,沒有在方法上進行改進。除了RNN,文獻[23]在序列上直接使用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural network,CNN),文獻[24]在序列上直接使用注意力機制,這兩種方法均忽略了項目所處序列的全局信息。圖神經(jīng)網(wǎng)絡(luò)(Graph neural network,GNN)的出現(xiàn)[25-27]為研究工作提供了新的方向。文獻[28]根據(jù)會話與項目之間的關(guān)系,建立圖網(wǎng)絡(luò)分析和生成會話表示,忽視了從整體序列建模分析項目的重要性。

      RNN通過迭代的方式保留歷史交互信息中的重要內(nèi)容。隨著會話過程的進行,歷史序列不斷增長,被舍棄的內(nèi)容的重要性會隨之變化,但無法再次找回。本文提出的基于整體序列建模的會話推薦模型(Session-based recommendation model based on overall sequence modeling,SRMOSM)計劃采用全局的項目融合策略,同時處理歷史序列中的全部項目,避免了RNN類模型中的取舍過程,能夠更清晰地描述用戶偏好。SRMOSM將選取項目在會話歷史中所處的位置,以及項目與會話最新交互項目的關(guān)系,作為衡量項目重要性的指標(biāo)。最后,SRMOSM在3個公開數(shù)據(jù)集上設(shè)計實驗來驗證其有效性。

      1 基于整體序列建模的會話推薦算法

      1.1 會話推薦問題描述

      表1 符號

      1.2 基于整體序列建模的會話推薦模型框架

      圖1展示了SRMOSM整體的工作過程。首先,SRMOSM從會話整體建模出發(fā),聯(lián)合分析項目在會話歷史的位置和該項目與會話最新交互項目的關(guān)系,提取除最新交互項目外其他項的要素特征,包括該項目的編號、最新交互項目的編號、該項目所處會話中的倒序位置和會話長度。該4種要素通過要素隱特征矩陣生成項目權(quán)重。對于項目權(quán)重,最新交互項目的權(quán)重為手工指定。之后,所有的項目權(quán)重經(jīng)過歸一化層再次修正。最后,各項目的隱特征向量與其對應(yīng)的權(quán)重通過加權(quán)和生成會話表示。SRMOSM使用交叉熵?fù)p失函數(shù)和Adam優(yōu)化器優(yōu)化模型的所有參數(shù)。

      SRMOSM聯(lián)合分析項目與最新交互項目的關(guān)系、該項目在會話歷史的位置衡量項目的重要性,進而為會話與項目分別設(shè)計相應(yīng)的特征向量。令s∈RD表示某一會話的特征向量,E∈RN×D表示全部N個項目對應(yīng)的特征向量,那么該會話下一次交互概率為

      (1)

      式中:E為各項目隱特征向量構(gòu)成的矩陣,而s對應(yīng)的會話特征向量,由會話中所有歷史交互項目加權(quán)構(gòu)成。對于會話S,其特征向量s的表示為

      (2)

      式中:⊙表示向量按對應(yīng)位相乘的結(jié)果,ex為項目x的隱特征向量,即E的第x行,wx為項目x在會話中的權(quán)重,取決于該項目對于會話的重要性,即

      (3)

      式中:cx∈RD表示項目x的重要性,除法為向量按位相除的結(jié)果。顯然,項目重要性的計算方法決定了會話表示的優(yōu)劣,也直接影響到了預(yù)測下一次交互項目的結(jié)果。

      圖1 SRMOSM工作框架圖

      1.3 會話中的項目重要性

      對于基于整體序列建模的會話模型,會話中項目重要性的確定至關(guān)重要,本節(jié)分析如何計算項目的重要性。直觀地說,用戶下一次的訪問與他最新的訪問項目相關(guān)度最大,與他在會話中訪問的其他項目也有一定的關(guān)聯(lián),而訪問時間越近,關(guān)聯(lián)度越大??梢哉J(rèn)為,項目的重要性依賴于他在會話中所處的位置,以及他與最新訪問項目之關(guān)的相關(guān)性。因此,本文分析了與這兩項內(nèi)容相關(guān)的各種情況,抽出了影響會話S中第i個項目重要性的4種要素,包含項目編號ai,項目ai在序列中的倒數(shù)位置L-i,會話中最新交互項目的編號aL,以及會話中項目數(shù)量L。這4種要素中,通過L-i與L,可以準(zhǔn)確地描述項目前后項目的數(shù)量,即其在會話中所處的位置;通過ai與aL,可以得到描述這兩個項目的特征向量,從而確定這兩個項目之間的關(guān)系。

      這里以4組會話為例說明4種要素對于整體序列建模的必要性。會話分別為S1=[1,2,3,4],S2=[1,4],S3=[1,3],S4=[2,1,4]。

      1.3.1 項目編號

      會話S1中包含4個項目。以其中的項目1與項目2為例,他們代表了用戶不同的喜好。在計算他們各自對于會話重要性的時候,需要通過項目編號引入他們各自的特征,才能夠體現(xiàn)他們各自不同的貢獻。因此,需要引入ai,來獲取項目特征,從而更好地描述其重要性。

      1.3.2 會話中最新交互項目的編號

      對于S2和S3,如果僅考慮ai來計算歷史項目1的重要性,會得到相同的重要性。然而,這兩個會話的最新交互項目不同,這也意味著這兩個用戶最后的興趣點不同。所以項目1對這兩個用戶的重要性是不同的。引入會話中最新項目的編號即可解決上述問題。

      1.3.3 項目在序列中的倒數(shù)位置

      對于S1和S2,如果僅考慮ai和要素會話中aL來計算項目1的重要性,會發(fā)現(xiàn)該項目在不同會話中得到的重要性是相同的。然而,項目1所處不同會話的時序位置是不同的。如果某項目離最新交互項目時間越長,用戶興趣點轉(zhuǎn)移的概率就越大,那么該項目的重要性就越弱。如果引入了項目在序列中的倒數(shù)位置,上述問題可以解決。

      1.3.4 會話中項目數(shù)量

      對于S2和S4,如果僅考慮ai、aL和ai在L-i來計算項目1的重要性,這時會發(fā)現(xiàn)在這兩個會話中得到的重要性是相同的。然而這兩個會話的長度不同的,這也意味著用戶總的興趣點分散程度不同,所以項目1對這兩個用戶的重要性是不同的。引入會話中項目數(shù)量可解決該問題。

      本文針對影響項目重要性的4種要素,設(shè)計了4種隱特征向量矩陣,A∈RN×D,B∈RG×D,C∈RN×D,D∈RG×D,分別描述項目編號、項目在序列中的倒數(shù)位置、會話中最新交互項目的編號和會話中項目數(shù)量對項目重要性的貢獻。其中A和C為項目編號,共有N組隱特征向量。而B和D與會話長度相關(guān),共有G=max|S|組特征向量。項目的重要性可以由下列函數(shù)得到

      φ(ai,L-i,aL,L)=σ(Aai+BL-i+CaL+DL+b)

      (4)

      式中:A、B、C和D的下標(biāo)代表取該矩陣中的對應(yīng)行,b為偏置向量。σ為激活函數(shù)??紤]到最新交互項目是重要性計算的一項指標(biāo),因而其重要性直接被設(shè)為常量向量{gσ}D,其中g(shù)為隨激活函數(shù)變化的常量??偟膩碚f,會話S中第i個項目的重要性ci的計算公式如下

      (5)

      1.4 基于整體序列建模的會話推薦模型訓(xùn)練

      (6)

      1.5 基于整體序列建模的會話推薦模型算法描述

      基于整體序列建模的會話推薦模型的算法描述見表2。算法主要包含兩個循環(huán)。外層循環(huán)首先選取一個會話序列,然后根據(jù)內(nèi)層循環(huán)得到的項目重要性生成會話特征向量,最后生成會話下一次交互各項目的預(yù)測概率,從而執(zhí)行Top-k推薦。內(nèi)層循環(huán)根據(jù)項目的編號、最新交互項目的編號、該項目所處會話中的倒數(shù)位置和會話項目數(shù)量這四種要素,計算會話中每一項的項目重要性。在訓(xùn)練過程中,算法根據(jù)預(yù)測概率和式(6),執(zhí)行反向傳播,更新模型的所有參數(shù)。

      表2 基于整體序列建模的會話推薦算法(前向傳播)

      2 實驗與結(jié)果分析

      2.1 實驗環(huán)境和評價指標(biāo)

      2.1.1 數(shù)據(jù)集

      本文在3個公開數(shù)據(jù)集上設(shè)計實驗,包括Diginetica數(shù)據(jù)集、Yoochoose數(shù)據(jù)集和LastFM數(shù)據(jù)集。表3列出了數(shù)據(jù)集的詳細(xì)統(tǒng)計結(jié)果。

      Diginetica是2016年CIKM挑戰(zhàn)賽的數(shù)據(jù)集。本文使用了與文獻[28]相同的數(shù)據(jù)預(yù)處理方法。該方法僅使用交互文件,首先過濾掉長度為1的會話和交互次數(shù)小于5的項目,然后選擇了最后7天的會話作為測試集,其余會話作為訓(xùn)練集。

      LastFM是音樂推薦數(shù)據(jù)集。本文使用了與文獻[21]相同的數(shù)據(jù)預(yù)處理方法。該方法過濾掉長度為1的會話和交互次數(shù)少于50的項目,然后隨機選擇269 847個會話作為訓(xùn)練集,5 771個會話作為測試集。

      Yoochoose[31]是2015年RecSys挑戰(zhàn)賽的數(shù)據(jù)集。本文使用了與文獻[28]相同的數(shù)據(jù)預(yù)處理方法。該方法首先過濾掉會話長度為1的會話和交互次數(shù)少于5的項目,然后使用最后一天的會話作為測試集,倒數(shù)1/64會話時間切片作為訓(xùn)練集。

      表3 數(shù)據(jù)集統(tǒng)計

      2.1.2 對比模型

      本節(jié)介紹文中使用的基準(zhǔn)方法。流行度(POP)算法是所有推薦方法的參考基準(zhǔn),它只推薦訓(xùn)練集中最流行的項目。會話流行度(S-POP)算法推薦當(dāng)前會話進行時最流行的項目,該項目隨著會話的不同而變化。Item-KNN[2]算法根據(jù)項目之間的相似度進行推薦,相似度的大小用余弦值衡量。貝葉斯個性化排序(BPR-MF)[8]算法使用隨機梯度下降方法優(yōu)化成對目標(biāo)函數(shù)。個性化馬爾可夫鏈分解(FPMC)[7]算法使用了矩陣分解和馬爾可夫鏈的混合方法。基于遞歸神經(jīng)網(wǎng)絡(luò)的會話推薦(GRU4REC)[17]算法是一種基于RNN的方法?;谏窠?jīng)注意力機制的會話推薦(NARM)[20]算法是一種基于RNN和注意力機制的方法?;趫D神經(jīng)網(wǎng)絡(luò)的會話推薦(SR-GNN)[28]算法是一種基于門控的圖神經(jīng)網(wǎng)絡(luò)和注意力機制的方法?;趨f(xié)同會話帶有并行內(nèi)存模塊的會話推薦(CSRM)[21]算法是一種RNN和內(nèi)存網(wǎng)絡(luò)的混合方法。

      2.1.3 評價指標(biāo)

      本文使用兩個評價指標(biāo)來評估推薦效果,召回率(Recall)和平均倒數(shù)排名(Mean reciprocal rank,MRR)。Recall計算會話下一次點擊的項目是否出現(xiàn)在推薦列表之中,如果會話的標(biāo)簽出現(xiàn)在推薦列表中,則此會話標(biāo)記為1;反之為0。該指標(biāo)不考慮標(biāo)簽出現(xiàn)在推薦列表中的位置。MRR用來評價標(biāo)簽所處推薦列表的位置。如果會話的標(biāo)簽未出現(xiàn)在推薦列表中,記為0;否則為標(biāo)簽所在位置的倒數(shù)。

      2.1.4 基于整體序列建模的會話推薦模型的參數(shù)設(shè)置

      本文使用Pytorch框架構(gòu)建模型并進行訓(xùn)練。顯卡是TeslaV100,具有32G顯存。根據(jù)經(jīng)驗,本文設(shè)置隱特征維度D為150,學(xué)習(xí)率為0.001,參數(shù)的正則化項系數(shù)為0,訓(xùn)練每批次中樣本數(shù)為1 024。

      2.2 實驗結(jié)果與分析

      2.2.1 SRMOSM與對比模型的性能對比

      展示了本文模型與各對比模型的實驗結(jié)果。可以從中觀察到現(xiàn)象如下現(xiàn)象,SRMOSM在Recall@20和MRR@20這兩個評價指標(biāo)上獲得了最優(yōu)效果。

      在所有傳統(tǒng)方法中,Item-KNN算法和FPMC算法取得了較好的效果,而POP算法的性能最差。POP算法僅僅考慮數(shù)據(jù)集中項目的流行程度,因而很難抓住不同會話的偏好差異。Item-KNN算法的實驗結(jié)果證明了對于會話推薦,最新交互項目對預(yù)測用戶的當(dāng)前偏好有很大的影響。FPMC算法融合了馬爾可夫鏈,因此FPMC算法能夠抓住會話的局部偏好,這同時也證明了會話推薦需要分析序列的時序特性。整體上,神經(jīng)網(wǎng)絡(luò)方法相較于傳統(tǒng)方法具有明顯優(yōu)勢,均取得了良好的效果。GRU4REC算法僅使用RNN生成會話表示。RNN采用多次迭代的方式保留會話歷史的重要信息,在每次迭代中選取局部最優(yōu)解,這使它無法從全局角度考慮會話記錄中各項目的重要性。NARM算法在RNN的基礎(chǔ)上使用注意力機制融合了會話的局部序列,進而生成會話表示。會話的局部序列仍然通過RNN迭代生成,這使它同樣無法從全局角度分析會話中項目的重要性。CSRM算法的會話表示生成過程與NARM算法相同,它在當(dāng)前會話表示中融合了相似會話表示。因為相似會話與當(dāng)前會話存在著協(xié)同信息,因而效果上有一定的提升。但本質(zhì)上它沒有解決從全局角度分析項目重要性的問題。SR-GNN算法使用門控圖神經(jīng)網(wǎng)路提取項目特征,并通過項目與最新交互項目的關(guān)系和注意力機制融合會話中的項目,最終生成會話表示。SR-GNN算法從全局角度分析各會話記錄的重要性,但是一方面,它忽視了項目在會話歷史中的位置信息對項目重要性的影響;另一方面,它的項目重要性為常量,這使它很難抓住項目特征分量對會話表示的貢獻差異。

      所以,基于整體序列建模,聯(lián)合分析項目與最新交互項目的關(guān)系和該項目在會話歷史的位置可以更好地抓住會話中各項目的重要性差異,另外使用向量級的重要性可以更好地區(qū)分項目特征分量的貢獻差異,因而SRMOSM能夠生成更為有效的會話表示。

      表4 SRMOSM與對比模型的性能對比

      2.2.2 會話長度對推薦效果的影響

      會話的最后幾個項目對用戶當(dāng)前偏好的影響更大,因而,本節(jié)需要觀察會話長度如何影響推薦效果。從圖2可以看出,當(dāng)會話長度小于10時,評價指標(biāo)隨著長度的增加而增加。該現(xiàn)象的原因是,當(dāng)獲得更多的用戶點擊信息后,SRMOSM可以更好地分析用戶偏好,準(zhǔn)確生成會話表示。當(dāng)會話長度大于10時,評價指標(biāo)趨于穩(wěn)定。該現(xiàn)象的原因是,一方面,大部分會話的實際長度很短,增加會話長度對于這些短會話實際上并沒有影響,因而評價指標(biāo)趨于穩(wěn)定;另一方面,這時候增加的點擊項目大都是用戶很長時間以前點擊過的項目,這些項目的增加對于當(dāng)前時刻用戶的偏好影響并不大。

      2.2.3 激活函數(shù)對基于整體序列建模的會話推薦模型影響

      在計算項目重要性時,本文使用了不同的激活函數(shù)。本節(jié)分析不同激活函數(shù)對推薦效果的影響。對于激活函數(shù)Sigmoid,它的值域在0到1之間??紤]到最新交互項目的重要性,本文采用1作為gσ的值。對于激活函數(shù)ReLU6,它的值域在0到6之間,同理,本文采用6作為gσ的值。對于激活函數(shù)ReLU,它的值域是0到正無窮,因為沒有上界,所以本文采用1作為gσ的值。從表5可以看出,不同激活函數(shù)對評價指標(biāo)影響不大。SRMOSM可以較好適用于不同的激活函數(shù),至少Sigmoid、ReLU和ReLU6均可以在SRMOSM中使用。激活函數(shù)的不同不會使網(wǎng)絡(luò)出現(xiàn)梯度爆炸,進而發(fā)生梯度消失現(xiàn)象使網(wǎng)絡(luò)失效。

      2.2.4 基于整體序列建模的4種要素必要性

      本文使用4種要素描述會話的序列特性,從而對會話進行整體序列建模。但是,是否每一個要素都有必要存在。本節(jié)進行了一系列實驗驗證每一個要素存在的必要性。從表6可以看出,隨著每次消除要素,評價指標(biāo)會相應(yīng)的降低,但降低的幅度并不大。這與預(yù)期相似,因為本文使用4種要素描述會話的序列特性,每次消除都導(dǎo)致部分特性的丟失,導(dǎo)致對會話當(dāng)前偏好的分析能力減弱。但是,此情況在不同的數(shù)據(jù)集上表現(xiàn)有些差異,這是因為不同的數(shù)據(jù)集可能對于會話的序列特性信息的需要不同。由于本文不可能對現(xiàn)在所有的會話任務(wù)數(shù)據(jù)進行實驗,只能通過這幾個有代表性的數(shù)據(jù)集大致評估方法的有效性?;谶@種考慮,為了使SRMOSM具有更強的適應(yīng)性,需要每一個要素去描述會話相應(yīng)的序列特性。

      圖2 不同會話長度效果對比

      表5 激活函數(shù)性能對比

      表6 要素必要性分析

      2.2.5 項目隱特征維度分析

      本節(jié)分析項目隱特征向量維度對推薦效果的影響。項目隱特征向量維度設(shè)置為50、100、150和200,其他參數(shù)設(shè)置為該數(shù)據(jù)集上的最優(yōu)參數(shù),并保持不變。從表7可以看出,隨著項目隱特征向量維度的增加,評價指標(biāo)會隨之增加。但是,在Yoochoose數(shù)據(jù)集上,當(dāng)項目隱特征向量維度從150提升到200時,評價指標(biāo)略有下降,這說明了不同數(shù)據(jù)集對應(yīng)的最優(yōu)隱特征維度不同。在一定的范圍內(nèi),增加維度對推薦效果有所提升,繼續(xù)增加獲得的收益較小,還可能導(dǎo)致過擬合,加大模型難度。綜合考慮性能和計算代價之間的均衡,本文設(shè)置隱特征維度為150。

      2.2.6 會話推薦算法的計算效率對比

      本節(jié)對比了文中所有神經(jīng)網(wǎng)絡(luò)模型的計算效率。為了進行公平對比,本文使用訓(xùn)練一次數(shù)據(jù)集的平均時間和測試的時間作為評價指標(biāo),即:時間/訓(xùn)練集、時間/測試集,時間單位為s。從表8可以看出,NARM達到了最優(yōu)的計算效率,SRMOSM計算效率略顯遜色,但強于其他模型。除NARM和SRMOSM之外,其他模型的計算時間較長。GRU4REC使用項目的一位有效編碼作為項目特征,一位有效編碼的維度是數(shù)據(jù)集中項目的數(shù)量,其數(shù)值遠遠大于項目隱特征向量維度。SR-GNN使用門控圖神經(jīng)網(wǎng)絡(luò)生成項目特征,相比于直接使用項目隱特征向量作為項目特征,增加了計算過程。CSRM在當(dāng)前會話表示中融合了相似會話表示,同樣增加了計算過程。綜合考慮性能和效率,本文提出的方法取得了最優(yōu)的效果。

      表7 項目隱特征維度分析

      表8 算法計算效率比較結(jié)果

      3 結(jié)論

      本文提出一種基于整體序列建模的會話推薦模型SRMOSM。SRMOSM采用全局的項目融合策略綜合考慮會話涉及的交互項目,通過考查該項目在會話歷史中所處的位置、該項目與會話中最新交互項目的關(guān)系,衡量該項目在會話中的權(quán)重,計算出各項目對會話表示的重要性,生成更為有效的會話表示。在未來的工作中,可進一步考慮融合相似會話的特征。對比RNN-KNN和CSRM兩項工作可知,融合鄰居會話信息對于會話預(yù)測具有積極影響,能夠更容易地找到存在于會話之間的協(xié)同信號,有利于分析用戶當(dāng)前偏好。

      猜你喜歡
      會話特征向量建模
      二年制職教本科線性代數(shù)課程的幾何化教學(xué)設(shè)計——以特征值和特征向量為例
      克羅內(nèi)克積的特征向量
      聯(lián)想等效,拓展建?!浴皫щ娦∏蛟诘刃鲋凶鰣A周運動”為例
      基于PSS/E的風(fēng)電場建模與動態(tài)分析
      電子制作(2018年17期)2018-09-28 01:56:44
      不對稱半橋變換器的建模與仿真
      一類特殊矩陣特征向量的求法
      EXCEL表格計算判斷矩陣近似特征向量在AHP法檢驗上的應(yīng)用
      有意冒犯性言語的會話含義分析
      漢語教材中的會話結(jié)構(gòu)特征及其語用功能呈現(xiàn)——基于85個會話片段的個案研究
      三元組輻射場的建模與仿真
      纳雍县| 安阳市| 虹口区| 罗田县| 舞阳县| 衡阳县| 肥东县| 闽清县| 商水县| 天气| 昭平县| 南阳市| 合水县| 南昌市| 兴海县| 新绛县| 芦山县| 乌兰县| 渭源县| 厦门市| 灌阳县| 宣威市| 温州市| 亚东县| 保定市| 关岭| 马龙县| 平山县| 郸城县| 从化市| 临泽县| 邻水| 安庆市| 霍山县| 镇安县| 化州市| 永泰县| 美姑县| 绥阳县| 广南县| 姜堰市|