• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于BiLSTM-NFC的地下水埋深預(yù)測方法研究

      2021-06-16 10:29:12韓宇平劉中培黃會平
      人民黃河 2021年6期
      關(guān)鍵詞:神經(jīng)網(wǎng)絡(luò)誤差函數(shù)

      劉 鑫,韓宇平,劉中培,黃會平

      (1.華北水利水電大學(xué) 水利學(xué)院,河南 鄭州450046;2.華北水利水電大學(xué) 測繪與地理信息學(xué)院,河南 鄭州450046)

      1 引 言

      地下水埋深的變化受降雨、蒸發(fā)及開采量等多種因素的影響。地下水過度開采時,會產(chǎn)生地下水漏斗和地面沉降;當(dāng)補給量超過開采量時,地下水埋深會變淺。因此,預(yù)測地下水埋深的變化情況對區(qū)域水資源管理至關(guān)重要。而機理模型建模預(yù)測地下水埋深容易受到物理環(huán)境的影響,存在較多不確定因素,建模時間較長。使用深度學(xué)習(xí)模型可以不依賴任何物理過程和假設(shè),且深度學(xué)習(xí)模型具有很強的自組織及自適應(yīng)能力,對于非線性分布的樣本數(shù)據(jù)有很好的建模能力[1-2],被廣泛應(yīng)用于供水量預(yù)測[3]、空間插值[4-5]、降水預(yù)報[6-7]、污染源識別[8-9]及水質(zhì)預(yù)測[10-11]等多個領(lǐng)域。

      對于地下水埋深的預(yù)測是經(jīng)典的二分類問題,人工神經(jīng)網(wǎng)絡(luò)(ANN)可以較好地解決此類問題[12-13],但是ANN學(xué)習(xí)能力及推廣能力有限,容易出現(xiàn)過擬合[14-15],導(dǎo)致泛化能力差,不能很好地描述復(fù)雜特征的分布情況,更重要的是ANN沒有記憶能力。而長短時記憶循環(huán)神經(jīng)網(wǎng)絡(luò)(LSTM)[16]控制有記憶單元且不需要大量參數(shù),使預(yù)測結(jié)果更依賴于過去最近的記憶。LSTM在時間序列問題上的性能優(yōu)于ANN,但是LSTM在測試集的泛化能力不夠理想。LSTM和ANN不能很好地根據(jù)已知數(shù)據(jù)預(yù)測未知特征,原因是它們都是單向的(前向的)且都是全連接神經(jīng)網(wǎng)絡(luò)(FC)。單向網(wǎng)絡(luò)只能學(xué)習(xí)到單側(cè)的信息,而有時時序問題的信息不只是單向有用,雙向的信息對預(yù)測結(jié)果也很關(guān)鍵。FC的神經(jīng)元是全連接的,會減少網(wǎng)絡(luò)的隨機性。雙向長短時記憶循環(huán)神經(jīng)網(wǎng)絡(luò)(BiLSTM)[17]不僅具有LSTM的功能,而且可以先前向?qū)W習(xí),再后向?qū)W習(xí),最后將網(wǎng)絡(luò)兩個方向的輸出結(jié)果合在一起形成網(wǎng)絡(luò)的最終輸出。

      本研究以黃河下游人民勝利渠灌區(qū)地下水埋深預(yù)測為例,構(gòu)建BiLSTM-NFC深度學(xué)習(xí)模型,將BiLSTM融合非全連接神經(jīng)網(wǎng)絡(luò)(NFC),使得每一次訓(xùn)練按一定的概率丟棄一些神經(jīng)元,增加網(wǎng)絡(luò)的隨機性,最后與BiLSTM、LSTM-NFC及LSTM的預(yù)測結(jié)果進行對比分析,以期提高地下水埋深預(yù)測的精度。

      2 研究區(qū)概況與數(shù)據(jù)預(yù)處理

      2.1 研究區(qū)概況與數(shù)據(jù)來源

      人民勝利渠灌區(qū)是新中國成立后黃河下游興建的大型引黃灌區(qū)之一,位于河南省黃河北岸。灌區(qū)南起黃河,北至衛(wèi)河,總面積1 486.84 km2。本研究利用1993—2018年新鄉(xiāng)氣象站的數(shù)據(jù)(降水、蒸發(fā)、平均氣溫、平均氣壓、相對濕度、平均風(fēng)速和日照時數(shù))、灌區(qū)地下水供應(yīng)量和總開采量(渠灌量和井灌量)進行建模,預(yù)測灌區(qū)的平均地下水埋深。氣象數(shù)據(jù)來自國家氣象局,灌區(qū)數(shù)據(jù)來自人民勝利渠灌溉管理局。

      2.2 數(shù)據(jù)預(yù)處理

      為了消除量綱的影響,使得不同量綱的數(shù)據(jù)具有相同的尺度,本研究將數(shù)據(jù)進行標準化,在測試的時候再將數(shù)據(jù)進行還原。取消量綱及數(shù)值相差較大所引起的誤差,不僅可以縮短建模時間,還有助于提高模型精度。

      3 模型開發(fā)

      3.1 雙向長短時記憶循環(huán)神經(jīng)網(wǎng)絡(luò)

      LSTM每層輸出結(jié)果的同時會產(chǎn)生一個記憶輸出,因此該網(wǎng)絡(luò)具有一定的記憶性,同時加入了衰減因子讓記憶進行衰減,這樣LSTM能夠清楚地記得最近的數(shù)據(jù)而以一定程度遺忘掉很久以前的數(shù)據(jù),LSTM的抽象結(jié)構(gòu)如圖1所示(X1、X i、X j為不同時刻的輸入,Y1、Yi、Y j為不同時刻的輸出,NN為神經(jīng)網(wǎng)絡(luò)模型)。

      圖1 LSTM的抽象結(jié)構(gòu)

      LSTM的結(jié)構(gòu)比較復(fù)雜,每一層網(wǎng)絡(luò)在輸出結(jié)果的同時會產(chǎn)生一個經(jīng)過衰減的記憶,存儲之后再傳入下一層網(wǎng)絡(luò),輸出計算的過程可用公式表達為

      式中:f t、f t-1分別為t、t-1時刻的衰減因子;h t、h t-1分別為t、t-1時刻隱藏層的輸出;x t為t時刻隱藏層的輸入;Wf、Wc、Wo為權(quán)重(系數(shù));bf、bc、bo為偏置項;Sigmoid為S激活函數(shù);Tanh為雙曲正切激活函數(shù);~C t為新學(xué)習(xí)的記憶;C t為衰減后的記憶;Ot為輸出端的系數(shù);t為時刻。

      f t是由t-1時刻隱藏層的輸出h t-1和輸入x t結(jié)合起來,然后作用在線性變換Wf[h t-1,x t]+bf上得到的,通過Sigmoid將結(jié)果映射到0~1之間。~C t是由h t-1和x t結(jié)合起來,作用在線性變換Wc[h t-1,x t]+bc上,再通過Tanh將輸出整流到-1~1之間。C t是由t-1時刻的f t-1乘以C t-1,加上t時刻的f t乘以~C t。O t決定最后輸出h t的多少。

      BiLSTM是LSTM的雙向版本(見圖2),由前向LSTM和后向LSTM組合而成,能夠挖掘LSTM難以解析的規(guī)律,對于復(fù)雜的分類和回歸問題表現(xiàn)出非常好的性能,可以彌補單向LSTM的缺點。

      圖2 BiLSTM的抽象結(jié)構(gòu)

      BiLSTM分為前向LSTMF和后向LSTMB。前向網(wǎng)絡(luò)依次輸入X1、X2、X i、X j和X n得到前向輸出HF1、HF2、HFi、HFj和HFn,后向網(wǎng)絡(luò)依次輸入X n、X j、X i、X2和X1得到后向輸出HB1、HB2、HBi、HBj和HBn,將兩個方向的輸出拼接得到[HF1,HBn]、[HF2,HBj]、[HFi,HBi]、[HFj,HB2]和[HFn,HB1]。以[HF1,HBn]為例,它是由X1在前向網(wǎng)絡(luò)的輸出HF1與X1在后向網(wǎng)絡(luò)的輸出HBn結(jié)合在一起形成的最終輸出。可以看出,輸入序列對于BiLSTM的兩個方向神經(jīng)網(wǎng)絡(luò)是相反的,因此BiLSTM能夠更好地建立數(shù)據(jù)的關(guān)聯(lián)。

      3.2 非全連接神經(jīng)網(wǎng)絡(luò)

      FC是對第n-1層和第n層而言的,n-1層的任意一個節(jié)點都和第n層所有節(jié)點有連接。增加訓(xùn)練的次數(shù),模型在訓(xùn)練集的誤差雖然可以無限趨近于零,但是在測試集的性能往往較差,網(wǎng)絡(luò)層數(shù)越大、參數(shù)越多,在測試集上的性能越差。NFC是對FC的一種優(yōu)化,其思想是隨機切斷某兩個神經(jīng)元之間的連接,每層以一定概率P(本研究P取0.3)丟棄一些神經(jīng)元,每次訓(xùn)練有些神經(jīng)元是沒有建立連接的。NFC示意見圖3。

      由圖3可見,每次訓(xùn)練的時候都有神經(jīng)元不參與,這樣每一次訓(xùn)練相當(dāng)于生成了一個新的模型,訓(xùn)練結(jié)束后被訓(xùn)練的模型可以看成是這些新模型的集成,從而增強網(wǎng)絡(luò)的泛化能力。

      圖3 NFC示意

      BiLSTM-NFC、BiLSTM、LSTM-NFC和LSTM模型都使用Pytorch框架開發(fā),Pytorch是Python中具有圖形處理單元(GPU)并行計算功能的深度學(xué)習(xí)框架。為了加快建模的速度,本研究使用深度學(xué)習(xí)的張量來存儲數(shù)據(jù),一維的張量是向量,超過一維的張量是矩陣。在導(dǎo)入數(shù)據(jù)時采用批處理的形式,即將一次迭代的數(shù)據(jù)長度設(shè)置為訓(xùn)練集的長度,這樣一輪訓(xùn)練只需要進行一次迭代。在訓(xùn)練模型時,將處理單元由中央處理單元(CPU)更改為GPU,將數(shù)據(jù)從內(nèi)存調(diào)入顯存進行并行計算。計算時不再將全部元素按位置逐一迭代計算,而是使用同維度矩陣的運算法則來簡化計算過程。

      3.3 優(yōu)化函數(shù)

      自適應(yīng)矩估計(Adam)[18]是一種自適應(yīng)學(xué)習(xí)率的算法,結(jié)合了動量法(Momentum)[19]和均方根支柱(RMSProp)[20]算法的優(yōu)點。Adam中動量直接并入梯度一階矩的估計,相比缺少修正因子導(dǎo)致二階矩估計可能在訓(xùn)練初期具有很高偏置的RMSProp,Adam包括偏置校正,經(jīng)過偏置校正后,每一次迭代學(xué)習(xí)率都有確定范圍,使得參數(shù)比較平穩(wěn)。Adam能基于訓(xùn)練數(shù)據(jù)迭代更新神經(jīng)網(wǎng)絡(luò)權(quán)重,該優(yōu)化函數(shù)適用于處理稀疏梯度及非平穩(wěn)目標的優(yōu)化。Adam的表達式為

      式中:m、v分別為對梯度的一階矩估計和二階矩估計;β1、β2分別為m、v的校正因子;g為梯度;^m、^v分別為對m、v的校正;W t+1、W t為模型參數(shù);η為學(xué)習(xí)率;∈為避免分母為0而取值很小的數(shù),本研究∈取10-8。

      每次迭代時,計算mt、v t的移動加權(quán)平均進行更新。β1、β2的取值范圍在0~1之間,本文分別取0.9和0.999。當(dāng)?shù)螖?shù)增加到較大值時βt1、βt2幾乎為0,即不會產(chǎn)生任何影響,最后使用修正過的^mt和^vt對學(xué)習(xí)率η進行動態(tài)約束。

      3.4 激活函數(shù)

      激活函數(shù)的選擇對于模型的收斂起關(guān)鍵性作用。如果模型采用單一激活函數(shù),則可能出現(xiàn)梯度消失或激活效果不好等情況,因此本研究耦合多種激活函數(shù)來解決上述問題。

      Sigmoid激活函數(shù)(見式(2))的輸出不是以0為均值的,這將導(dǎo)致經(jīng)過Sigmoid激活之后的輸出作為后面一層網(wǎng)絡(luò)輸入的時候是非0均值的。Tanh激活函數(shù)(見式(4))是Sigmoid激活函數(shù)的變形,它將輸入的數(shù)據(jù)映射到-1~1之間,輸出變成了0均值,這就可以解決Sigmoid激活函數(shù)存在的問題,但它仍存在梯度消失的情況。最大邏輯回歸(Softmax)激活函數(shù)(見式(14))將多個輸出值轉(zhuǎn)換成概率值,使每個值都符合概率的定義,范圍在0~1之間,且概率之和為1。Softmax對輸出值進行處理,它將原來較大的值放大得更大、原來較小的值壓縮得更小。Softmax激活函數(shù)表達式為

      式中:y i為輸出矩陣的第i個元素;n為矩陣特定維度的數(shù)據(jù)個數(shù)。

      線性整流單元(ReLU)激活函數(shù)(見式(15))將大于0的數(shù)據(jù)保留,將小于0的數(shù)據(jù)變成0,其計算方法簡單,只需要一個閾值過濾而不需要復(fù)雜的運算。因此,ReLU能夠極大地加速模型的收斂速度,它是線性的且參數(shù)更新過程中不存在梯度消失的問題。ReLU激活函數(shù)表達式為

      3.5 動態(tài)學(xué)習(xí)率

      靜態(tài)學(xué)習(xí)率不能很好地適應(yīng)模型的訓(xùn)練,尤其是模型收斂到一定程度時會出現(xiàn)頻繁且周期性的震蕩,使得模型不能很好地持續(xù)收斂。因此,本研究采用動態(tài)學(xué)習(xí)率,在訓(xùn)練的過程中設(shè)定監(jiān)測機制實時監(jiān)測模型誤差,當(dāng)模型誤差持續(xù)減小時不對學(xué)習(xí)率進行更新,當(dāng)模型誤差出現(xiàn)反彈時,記錄之后連續(xù)20次訓(xùn)練的誤差,如果模型在這期間震蕩就將學(xué)習(xí)率乘以0.9,而后等待10次訓(xùn)練之后重新啟動監(jiān)測機制,一直到連續(xù)兩次更新后的學(xué)習(xí)率差值小于10-8時不再更新學(xué)習(xí)率。

      3.6 評價標準

      為了避免單一評價標準的局限性,采用均方誤差(MSE)、平均相對誤差(MRE)、Pearson相關(guān)系數(shù)(r)及相對誤差(RE)4個評價指標檢驗?zāi)P偷男阅?

      4 結(jié)果與分析

      4.1 擬合結(jié)果對比分析

      將數(shù)據(jù)集按照7∶3的樣本數(shù)量比例進行訓(xùn)練集和測試集劃分,即1993—2010年的數(shù)據(jù)作為訓(xùn)練集,2011—2018年的數(shù)據(jù)作為測試集,BiLSTM-NFC、BiLSTM、LSTM-NFC和LSTM模型采用相同的訓(xùn)練集和測試集。4個模型的訓(xùn)練與測試結(jié)果見圖4。

      圖4 模型的擬合結(jié)果

      由圖4可知,4個模型的擬合效果在訓(xùn)練階段都較好,但在測試階段存在較大差別。在測試集上,LSTM和LSTM-NFC模型的偏離程度較大,BiLSTMNFC與BiLSTM的擬合效果較好。BiLSTM曲線與觀測曲線前期的擬合效果較好,但后期走勢卻與觀測值有較大偏離。BiLSTM-NFC的預(yù)測值與觀測值最接近,擬合效果最好,模型最接近無偏估計。4個模型的預(yù)測值與觀測值對比及絕對誤差(AE)見表1。

      由表1可以看出:BiLSTM-NFC模型的誤差最小,且誤差有正有負,擬合程度較高。BiLSTM模型的誤差雖然也有正有負,但是誤差值較大,誤差最大的是LSTM模型。4個模型誤差從小到大排序為BiLSTMNFC<BiLSTM<LSTM-NFC<LSTM。

      表1 模型預(yù)測值與觀測值對比 m

      4.2 模型性能對比分析

      4個模型的訓(xùn)練結(jié)果見表2(訓(xùn)練次數(shù)為1 000),訓(xùn)練集的MSE越小,說明擬合效果越好,MSE為0表示過度擬合。

      表2 模型的訓(xùn)練結(jié)果

      從表2可以看出,4個模型在訓(xùn)練結(jié)束時,MSE都接近0.000甚至為0.000,符合模型訓(xùn)練的一般規(guī)律,但是過度擬合可能導(dǎo)致模型的泛化能力變差。沒有融合NFC的2個模型MSE為0,出現(xiàn)過度擬合,因此準確率(Acc)高于融合NFC的2個模型。使用矩陣存儲數(shù)據(jù)再加上批處理,使得模型不需要進行大量訓(xùn)練。訓(xùn)練1 000次時MSE幾乎為0,學(xué)習(xí)率持續(xù)減小,但是參數(shù)已經(jīng)停止更新。對4個模型進行測試,結(jié)果見表3。

      表3 模型的測試結(jié)果

      由表3可知,BiLSTM的4個評價指標都優(yōu)于LSTM,BiLSTM-NFC的4個評價指標都優(yōu)于LSTMNFC,可知雙向網(wǎng)絡(luò)的性能優(yōu)于單向網(wǎng)絡(luò)。BiLSTMNFC比BiLSTM的MSE減小了70.48%,LSTM-NFC的MSE比LSTM的MSE減小了70.09%,可知NFC可使模型的MSE明顯減小。4個模型的MSE從小到大排序為BiLSTM-NFC<BiLSTM<LSTM-NFC<LSTM,BiLSTM-NFC的MSE最小,比LSTM的MSE減小了96.60%。MR E的排序為BiLSTM-NFC<BiLSTM<LSTM-NFC<LSTM,BiLSTM-NFC的MRE最小,說明BiLSTM-NFC模型的穩(wěn)定性最強。BiLSTM-NFC的r最大,表明該模型預(yù)測值與觀測值具有最優(yōu)的相關(guān)關(guān)系,r從大到小排序為BiLSTM-NFC>BiLSTM>LSTMNFC>LSTM。BiLSTM的Acc為85.71%,BiLSTM-NFC的Acc為100%,可見NFC可使模型具有更強的自適應(yīng)能力。而LSTM融合NFC之后,Acc沒有增大,原因可能是LSTM的學(xué)習(xí)能力不足。

      泛化能力是模型對未知數(shù)據(jù)的預(yù)測能力,是評價一個模型優(yōu)劣的重要準則。將4個模型在訓(xùn)練集和測試集上的MSE進行對比,結(jié)果見表4。

      表4 模型訓(xùn)練與測試的MSE對比

      4個模型的泛化能力排序為BiLSTM-NFC>BiLSTM>LSTM-NFC>LSTM。在測試集上,LSTM的MSE是最差的,但是LSTM融合NFC之后,模型的MSE明顯減小,由2.879減小到0.861,融合NFC的BiLSTM的MSE從0.332減小到0.098,說明NFC能夠減小模型在測試集上的誤差,增強泛化能力。

      由表3可知,BiLSTM-NFC的MRE最小只是訓(xùn)練1 000次以后的結(jié)果,如果訓(xùn)練過程中出現(xiàn)頻繁的震蕩現(xiàn)象,即使誤差非常小,也不能說明模型足夠穩(wěn)定可靠。因此,本研究進一步采用式(19)計算每個數(shù)據(jù)的RE,來最終驗證模型的可靠性。4個模型RE的箱圖見圖5。

      由圖5可知:在訓(xùn)練集上,BiLSTM和LSTM都過度擬合,相對誤差的上限和下限重合,融合了NFC的2個模型沒有過度擬合,BiLSTM-NFC的上限小于LSTM-NFC的上限;在測試集上,與其他3個模型相比,BiLSTM-NFC的相對誤差較小,表明BiLSTM-NFC模型更加可靠。因此,BiLSTM-NFC模型比其他3個模型具有明顯優(yōu)勢。

      圖5 模型訓(xùn)練集和測試集箱圖

      Pytorch框架具有強大的GPU加速功能,數(shù)據(jù)可以在GPU上實現(xiàn)并行計算。4個模型分別通過第八代Intel酷睿處理器和GeForce 930MX,實現(xiàn)CPU和GPU上的1 000次訓(xùn)練,訓(xùn)練時間見表5。

      表5 模型在CPU和GPU上訓(xùn)練1 000次所用的時間 s

      由表5可知,與CPU相比,BiLSTM-NFC和LSTM-NFC在GPU上的訓(xùn)練時間分別縮短53.50%和48.62%,BiLSTM和LSTM在GPU上的訓(xùn)練時間分別縮短19.13%和15.88%,體現(xiàn)出GPU強大的加速功能。在GPU上,融合了NFC之后,模型訓(xùn)練時間幾乎不變;而在CPU上,模型融合NFC之后的訓(xùn)練時間卻大幅增加。在GPU上,雙向網(wǎng)絡(luò)的訓(xùn)練時間與單向網(wǎng)絡(luò)的訓(xùn)練時間幾乎一樣,而在CPU上卻有明顯增加,可見GPU具有很強的并行計算能力。對于更高維度的矩陣,在GPU上的訓(xùn)練時間可能更短。

      激活函數(shù)的選擇對于模型的收斂十分關(guān)鍵。一般而言,ReLU激活函數(shù)的效果較好,但是僅使用ReLU一個激活函數(shù),數(shù)據(jù)在層間傳遞時,激活函數(shù)的缺陷會被放大。本研究使用耦合激活函數(shù)(Tanh、Softmax及ReLU)來彌補單一激活函數(shù)的缺陷,ReLU激活函數(shù)與耦合激活函數(shù)的對比見表6,由表6可知,使用耦合激活函數(shù)的4項評價指標均優(yōu)于僅使用ReLU激活函數(shù)的。

      表6 ReLU激活函數(shù)與耦合激活函數(shù)的對比

      5 結(jié) 論

      深度學(xué)習(xí)模型具有非常強大的能力,能夠很好地描述區(qū)域地下水?dāng)?shù)據(jù)間復(fù)雜的數(shù)量與特征關(guān)系。本研究建立4個深度學(xué)習(xí)模型,對比了4個模型對黃河下游人民勝利渠灌區(qū)1993—2018年地下水埋深預(yù)測的精度,結(jié)果表明BiLSTM-NFC模型的性能最好,并得出以下結(jié)論。

      (1)使用矩陣運算、批處理及動態(tài)學(xué)習(xí)率,模型可以快速收斂,不需要進行大量訓(xùn)練。

      (2)與BiLSTM、LSTM-NFC及LSTM模型相比,BiLSTM-NFC模型學(xué)習(xí)能力、穩(wěn)定性、可靠性及泛化能力最強,測試集的MSE、MRE、r及Acc分別為0.098、0.024、0.941及100%,最接近無偏估計。

      (3)雙向長短時記憶循環(huán)神經(jīng)網(wǎng)絡(luò)(BiLSTM)的性能優(yōu)于長短時記憶循環(huán)神經(jīng)網(wǎng)絡(luò)(LSTM),NFC可以防止過擬合,還能使模型的MSE明顯減小。

      (4)模型在GPU上的運行時間比在CPU上明顯縮短。

      (5)合理設(shè)置多種激活函數(shù)可以解決單一激活函數(shù)的弊端。

      猜你喜歡
      神經(jīng)網(wǎng)絡(luò)誤差函數(shù)
      二次函數(shù)
      第3講 “函數(shù)”復(fù)習(xí)精講
      二次函數(shù)
      角接觸球軸承接觸角誤差控制
      哈爾濱軸承(2020年2期)2020-11-06 09:22:26
      函數(shù)備考精講
      Beidou, le système de navigation par satellite compatible et interopérable
      神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
      電子制作(2019年19期)2019-11-23 08:42:00
      壓力容器制造誤差探究
      基于神經(jīng)網(wǎng)絡(luò)的拉矯機控制模型建立
      重型機械(2016年1期)2016-03-01 03:42:04
      九十億分之一的“生死”誤差
      山東青年(2016年2期)2016-02-28 14:25:41
      临清市| 乌鲁木齐市| 庆云县| 潢川县| 阳春市| 凤庆县| 龙里县| 大埔区| 凉城县| 临漳县| 古蔺县| 都匀市| 繁昌县| 秭归县| 上杭县| 平原县| 峨山| 周至县| 弥勒县| 吉首市| 安吉县| 大宁县| 丰原市| 会泽县| 河南省| 张家口市| 理塘县| 平顶山市| 黄山市| 新宾| 临高县| 宝应县| 永德县| 前郭尔| 通化市| 阳山县| 家居| 闽侯县| 渝北区| 房产| 涟水县|