• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      面向運(yùn)動(dòng)想象腦電信號(hào)識(shí)別的多層判別字典對(duì)學(xué)習(xí)方法

      2024-03-05 19:47:18商俊燕丁輝胡學(xué)龍

      商俊燕 丁輝 胡學(xué)龍

      收稿日期:2023-06-14;修回日期:2023-07-31? 基金項(xiàng)目:國家自然科學(xué)基金資助項(xiàng)目(61802336);江蘇省“六大人才高峰”第七批高層次人才資助項(xiàng)目(2010-DZXX-149)

      作者簡介:商俊燕(1978—),女,江蘇常州人,副教授,碩士,主要研究方向?yàn)榇髷?shù)據(jù)技術(shù)、人工智能研究;丁輝(1969—),女,江蘇大豐人,教授,碩士,主要研究方向?yàn)橛?jì)算機(jī)應(yīng)用技術(shù)研究;胡學(xué)龍(1960—),男(通信作者),江蘇揚(yáng)州人,教授,碩士,主要研究方向?yàn)閳D像處理技術(shù)研究(shangjycz001@126.com).

      摘? 要:面向運(yùn)動(dòng)想象的腦機(jī)接口(brain computer interface,BCI)能夠利用自主想象的特定動(dòng)作觸發(fā)腦電信號(hào)直接實(shí)時(shí)控制外部電子設(shè)備。運(yùn)動(dòng)想象腦電信號(hào)(motor imagery electroencephalogram,MI-EEG)存在信噪比低、類內(nèi)差異大、類間差異小等特點(diǎn),導(dǎo)致MI-EEG的識(shí)別率較低且不穩(wěn)定。針對(duì)該問題,提出了多層判別字典對(duì)學(xué)習(xí)(multilayer discriminant dictionary pair learning,MDDPL)方法。與基于字典學(xué)習(xí)的MI-EEG識(shí)別方法不同,MDDPL將字典對(duì)學(xué)習(xí)融入多層學(xué)習(xí)模型,通過一系列非線性方法將數(shù)據(jù)投影到更具判別力的子空間。在綜合字典和分析字典的共同作用下,前一層的編碼向量作為當(dāng)前層的輸入,同時(shí)在每一層模型上構(gòu)建基于分析字典的多分類項(xiàng),以保證稀疏編碼的分類誤差最小化,增強(qiáng)模型的類別區(qū)分能力。另外,對(duì)最后一層的稀疏編碼施加低秩約束,以保證同類編碼的緊湊性和相似性。在目標(biāo)式求解中,使用交替更新策略得到每個(gè)參數(shù)的解析解,使得參數(shù)同時(shí)得到最優(yōu)解。在國際BCI競賽數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,MDDPL方法在所有對(duì)比算法中取得了最佳的分類性能。

      關(guān)鍵詞:運(yùn)動(dòng)想象;腦電信號(hào);多層學(xué)習(xí)模型;字典對(duì)學(xué)習(xí)

      中圖分類號(hào):TP391??? 文獻(xiàn)標(biāo)志碼:A

      文章編號(hào):1001-3695(2024)02-027-0501-06

      doi:10.19734/j.issn.1001-3695.2023.06.0238

      Multilayer discriminant dictionary pair learning algorithm for motor imagery electroencephalogram recognition

      Shang Junyan1,2,Ding Hui1,Hu Xuelong2

      (1.Dept.of Information Engineering,Changzhou Vocational Institute of Industry Technology,Changzhou Jiangsu 213164,China;2.College of Information Engineering,Yangzhou University,Yangzhou Jiangsu 225127,China)

      Abstract:BCI for motion imagination can directly control external electronic devices in real-time using electroencephalogram signals triggered by specific actions of autonomous imagination.MI-EEG signals have characteristics such as low signal-to-noise ratio,large intra-class differences,and small inter-class differences,resulting in low and unstable recognition performance in MI-EEG.This paper proposed a multi-layer discriminant dictionary pair learning(MDDPL) algorithm to address the issue.Different from current dictionary based MI-EEG recognition algorithm,MDDPL incorporated the dictionary pair learning into the multi-layer learning model and projects data into the discriminant subspaces through a series of nonlinear projections.With the joint learning of synthesis dictionary and analysis dictionary,MDDPL used the encoding vector of the previous layer as the input of the current layer.At the same time,MDDPL constructed the multi-classification item based on the analysis dictionary on each layer of the model,so as to ensure the minimum classification error of sparse encoding and enhance the models class differentiation ability.In addition,MDDPL applied low rank constraints on the sparse encoding matrix of the last layer to ensure its compactness and similarity.In solving the objective function,MDDPL adopted an alternating update strategy to obtain analytical solutions for each parameter,ensuring that all parameters were simultaneously optimal.The experimental results on the international BCI competition datasets show that the MDDPL algorithm achieves the best classification performance among all comparison algorithms.

      Key words:motor imagery;electroencephalogram;multi-layer learning model;dictionary pair learning

      0? 引言

      隨著腦機(jī)接口(BCI)技術(shù)的發(fā)展,基于BCI的人機(jī)交互在許多應(yīng)用領(lǐng)域獲得了廣泛關(guān)注,例如,基于生理信號(hào)的情感識(shí)別、腦電控制輪椅運(yùn)動(dòng)、計(jì)算機(jī)操作中的光標(biāo)運(yùn)動(dòng)等[1,2]。在眾多BCI信號(hào)中,運(yùn)動(dòng)想象腦電(MI-EEG)是最常用的腦信號(hào),它具有高時(shí)間分辨率、高自由度和采集方便等優(yōu)點(diǎn)。與常見的基于穩(wěn)態(tài)視覺誘發(fā)電位和事件相關(guān)電位的BCI相比,基于MI-EEG的BCI可以更好地提供與控制命令之間的直觀映射[3]?,F(xiàn)有基于MI-EEG的BCI系統(tǒng)常利用EEG特征提取技術(shù)和基于機(jī)器學(xué)習(xí)的分類方法,如邏輯回歸和線性判別分析方法等[4]。近年來,稀疏表示和字典學(xué)習(xí)算法在BCI領(lǐng)域的理論和實(shí)踐上均取得了成功的應(yīng)用。例如,付榮榮等人[5]使用稀疏思想和貪婪搜索聯(lián)合學(xué)習(xí)方法對(duì)共空間模式特征進(jìn)行選擇,能有效去除特征模式重復(fù)的情況。Sreeja等人[6]從減少模型訓(xùn)練時(shí)間出發(fā),使用基于距離加權(quán)的策略來構(gòu)建緊湊的字典,能夠有效縮短MI-EEG稀疏表示的計(jì)算時(shí)間。Sharghian等人[7]提出一種基于相關(guān)性的在線字典學(xué)習(xí)方法,可以獲得動(dòng)態(tài)MI-EEG的稀疏表示。

      盡管BCI相關(guān)領(lǐng)域的研究不斷有新的突破,然而構(gòu)建一個(gè)高效的基于MI-EEG的BCI應(yīng)用系統(tǒng)仍然是一項(xiàng)具有挑戰(zhàn)性的任務(wù)。一方面,MI-EEG維度高且非平穩(wěn),容易受到許多干擾因素的影響,如情緒和藥物狀態(tài),不僅會(huì)給分類任務(wù)帶來干擾,還會(huì)因?yàn)楦呔S特性使得字典學(xué)習(xí)的效率受到影響;而且MI-EEG包含復(fù)雜的時(shí)域和頻域信息,往往呈現(xiàn)出類間相似、類內(nèi)差異的特點(diǎn)[8]。另一方面,字典學(xué)習(xí)方法在進(jìn)行字典空間映射時(shí)往往和分類器的學(xué)習(xí)是分階段獨(dú)立運(yùn)行,即先學(xué)習(xí)得到稀疏編碼,再進(jìn)行樣本的分類。例如,徐淳瑤[9]對(duì)時(shí)域和頻域的MI-EEG先進(jìn)行特征提取,再利用聚類方法得到多種特征的共有稀疏基矩陣,最后使用字典學(xué)習(xí)方法建立聯(lián)合編碼模型。Sreeja等人[10]從分割的MI-EEG數(shù)據(jù)中計(jì)算小波能量并構(gòu)造字典,然后使用字典中的稀疏表示對(duì)測試數(shù)據(jù)進(jìn)行分類。這些字典學(xué)習(xí)方法很難從分類器的角度對(duì)MI-EEG數(shù)據(jù)進(jìn)行識(shí)別。

      為解決上述問題,本文提出了一種面向運(yùn)動(dòng)想象腦電信號(hào)識(shí)別的多層判別字典對(duì)學(xué)習(xí)(multilayer discriminant dictionary pair learning algorithm,MDDPL)方法。MDDPL使用字典對(duì)學(xué)習(xí)模型作為基線算法學(xué)習(xí)綜合字典和分析字典,習(xí)得的綜合字典具有信號(hào)的重構(gòu)功能,分析字典則用于線性投影計(jì)算稀疏編碼。受多層學(xué)習(xí)模型的啟發(fā),MDDPL將字典對(duì)學(xué)習(xí)拓展至多層學(xué)習(xí)模式,使用一系列非線性方法逐步將數(shù)據(jù)投影到更具判別力的子空間。為了提高模型類間區(qū)別能力,MDDPL在每層模型上都加入基于分析字典的多分類項(xiàng),它考慮每類稀疏編碼的分類誤差最小化,同時(shí)要求分類器判別不同類別樣本近似為空。為了提高編碼矩陣的判別能力,MDDPL在最后一層的編碼矩陣施加低秩約束,可以保證中間層的編碼矩陣也具有低秩性,以促使同類編碼矩陣具有強(qiáng)的相似性和緊致性。MDDPL方法的參數(shù)優(yōu)化使用交替迭代優(yōu)化策略,且參數(shù)都具有解析解。在多個(gè)MI-EEG數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果表明,MDDPL方法在運(yùn)動(dòng)想象識(shí)別領(lǐng)域是有效的。MDDPL方法的優(yōu)點(diǎn)在于:a)MDDPL在連續(xù)非線性轉(zhuǎn)換中學(xué)習(xí)稀疏編碼矩陣,將它們連續(xù)投影到一系列新的特征空間。隨著模型層數(shù)的增多,多層字典學(xué)習(xí)到的字典和稀疏編碼較單層字典學(xué)習(xí)模型有更好的重構(gòu)能力。b)MDDPL利用樣本的監(jiān)督信息,將多層字典學(xué)習(xí)與分類器聯(lián)合在一個(gè)學(xué)習(xí)模型,并結(jié)合稀疏編碼的低秩約束,增強(qiáng)綜合字典的重構(gòu)能力,以及分析字典和分類器的類別區(qū)別能力,達(dá)到提升模型整體判別能力的作用。

      1? 相關(guān)工作

      給定訓(xùn)練集Y=[y1,…,yN]∈Euclid Math TwoRApd×N,其中d表示數(shù)據(jù)維數(shù),N表示樣本個(gè)數(shù)。字典對(duì)學(xué)習(xí)期望得到一對(duì)具有重構(gòu)和判別能力的綜合字典D∈Euclid Math TwoRApd×Q和分析字典P∈Euclid Math TwoRApQ×d,字典的原子維數(shù)為Q。字典對(duì)學(xué)習(xí)(dictionary pair learning,DPL)[11]的目標(biāo)函數(shù)為

      minP,D∑ci=1(‖Yi-DiPiYi‖2F+τ‖Pii‖2F)

      s.t.‖di‖22≤1,i(1)

      其中:Di∈Euclid Math TwoRApd×Qi和Pi∈Euclid Math TwoRApQi×d分別表示第i類(1≤i≤c)樣本對(duì)應(yīng)的綜合子字典和分析子字典;子字典原子數(shù)為Qi,∑ci=1Qi=Q,c表示樣本的類別數(shù);τ是正則化參數(shù)。目標(biāo)函數(shù)的第1項(xiàng)∑ci=1‖Yi-DiPiYi‖2F要求在每一類樣本上的重構(gòu)誤差最小。目標(biāo)函數(shù)的第2項(xiàng)‖Pii‖2F要求每個(gè)分析子字典投影其他類樣本到一個(gè)近似的零空間,使得PY矩陣近似為塊對(duì)角矩陣。

      近年來,多層字典學(xué)習(xí)的有效性在眾多學(xué)習(xí)模型中得到了驗(yàn)證[12,13]。多層字典學(xué)習(xí)能夠?qū)螌幼值鋵W(xué)習(xí)得到的字典或稀疏編碼重新迭代利用,能夠挖掘不同層次樣本的潛在信息。在傳統(tǒng)的多層綜合字典學(xué)習(xí)模型中,設(shè)D(k)和A(k)是第k層訓(xùn)練得到的綜合字典和稀疏編碼,g()是多層模型的激活函數(shù)。第k-1層訓(xùn)練得到的稀疏編碼A(k-1)作為第k層學(xué)習(xí)模型的輸入,得到第k層學(xué)習(xí)模型的稀疏編碼A(k)。多層綜合字典學(xué)習(xí)的模型表示為

      minD(1),…,D(K),A(K)‖Y-D(1)g(…g(D(K)A(K)))‖2F+λ‖A(K)‖1

      s.t.? A(k-1)=g(D(k)A(k)),k=1,2,…,K(2)

      其中:λ是正則化參數(shù)。

      2? 多層判別字典對(duì)學(xué)習(xí)方法

      MDDPL方法將傳統(tǒng)的DPL模型擴(kuò)展到多層非線性模型,以逐步將數(shù)據(jù)投影到更具判別力的子空間,使得MDDPL方法具有更高的能力來處理復(fù)雜的MI-EEG識(shí)別問題。MDDPL方法的目標(biāo)函數(shù)由多層字典對(duì)學(xué)習(xí)項(xiàng)、基于編碼矩陣的低秩項(xiàng)和基于分析字典的多分類項(xiàng)三部分構(gòu)成。

      2.1? 多層字典對(duì)學(xué)習(xí)項(xiàng)

      因?yàn)槭剑?)是一個(gè)非凸模型,引入編碼矩陣A∈Euclid Math TwoRApQ×N,將式(1)松弛表示為

      minPi,Di? ∑ci=1(‖Yi-DiAi‖2F+τ(‖PiYi-Ai‖2F+‖Pii‖2F))

      s.t.‖di‖22≤1,i(3)

      MDDPL方法將式(3)拓展至多層字典對(duì)學(xué)習(xí)模型,每一層模型本質(zhì)上都實(shí)現(xiàn)了一個(gè)字典對(duì)學(xué)習(xí)。第一層模型的字典對(duì)學(xué)習(xí)項(xiàng)表示為

      minP(1)i,D(1)i∑ci=1(‖Y(1)i-D(1)iA(1)i‖2F+

      τ(‖P(1)iY(1)i-A(1)i‖2F+‖P(1)i(1)i‖2F))

      s.t.‖di‖22≤1,i(4)

      第一層輸入數(shù)據(jù)表示為原始訓(xùn)練集Y(1)=[Y1,Y2,…,Yc]。輸入數(shù)據(jù)Y(1)經(jīng)第一層字典對(duì)學(xué)習(xí)和非線性變化g(),表示為特征矩陣Y(2)=g(P(1)Y(1)),并作為第二層字典對(duì)學(xué)習(xí)的輸入數(shù)據(jù)。經(jīng)過多層字典對(duì)學(xué)習(xí),第K層的訓(xùn)練數(shù)據(jù)表示為特征矩陣Y(K)=g(P(K-1)Y(K-1))。本文使用絕對(duì)值擴(kuò)展函數(shù)g()實(shí)現(xiàn)非線性變換。

      g(y)=[max(yT,0),|min(yT,0)|]T(5)

      設(shè)第k層第i類的字典對(duì)表示為{D(k)i,P(k)i},第k層的字典對(duì)學(xué)習(xí)項(xiàng)表示為

      minP(k)i,D(k)i∑ci=1(‖Y(k)i-D(k)iA(k)i‖2F+

      τ(‖P(k)iY(k)i-A(k)i‖2F+‖P(k)i(k)i‖2F))

      s.t.‖di‖22≤1,i(6)

      其中:Y(k)=g(P(k-1)Y(k-1))=[Y(k)1,…,Y(k)c]。

      2.2? 基于分析字典的多分類項(xiàng)

      設(shè)H=[H1,…,Hc]∈Euclid Math TwoRApc×N表示訓(xùn)練集Y的類別標(biāo)簽,Hi表示第i類樣本的類別標(biāo)簽,hi=[0,…,1,…,0]T∈Euclid Math TwoRApc表示第i個(gè)樣本的類別標(biāo)簽,元素值為1的位置表示該樣本的類別。為保證分類結(jié)果的最優(yōu),在第k層的字典學(xué)習(xí)過程中,MDDPL要求每類稀疏編碼的分類誤差最小化,同時(shí)要求屬于類別k的分類器判別它類樣本的類別標(biāo)簽近似為空。假設(shè)第k層模型的多分類分類器為W(k)=[W(k)1,…,W(k)c]∈Euclid Math TwoRApc×K(k),第k層模型的基于分析字典的多分類項(xiàng)表示為

      minW(k)i,P(k)i∑ci=1(‖Hi-W(k)iP(k)iY(k)i‖2F+‖W(k)iP(k)i(k)i‖2F)(7)

      2.3? 基于編碼矩陣的低秩項(xiàng)

      為了挖掘多層連續(xù)投影過程中編碼矩陣的隱藏特征,MDDPL對(duì)最后一層模型的編碼矩陣實(shí)施低秩約束,使得樣本能夠被少量字典原子線性表示。另外,低秩約束有助于保持編碼矩陣緊湊性和同類編碼的相似性[14]。MDDPL的最后一層模型基于每個(gè)類別編碼矩陣的低秩項(xiàng)表示為

      ∑ci=1rank(A(K)i)(8)

      下面證明如果最后一層模型的編碼矩陣A(K)i具有低秩性,那么在各中間層模型的編碼矩陣A(k)i也具有低秩性。由字典對(duì)學(xué)習(xí)可得A(k-1)i=D(k)iA(k)i,因此rank(A(k-1)i)=rank(D(k)iA(k)i)。由低秩特性,rank(D(k)iA(k)i)≤min(rank(D(k)i),rank(A(k)i)),可得rank(A(k-1)i)≤rank(A(k)i),可以推導(dǎo)得到rank(A(1)i)≤rank(A(2)i)≤…≤rank(A(K)i)。因此,MDDPL方法對(duì)最后一層模型上的A(K)i實(shí)施低秩約束將保留對(duì)前每一層的稀疏編碼的低秩特性。通過這種方式,每一層中的稀疏編碼將揭示數(shù)據(jù)投影過程中的全局結(jié)構(gòu),也可以使得稀疏編碼保持緊致和類內(nèi)相似性。

      2.4? 目標(biāo)函數(shù)及優(yōu)化過程

      MDDPL方法的目標(biāo)函數(shù)由多層字典對(duì)學(xué)習(xí)項(xiàng)、基于分析字典的多分類項(xiàng)和基于編碼矩陣的低秩項(xiàng)三部分組成。聯(lián)合這三部分,MDDPL方法的目標(biāo)函數(shù)定義為

      minP,D,A,Wα∑ci=1rank(A(K)i)+∑Kk=1∑ci=1(‖Y(k)i-D(k)iA(k)i‖2F+

      τ(‖P(k)iY(k)i-A(k)i‖2F+‖P(k)i(k)i‖2F)+

      λ(‖Hi-W(k)iP(k)iY(k)i‖2F+‖W(k)iP(k)i(k)i‖2F))

      s.t.‖di‖22≤1,i(9)

      其中:α和λ是正則化參數(shù)。

      目標(biāo)函數(shù)中存在四個(gè)待求解的變量{P,D,A,W},這四個(gè)變量相互影響,不能直接求解。本文采用交替迭代的方式求解,具體分為以下幾個(gè)步驟。

      1)固定變量{P(k)i,D(k)i,W(k)i}求解A(k)i

      a)對(duì)于第1~(K-1)層學(xué)習(xí)模型,目標(biāo)函數(shù)可以表示為

      minA∑Kk=1? ∑ci=1(‖Y(k)i-D(k)iA(k)i‖2F+τ(‖P(k)iY(k)i-A(k)i‖2F+

      ‖P(k)i(k)i‖2F)+λ(‖Hi-W(k)iP(k)iY(k)i‖2F+‖W(k)iP(k)i(k)i‖2F))

      s.t.‖di‖22≤1,i(10)

      得到關(guān)于A(k)i的目標(biāo)式:

      minA∑Kk=1? ∑ci=1(‖Y(k)i-D(k)iA(k)i‖2F+τ‖P(k)iY(k)i-A(k)i‖2F)(11)

      對(duì)A(k)i求偏導(dǎo)并令導(dǎo)數(shù)為0,可得A(k)i的封閉解。

      A(k)i=((D(k)i)TD(k)i+τI)-1(τP(k)iY(k)i+(D(k)i)TY(k)i)(12)

      b)對(duì)于第K層學(xué)習(xí)模型,關(guān)于A(K)i的目標(biāo)函數(shù)可以表示為

      minAα∑ci=1rank(A(K)i)+∑Kk=1? ∑ci=1(‖Y(k)i-D(k)iA(k)i‖2F+τ‖P(k)iY(k)i-A(k)i‖2F)(13)

      參照文獻(xiàn)[15],為了計(jì)算rank(A(K)i),假設(shè)A(K)i近似為兩個(gè)矩陣的乘積,即A(K)i≈BiCi,其中Bi∈RKi×s,Ci∈Rs×Ki,其中s是子空間的維度?!芻i=1rank(A(K)i)可以寫成

      ∑ci=1rank(A(K)i)=∑ci=1‖A(K)i-BiCi‖2F(14)

      因此,式(13)可以改寫成

      minA(K)i,BiCi? ∑ci=1(α‖A(K)i-BiCi‖2F+

      ‖Y(K)i-D(K)iA(K)i‖2F+τ‖P(K)iY(K)i-A(K)i‖2F)(15)

      對(duì)A(K)i求偏導(dǎo)并令導(dǎo)數(shù)為0,可得A(K)i的封閉解。

      A(K)i=((D(K)i)TD(K)i+(τ+α)I)-1(τP(K)iY(K)i+(D(K)i)TY(K)i+αBiCi)(16)

      對(duì)Bi求偏導(dǎo)并令導(dǎo)數(shù)為0,可得Bi的封閉解。

      Bi=A(K)iCTi(CiCTi)+(17)

      對(duì)Ci求偏導(dǎo)并令導(dǎo)數(shù)為0,可得Ci的封閉解。

      Ci=(BiBTi)+BTiA(K)i(18)

      其中:+表示Moore-Penrose偽逆運(yùn)算。

      2)固定變量{P(k)i,A(k)i,W(k)i}求解D(k)i

      得到關(guān)于D(k)i的目標(biāo)式:

      minP,D,A,W? ∑Kk=1? ∑ci=1‖Y(k)i-D(k)iA(k)i‖2F

      s.t.‖di‖22≤1,i(19)

      對(duì)D(k)i求偏導(dǎo)并令導(dǎo)數(shù)為0,可得D(k)i的封閉解:

      D(k)i=Y(k)i(A(k)i)T(A(k)i(A(k)i)T+δI)-1(20)

      其中:δI保證矩陣逆運(yùn)算一定有解。

      3)固定變量{D(k)i,A(k)i,W(k)i}求解P(k)i

      得到關(guān)于P(k)i的目標(biāo)式:

      minP,D,A,W? ∑Kk=1? ∑ci=1(τ(‖P(k)iY(k)i-A(k)i‖2F+‖P(k)i(k)i‖2F)+

      λ(‖Hi-W(k)iP(k)iY(k)i‖2F+‖W(k)iP(k)i(k)i‖2F))(21)

      對(duì)P(k)i求偏導(dǎo)并令導(dǎo)數(shù)為0,可得P(k)i的封閉解:

      P(k)i=(λ(W(k)i)TW(k)i+τI)-1(τA(k)i(Y(k)i)T+

      λ(W(k)i)THi(Y(k)i)T)(Y(k)i(Y(k)i)T+(k)i((k)i)T)-1(22)

      4)固定變量{D(k)i,A(k)i,P(k)i}求解W(k)i

      得到關(guān)于W(k)i的目標(biāo)式:

      minW∑Kk=1∑ci=1(‖Hi-W(k)iP(k)iY(k)i‖2F+‖W(k)iP(k)i(k)i‖2F)(23)

      對(duì)W(k)i求偏導(dǎo)并令導(dǎo)數(shù)為0,可得W(k)i的封閉解。

      W(k)i=Hi(Y(k)i)T(P(k)i)T((P(k)i)T(Y(k)i(Y(k)i)T(P(k)i)T+

      (P(k)i)T(k)i((k)i)T(P(k)i)T)-1(24)

      2.5? 測試

      MDDPL方法訓(xùn)練結(jié)束后,得到每一層學(xué)習(xí)模型的最優(yōu)參數(shù){P(k),D(k),W(k)}。對(duì)于任意的測試樣本ytest,計(jì)算得到其在最后一層編碼表示,即

      y(K)test=g(P(K-1)y(K-1)test)(25)

      ytest的類別可由式(26)計(jì)算得到

      label(ytest)=arg maxiW(K)iP(K)iytest(K)i? i=1,…,c(26)

      值得注意的是,傳統(tǒng)字典學(xué)習(xí)在測試階段需要根據(jù)最小化經(jīng)驗(yàn)損失求解ytest的稀疏編碼。

      minatest‖ytest-Datest‖22+λ‖atest‖p(27)

      其中:‖·‖p常采用0或1范數(shù)的約束。

      顯然,式(27)比式(25)的時(shí)間復(fù)雜度高。MDDPL方法繼承了字典對(duì)學(xué)習(xí)的優(yōu)點(diǎn),在測試階段具有效率優(yōu)勢?;谏鲜鏊惴ǚ治觯琈DDPL方法的訓(xùn)練過程如下:

      輸入:帶類別標(biāo)簽的訓(xùn)練集Y。

      輸出:字典對(duì){P(k),D(k)}和分類器W(k),1≤k≤K。

      使用DPL[10]方法初始化字典對(duì){P(1),D(1)},W{1}初始化為單位矩陣;

      repeat

      for k=1 to K do

      for i=1 to c do

      計(jì)算Y(k)使用Y(k)=g(P(k-1)Y(k-1))(1≤k-1≤K-1);

      固定變量{P(k)i,D(k)i,W(k)i},使用式(12)更新A(k)i(1≤k≤K-1),使用式(16)更新A(K)i;

      固定變量{P(k)i,A(k)i,W(k)i},使用式(20)更新D(k)i;

      固定變量{D(k)i,A(k)i,W(k)i},使用式(22)更新P(k)i;

      固定變量{D(k)i,P(k)i,A(k)i},使用式(24)更新W(k)i;

      until目標(biāo)式(9)收斂或者達(dá)到最大迭代次數(shù)

      返回字典對(duì){P(k),D(k)}和分類器W(k)(1≤k≤K)。

      3? 實(shí)驗(yàn)

      3.1? 實(shí)驗(yàn)數(shù)據(jù)及實(shí)驗(yàn)設(shè)置

      本文實(shí)驗(yàn)數(shù)據(jù)取自于國際BCI競賽BCI Competition Ⅲ,Ⅳa[16]和BCI Competition Ⅳ,Ⅱa[17]公開數(shù)據(jù)集。BCI Competition Ⅲ,Ⅳ a數(shù)據(jù)集包含aa、al、av、aw、ay受試者的MI-EEG信號(hào),每位受試者執(zhí)行右手和右腳的兩類運(yùn)動(dòng)想象任務(wù)。每次實(shí)驗(yàn)采集118個(gè)通道的MI-EEG數(shù)據(jù),共獲得每個(gè)受試者的280組實(shí)驗(yàn)數(shù)據(jù)。BCI Competition Ⅳ,Ⅱ a數(shù)據(jù)集包含A1~A9受試者,每位受試者分別執(zhí)行左手、右手、足和舌頭四類想象任務(wù),每次實(shí)驗(yàn)采集22個(gè)通道的MI-EEG數(shù)據(jù),共獲得576組數(shù)據(jù)。實(shí)驗(yàn)中電極的放置位置如圖1所示。實(shí)驗(yàn)開始時(shí),被試者正對(duì)外部背景為白色十字交叉圖案,2 s后,屏幕出現(xiàn)上、下、左、右箭頭中的一種,分別代表不同的運(yùn)算想象任務(wù)。箭頭1.5 s后消失并由十字圖形替代,并按照箭頭方向執(zhí)行代表的運(yùn)動(dòng)想象任務(wù),直到t=6 s時(shí)停止。實(shí)驗(yàn)范式如圖2所示。

      實(shí)驗(yàn)選取0.5~2 s的時(shí)間窗對(duì)MI-EEG信號(hào)進(jìn)行數(shù)據(jù)提取,使用一個(gè)5階巴特沃斯濾波器進(jìn)行8~30 Hz的帶通濾波操作。特征提取環(huán)節(jié)則采用基于時(shí)頻域分析方法的小波能量(wavelet energy,WE)特征[18],特征的維度=類別數(shù)×通道數(shù)。WE特征通過小波變換將時(shí)頻圖中較高能量區(qū)域進(jìn)行分解,得到顯著性強(qiáng)的局部特征信息。實(shí)驗(yàn)對(duì)比方法主要包括兩類:a)對(duì)比算法是傳統(tǒng)的字典學(xué)習(xí)方法,包括K-SVD[19]和PDL[11]方法;b)對(duì)比算法是多層學(xué)習(xí)算法,包括MLDL[20]、TSMDL[21]、IMLP[22]、IML-ELM[23]和DDLCN[24]。K-SVD和PDL方法是單層字典學(xué)習(xí),字典的原子數(shù)等于訓(xùn)練集樣本數(shù)。多層學(xué)習(xí)模型中MLDL和TSMDL是多層字典學(xué)習(xí)方法,IMLP是多層感知器方法,IML-ELM是多層極限學(xué)習(xí)機(jī)方法。所有的多層學(xué)習(xí)模型的層數(shù)均設(shè)為3層。各方法的參數(shù)基本設(shè)置遵循原始文獻(xiàn)的設(shè)置,正則化參數(shù)的搜索范圍均設(shè)為{10-3,5×10-2,…,1},IML-ELM方法中節(jié)點(diǎn)數(shù)量為{10、15、20、25、30、40、50、100},且每層中的節(jié)點(diǎn)數(shù)相等。IMLP方法中使用修正線性單元(rectified linear unit,ReLU) 激活函數(shù)和均方誤差損失函數(shù)。DDLCN是深度字典學(xué)習(xí)方法,模型第一層是特征提取層,接著是n層字典學(xué)習(xí)層,然后是傳統(tǒng)CNN網(wǎng)絡(luò)(包括池化層、全連接層),最后是輸出層。輸出層使用支持向量機(jī)作為分類器。對(duì)比算法的其他參數(shù)設(shè)置均參照相關(guān)文獻(xiàn)的默認(rèn)設(shè)置。MDDPL、MLDL、TSMDL和DDLCN方法中,字典學(xué)習(xí)的模型設(shè)置為3層結(jié)構(gòu),每類子字典的維數(shù)分別設(shè)置為40→30→20。MDDPL的正則化參數(shù)的搜索范圍均為{10-3,5×10-2,…,1}。實(shí)驗(yàn)中隨機(jī)選取80%的MI-EEG數(shù)據(jù)用于模型訓(xùn)練,剩余的20%MI-EEG數(shù)據(jù)用于模型測試,實(shí)驗(yàn)重復(fù)10次。

      3.2? 實(shí)驗(yàn)結(jié)果分析

      實(shí)驗(yàn)在BCI Competition Ⅲ,Ⅳa和BCI Competition Ⅳ,Ⅱa數(shù)據(jù)集上比較了MDDPL方法與六種對(duì)比方法的性能。實(shí)驗(yàn)比較了各個(gè)方法的分類精度、G-means值和F-measure的平均值。實(shí)驗(yàn)結(jié)果如表1~6所示。

      a)從平均分類精度這一評(píng)價(jià)指標(biāo)看,多層學(xué)習(xí)模型的平均分類精度都高于傳統(tǒng)的單層字典學(xué)習(xí)方法K-SVD和PDL。MDDPL方法較K-SVD方法在兩個(gè)數(shù)據(jù)集上的平均分類精度分別提高5.24%和6.63%,比PDL方法在兩個(gè)數(shù)據(jù)集上的平均分類精度分別提高4.64%和5.97%。實(shí)驗(yàn)結(jié)果表明多層次結(jié)構(gòu)模型能更深度地挖掘MI-EEG數(shù)據(jù)的特征信息,也表明本文提出的多層判別字典對(duì)學(xué)習(xí)方法是適用于MI-EEG識(shí)別的。對(duì)比實(shí)驗(yàn)中的多層學(xué)習(xí)模型,MDDPL方法也具有明顯的優(yōu)勢。其中DDLCN方法分類精度較優(yōu),但MDDPL方法較DDLCN在兩個(gè)數(shù)據(jù)集上的平均分類精度分別提高1.00%和1.17%。IMLP著重于在多層感知器中優(yōu)化確定輸入和輸出數(shù)據(jù)之間的權(quán)重和偏差,以降低損失函數(shù)的值,在面向類間相似性高的MI-EEG數(shù)據(jù)識(shí)別問題不具有優(yōu)勢。IML-ELM將多層極限學(xué)習(xí)機(jī)與基準(zhǔn)動(dòng)態(tài)系統(tǒng)結(jié)合在一起,通過調(diào)整每個(gè)基準(zhǔn)系統(tǒng)相關(guān)訓(xùn)練程序來優(yōu)化多層學(xué)習(xí)模型,但其在面向高度非平穩(wěn)的MI-EEG信號(hào)也不具有優(yōu)勢。DDLCN方法將字典學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)結(jié)合,但其字典學(xué)習(xí)部分是傳統(tǒng)的綜合字典學(xué)習(xí),且在多層學(xué)習(xí)過程中沒有考慮分類器的嵌入和系數(shù)矩陣的低秩性,因此在處理BCI的MI-EEG識(shí)別問題時(shí)分類精度也低于MDDPL方法。

      b)從G-means這一評(píng)價(jià)指標(biāo)看,G-means計(jì)算了每個(gè)分類器在不同類別上分類準(zhǔn)確率的幾何均值,只有當(dāng)每個(gè)類別的分類均值較接近時(shí),G-means有較高的值。BCI Competition Ⅲ,Ⅱa是一個(gè)2分類數(shù)據(jù)集,BCI Competition Ⅳ,Ⅱ a是一個(gè)4分類數(shù)據(jù)集。從表2、4結(jié)果可以看出,本文MDDPL方法依然取得了最佳的分類結(jié)果。從F-measure這一評(píng)價(jià)指標(biāo)看, MDDPL方法在兩個(gè)數(shù)據(jù)集上均取得了最高值。說明所提方法優(yōu)于對(duì)比的其他字典學(xué)習(xí)和多層學(xué)習(xí)模型,MDDPL方法的良好性能主要得益于字典對(duì)學(xué)習(xí)和分層模型的結(jié)合,通過一系列非線性投影將數(shù)據(jù)映射到更具判別力的子空間,在分析字典上引入多分類項(xiàng),在編碼矩陣施加低秩約束,這些策略都能提高模型在MI-EEG領(lǐng)域的分類效果。

      3.3? 消融性實(shí)驗(yàn)

      首先,驗(yàn)證多層次學(xué)習(xí)模型的作用,設(shè)置模型層次數(shù)K=1。此時(shí),MDDPL方法相當(dāng)于字典對(duì)算法上加上了基于分析字典的多分類項(xiàng)和基于編碼矩陣的低秩項(xiàng)。實(shí)驗(yàn)結(jié)果如表7所示??梢?,在層次數(shù)K設(shè)為1的情況下,MDDPL方法的平均分類精度明顯下降,在BCI Competition Ⅲ,Ⅳa和BCI Competition Ⅳ,Ⅱa數(shù)據(jù)集上的分類精度分別下降3.92%和4.30%。實(shí)驗(yàn)結(jié)果表明,多層次學(xué)習(xí)模式確實(shí)有助于挖掘MI-EEG的深層特征信息,能構(gòu)建更有識(shí)別性的學(xué)習(xí)模型。

      其次,驗(yàn)證MDDPL方法中基于分析字典的多分類項(xiàng)的作用,設(shè)置τ=0。實(shí)驗(yàn)結(jié)果如表7所示?;诜治鲎值涞亩喾诸愴?xiàng)利用訓(xùn)練樣本的監(jiān)督信息構(gòu)建具有類間分離性的多分類器,顯然能對(duì)模型的分類性能起到?jīng)Q定性的作用。正如實(shí)驗(yàn)結(jié)果所示,不考慮這項(xiàng)時(shí),MDDPL方法在BCI Competition Ⅲ,Ⅳa和BCI Competition Ⅳ,Ⅱa數(shù)據(jù)集上的分類精度分別下降1.06%和2.24%。

      然后,驗(yàn)證MDDPL方法中基于稀疏矩陣低秩項(xiàng)的作用,設(shè)置參數(shù)α=0?!芻i=1rank(A(K)i)的目的是保證學(xué)習(xí)到的編碼矩陣具有類內(nèi)緊致性,與基于分析字典的多分類項(xiàng)一起來提高模型的分類性能,實(shí)驗(yàn)結(jié)果如表7所示??梢钥闯觯诰幋a矩陣的低秩項(xiàng)能直接影響模型最終的分類精度,在不考慮這項(xiàng)時(shí),MDDPL方法在BCI Competition Ⅲ,Ⅳ a和BCI Competition Ⅳ,Ⅱ a數(shù)據(jù)集上的分類精度分別下降0.83%和0.98%。可見,增強(qiáng)編碼矩陣的緊致性和類內(nèi)相似性對(duì)提高模型的分類精度起到了重要作用。

      3.4? 參數(shù)敏感性分析

      首先,考察每個(gè)正則化參數(shù)的作用。MDDPL方法中正則化參數(shù)包括α、τ和λ。三個(gè)參數(shù)的搜索范圍均為{10-3,5×10-2,…,1},實(shí)驗(yàn)中采用網(wǎng)格搜索法來確定其最優(yōu)值,參數(shù)尋優(yōu)中固定另外兩個(gè)參數(shù)。實(shí)驗(yàn)結(jié)果分別如圖3(a)~(c)所示。α是基于稀疏矩陣的低秩項(xiàng)的正則化參數(shù);τ是字典對(duì)學(xué)習(xí)中‖P(k)i(k)i‖2F的正則化參數(shù),λ是基于分析字典的多分類項(xiàng)的正則化參數(shù)。從實(shí)驗(yàn)結(jié)果看出,針對(duì)不同的α,MDDPL方法的分類精度變化也較溫和,只在小幅范圍內(nèi)起伏變化。結(jié)合表5的實(shí)驗(yàn)結(jié)果表明,基于稀疏矩陣的低秩項(xiàng)在MDDPL方法中是必須的,實(shí)際BCI運(yùn)動(dòng)想象MI-EEG識(shí)別問題中也可使用固定的α值。針對(duì)不同的τ,MDDPL方法的分類精度變化較溫和,不同的τ對(duì)應(yīng)的分類精度變化不大。說明‖P(k)i(k)i‖2F對(duì)于整個(gè)模型較為重要。在面向BCI系統(tǒng)運(yùn)動(dòng)想象MI-EEG識(shí)別問題中,可以采用固定的τ值。對(duì)不同的λ,MDDPL方法分類精度是較敏感的,不同的λ值導(dǎo)致分類性能差異較大。因此,對(duì)λ采用網(wǎng)格搜索法是有效的。

      其次,考察模型層數(shù)的作用。模型層數(shù)K的搜索范圍均為{2,3,…,6}。實(shí)驗(yàn)結(jié)果分別如圖3(d)所示。MDDPL方法使用多層非線性模型來挖掘在多層連續(xù)投影過程中編碼矩陣的隱藏特征。K的值對(duì)應(yīng)不同的投影變化。從實(shí)驗(yàn)結(jié)果看出,在BCI Competition Ⅲ,Ⅳa和BCI Competition Ⅳ,Ⅱa數(shù)據(jù)集上,當(dāng)K=3時(shí),模型的分類精度可以達(dá)到穩(wěn)定。因此,實(shí)驗(yàn)中可以設(shè)置K為固定值3。

      3.5? 矩陣可視化

      實(shí)驗(yàn)顯示了稀疏編碼矩陣A的可視化,實(shí)現(xiàn)結(jié)果如圖4所示。矩陣A具有類分離和稀疏的特性,同時(shí),由于MDDPL方法在模型最后一層的每個(gè)類別的矩陣A(K)i上施加低秩約束,矩陣A具有塊對(duì)角結(jié)構(gòu),只需被少量字典原子線性表示。所以,MDDPL方法能夠充分挖掘多層連續(xù)投影過程中編碼矩陣的隱藏特征,模型具有較強(qiáng)的類區(qū)別能力。以促使同類編碼矩陣具有強(qiáng)的相似性和緊致性。

      4? 結(jié)束語

      運(yùn)動(dòng)想象BCI能結(jié)合人腦的想象思維和實(shí)際的控制應(yīng)用,不依賴于外部視覺或聽覺刺激,是目前被廣泛研究的BCI技術(shù)。本文提出了一種適用于面向MI-EEG信號(hào)識(shí)別的多層判別字典對(duì)學(xué)習(xí)方法。該方法在字典對(duì)學(xué)習(xí)的基礎(chǔ)上,通過非線性函數(shù)將數(shù)據(jù)投影到一系列更具分辨性的子空間。為了增強(qiáng)模型的類間區(qū)分性和類內(nèi)緊致性,引入基于分析字典的多分類項(xiàng)和基于編碼矩陣的低秩約束項(xiàng),同時(shí)要求分類器判別不同類別樣本近似為空。實(shí)驗(yàn)結(jié)果表明該方法在BCI Competition Ⅲ,Ⅳa和BCI Competition Ⅳ,Ⅱa數(shù)據(jù)集上取得了較好的分類性能。后續(xù)的研究工作包括:a)MDDPL方法對(duì)MI-EGG信號(hào)進(jìn)行離線分析,訓(xùn)練集和測試集都是事先準(zhǔn)備好的。但在實(shí)際操作中測試集的獲取需要實(shí)時(shí)獲取,將MDDPL方法擴(kuò)展至在線學(xué)習(xí)模式,根據(jù)測試樣本的批量輸入實(shí)時(shí)更新模型;b)訓(xùn)練集樣本的標(biāo)記信息獲取需要專業(yè)知識(shí)和時(shí)間成本,將MDDPL方法擴(kuò)展至半監(jiān)督學(xué)習(xí)模式,利用大量無標(biāo)記樣本來輔助少量的標(biāo)記樣本訓(xùn)練模型。參考文獻(xiàn):

      [1]Chu Xiaolei,Song Xizi,Li Yuru,et al.An ultrasound-guided percutaneous electrical nerve stimulation regimen devised using finite element modeling promotes functional recovery after median nerve transection[J].Neural Regeneration Research,2023,18(3):683-688.

      [2]Cui Zhengzhe,Li Yongqiang,Huang Sisi,et al.BCI system with lower-limb robot improves rehabilitation in spinal cord injury patients through short-term training:a pilot study[J].Cognitive Neurodynamics,2022,16(4):1283-1301.

      [3]Dhiman R.Electroencephalogram channel selection based on Pearson correlation coefficient for motor imagery-brain-computer interface[J].Measurement:Sensors,2022,25(2):article ID 100616.

      [4]張力新,常美榕,王仲朋,等.SSSEP提升下肢MI-BCI系統(tǒng)性能及其多維腦電特征分析[J].中國生物醫(yī)學(xué)工程學(xué)報(bào),2021,40(4):429-437.(Zhang Lixin,Chang Meirong,Wang Zhongpeng,et al.Improve the performance of lower limb MI-BCI system based on SSSEP and its multi-dimensional EEG feature analysis[J].Chinese Journal of Biomedical Engineering,2021,40(4):429-437.)

      [5]付榮榮,田永勝,鮑甜恬.基于稀疏共空間模式和Fisher判別的單次運(yùn)動(dòng)想象腦電信號(hào)識(shí)別方法[J].生物醫(yī)學(xué)工程學(xué)雜志,2019,36(6):911-915.(Fu Rongrong,Tian Yongsheng,Bao Tiantian.Recognition method of single trial motor imagery electroencephalogram signal based on sparse common spatial pattern and Fisher discriminant analysis[J].Journal of Biomedical Engineering,2019,36(6):911-915.)

      [6]Sreeja S R,Samanta H D.Distance-based weighted sparse representation to classify motor imagery EEG signals for BCI applications[J].Multimedia Tools and Applications,2020,79(5):13775-13793.

      [7]Sharghian V,Rezaii T Y,F(xiàn)arzamnia A,et al.Online dictionary lear-ning for sparse representation-based classification of motor imagery EEG[C]//Proc of the 27th Iranian Conference on Electrical Engineering.Piscataway,NJ:IEEE Press,2019:1793-1797.

      [8]Meng Ming,Yin Xu,She Qingshan,et al.Sparse representation-based classification with two-dimensional dictionary optimization for motor imagery EEG pattern recognition[J].Journal of Neuroscience Methods,2021,361(9):article ID 109274.

      [9]徐淳瑤.基于稀疏表示的運(yùn)動(dòng)想象腦電信號(hào)分類研究[D].秦皇島:燕山大學(xué),2021.(Xu Chunyao.Classification of motor imagery EEG signals based on sparse representation[D].Qinhuangdao:Yanshan University,2021.)

      [10]Sreeja S R,Samanta D.Classification of multiclass motor imagery EEG signal using sparsity approach[J].Neurocomputing,2019,27(11):133-145.

      [11]Gu Shuhang,Zhang Lei,Zuo Wangmeng,et al.Projective dictionary pair learning for pattern classification[C]//Proc of the 27th International Conference on Neural Information Processing Systems.Cambridge,MA:MIT Press,2014:793-801.

      [12]Gu Xiaoqing,Ni Tongguang,Zhang Cong.A hierarchical discriminative sparse representation classifier for EEG signal detection[J].IEEE/ACM Trans on Computational Biology and Bioinforma-tics,2021,18(5):1679-1687.

      [13]Tim S,Rombaut M,Pellerin D,et al.Descriptor extraction based on a multilayer dictionary architecture for classification of natural images[J].Computer Vision and Image Understanding,2020,191(2):article ID 102708.

      [14]Jiang Heng,Xu Chen,Liu Liu.Joint spatial structural sparsity constraint and spectral low-rank approximation for snapshot compressive spectral imaging reconstruction[J].Optics and Lasers in Enginee-ring,2023,162(3):article ID 107413.

      [15]Ding Zhengming,F(xiàn)u Yun.Deep low-rank coding for transfer learning[J].IEEE Trans on Neural Networks and Learning Systems,2019,30(6):1768-1779.

      [16]Kübler A,Kotchoubey B,Kaiser J,et al.Brain-computer communication:unlocking the locked in[J].Psychological Bulletin,2001,127(3):358-375.

      [17]Blankertz B,Muller K R,Curio G,et al.The BCI competition 2003:progress and perspectives in detection and discrimination of EEG single trials[J].IEEE Trans on Biomedical Engineering,2004,51(6):1044-1051.

      [18]Phadikar S,Sinha N,Ghosh R.Unsupervised feature extraction with autoencoders for EEG based multiclass motor imagery BCI[J].Expert Systems with Applications,2023,213(3):article ID 118901.

      [19]Jiang Zhuolin,Lin Zhe,Davis L S.Label consistent K-SVD:learning a discriminative dictionary for recognition[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2013,35(11):2651-2664.

      [20]Tim S,Rombaut M,Pellerin D.Multi-layer dictionary learning for image classification[M]//Blanc-Talon J,Distante C,Philips W,et al.Advanced Concepts for Intelligent Vision Systems.Cham:Springer,2016:522-533.

      [21]Gu Yi,Li Kang.A transfer model based on supervised multiple dictionary learning for brain tumor MRI image recognition[J].Frontiers in Neuroscience,2021,15(5):article ID 687496.

      [22]Lee E.Runoff prediction of urban stream based on the discharge of pump stations using improved multi-layer perceptron applying new optimizers combined with a harmony search[J].Journal of Hydrology,2022,615(12):article ID 128708.

      [23]Kale G,Karakuzu C.Multilayer extreme learning machines and their modeling performance on dynamical systems[J].Applied Soft Computing,2022,122(6):article ID 108861.

      [24]Tang Hao,Liu Hong,Xiao Wei,et al.When dictionary learning meets deep learning:deep dictionary learning and coding network for image recognition with limited data[J].IEEE Trans on Neural Networks and Learning Systems,2021,32(5):2129-2141.

      兴海县| 浑源县| 二连浩特市| 自治县| 舞阳县| 宣威市| 鄂托克旗| 通许县| 玉门市| 龙南县| 板桥市| 涞源县| 高唐县| 佛山市| 安远县| 望城县| 景宁| 策勒县| 平远县| 尼勒克县| 龙岩市| 康马县| 乐亭县| 电白县| 四会市| 钟祥市| 长乐市| 万山特区| 顺义区| 金坛市| 绥阳县| 信丰县| 厦门市| 泾源县| 娱乐| 安泽县| 双桥区| 金秀| 霞浦县| 宜兰市| 香格里拉县|