• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于CNN與SVM融合的步態(tài)識(shí)別方法

      2019-05-07 09:23:38張加加王修暉
      關(guān)鍵詞:步態(tài)網(wǎng)絡(luò)結(jié)構(gòu)識(shí)別率

      張加加,王修暉

      (中國(guó)計(jì)量大學(xué) 信息工程學(xué)院,浙江 杭州 310018)

      近年來,隨著人臉識(shí)別和指紋識(shí)別技術(shù)的日益成熟,越來越多的學(xué)者將目光轉(zhuǎn)向了其它人類身份識(shí)別方法,其中,步態(tài)識(shí)別算法逐漸成為眾多學(xué)者研究的一個(gè)熱點(diǎn)。步態(tài)識(shí)別是計(jì)算機(jī)視覺和生物特征識(shí)別領(lǐng)域中的一個(gè)研究方向。在計(jì)算機(jī)視覺中,人體運(yùn)動(dòng)步態(tài)的視覺分析是從運(yùn)動(dòng)輪廓圖像序列中進(jìn)行人的檢測(cè)、跟蹤和識(shí)別[1];在生物特征識(shí)別中,是利用人的生理或行為特征進(jìn)行人身份的鑒別[2]。步態(tài)識(shí)別算法的過程可以分成三步:運(yùn)動(dòng)分割、特征提取與描述、步態(tài)識(shí)別。與人臉識(shí)別、指紋識(shí)別等生物特征識(shí)別技術(shù)相比,步態(tài)識(shí)別最大的優(yōu)勢(shì)[3]是不需要近距離的接觸,它可以在遠(yuǎn)距離的情況下用于識(shí)別一個(gè)人的身份,正是因?yàn)椴綉B(tài)識(shí)別的遠(yuǎn)距離非接觸性的優(yōu)點(diǎn),所以步態(tài)識(shí)別技術(shù)在智能監(jiān)控[4]和醫(yī)療診斷[5]方面已經(jīng)有了一定的研究究成果。

      在傳統(tǒng)的步態(tài)識(shí)別中,都是人們手動(dòng)設(shè)置模型參數(shù)來提取步態(tài)特征,然后用這些步態(tài)特征來訓(xùn)練分類器,而深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)是一種能夠自適應(yīng)學(xué)習(xí)特征的方法。傳統(tǒng)的步態(tài)識(shí)別方法可以分為兩類:基于模型的方法和基于特征的方法?;谀P偷姆椒ㄊ窍葮?gòu)建一種人體模型,然后跟蹤分析模型的參數(shù),最后進(jìn)行步態(tài)識(shí)別。在最新研究中,基于人體骨架模型的步態(tài)識(shí)別方法得到了較好的研究成果,文獻(xiàn)[6]介紹了一種利用kinect傳感器提取人體骨架信息構(gòu)建一個(gè)數(shù)學(xué)模型來進(jìn)行步態(tài)識(shí)別的方法?;谔卣鞯姆椒ㄊ侵苯訌娜梭w圖像中提取出步態(tài)的特征數(shù)據(jù)用于步態(tài)識(shí)別。文獻(xiàn)[7]提出了一種基于連續(xù)密度隱馬爾科夫模型的人體步態(tài)識(shí)別方法,該方法借助于Cox回歸分析的漸進(jìn)自適應(yīng)算法對(duì)訓(xùn)練過的步態(tài)模型進(jìn)行參數(shù)自適應(yīng)和步態(tài)識(shí)別。劉磊等[8]選擇下肢表面肌電信號(hào)等特殊步態(tài)識(shí)別信息源,提出了一種基于多核相關(guān)向量機(jī)的人體步態(tài)識(shí)別方法。Chen等[9]提出了一種利用2D-EGEI提取步態(tài)特征的方法來進(jìn)行步態(tài)識(shí)別。Wang等[10]提出了一種利用Gabor小波優(yōu)化步態(tài)能量圖,并使用(2D)2PCA方法進(jìn)行降維的步態(tài)識(shí)別方法。此外Sagar[11]提出了一種融合兩種模型來進(jìn)行步態(tài)識(shí)別的方法。實(shí)際上,以上提出的方法都是基于傳統(tǒng)步態(tài)特征的提取和描述。基于傳統(tǒng)模型的方法雖然在一定程度上緩解了各種外界障礙物的影響,但對(duì)于解決不同視角下步態(tài)特征之間的高度非線性相關(guān)性依然缺乏有效的建模手段,且無法很好的自適應(yīng)學(xué)習(xí)步態(tài)特征。

      自2012年AlexNet問世至今,幾乎在每年的ILSVRC大賽上都會(huì)出現(xiàn)一個(gè)更加優(yōu)秀、更具有統(tǒng)治地位的CNN網(wǎng)絡(luò)模型出現(xiàn)。其中知名的模型有AlexNet[12]、GoogLeNet[13]、VGGNet[14]和ResNet[15]。近年來卷積神經(jīng)網(wǎng)絡(luò)發(fā)展迅速,在圖像分類問題上更是大放異彩,例如張等[16]提出的一種Joint-Res CNN在人臉識(shí)別上可達(dá)到93.12%的識(shí)別率;薛等[17]提出的一種CNN網(wǎng)絡(luò)模型結(jié)構(gòu)在SAR圖像分類上的準(zhǔn)確率可達(dá)到98.98%。以卷積神經(jīng)網(wǎng)絡(luò)為基礎(chǔ)的模型提供了對(duì)圖像和序列數(shù)據(jù)進(jìn)行特征抽取的有效方式,步態(tài)識(shí)別作為以圖像序列為輸入的任務(wù),也適合運(yùn)用深度學(xué)習(xí)方法進(jìn)行建模。基于神經(jīng)網(wǎng)絡(luò)的非線性模型也給消除步態(tài)識(shí)別中外界障礙物的影響提供了有效的解決手段,例如Wu等[18]提出的基于CNN的跨視角步態(tài)識(shí)別方法的識(shí)別率可以高達(dá)94.1%。

      鑒于CNN網(wǎng)絡(luò)結(jié)構(gòu)能夠自適應(yīng)提取特征,以及對(duì)圖像的平移、比例縮放、傾斜等變換具有高度不變性,我們提出了一種基于CNN的步態(tài)識(shí)別方法。首先我們訓(xùn)練一個(gè)CNN網(wǎng)絡(luò)模型提取個(gè)體步態(tài)序列圖像的特征,最后利用SVM分類器對(duì)個(gè)體進(jìn)行分類識(shí)別。我們的主要貢獻(xiàn)有:1)提出了兩種多通道CNN網(wǎng)絡(luò)結(jié)構(gòu),使步態(tài)特征更加多樣性;2)將CNN網(wǎng)絡(luò)結(jié)構(gòu)和SVM分類器結(jié)合起來構(gòu)建了一個(gè)新的步態(tài)識(shí)別架構(gòu),有效地提高了步態(tài)識(shí)別的正確率;3)在公開步態(tài)數(shù)據(jù)集CASIA和OU-ISIR上進(jìn)行了驗(yàn)證測(cè)試,并取得了較好的分類效果。

      1 步態(tài)特征提取

      為了能夠自動(dòng)學(xué)習(xí)人體步態(tài)圖像的特征,我們提出的步態(tài)識(shí)別方法,結(jié)合了CNN自適應(yīng)提取特征和SVM泛化能力強(qiáng)的優(yōu)點(diǎn)。我們將整個(gè)步態(tài)識(shí)別過程分為兩個(gè)階段:第一階段利用CNN網(wǎng)絡(luò)結(jié)構(gòu)自動(dòng)提取步態(tài)訓(xùn)練集的步態(tài)特征,并將這些步態(tài)特征作為第二階段的輸入;第二階段采用支持向量機(jī)(support vector machine, SVM)進(jìn)行步態(tài)識(shí)別和分類。我們采用步態(tài)輪廓圖作為算法的輸入,并構(gòu)造出對(duì)應(yīng)的步態(tài)能量圖(GEI),流程圖如圖1。

      圖1 步態(tài)識(shí)別流程圖Figure 1 Flowchart of the proposed gait recognition method

      1.1 CNN網(wǎng)絡(luò)結(jié)構(gòu)提取步態(tài)特征

      CNN主要由卷積層、池化層和全連接層組成。在本文中,我們使用的步態(tài)訓(xùn)練集和步態(tài)測(cè)試集都是經(jīng)過預(yù)處理的步態(tài)能量圖(GEI),步態(tài)能量圖經(jīng)過卷積、池化提取局部步態(tài)特征信息,然后用全連接層整合卷積層或者池化層中的局部信息,輸出對(duì)應(yīng)輸入步態(tài)能量圖的特征向量。訓(xùn)練時(shí)將全連接層的輸出特征向量連同訓(xùn)練樣本的標(biāo)簽一同輸入到損失函數(shù)層進(jìn)行損失計(jì)算,最后利用反向傳播算法來訓(xùn)練我們的CNN網(wǎng)絡(luò)結(jié)構(gòu),經(jīng)過多次迭代訓(xùn)練出一個(gè)最優(yōu)的CNN網(wǎng)絡(luò)模型,從中取出全連接層輸出的步態(tài)特征向量作為第二階段SVM分類器的輸入。

      在本文中,我們提出了三種不同的CNN網(wǎng)絡(luò)結(jié)構(gòu)來提取步態(tài)特征,分別是單通道卷積CNN網(wǎng)絡(luò)結(jié)構(gòu)(SCNN)、早期多通道卷積CNN網(wǎng)絡(luò)結(jié)構(gòu)(ECNN)和晚期多通道卷積CNN網(wǎng)絡(luò)結(jié)構(gòu)(LCNN),如圖2。這三種CNN網(wǎng)絡(luò)結(jié)構(gòu)都是由三層卷積,三層池化,一層全連接層組成,所有卷積核的滑動(dòng)步長(zhǎng)都為1,卷積后使用激活函數(shù)ReLU,所有池化窗口的大小都為2×2,滑動(dòng)步長(zhǎng)為2,全連接層中,我們添加了dropout函數(shù)。值得注意的是在早期多通道卷積CNN網(wǎng)絡(luò)結(jié)構(gòu)和晚期多通道卷積CNN網(wǎng)絡(luò)結(jié)構(gòu)中,我們分別在不同階段添加了多通道卷積技術(shù)。

      圖2 三種CNN網(wǎng)絡(luò)結(jié)構(gòu)Figure 2 Three CNN network structures

      1)在單通道CNN網(wǎng)絡(luò)結(jié)構(gòu)(SCNN)中,我們使用的是簡(jiǎn)單的單通道CNN網(wǎng)絡(luò)結(jié)構(gòu),輸入為一張步態(tài)能量圖(GEI),輸出為這張步態(tài)能量圖(GEI)對(duì)應(yīng)的步態(tài)特征。單通道CNN網(wǎng)絡(luò)結(jié)構(gòu)中,第一層卷積核的大小為9×9,卷積核數(shù)量為16,第二層卷積核大小為7×7,卷積核數(shù)量為64,第三次卷積核大小為5×5,卷積核數(shù)量為256。

      2)在早期多通道卷積CNN網(wǎng)絡(luò)結(jié)構(gòu)(ECNN)中,我們?cè)诘诙泳矸e中,應(yīng)用了多通道卷積技術(shù),多通道卷積技術(shù)能夠得到具有多樣性特征的步態(tài)特征面。我們將得到的多樣性步態(tài)特征整合到一起作為第三層卷積的輸入,在多樣性步態(tài)特征的基礎(chǔ)上,第三層卷積后的步態(tài)特征會(huì)更具有代表性。早期多通道卷積CNN網(wǎng)絡(luò)結(jié)構(gòu)中,第一層卷積核的大小為9×9,卷積核數(shù)量為32,第二層的多通道卷積中,一個(gè)通道的卷積核大小為7×7,另一個(gè)卷積核的大小為5×5,兩個(gè)通道的卷積核數(shù)量都為32,經(jīng)過Concat連接后得到64個(gè)特征面,第三層卷積核大小為5×5,卷積核數(shù)量為256。

      3)晚期多通道卷積CNN網(wǎng)絡(luò)結(jié)構(gòu)(LCNN)和前一個(gè)網(wǎng)絡(luò)結(jié)構(gòu)很相似,它們的不同之處是在于何時(shí)應(yīng)用多通道卷積技術(shù)。在這個(gè)網(wǎng)絡(luò)結(jié)構(gòu)中,我們?cè)谧詈笠粚討?yīng)用多通道卷積技術(shù),將第二層卷積后得到的步態(tài)特征利用多通道技術(shù)再一次進(jìn)行卷積,這次卷積后得到的多樣性步態(tài)特征直接作為我們的輸出步態(tài)特征。晚期多通道卷積CNN網(wǎng)絡(luò)結(jié)構(gòu)中,第一層卷積核的大小為9×9,卷積核數(shù)量為32,第二層卷積核大小為7×7,卷積核數(shù)量為64,第三層的多通道卷積中,一個(gè)通道的卷積核大小為7×7,另一個(gè)卷積核的大小為5×5,兩個(gè)通道的卷積核數(shù)量都為128,經(jīng)過Concat連接后得到256個(gè)特征面。

      1.2 三種CNN網(wǎng)絡(luò)結(jié)構(gòu)的比較

      本文提出了三種不同的CNN網(wǎng)絡(luò)結(jié)構(gòu),第一種單通道卷積CNN網(wǎng)絡(luò)結(jié)構(gòu)(SCNN)是最原始的CNN網(wǎng)絡(luò)結(jié)構(gòu),它所提取的圖像特征比較少,不具有多樣性,對(duì)圖像識(shí)別的結(jié)果有一定的誤差。第二種和第三種都是一種創(chuàng)新的CNN網(wǎng)絡(luò)結(jié)構(gòu),融合了多通道卷積技術(shù)。兩者的主要區(qū)別是第二種CNN網(wǎng)絡(luò)結(jié)構(gòu)中的多通道卷積核僅將一些簡(jiǎn)單的圖像特征融合后再傳入第三層卷積層,而第三種CNN網(wǎng)絡(luò)結(jié)構(gòu)中的多通道卷積核提取的都是抽象的高級(jí)圖像特征,因此在最后的識(shí)別效果上是最好的。和第一種單通道卷積CNN網(wǎng)絡(luò)結(jié)構(gòu)相比,第二種和第三種多通道卷積CNN網(wǎng)絡(luò)結(jié)構(gòu)模型較復(fù)雜,訓(xùn)練時(shí)間大約增加了一倍。

      2 步態(tài)分類

      步態(tài)訓(xùn)練集經(jīng)過第一階段CNN網(wǎng)絡(luò)結(jié)構(gòu)的全連接層后可以得到一個(gè)低維的步態(tài)特征向量,本階段利用SVM將第一階段提取的步態(tài)特征向量從一個(gè)低維空間映射到高維空間,然后在這個(gè)新的空間中求取樣本的最優(yōu)線性分類面,而這種非線性變換是通過定義適當(dāng)?shù)暮撕瘮?shù)實(shí)現(xiàn)的。特征空間最優(yōu)線性分類面函數(shù)如式(1):

      (1)

      其中,(x,xi)是步態(tài)樣本特征空間中的兩類可分樣本集,yi∈{1,2,…,n}是步態(tài)樣本特征空間的類標(biāo)記,b是分類閾值,k(xi,x)是通過滿足Mercer條件而引入的代替特征空間內(nèi)積的非線性核函數(shù)。本文算法使用RBF核函數(shù)進(jìn)行計(jì)算:

      (2)

      通過求取下列函數(shù)Q(α)的最優(yōu)化解αi(i=1,2,…,n)來確定最優(yōu)分類面函數(shù)。

      (3)

      (4)

      式(3)是不等式約束下的二次函數(shù)極值求解,滿足式(4)的條件且αi≥0,i=1,2,…,n。由核函數(shù)k(x,xi)的正定性決定了Q(α)是凸函數(shù),由于其局部最優(yōu)解也就是全局最優(yōu)解,因此解是唯一的。最優(yōu)化的過程實(shí)際上就是使分類間隔最大的過程。

      支持向量機(jī)的最優(yōu)分類函數(shù)為

      (5)

      訓(xùn)練時(shí)將第一階段全連接層的輸出特征向量連同訓(xùn)練樣本的標(biāo)簽一同輸入到SVM訓(xùn)練器中,經(jīng)過調(diào)整核函數(shù)的參數(shù),得到一個(gè)優(yōu)化后的SVM分類器。

      經(jīng)過訓(xùn)練CNN網(wǎng)絡(luò)結(jié)構(gòu)和SVM分類器,整個(gè)步態(tài)識(shí)別方法的識(shí)別模型就已經(jīng)形成了,將我們的步態(tài)測(cè)試集放入這個(gè)步態(tài)識(shí)別模型中,就可以自動(dòng)得到每個(gè)步態(tài)個(gè)體的類別標(biāo)簽。本文提出的基于CNN和SVM融合的步態(tài)識(shí)別算法工作流程如下:

      //訓(xùn)練CNN網(wǎng)絡(luò)模型階段

      Input:步態(tài)訓(xùn)練集X={x1,x2,…,xn}

      Output:步態(tài)訓(xùn)練集對(duì)應(yīng)的步態(tài)特征

      1:初始化所有的權(quán)值和偏置;

      2:for epoch =1 to MAXEPOCH do;

      3:卷積層提取特征;

      4:池化層降低特征向量維數(shù);

      5:將特征向量連接到全連接層;

      6:計(jì)算每個(gè)樣本的實(shí)際輸出;

      7:計(jì)算網(wǎng)絡(luò)中權(quán)值和偏置的偏導(dǎo)數(shù);

      8:使用反向傳播算法更新所有權(quán)值和偏置;

      9:End for

      //SVM模型訓(xùn)練階段

      10:輸入CNN網(wǎng)絡(luò)模型訓(xùn)練階段提取的步態(tài)特征向量;

      11:調(diào)整核函數(shù)的參數(shù);

      //測(cè)試

      12:將步態(tài)測(cè)試集數(shù)據(jù)放入訓(xùn)練好的整個(gè)模型中,得出每個(gè)步態(tài)個(gè)體的類別。

      3 實(shí)驗(yàn)結(jié)果與分析

      在該部分中,為了驗(yàn)證方法的有效性和可行性,分別在CASIA-B和OU-ISIR Large Population這兩個(gè)步態(tài)數(shù)據(jù)庫上進(jìn)行了實(shí)驗(yàn)評(píng)估。利用三種不同的模型來進(jìn)行步態(tài)識(shí)別實(shí)驗(yàn),通過調(diào)節(jié)模型參數(shù)及對(duì)比實(shí)驗(yàn)結(jié)果反饋,驗(yàn)證基于CNN與SVM網(wǎng)絡(luò)模型對(duì)步態(tài)識(shí)別的可行性及有效性。

      本實(shí)驗(yàn)的計(jì)算機(jī)配置:服務(wù)器4臺(tái),GPU顯卡12塊,內(nèi)存128 GB+256 GB,機(jī)械硬盤4TB+12TB,固態(tài)硬盤400 GB 2個(gè),512 GB 2個(gè);軟件配置:TensorFlow。

      3.1 在CASIA-B數(shù)據(jù)庫上的實(shí)驗(yàn)

      CASIA-B數(shù)據(jù)庫是個(gè)多視角的步態(tài)數(shù)據(jù)庫,該數(shù)據(jù)庫提供了124個(gè)對(duì)象在三種不同條件下的步態(tài)能量圖(Gait Energy Image, GEI),分別是正常條件(NM)、背包條件(BG)和穿大衣條件(CL),每種條件下又包含了11種不同的視角。每個(gè)個(gè)體都有10組步態(tài)序列圖像,其中正常條件下的步態(tài)序列有6組,背包條件和穿大衣條件下各2組。在圖3中我們列舉了一個(gè)個(gè)體在CASIA-B數(shù)據(jù)庫中的數(shù)據(jù)樣本。

      圖3 CASIA-B數(shù)據(jù)集中的步態(tài)樣本示例Figure 3 Gait samples from CASIA Dataset B

      實(shí)驗(yàn)中,所有輸入圖片的大小經(jīng)過調(diào)整后為200×200,在CNN網(wǎng)絡(luò)結(jié)構(gòu)訓(xùn)練階段,所有網(wǎng)絡(luò)都經(jīng)過了20 000次循環(huán),每個(gè)批次用11張圖像,網(wǎng)絡(luò)初始學(xué)習(xí)率為0.000 1,在SVM訓(xùn)練階段,我們使用的核函數(shù)為RBF,懲罰因子C設(shè)為100,gamma設(shè)為0.000 01。

      3.1.1 NM環(huán)境下的實(shí)驗(yàn)對(duì)比結(jié)果

      在該實(shí)驗(yàn)中,使用的訓(xùn)練集是4組Galley NM集,測(cè)試集是2組Probe NM集,實(shí)驗(yàn)得出了各個(gè)角度下的識(shí)別率。將實(shí)驗(yàn)結(jié)果分別和文獻(xiàn)[9]、[10]兩種傳統(tǒng)方法和[19]中提出的基于神經(jīng)網(wǎng)絡(luò)的方法進(jìn)行了對(duì)比,對(duì)比結(jié)果如表1。

      表1 NM環(huán)境下各角度識(shí)別率的實(shí)驗(yàn)對(duì)比Table 1 Correct recognition rates of different algorithms under the NM condition %

      3.1.2 BG和CL環(huán)境下的實(shí)驗(yàn)對(duì)比結(jié)果

      在該實(shí)驗(yàn)中,我們用的訓(xùn)練和測(cè)試方法和文獻(xiàn)[20]中提出的方法一樣,[20]和[21]文提出的都是一種基于傳統(tǒng)的特征提取的步態(tài)識(shí)別方法。為了驗(yàn)證我們提出的方法對(duì)背包和穿大衣狀態(tài)具有魯棒性,將我們的實(shí)驗(yàn)結(jié)果和文獻(xiàn)[20]、[21]中的實(shí)驗(yàn)結(jié)果進(jìn)行了對(duì)比,實(shí)驗(yàn)對(duì)比結(jié)果如表2。

      表2 BG和CL環(huán)境下識(shí)別率的實(shí)驗(yàn)對(duì)比

      3.1.3 實(shí)驗(yàn)結(jié)果分析

      由表1可以看出,我們提出的三種步態(tài)識(shí)別方法和其它三種方法相比,在各角度下的識(shí)別率都具有明顯優(yōu)勢(shì),這是因?yàn)槲覀兲岢龅姆椒ㄋ玫牟綉B(tài)特征是利用步態(tài)能量圖(GEI)所提取的平均步態(tài)周期性變化特征,然后利用卷積神經(jīng)網(wǎng)絡(luò)(CNN)自適應(yīng)學(xué)習(xí)特征的能力提取更抽象的步態(tài)特征,最后利用SVM分類器進(jìn)行步態(tài)分類,結(jié)合了步態(tài)能量圖、卷積神經(jīng)網(wǎng)絡(luò)(CNN)和SVM三者的優(yōu)勢(shì)。從表2中,可以看到,我們提出的方法在識(shí)別率上遠(yuǎn)遠(yuǎn)高于其它兩種方法,主要也是因?yàn)楸疚挠糜谔崛〔綉B(tài)特征的方法有效地利用了卷積神經(jīng)網(wǎng)絡(luò)(CNN)自適應(yīng)提取更抽象的步態(tài)特征的優(yōu)勢(shì),而文獻(xiàn)[20]和[21]兩種基于傳統(tǒng)的步態(tài)特征提取方法無法很好的自適應(yīng)學(xué)習(xí)步態(tài)特征,且僅利用了步態(tài)能量圖(GEI)作為步態(tài)特征。通過兩個(gè)實(shí)驗(yàn)對(duì)比結(jié)果可以看出,不管是在NM環(huán)境下,還是在BG和CL環(huán)境下,我們提出的方法和其它方法相比都具有明顯的優(yōu)勢(shì),這說明我們提出的方法在步態(tài)識(shí)別上確實(shí)是可行的。

      3.2 在OU-ISIR Large Population數(shù)據(jù)庫上的實(shí)驗(yàn)結(jié)果與分析

      OU-ISIR大型人口數(shù)據(jù)庫包括4 000多個(gè)個(gè)體,個(gè)體的年齡范圍是1到94歲,每個(gè)個(gè)體使用四個(gè)視角的攝像機(jī)進(jìn)行記錄:55°、65°、75°和85°。在所有常用于步態(tài)識(shí)別評(píng)估的數(shù)據(jù)集中,該數(shù)據(jù)集是受試者數(shù)量最多的數(shù)據(jù)集之一,因此在性能評(píng)估方面具有可靠性。圖4顯示的是OU-ISIR Large Population數(shù)據(jù)庫上的樣本實(shí)例。

      圖4 OU-ISIR數(shù)據(jù)庫中的步態(tài)樣本實(shí)例Figure 4 Gait samples from the OU-ISIR Dataset

      實(shí)驗(yàn)中,所有輸入圖片的大小為88×128,經(jīng)過CNN網(wǎng)絡(luò)結(jié)構(gòu)的卷積池化以后,最終得到的是大小為11×16的特征面。在CNN網(wǎng)絡(luò)結(jié)構(gòu)訓(xùn)練階段,所有網(wǎng)絡(luò)的都經(jīng)過了20 000次循環(huán),每個(gè)批次用40張圖像,網(wǎng)絡(luò)初始學(xué)習(xí)率為0.000 01,在SVM訓(xùn)練階段,我們使用的核函數(shù)為RBF,懲罰因子C設(shè)為100,gamma設(shè)為0.000 01。在表3中,我們記錄了每個(gè)角度的識(shí)別率,并且和Iwama等人[22]提出的利用GEI特征的步態(tài)方面進(jìn)行了對(duì)比。

      表3 OU-ISIR Large Population數(shù)據(jù)庫上各角度實(shí)驗(yàn)對(duì)比結(jié)果

      Table 3 Correct recognition rates on the OU-ISIR Large Population Dataset

      角度/(°)SCNN/%ECNN/%LCNN/%GEI/%5588.0089.8090.4084.706591.0092.2093.0086.637590.4090.8091.4086.918585.6087.8089.7085.72

      從表3可以看出,本文提出的方法識(shí)別率也是高于Iwama提出方法的識(shí)別率的,和文獻(xiàn)[23]、[24]一樣,他們都是傳統(tǒng)的非自適應(yīng)學(xué)習(xí)特征的方法,僅利用了步態(tài)能量圖(GEI)作為步態(tài)特征。由此可以進(jìn)一步得出,不管是在CASIA-B數(shù)據(jù)庫中還是OU-ISIR Large Population數(shù)據(jù)庫中,利用卷積神經(jīng)網(wǎng)絡(luò)(CNN)自適應(yīng)學(xué)習(xí)能力提取的步態(tài)特征具有廣泛性和有效性,因?yàn)榫矸e神經(jīng)網(wǎng)絡(luò)提取的特征具有高度不變性,再結(jié)合SVM分類器的非線性特征,就可以達(dá)到很好的分類效果。通過以上三個(gè)實(shí)驗(yàn)的對(duì)比結(jié)果,我們不難看出,本文提出的結(jié)合CNN和SVM分類器的步態(tài)分類方法,的確具有廣泛的可執(zhí)行性。

      4 結(jié) 語

      本文將CNN網(wǎng)絡(luò)和SVM分類器結(jié)合起來應(yīng)用在了步態(tài)識(shí)別上,從實(shí)驗(yàn)結(jié)果可以看出,本文提出的步態(tài)識(shí)別方法得確取得了很好的識(shí)別效果,但我們的方法只是多視角的步態(tài)識(shí)別,并不是跨視角的識(shí)別方法,且是在有監(jiān)督的情況下進(jìn)行步態(tài)特征學(xué)習(xí)的,所以我們接下來的研究重點(diǎn)就是如何在無監(jiān)督的情況下,訓(xùn)練出一種能取得較好識(shí)別效果的步態(tài)模型,并將它做成一個(gè)完整的步態(tài)系統(tǒng)。

      猜你喜歡
      步態(tài)網(wǎng)絡(luò)結(jié)構(gòu)識(shí)別率
      小螞蟻與“三角步態(tài)”
      基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測(cè)
      基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識(shí)別率的關(guān)系
      基于面部和步態(tài)識(shí)別的兒童走失尋回系統(tǒng)
      電子制作(2018年18期)2018-11-14 01:48:04
      基于Kinect的學(xué)步期幼兒自然步態(tài)提取
      提升高速公路MTC二次抓拍車牌識(shí)別率方案研究
      高速公路機(jī)電日常維護(hù)中車牌識(shí)別率分析系統(tǒng)的應(yīng)用
      基于互信息的貝葉斯網(wǎng)絡(luò)結(jié)構(gòu)學(xué)習(xí)
      知識(shí)網(wǎng)絡(luò)結(jié)構(gòu)維對(duì)于創(chuàng)新績(jī)效的作用機(jī)制——遠(yuǎn)程創(chuàng)新搜尋的中介作用
      滬港通下A+ H股票網(wǎng)絡(luò)結(jié)構(gòu)演化的實(shí)證分析
      麻江县| 海阳市| 柳林县| 贞丰县| 阿瓦提县| 南溪县| 青海省| 辛集市| 东乌珠穆沁旗| 大足县| 南和县| 桐城市| 运城市| 北宁市| 建平县| 四平市| 禄劝| 达孜县| 施秉县| 邮箱| 昌宁县| 洞口县| 新龙县| 祁东县| 久治县| 墨玉县| 西吉县| 上林县| 锡林郭勒盟| 武川县| 平山县| 新巴尔虎左旗| 合水县| 西林县| 天津市| 小金县| 明光市| 江口县| 宁晋县| 青龙| 芮城县|