• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于稠密軌跡聚類的人體交互行為識別

      2016-08-30 13:25:51周思超夏利民
      采礦技術 2016年4期

      周思超,夏利民

      (中南大學信息科學與工程學院, 湖南長沙 410075)

      基于稠密軌跡聚類的人體交互行為識別

      周思超,夏利民

      (中南大學信息科學與工程學院, 湖南長沙 410075)

      摘 要:由于稠密軌跡對快速不規(guī)則運動的魯棒性較強,對視頻運動信息的覆蓋度較好,近年來基于稠密軌跡的人體運動表征方法已經(jīng)越來越多地運用于行為識別等領域。但軌跡提取受視頻噪聲影響較大,采用詞袋(BOW)模型分類的參數(shù)難以確定,分類算法復雜,前述方法仍有些許不足。為此,提出了一種空間金字塔稠密軌跡聚類(PDDC)的人體交互行為識別方法。在金字塔不同空間層提取人體交互運動軌跡,并對所提取軌跡進行聚類,利用時空情境特征構建行為描述符,最后通過多示例學習(MIL)對交互行為進行分類識別。在UT-Interaction與WEB-Interaction數(shù)據(jù)集上進行了測試,證明了該方法的有效性。

      關鍵詞:交互行為識別;稠密軌跡;多示例學習

      0 引 言

      人體行為識別是計算機實現(xiàn)全自動場景理解的重要一步,在監(jiān)視系統(tǒng)、人機交互、計算機智能等方面都有廣闊的應用前景。兩人交互行為在日常生活中廣泛存在,如握手、擁抱、打架等,這些行為包含信息巨大。識別交互行為對視頻理解、信息決策等都有著極大的意義與價值。

      近幾年,兩人交互行為識別的研究已經(jīng)取得豐碩的成果,研究對象也逐漸從單一背景、視角固定的數(shù)據(jù)集向背景雜亂、視角變化的數(shù)據(jù)集轉變。用特征包(BOF)框架來表征局部時空特征的方法在交互行為識別領域被廣泛采用[1-10]。

      已有的方法在不同數(shù)據(jù)集上獲得了良好的實驗結果的同時,也存在著一些不足。如:STIP+BOW識別方法對圖像的關鍵點顯著點與文本關鍵字出現(xiàn)的頻率信息進行統(tǒng)計,卻忽略了時空興趣點的空間信息以及各局部區(qū)域之間的聯(lián)系,同時使用K-means聚類的詞袋模型在建立視覺碼本的時候會損失大量重要信息。而經(jīng)典軌跡法識別交互行為時軌跡計算負擔較大,并且由于噪聲的影響,算法會提取部分無關軌跡,該類軌跡對分類識別過程沒有幫助,在建立視覺碼本的時候還會產(chǎn)生一定的干擾。

      本文提出了基于空間金字塔稠密軌跡聚類的方法來識別人體交互行為。在不同的分辨率下通過稠密采樣獲得交互雙方共同的運動軌跡后,根據(jù)不同交互行為整體動作的差異性以及相同交互行為身體不同部位動作的差異性,通過已有時空軌跡聚類算法對所得軌跡進行聚類,有著類似運動以及類似運動趨勢的軌跡被聚類成一組。通過聚類,大部分的無關軌跡被剔除,而保留的經(jīng)過聚類的軌跡能夠更好地表征運動特征。聚類后軌跡的質心投影在交互階段第一幀上,可以認為這些質心組成的區(qū)域是交互行為中區(qū)分程度較高的區(qū)域,求取聚類后軌跡周圍空間的時空CoHOG、CoHOF與CoMBH特征,結合以上特征作為行為的局部描述符。圖像空間金字塔是以多分辨率解讀圖像的一種結構,在某種分別率下無法發(fā)現(xiàn)的特性,在另一種分辨率下將很容易被發(fā)現(xiàn)。因此本文采用空間金字塔結構進行特征提取,在有限增加計算成本的情況下能夠顯著增加特征描述的多元性,提高分類器的分類準確率。最后,本文舍棄了傳統(tǒng)軌跡運算的分類方法,采用多示例學習分類算法作為分類方法。實驗表明,本文提出的方法有著較高的識別率。

      1 基于聚類的交互行為的有效軌跡提取與表示

      大部分交互行為能夠被看做4個有序階段的組合:個體階段(Individual Stage)、目標階段(Targeting Stage)、交互階段(Interacting Stage)、(恢復)個體階段(Individual Stage recur)。將視頻看做多幀的聯(lián)合時,不同的交互行為中個體階段、目標階段與(恢復)個體階段是類似的,4個階段中只有交互階段提供了交互行為識別最主要的信息。本文采用Yang[11]等人的方法提取交互階段。如圖1所示,馬鞍形曲線為灰度值差異曲線(gray-value difference curve),兩個波峰分別代表了交互階段的起始幀和終止幀。兩幀之間的部分為后續(xù)提取特征部分。

      圖1 交互階段提取過程

      空間金字塔模型是一系列以金字塔形狀排列的、分辨率逐步降低的圖像集合。金字塔的底部是待處理圖像的高分辨率表示,當向金字塔上層移動時,尺寸和分辨率不斷降低,每一層的尺寸和分辨率都是上一層的一半,如圖2所示。

      圖2 間金字塔模型

      金字塔的分辨率越低,伴隨的細節(jié)就越少,但低分辨率級別用于分析大的結構和圖像整體內(nèi)容時能夠取得較好的結果,而高分辨率圖像適合分析圖像的細節(jié)特性。因此本文通過多分辨率對視頻序列進行描述,使用低通高斯平滑濾波器對所提取交互階段的每一幀進行處理,產(chǎn)生交互階段視頻的低分辨率近似,對不同分辨率的交互階段進行軌跡提取以及特征表示,聯(lián)合不同分辨率的特征描述符形成空間金字塔描述符。本文實驗對取不同層級金字塔對識別準確率的影響進行了測試。

      在視頻軌跡提取方面,典型的軌跡提取方法可以分為稀疏興趣點軌跡提取與稠密軌跡提取。以KLT與STIP為代表的前一種方法產(chǎn)生的軌跡數(shù)量較少,在行為描述時不能夠很好地對交互行為進行表征,同時KLT軌跡提取法包含了相當數(shù)量的噪聲,表現(xiàn)為許多不相關軌跡。而稠密采樣能夠產(chǎn)生足夠多的行為空間描述,并且由于限制了軌跡提取階段,因此無需規(guī)定軌跡長度就能夠避免由于長時跟蹤造成的軌跡漂移現(xiàn)象。本文采用Wang[12]等人的方法提取稠密軌跡。

      傳統(tǒng)的通過軌跡識別交互行為是通過運動描述符與詞袋模型結合的策略實現(xiàn)的。通過K-means聚類產(chǎn)生的視覺碼本會損失諸如空間信息等大量重要信息,對于不同種類的交互行為K值也難以確定。而在提取的軌跡中,并非所有的軌跡都是描述交互行為所必要的,一些無關軌跡會對生成視覺碼本產(chǎn)生影響。

      由于以上諸多不足,本文提出了一種新的思路來識別交互行為。首先對提取的稠密軌跡聚類。通過時空軌跡聚類,能夠提取時空軌跡數(shù)據(jù)的相似與異常,將具有相似行為的時空對象劃分到一起,將具有相異行為的時空對象劃分開來。Thomas Brox[13]等人在通過點軌跡分析進行目標分割時,提出了一種軌跡聚類方法:先定義一個親和矩陣,再利用譜聚類實現(xiàn)軌跡聚類。他們的思想是為同時運動的點賦予較高的親和度,并同時考慮點之間的距離信息??紤]兩條軌跡A和B,定義某一時刻它們之間的距離:

      dsp(A,B)表示共同時間窗口下A與B的平均空間歐氏距離。與空間距離相乘能夠保證相近的點能夠產(chǎn)生高親和度。ut:=xt+5-xt與vt:=yt+5-yt可以對跨越多幀的點的運動進行更好的估計。之后再利用σt對這些距離進行標準化:

      使用標準指數(shù)函數(shù)將標準化后的距離d2(A,B)轉化成親和度:

      因此,整個視頻鏡頭會產(chǎn)生一個n×n的親和度矩陣W,n表示軌跡的數(shù)量。λ為一個固定尺度值,此處設為0.1。

      譜聚類的聚類策略是將點映射到特征空間,再使用傳統(tǒng)聚類算法進行聚類。利用圖形拉普拉斯算子特征分解獲得特征映射:特征向量v0,v1,...,vm與特征值λ1,λ2,...,λm

      一一對應。最后通過求取包含空間規(guī)則項的能量函數(shù)(energy function)的最小值進行聚類判斷:

      其中N(a)表示基于軌跡平均空間距離的一組臨近軌跡,va表示m個特征向量中的第a個特征向量,μk表示聚類k的中心。述符和時間情境描述符。

      空間情境描述符分為S-CoHOG,S-CoHOF與S -CoMBH。S-CoHOG將成對的方向梯度作為一個單元,利用共現(xiàn)矩陣表示圖像,它能夠描述原始圖像結構。S-CoHOF將成對的光流方向作為單元,它能夠描述運動結構。S-CoMBH將水平和豎直方向的成對的光流梯度作為單元,它能夠捕捉光流的梯度結構。

      2 基于稠密軌跡的特征描述符

      依照文獻[6]的方法,以軌跡的每個點為中心,沿著軌跡取塊,大小為N×N×L,對視頻塊進行網(wǎng)格劃分,分為nσ×nσ×nτ個網(wǎng)格,再對每個網(wǎng)格進行特征提取,如圖3所示。由于視頻中的像素點并不是孤立的,對一個像素前后時空區(qū)域的聯(lián)合編碼會取得更好的表征效果,故本文選取時空共現(xiàn)情景描述符對稠密軌跡進行描述。

      空間共現(xiàn)方向梯度直方圖(CoHOG)最早由Tomoki Watanabe等人[14]提出用作行人檢測。Peng等人[15]擴展了時空情境描述符CoHOF與CoMBH進行行為特征描述。以上描述符可以分為空間情境描

      圖3 稠密軌跡描述符的提取

      時間情境描述符分為T-CoHOG、T-CoHOF與T-CoMBH。由圖4可知,獲得時間共現(xiàn)描述符的基本單元至少需要3幀圖像。T-CoHOG能夠描述隨著時間變化外觀的改變。類似地,T-CoHOF描述隨著時間變化的運動方向改變,T-CoMBH能夠提取時間變化造成的光流梯度方向的改變。

      圖4 時間共現(xiàn)描述符

      除了時空情境描述符,每條軌跡也能夠提取出一個軌跡特征向量S',對局部動作模式進行編碼有:

      綜上,一個視頻可以由若干簇聚類后的軌跡進行表示,而這些軌跡能夠通過聯(lián)合時空情境描述符與軌跡特征進行表示。

      3 多示例學習

      傳統(tǒng)軌跡法用作交互行為識別時的一般策略是使用運動描述符與詞袋模型結合[12],例如,在基于軌跡的交互行為識別方法中,先計算每條軌跡的HOG、HOF以及MBH,再對訓練集中所有的描述符使用K-means聚類,產(chǎn)生視覺碼本。將視頻序列中所有的特征根據(jù)歐氏距離映射到碼本中離其最近的碼字,每個視頻就可以使用一個標準化的特征向量來表示。最后使用標準支持向量機進行分類。但該模型存在不少缺陷:詞袋模型在復雜場景下表現(xiàn)欠佳,K-means聚類魯棒性較低,受聚類數(shù)據(jù)量以及數(shù)據(jù)輸入順序等因素影響較大,K值難以確定,碼本大小也難以確定。因此,本文選取多示例學習作為分類方法。

      在多示例學習問題中,每個包里的示例是沒有標簽的,但每個包均有標簽,其訓練集是由多個示例構成的包。在多示例學習模型中,未知包的標記依賴于某個中間函數(shù),該函數(shù)以包中各個示例為自變量,通過計算取各個示例的最大輸出值來決定標記的屬性[16]。其中每個負包中的示例都為負示例,正包中至少存在一個正示例。本文將視頻序列看作包,將軌跡聚類的各個區(qū)域看作示例。但由于訓練集中部分不同交互行為具有較高的相似度,如推人(PUSH)和拳擊(PUNCH),這樣會導致負包中并不全是負示例而造成誤判。

      因此,本文選取MILES(植入示例選擇)作為分類算法。作為對DD-SVM算法的改進,MILES并沒有強制要求負包中的示例全為負示例。因此相比于其他多示例學習算法,MILES更加適用于計算機視覺領域的分類,分類準確率與計算效率更高,對標簽不確定性的魯棒性也更好。該算法先將訓練包中所有示例組成示例空間,再通過簡單的映射將所有包都投影到示例空間中。所有的示例組成一個集合{x1,x2,...,xn},n表示訓練包中示例的總數(shù)。對于某一個包Bi,定義映射如下:

      計算s(xk,Bi)時,只需選取Bi中與示例xi最接近的一個示例作為Bi與xi的相似概率:

      其中,σ為預設的尺度參數(shù)。

      因此整個訓練集的包全部可以通過該映射形成如下映射矩陣:

      該矩陣的每一個列向量都代表一個包中的特征。采用1范數(shù)支持向量機在特征空間中訓練分類器,能夠有效地抵制標簽噪聲。完成訓練后,通過支撐向量可以將對應的特征從特征空間中挑選出來。

      4 實驗結果與分析

      對交互行為數(shù)據(jù)集UT-Interaction與WEB-Interaction[17]進行了識別效果的測試。如圖5所示,其中UT-Interaction數(shù)據(jù)集包含了6種不同行為的交互視頻,分別是握手、擁抱、踢人、指人、推人、拳擊,共120個,視頻背景相對單一。該數(shù)據(jù)集分為SET1、SET2兩個子數(shù)據(jù)集。子數(shù)據(jù)集視頻平均長度在4 s左右。WEB Interaction數(shù)據(jù)集源自新聞、在線監(jiān)控視頻、社交網(wǎng)絡等媒體,更多地貼近現(xiàn)實場景,背景雜亂,視角多變,部分視頻還包含了商業(yè)標識或新聞評論,交互行為共有追逐、交換物品、握手、擊掌、搶奪等9種,每一類行為有50個視頻,共450個,視頻平均長度在5 s左右。實驗環(huán)境為2.5GHz Intel Core i5處理器、4G RAM筆記本電腦。

      圖5 UT-Interaction數(shù)據(jù)集與WEB-Interaction數(shù)據(jù)集

      4.1評估空間金字塔對識別準確率的影響

      就空間金字塔對識別準確率的影響進行了實驗。參數(shù)選取文獻[6]中的默認值,即N=32,nσ= 2,nτ=3,軌跡長度L=15,稠密采樣步長W=5。改變金字塔層數(shù),分別取金字塔1~5層提取稠密軌跡,并對每一層提取的軌跡進行聚類,提取并融合特征后利用多示例學習MILES算法進行分類。需要注意,由于WEB-Interaction數(shù)據(jù)集視角變化,背景雜亂,本文第二部分所述方法難以提取交互階段,故此處對完整視頻提取空間金字塔稠密軌跡。實驗結果如圖6所示。

      圖6 空間金字塔層數(shù)對識別準確率的影響

      實驗結果表明,對空間金字塔多層進行稠密軌跡提取相比于單層視頻稠密軌跡提取識別準確率有著明顯提高,尤其當空間金字塔取兩層時,最終識別率相比于單層增加明顯。并且隨著層數(shù)增加,視頻幀由粗到細的分析更加精確,更能夠良好描述交互動作定位與交互動作細節(jié),但同時也伴隨著計算成本的增加。根據(jù)實驗結果進行權衡,本文在后續(xù)實驗取金字塔層數(shù)為兩層。

      4.2UT-Interaction數(shù)據(jù)集測試

      在UT-Interaction數(shù)據(jù)集上對本文方法進行了測試,其中空間金字塔取兩層。實驗結果可以表示為圖7中的混淆矩陣,圖7(a)、圖7(b)分別表示SET1與SET2的識別結果。

      由圖7可以看出,本文方法對“擁抱”、“踢人”以及“推人”3種交互行為識別率較高,“握手”與“拳擊”由于交互區(qū)域較小,視頻動作歧義性會比另外幾種動作高,識別率會相對偏低,但本文方法的平均識別率也在85%以上。“指人”是該數(shù)據(jù)集中比較特殊的行為,交互雙方只有一個人執(zhí)行動作,屬于不對稱交互行為的一種,但本文方法依然適用,識別率在90%以上。由于SET2子數(shù)據(jù)集存在鏡頭晃動與背景雜亂等干擾因素,SET2在“握手”與“推人”行為識別上識別率要略低于SET1。

      圖7 數(shù)據(jù)集混合矩陣

      本文還將各類交互行為識別率與前人研究方法進行對比,結果如表1所示。其中Ryoo等人使用動態(tài)詞包模型,將人體行為的序列特性進行特征編碼;Patron-Perez等人選取頭部方向與它周圍的時空特征作為特征描述符,運用結構化輸出SVM分類行為;Kong等人使用交互短語對行為進行語義描述;Vahdat采用關鍵姿勢序列模型分類交互行為;Yang等人則采用基于群體稀疏性優(yōu)化的特征選擇模型來識別交互行為。實驗結果表明本文方法不僅對視覺特征明顯的行為如“擁抱”“踢人”識別率很高,對行為歧義性較大的“拳擊”與“推人”的識別準確率也高于前人方法5%到10%。但本文方法對握手的識別率并沒有達到預期水平,略低于前人研究結果。原因主要是交互興趣區(qū)域過小,交互時間過短,所提取的稠密軌跡難以準確表征交互行為,由此造成誤判。因此該行為的識別也一直是交互行為識別的難點。最終的平均準確率為92.5%,略低于Yang等人的方法,但文獻[11]所用方法模型較為復雜,其較高的識別率需要建立在良好的檢測跟蹤效果之上,因此該方法對復雜背景、視角變換情境下的交互行為識別效果較低,相比之下,本文所采用的稠密軌跡法不需要對交互者進行檢測跟蹤,對復雜環(huán)境下的交互行為識別適應性更強。故本文方法在一定程度上仍具有優(yōu)越性。

      表2為子數(shù)據(jù)集SET1、SET2上識別準確率的對比,結果表明,本文方法在復雜度更低普適度更高的情況下,識別表現(xiàn)僅僅略低于Yang等人的方法,而比其余前人方法更優(yōu)。

      表1 多種方法各類準確率對比 /%

      表2 子數(shù)據(jù)集上識別準確率對比 /%

      4.3WEB-Interaction數(shù)據(jù)集測試

      由于WEB-Interaction數(shù)據(jù)集較新,對該數(shù)據(jù)集測試的已有文獻較少,本文分別利用傳統(tǒng)軌跡法與時空興趣點法與本文方法作對比。其中傳統(tǒng)軌跡法使用DT提取稠密軌跡,計算軌跡的MBH特征,時空興趣點法使用Harris3D算子提取時空興趣點,計算時空興趣點的HOG/HOF特征。以上兩種方法均使用詞袋模型,通過K-Means聚類,詞典大小設為500,最后使用標準SVM進行分類。

      由圖8可知,在更貼近現(xiàn)實的WEB-Interaction數(shù)據(jù)集上,本文方法要明顯優(yōu)于傳統(tǒng)軌跡法與時空興趣點法。在追逐(Chase)、握手(Handshake)、擁抱(Hug)、接吻(Kiss)、拍打(Pat)行為上表現(xiàn)要高于另外兩種方法,而對其他行為的識別率也與另外兩種方法持平或略低。本文方法的平均識別率(47. 27%)也明顯高于傳統(tǒng)軌跡法(39.9%)與時空興趣點法(39.73%),證明了本文方法在復雜場景下相比前人方法也有了更高的識別率。而文獻[17]中提及的最高識別率為44.2%,平均識別率為38%,本文方法也要明顯高于該識別率。

      圖8 WEB-Interaction數(shù)據(jù)集上3種方法識別準確率對比

      5 結 論

      針對傳統(tǒng)軌跡法在交互行為識別上存在的無關軌跡多、分類算法粗糙等問題,提出了一種基于空間金字塔的稠密軌跡聚類的方法來識別人體交互行為。首先從視頻中提取交互階段以降低計算成本,再通過對多分辨率視頻稠密軌跡提取與聚類,得到具有較好的行為描述度的聚類軌跡區(qū)域。本文采用的時空情境描述符CoHOG、CoHOF與CoMBH相比于傳統(tǒng)HOG、HOF與MBH描述符能夠更好地表征交互行為。最后選取多示例學習MILES算法進行分類,該算法訓練速度較快,分類精度高于傳統(tǒng)詞袋模型。在UT-Interaction數(shù)據(jù)集與WEB-Interaction數(shù)據(jù)集上的測試證明了本文方法的有效性。

      參考文獻:

      [1]Laptev I.On Space-Time Interest Points[J].International Journal of Computer Vision,2005,64(2-3):432-439.

      [2]Dollar P,Rabaud V,Cottrell G,et al.Behavior recognition via sparse spatio-temporal features[C]//2005 IEEE International Workshop on Visual Surveillance and Performance Evaluation of Tracking and Surveillance.IEEE Computer Society,2005:65-72.

      [3]Messing R,Pal C,Kautz H.Activity recognition using the velocity histories of tracked keypoints.In:IEEE ICCV[C]//Proceedings IEEE International Conference on Computer Vision.IEEE International Conference on Computer Vision,2009:104-111.

      [4]Matikainen P,Hebertm,Sukthankar R.Trajectons:Action Recognition Through themotion Analysis of Tracked Features[C]// Computer Vision Workshops(ICCV Workshops).2009 IEEE 12th International Conference on.IEEE,2009:514-521.

      [5]Sun J,Wu X,Yan S,et al.Hierarchical spatio-temporal contextmodeling for action recognition.[C]//Proceedings CVPR,IEEE Computer Society Conference on Computer Vision and Pattern Recognition.IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2009:2004-2011.

      [6]Wang H,Klaser A,Schmid C,et al.Action recognition by dense trajectories[C]//Proceedings of the 2011 IEEE Conference on Computer Vision and Pattern Recognition.IEEE Computer Society,2011:3169-3176.

      [7]Wang H,Kl?ser A,Schmid C,et al.Dense Trajectories andmotion Boundary Descriptors for Action Recognition[J].International Journal of Computer Vision,2013,103(1):60-79.

      [8]Vrigkasm,Karavasilis V,Nikou C,et al.Matchingmixtures of curves for human action recognition[J].Computer Vision&Image Understanding,2014,119(2):27-40.

      [9]Hao Z,Zhang Q,Ezquierdo E,et al.Human action recognition by fast dense trajectories[C]//Proceedings of the 21st ACM international conference onmultimedia.ACM,2013:377-380.

      [10]Beaudry C,Peteri R,Mascarilla L.Action Recognition In Videos Using Frequency Analysis Of Critical Point Trajectories[C]// Image Processing(ICIP),2014 IEEE International Conference on.IEEE,2014:1445-1449.

      [11]Yang L,Gao C,Meng D,et al.A Novel Group-Sparsity-Optimization-Based Feature Selectionmodel for Complex Interaction Recognition[M]//Computer Vision--ACCV 2014.Springer International Publishing,2015:508-521.

      [12]Wang H,Kl?ser A,Schmid C,et al.Dense Trajectories andmotion Boundary Descriptors for Action Recognition[J].International Journal of Computer Vision,2013,103(1):60-79.

      [13]Brox T,Malik J.Object segmentation by long term analysis of point trajectories[C]//In Proc.European Conference on Computer Vision,2010:282-295.

      [14]Watanabe T,Ito S,Yokoi K.Co-occurrence Histograms of Oriented Gradients for Pedestrian Detection[M]//Advances in Image and Video Technology.Springer Berlin Heidelberg,2009:37-47.

      [15]Peng X,Qiao Y,Peng Q,et al.Exploringmotion Boundary based Sampling and Spatial-Temporal Context Descriptors for Action Recognition[C]//Britishmachine Vision Conference,2013.

      [16]Sener F,Ikizler-Cinbis N.Two-Person Interaction Recognition via Spatialmultiple Instance Embedding[J].Journal of Visual Communication&Image Representation.,2015(32):63-73.

      [17]Gao C,Yang L,Du Y,et al.From constrained to unconstrained datasets:an evaluation of local action descriptors and fusion strategies for interaction recognition[J].World Wide Web-internet&Web Information Systems,2015:1-12.

      [18]Ryoom S.Human Activity Prediction:Early Recognition of Ongoing Activities from Streaming Videos[J].Proceedings,2011,24 (4):1036-1043.

      [19]Alonso P P,Marcinm,Ian R,et al.Structured Learning of Human Interactions in TV Shows[J].IEEE Transactions on Software Engineering,2012,34(12):2441-2453.

      [20]Kong Y,Jia Y,F(xiàn)u Y.Interactive Phrases:Semantic Descriptionsfor Human Interaction Recognition[J].Pattern Analysis&Machine Intelligence IEEE Transactions on,2014,36(9):1775-1788.

      [21]Vahdat A,Gao B,Ranjbarm,et al.A discriminative key pose sequencemodel for recognizing human interactions[C]//Computer Vision Workshops(ICCV Workshops),2011 IEEE International Conference on.IEEE,2011:1729-1736.

      收稿日期:(2016-03-02)

      作者簡介:周思超(1991-),男,在讀碩士研究生,主研方向:圖像處理與模式識別,Email:zhousc91@163.com。

      湘乡市| 宜章县| 肇州县| 九江市| 凌云县| 定日县| 安溪县| 疏勒县| 东兴市| 长子县| 聂拉木县| 青铜峡市| 都匀市| 从江县| 金沙县| 江华| 莫力| 南华县| 四平市| 乌兰察布市| 连州市| 德兴市| 兰西县| 新平| 通州市| 望谟县| 盐边县| 太仆寺旗| 安化县| 高要市| 仁布县| 龙里县| 岳普湖县| 启东市| 金塔县| 太谷县| 长泰县| 道孚县| 韩城市| 奎屯市| 台北县|