姚 湘,徐平平,王華君
(1. 無錫太湖學院 工學院,江蘇 無錫 214064;2. 東南大學 信息科學與工程學院,江蘇 南京 211189)
基于非線性知識遷移的交叉視角動作識別
姚 湘1,徐平平2,王華君1
(1. 無錫太湖學院 工學院,江蘇 無錫 214064;2. 東南大學 信息科學與工程學院,江蘇 南京 211189)
針對一般基于知識遷移的方法對未知視角不可用和難以擴展新數(shù)據(jù)的問題,提出一種基于非線性模型的無監(jiān)督學習方法,即基于非線性知識遷移(nonlinear knowledge shift,NKS)的串聯(lián)特征學習。提取密集動作軌跡,并利用通用碼書編碼;提取動作捕捉數(shù)據(jù)模擬點的密集軌跡,產(chǎn)生一個仿真數(shù)據(jù)的大型語料庫來學習NKS,其中,軌跡提取前在視角方向上投影模擬點;再從真實視頻中提取軌跡,用于訓練和測試表示學習過程的軌跡,利用多類支持向量機分類串聯(lián)特征。在兩大通用人體動作識別數(shù)據(jù)庫IXMAS和3D(N-UCLA)上驗證了該方法的有效性,實驗結(jié)果表明,在IXMAS數(shù)據(jù)集、不同攝像機情況下,該方法的識別精度高于同類方法至少3.5%,在3D(N-NCLA)數(shù)據(jù)集、雙攝像頭情況下,識別精度至少提高4.4%。在大部分動作識別中也取得最佳識別率,此外,該方法的訓練時間可忽略不計,有望應(yīng)用于在線人體動作識別系統(tǒng)。
非線性知識遷移;多類支持向量機;動作識別;無監(jiān)督學習;串聯(lián)特征
視頻動作識別[1]是人機交互、智能監(jiān)控和視頻檢索應(yīng)用中的重要研究課題,大多固定視點[1-2]的動作識別方法都能有效地識別共同視點的動作,但當視角變化時,其性能顯著下降,這是由于當從不同視點觀察時,相同動作表現(xiàn)非常不同[3-4]。如何解決不同視點下的動作識別是該領(lǐng)域的研究熱點和最大挑戰(zhàn)。
實用的動作識別系統(tǒng)應(yīng)