李俊龍,章登義,黃 珺
(武漢大學(xué)a.計(jì)算機(jī)學(xué)院;b.測(cè)繪遙感信息工程國(guó)家重點(diǎn)實(shí)驗(yàn)室,武漢430079)
Kinect驅(qū)動(dòng)的人臉動(dòng)畫合成技術(shù)研究
李俊龍a,章登義a,黃 珺b
(武漢大學(xué)a.計(jì)算機(jī)學(xué)院;b.測(cè)繪遙感信息工程國(guó)家重點(diǎn)實(shí)驗(yàn)室,武漢430079)
三維人臉動(dòng)畫合成技術(shù)可以應(yīng)用于虛擬現(xiàn)實(shí)、角色控制等多個(gè)領(lǐng)域。為此,提出一種基于Kinect的人臉動(dòng)畫合成方法。人臉跟蹤客戶端利用Kinect對(duì)用戶的臉部表情進(jìn)行跟蹤識(shí)別,得到人臉表情動(dòng)畫參數(shù),通過(guò)socket發(fā)送給人臉動(dòng)畫合成服務(wù)器,由人臉動(dòng)畫合成服務(wù)器查找基于MPEG-4標(biāo)準(zhǔn)的人臉動(dòng)畫定義表,控制人臉模型的變形,從而實(shí)時(shí)合成與用戶表情相對(duì)應(yīng)的三維人臉動(dòng)畫。實(shí)驗(yàn)結(jié)果表明,該方法能夠在滿足實(shí)時(shí)性要求的條件下合成高質(zhì)量的三維人臉動(dòng)畫,同現(xiàn)有技術(shù)相比,結(jié)構(gòu)簡(jiǎn)單、容易部署且具有較好的可擴(kuò)展性。
Kinect驅(qū)動(dòng);人臉跟蹤;人臉動(dòng)畫;合成;MPEG-4標(biāo)準(zhǔn)
具有真實(shí)感的三維人臉動(dòng)畫合成技術(shù)是計(jì)算機(jī)圖形學(xué)領(lǐng)域研究的重要問(wèn)題,準(zhǔn)確而高效的人臉動(dòng)畫合成廣泛地應(yīng)用于諸如電影制作、游戲娛樂(lè)和醫(yī)療研究等多種領(lǐng)域。通用的人臉動(dòng)畫合成方法是先建立人臉模型,然后基于人臉模型進(jìn)行動(dòng)畫合成控制,最流行的動(dòng)畫合成控制方式是基于表演驅(qū)動(dòng)的方法[1]。這種方法通過(guò)對(duì)真人的臉部表情進(jìn)行捕捉,驅(qū)動(dòng)人臉模型產(chǎn)生相應(yīng)的臉部表情。傳統(tǒng)的人臉表情跟蹤技術(shù)是基于人臉特征點(diǎn)標(biāo)記的技術(shù)[2],這種方法精度較好,但是設(shè)備一般比較昂貴,并且需要復(fù)雜的操作;目前采用較多的是基于視頻處理的技術(shù)[3],這種方法不需要對(duì)人臉進(jìn)行標(biāo)記,但是需要每個(gè)用戶在使用前進(jìn)行校準(zhǔn),且僅利用2D圖像數(shù)據(jù)對(duì)人臉模型進(jìn)行匹配,容易受到光照變化的影響,需要針對(duì)光照條件進(jìn)行特殊處理。
Kinect是微軟在2010年推出的體感游戲設(shè)備,它既能夠獲取彩色圖像數(shù)據(jù),也能獲取較為精確的深度數(shù)據(jù),為人臉表情跟蹤提供了新的方法。文獻(xiàn)[4]提出了利用Kinect進(jìn)行實(shí)時(shí)人臉動(dòng)畫合成的方法,該方法主要利用深度數(shù)據(jù)進(jìn)行人臉模型匹配,具有較好的魯棒性和有效性,缺點(diǎn)是在新用戶使用時(shí)要對(duì)用戶的特定模型進(jìn)行手動(dòng)校正和參數(shù)設(shè)置,
文獻(xiàn)[5]對(duì)此進(jìn)行了改進(jìn),不需要手動(dòng)設(shè)置過(guò)程,但這些方法采用的動(dòng)畫合成方式均為關(guān)鍵臉部表情融合法,這種方法實(shí)現(xiàn)起來(lái)較為復(fù)雜且非常耗時(shí)[6]。
本文提出利用Kinect進(jìn)行人臉動(dòng)畫合成的方法,不需要針對(duì)特定用戶進(jìn)行校準(zhǔn)設(shè)置[7],采用符合MPEG-4人臉動(dòng)畫標(biāo)準(zhǔn)的參數(shù)驅(qū)動(dòng)法以及客戶-服務(wù)器系統(tǒng)模式。
如圖1所示,Kinect驅(qū)動(dòng)的人臉動(dòng)畫合成系統(tǒng)采用客戶端-服務(wù)器模型,分為2個(gè)部分:
(1)人臉表情捕獲客戶端通過(guò)Kinect獲取RGB圖像和深度圖像,再利用Kinect SDK對(duì)圖像中的人臉進(jìn)行跟蹤,識(shí)別用戶臉部表情信息,得到臉部表情動(dòng)畫參數(shù),通過(guò)socket發(fā)送給人臉動(dòng)畫合成端。
(2)人臉動(dòng)畫合成服務(wù)器端對(duì)指定網(wǎng)絡(luò)端口進(jìn)行監(jiān)聽(tīng),一旦有客戶端建立連接,就接收數(shù)據(jù),然后根據(jù)MPEG-4人臉動(dòng)畫標(biāo)準(zhǔn),控制三維人臉模型產(chǎn)生變形從而實(shí)時(shí)合成相應(yīng)的人臉動(dòng)畫,再利用OpenGL進(jìn)行渲染。
圖1 人臉動(dòng)畫合成系統(tǒng)流程
選擇客戶端-服務(wù)器模型不僅可以降低系統(tǒng)耦合性使系統(tǒng)的實(shí)現(xiàn)更為簡(jiǎn)單,而且能夠?qū)崿F(xiàn)平臺(tái)的獨(dú)立性,更重要的是能夠使系統(tǒng)具有可擴(kuò)展性。由于本系統(tǒng)采用的是基于MPEG-4人臉動(dòng)畫標(biāo)準(zhǔn)的動(dòng)畫合成技術(shù),因此,人臉動(dòng)畫合成端只要符合這一標(biāo)準(zhǔn),都可以進(jìn)行人臉動(dòng)畫的合成,它并不一定必須是PC程序,可以是Android APP[8],甚至是支持WebGL的瀏覽器[9]。
Kinect能夠采集RGB彩色圖像和深度數(shù)據(jù),彩色圖像最大支持1 280×960像素分辨率,深度圖像最大支持640×480像素分辨率。本文利用Kinect獲取用戶的人臉部表情參數(shù),其流程如下:
(1)初始化Kinect參數(shù)并啟動(dòng)Kinect設(shè)備。如果采用1 280×960像素分辨率采集RGB圖像,則 Kinect本身的幀率降至10 f/s,并且在人臉跟蹤環(huán)節(jié)消耗更多CPU時(shí)間,無(wú)法達(dá)到實(shí)時(shí)性要求,因此,初始化設(shè)置Kinect以較低的640×480像素分辨率進(jìn)行圖像獲取;
(2)獲取Kinect拍攝的RGB圖像和深度圖像;
(3)判斷上一幀是否成功捕獲人臉,如果否則轉(zhuǎn)到步驟(4),如果是則轉(zhuǎn)到步驟(5);
(4)調(diào)用Kinect SDK中IFTFaceTracker類對(duì)象中的StartTracking方法在RGB圖像中進(jìn)行人臉跟蹤,這一方法耗費(fèi)較多CPU資源,因?yàn)樵谄鋬?nèi)部實(shí)現(xiàn)中要對(duì)整幅圖像進(jìn)行人臉?biāo)阉骱推ヅ?完成后轉(zhuǎn)到步驟(6);
(5)調(diào)用IFTFaceTracker類對(duì)象的Continue Tracking方法進(jìn)行人臉跟蹤,這一方法需要用到上一幀人臉跟蹤的結(jié)果,但是消耗的CPU資源相對(duì)較少,完成后轉(zhuǎn)到步驟(6);
(6)得到人臉跟蹤的結(jié)果并輸出,轉(zhuǎn)到步驟(2)。
整個(gè)流程如圖2所示。
圖2 Kinect人臉表情捕獲流程
Kinect SDK人臉跟蹤核心算法首先使用主動(dòng)外觀模型(Active Appearance Model,AAM)算法[9]作為二維人臉跟蹤器,在RGB圖像上識(shí)別人臉?biāo)诘奈恢?然后將計(jì)算模型擴(kuò)展到深度數(shù)據(jù)上,利用改進(jìn)的極大相似度可變模型適配算法[7],進(jìn)行三維人臉跟蹤。
通過(guò)跟蹤能夠獲取一個(gè)基于Candide-3模型[11]的參數(shù)化人臉網(wǎng)絡(luò)、11個(gè)臉部形狀單元(Shape
Unit,SU)、6個(gè)臉部動(dòng)畫單元(Animation Unit,AU)和3個(gè)人臉朝向的角度[12],如圖3和圖4所示。SU描述的是臉部的個(gè)性化特征信息,比如嘴的寬度、下巴的寬度、眼睛的寬度以及兩眼之間的距離等。而AU是對(duì)用戶臉部關(guān)鍵部位動(dòng)作的描述,取值范圍是-1~1,通過(guò)指定不同值的組合,可以構(gòu)造不同的人臉表情動(dòng)畫。人臉朝向角度取值范圍是-180°~180°。
圖3 捕獲的3個(gè)人臉朝向角度示意圖
圖4 Kinect人臉捕獲得到的6個(gè)AU
得到人臉表情參數(shù)后,客戶端通過(guò)socket將所獲取到的人臉表情參數(shù)發(fā)送給人臉動(dòng)畫合成服務(wù)器端,由服務(wù)器端完成三維人臉動(dòng)畫的合成與渲染。
4.1 MPEG-4人臉動(dòng)畫標(biāo)準(zhǔn)
人臉是人最重要的外部特征,在通信交流過(guò)程中起著重要的作用。MPEG-4對(duì)三維人臉動(dòng)畫定義了一個(gè)國(guó)際標(biāo)準(zhǔn)[13]。該標(biāo)準(zhǔn)定義了人臉定義參數(shù)(Facial Definition Parameter,FDP)和人臉動(dòng)畫參數(shù)(Facial Animation Parameter,FAP),并提供了一套以FDP和FAP為參數(shù)的人臉動(dòng)畫實(shí)現(xiàn)框架。這種方法通用性強(qiáng),數(shù)據(jù)量小,運(yùn)算復(fù)雜度低,在人臉動(dòng)畫領(lǐng)域得到廣泛的應(yīng)用。在MPEG-4人臉動(dòng)畫標(biāo)準(zhǔn)中,實(shí)現(xiàn)人臉動(dòng)畫的核心是人臉動(dòng)畫定義表,它定義了利用FAP對(duì)人臉網(wǎng)格進(jìn)行變形控制的方式和參數(shù)[14]。
4.2 3D人臉模型
要合成3D人臉動(dòng)畫,首先要建立一個(gè)靜態(tài)的3D人臉模型。為了有效地與MPEG-4人臉動(dòng)畫標(biāo)準(zhǔn)相結(jié)合,并且使得人臉動(dòng)畫合成盡可能簡(jiǎn)單,本文采用專業(yè)人臉建模軟件FaceGen生成精細(xì)的3D人臉模型,如圖5所示。模型由3個(gè)部分組成:(1)內(nèi)部由7 895個(gè)頂點(diǎn)和7 684個(gè)多邊形組成的3D人臉網(wǎng)格;(2)最外層的皮膚紋理;(3)其他附屬部分紋理,如頭發(fā)、眼睛、舌頭和牙齒。
圖5 3D人臉模型的組成
4.3 人臉動(dòng)畫定義表的建立
通過(guò)Kinect所獲取的人臉表情動(dòng)作參數(shù)是基于Candide-3模型的AU,而Candide-3模型與MPEG-4人臉動(dòng)畫標(biāo)準(zhǔn)兼容[11],因此,本文的人臉動(dòng)畫合成采用基于MPEG-4人臉動(dòng)畫原理實(shí)現(xiàn)的AU驅(qū)動(dòng)的人臉動(dòng)畫合成方法,構(gòu)造人臉動(dòng)畫定義表是動(dòng)畫合成的關(guān)鍵。
對(duì)于每一個(gè)AU,人臉動(dòng)畫定義表定義:(1)AU控制哪些人臉特征點(diǎn);(2)AU對(duì)特征點(diǎn)的影響因子是多少;(3)該特征點(diǎn)會(huì)對(duì)周圍哪些網(wǎng)格頂點(diǎn)產(chǎn)生影響。以AU0為例,AU0指示的是上嘴唇提升的程度,取值范圍從-1~1。AU0對(duì)MPEG-4人臉動(dòng)畫模型中編號(hào)為8.1,8.5,8.6,2.2,2.7,2.6的6個(gè)特征點(diǎn)產(chǎn)生影響,如圖6(a)所示,分別定義AU0對(duì)這幾個(gè)特征點(diǎn)產(chǎn)生影響的影響因子。再以編號(hào)為8.1的特征點(diǎn)為例:(1)指定特征點(diǎn)在人臉網(wǎng)格上的位置;(2)指定這一特征點(diǎn)周圍受影響的其他網(wǎng)格頂點(diǎn),如圖6(b)所示。其他特征點(diǎn)依次進(jìn)行設(shè)置,設(shè)置完成后進(jìn)行預(yù)覽測(cè)試并調(diào)整。
圖6 人臉動(dòng)畫定義表的建立
用類似方法可以定義其他AU對(duì)人臉模型產(chǎn)生的影響,從而構(gòu)建人臉動(dòng)畫定義表。
4.4 人臉動(dòng)畫的合成
人臉動(dòng)畫合成服務(wù)器端有2個(gè)工作線程,一個(gè)server線程負(fù)責(zé)監(jiān)聽(tīng)指定端口,接收數(shù)據(jù),另一個(gè)render線程負(fù)責(zé)進(jìn)行人臉動(dòng)畫合成和渲染??蛻舳藦腒inect捕獲的人臉表情參數(shù)以動(dòng)畫幀的形式不斷地傳送給服務(wù)器,每一幀包含一個(gè)人臉表情對(duì)應(yīng)的6個(gè)AU參數(shù)和3個(gè)人臉朝向的角度。當(dāng)server線程接收到一幀數(shù)據(jù)時(shí),將數(shù)據(jù)交給render線程,render線程對(duì)這一幀的每一個(gè)AU依次進(jìn)行處理,查找人臉動(dòng)畫定義表,對(duì)受AU影響的模型上的頂點(diǎn)及其影響區(qū)域內(nèi)的其他點(diǎn)的新位置進(jìn)行計(jì)算,從而獲得與該表情動(dòng)作對(duì)應(yīng)的模型新結(jié)構(gòu)。
特征點(diǎn)及其影響區(qū)域內(nèi)其他點(diǎn)的移動(dòng)用升余弦函數(shù)(Raised Cos Function)進(jìn)行計(jì)算,如下式所示。
其中,Δvp代表特征點(diǎn)影響區(qū)域內(nèi)的點(diǎn)p需要在AU運(yùn)動(dòng)方向上移動(dòng)的歐拉距離;dp代表點(diǎn)p到特征點(diǎn)的距離;dmax代表特征點(diǎn)影響區(qū)域內(nèi)的最遠(yuǎn)點(diǎn)到特征點(diǎn)的距離;ω代表特征點(diǎn)受AU影響的影響因子;au代表AU的值。每一組網(wǎng)格頂點(diǎn)的運(yùn)動(dòng)方向與該AU的運(yùn)動(dòng)方向相同。
利用模型的三角網(wǎng)格結(jié)構(gòu)實(shí)現(xiàn)真實(shí)紋理的映射,最后將得到的3個(gè)人臉旋轉(zhuǎn)角度轉(zhuǎn)換成旋轉(zhuǎn)矩陣,從整體上對(duì)人臉模型的朝向進(jìn)行變換,再基于OpenGL進(jìn)行人臉模型的渲染,產(chǎn)生最終的人臉動(dòng)畫。
系統(tǒng)基于Kinect SDK 1.7用VS2010實(shí)現(xiàn),實(shí)驗(yàn)環(huán)境為intel i5 4570處理器,3.2 GHz主頻,4 GB內(nèi)存,Windows 7操作系統(tǒng)。
5.1 人臉朝向角度對(duì)人臉跟蹤的影響
Kinect SDK所使用的AAM算法對(duì)圖像中人臉的朝向角度有一定的要求,而且2個(gè)核心函數(shù)StartTracking和ContinueTracking受人臉朝向角度的影響也不同,人臉跟蹤是否成功對(duì)人臉動(dòng)畫產(chǎn)生較大影響。本文對(duì)人臉3個(gè)朝向角度對(duì)人臉跟蹤的影響進(jìn)行測(cè)試,得到如表1所示的數(shù)據(jù)。
表1 人臉朝向角度對(duì)2個(gè)核心跟蹤函數(shù)的影響
從表1可以看出,StartTracking函數(shù)對(duì)人臉角度要求較為嚴(yán)格,而ContinueTracking函數(shù)對(duì)人臉角度要求會(huì)寬松一些。因此,在人臉跟蹤開(kāi)始階段,應(yīng)盡量減小臉部朝向角度,即盡量正對(duì)Kinect,而在跟蹤進(jìn)行過(guò)程中,可以有較大臉部朝向角度的表情動(dòng)作。
5.2 人臉跟蹤對(duì)光照變化的適應(yīng)性
為了驗(yàn)證本系統(tǒng)對(duì)光照變化的適應(yīng)性,在不同光照條件下進(jìn)行了實(shí)驗(yàn),如圖7所示??梢钥闯?在不同的光照條件下,人臉跟蹤客戶端仍然能夠較好地對(duì)人臉進(jìn)行跟蹤和識(shí)別,獲取的人臉表情參數(shù)并沒(méi)有明顯的不同,對(duì)不同的光照條件具有較好的適應(yīng)性。
圖7 不同光照條件下的人臉跟蹤情況
5.3 人臉動(dòng)畫合成結(jié)果
圖8為頭部不同朝向角度下的人臉動(dòng)畫,圖9為表現(xiàn)憤怒表情和驚訝表情的人臉動(dòng)畫。
圖8 不同朝向角度下的人臉動(dòng)畫
圖9 表現(xiàn)憤怒表情和驚訝表情的人臉動(dòng)畫
實(shí)驗(yàn)表明,本文方法可以較好地對(duì)人臉表情進(jìn)行跟蹤并合成較高質(zhì)量的人臉動(dòng)畫,平均合成時(shí)間為每秒24幀,基本能夠達(dá)到實(shí)時(shí)性要求。系統(tǒng)的限制主要來(lái)源于人臉表情捕獲部分,因?yàn)镵inect是被設(shè)計(jì)用來(lái)捕獲人全身肢體的運(yùn)動(dòng),所獲取的圖像中臉部的大小約為160×160像素,因此,對(duì)臉部的細(xì)節(jié)和非常微小的動(dòng)作還無(wú)法有效地進(jìn)行捕捉。
本文對(duì)利用Kinect合成三維人臉動(dòng)畫的方法進(jìn)行研究。首先實(shí)現(xiàn)了基于Kinect的人臉表情動(dòng)作捕捉,其次實(shí)現(xiàn)了基于MPEG-4的三維人臉動(dòng)畫,最后通過(guò)實(shí)驗(yàn)對(duì)該方法進(jìn)行了驗(yàn)證。本文方法簡(jiǎn)單高效、實(shí)時(shí)性強(qiáng),容易部署且具有較好的可擴(kuò)展性,能夠應(yīng)用于虛擬現(xiàn)實(shí)、遠(yuǎn)程會(huì)議、游戲娛樂(lè)等多種領(lǐng)域。下一步將針對(duì)文獻(xiàn)[15]所述自動(dòng)化建立個(gè)性化人臉模型的過(guò)程進(jìn)行更深入的研究。
[1]徐先良,沈縈華,費(fèi)廣正,等.計(jì)算機(jī)人臉建模和動(dòng)畫技術(shù)綜述[J].北京廣播學(xué)院學(xué)報(bào):自然科學(xué)版,2006, 12(1):10-18.
[2]Le B H,ZhuMingyang,DengZhigang.Marker OptimizationforFacialMotionAcquisitionand Deformation[J].IEEE Transactions on Visualization and Computer Graphics,2013,19(11):1859-1871.
[3]Cao Chen,WengYanlin,LinS,etal.3DShape Regression for Real-time Facial Animation[J].ACM Transactions on Graphics,2013,32(4).
[4]Weise T,Bouaziz S,Li H,et al.Realtime Performancebased Facial Animation[J].ACM Transactions on Graphics,2011,30(4).
[5]Li Hao,Yu Jihun,Ye Yuting,et al.Realtime Facial Animation withOn-the-flyCorrectives[J].ACM Transactions on Graphics,2013,32(4).
[6]Li B,Zhang Q,Zhou D,et al.Facial Animation Based on Feature Points[J].Telkomnika Indonesian Journal of Electrical Engineering,2013,11(3):1697-1706.
[7]Cai Qin,Gallup D,Zhang Cha,et al.3d Deformable Face Tracking with a Commodity Depth Camera[C]// ProceedingsofEuropeanConferenceonComputer Vision.Berlin,Germany:Springer,2010:229-242.
[8]Lin H,Jia J,Wu X,et al.Talking Android:An Interactive, Multimodal and Real-time Talking Avatar Application on Mobile Phones[C]//Proceedings of Conference on Signal and Information Processing Association.Washington D.C., USA:IEEE Press,2013:1-4.
[9]Benin A,Cosi P,Leone G R.A webGL Talking Head for Mobile Devices[C]//Proceedings of International Working Conference on Advanced Visual Interfaces.New York,USA:ACM Press,2012:788-789.
[10]Zhou M,Liang L,Sun J,et al.AAM Based Face Tracking with Temporal Matching and Face Segmentation[C]// Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.Washington D.C.,USA:IEEE Press, 2010:701-708.
[11]Ahlberg J.Candide-3-anUpdatedParameterisedFace[EB/OL].(2001-01-12).http://www.icg.isy.liu.se.
[12]Zhang Zhengyou.MicrosoftKinectSensorandIts Effect[J].IEEE MultiMedia,2012,19(2):4-10.
[13]Nack F,Lindsay A T.Everything You Wanted to Know About MPEG-7.1[J].IEEE MultiMedia,1999,6(3): 65-77.
[14]Jiang Dalong,Li Zhiguo,Wang Zhaoqi,et al.Animating 3-D Facial Models with MPEG-4 Facedeftables[C]// Proceedings of the 35th Annual Simulation Symposium.Washington D.C.,USA:IEEE Press,2002:395-400.
[15]Hara T,Kubo H,Maejima A,et al.Fast-accurate 3D Face Model Generation Using a Single Video Camera[C]// Proceedings of the 21st International Conference on Pattern Recognition.Washington D.C.,USA:IEEE Press, 2012:1269-1272.
編輯 顧逸斐
Research on Synthesis Technology of Facial Animation Driven by Kinect
LI Junlonga,ZHANG Dengyia,HUANG Junb
(a.School of Computer;b.State Key Laboratory of Information Engineering in Surveying, Mapping and Remote Sensing,Wuhan University,Wuhan 430079,China)
The technique of 3D human facial animation can be applied in a wide range of fields such as virtual reality, avatar control and so on.This paper proposes a real-time facial animation system based on Kinect.In this system,facial expression parameters are inferred by facial tracking client with Kinect and sent to the facial animation synthesizing server through socket.The server looks up FaceDefTables based on MPEG-4 facial animation standard to control the morphing of 3D face model.3D facial animations which emulate expressions of the user are then generated in real time.Experimental results show that the method can rebuild quality realistic 3D facial animations in real time.Compared with existing technologies,this system with simple structure is easy to deploy and is also extendibility.
Kinect driven;facial tracking;facial animation;synthesis;MPEG-4 standard
李俊龍,章登義,黃 珺.Kinect驅(qū)動(dòng)的人臉動(dòng)畫合成技術(shù)研究[J].計(jì)算機(jī)工程,2015,41(3):237-241.
英文引用格式:Li Junlong,Zhang Dengyi,Huang Jun.Research on Synthesis Technology of Facial Animation Driven by Kinect[J].Computer Engineering,2015,41(3):237-241.
1000-3428(2015)03-0237-05
:A
:TP37
10.3969/j.issn.1000-3428.2015.03.044
教育部博士點(diǎn)基金資助項(xiàng)目(20120141120006);武漢科技計(jì)劃基金資助項(xiàng)目(2013010501010146)。
李俊龍(1988-),男,碩士研究生,主研方向:計(jì)算機(jī)視覺(jué);章登義,教授;黃 珺,碩士研究生。
2014-05-16
:2014-06-22E-mail:v6543210@126.com