劉旸波 李洪均 張 晨 謝正光
(南通大學(xué)電子信息學(xué)院 江蘇 南通 226019)
基于壓縮感知的監(jiān)控視頻多目標(biāo)自適應(yīng)跟蹤算法
劉旸波 李洪均 張 晨 謝正光
(南通大學(xué)電子信息學(xué)院 江蘇 南通 226019)
針對(duì)壓縮感知跟蹤算法無(wú)法自動(dòng)識(shí)別目標(biāo)和易積累噪聲導(dǎo)致目標(biāo)丟失的問(wèn)題,提出一種融合圖像預(yù)處理的壓縮跟蹤算法。算法在初始化階段,采用背景建模和背景差分法實(shí)現(xiàn)自動(dòng)識(shí)別目標(biāo)區(qū)域和多目標(biāo)的判定。隨后,使用壓縮跟蹤算法進(jìn)行多目標(biāo)的跟蹤。在跟蹤過(guò)程中,采用更新機(jī)制,減少噪聲的積累,防止目標(biāo)丟失。更新背景模型,使算法適應(yīng)光線(xiàn)變化。算法在監(jiān)控視頻庫(kù)上進(jìn)行測(cè)試,并與壓縮跟蹤算法進(jìn)行了對(duì)比,實(shí)驗(yàn)結(jié)果表明,提出的多目標(biāo)自適應(yīng)跟蹤算法,在主客觀性能方面較同類(lèi)算法具有顯著提高,其跟蹤精度和魯棒性方面得到了改善。
壓縮感知 多目標(biāo)跟蹤 自適應(yīng)
據(jù)統(tǒng)計(jì),人類(lèi)對(duì)外界的信息接收百分之八十通過(guò)視覺(jué)系統(tǒng)。然而,人類(lèi)的精力和視野都是有限的,不能長(zhǎng)時(shí)間多角度接收信息,在使用上有很大的局限性。隨著電子計(jì)算機(jī)技術(shù)的飛速發(fā)展,計(jì)算機(jī)視覺(jué)[1]成為熱門(mén)的研究課題。智能視頻監(jiān)控[2]已逐漸滲透至人們的日常生活,利用視頻序列圖像自動(dòng)分析來(lái)檢測(cè)、跟蹤和識(shí)別監(jiān)控場(chǎng)景中的目標(biāo),進(jìn)而分析判斷目標(biāo)并做出對(duì)策。而視頻目標(biāo)跟蹤是智能監(jiān)控系統(tǒng)中關(guān)鍵部分,融合了圖像處理、模式識(shí)別、信號(hào)處理和控制等多領(lǐng)域、多學(xué)科的課題。因此,針對(duì)監(jiān)控系統(tǒng)中的視頻目標(biāo)跟蹤研究很有必要。
在實(shí)際跟蹤過(guò)程中,光照變換、物體形變、物體旋轉(zhuǎn)、物體遮擋等問(wèn)題使長(zhǎng)時(shí)間穩(wěn)定跟蹤成為了一個(gè)具有挑戰(zhàn)的工作。盡管大量的算法已被提出,目標(biāo)跟蹤仍然是一個(gè)富有挑戰(zhàn)的問(wèn)題。Avidan[3]用支持向量分類(lèi)器來(lái)擴(kuò)充光流法進(jìn)行目標(biāo)跟蹤。Collins等[4]認(rèn)為最具有判斷力的特征可以通過(guò)在線(xiàn)學(xué)習(xí)來(lái)區(qū)分目標(biāo)和背景。Grabner等[5]提出一種在線(xiàn)半監(jiān)督提升方法來(lái)減輕漂移問(wèn)題。Candès[6]等提出壓縮感知理論,隨后被Zhang[7]等引入目標(biāo)跟蹤領(lǐng)域。近年來(lái),Yang[8]等為了解決壓縮跟蹤算法不能適應(yīng)尺度和旋轉(zhuǎn)變化的問(wèn)題,提出了基于SIFT特征的壓縮跟蹤算法。為了解決漂移問(wèn)題,Shu[9]等提出了將遷移學(xué)習(xí)引入壓縮跟蹤算法中。Gao[10]等提出自適應(yīng)測(cè)量矩陣提高壓縮跟蹤算法性能。這些算法都是需要在視頻圖像序列的第一幀人工手動(dòng)確定跟蹤目標(biāo)區(qū)域。除此之外,噪聲在算法中的積累是比較迅速的,一旦跟蹤出現(xiàn)漂移,噪聲將快速引入分類(lèi)器中,對(duì)之后的跟蹤造成越來(lái)越大的誤差。當(dāng)跟蹤目標(biāo)被完全遮擋后,再次出現(xiàn)在畫(huà)面中,算法不能再次準(zhǔn)確跟蹤。
針對(duì)上述問(wèn)題,本文將詳細(xì)研究壓縮跟蹤算法,設(shè)計(jì)監(jiān)控視頻下多目標(biāo)自適應(yīng)跟蹤算法。監(jiān)控視頻中攝像頭一般是固定不變的,所以背景場(chǎng)景固定不變。同時(shí)考慮到在實(shí)際場(chǎng)景中,存在多個(gè)運(yùn)動(dòng)目標(biāo),而且會(huì)不停有新目標(biāo)進(jìn)入或者離開(kāi)鏡頭畫(huà)面。因此,本文將利用背景建模和背景差分法,自動(dòng)識(shí)別目標(biāo),實(shí)時(shí)進(jìn)行跟蹤。算法采用更新機(jī)制,削弱噪聲的累積,防止跟蹤漂移。
Zhang[7]等提出了壓縮跟蹤C(jī)T(Compressive Tracking)算法,主要分為三個(gè)部分,分別是特征提取、壓縮特征、構(gòu)建和更新分類(lèi)器。
1.1 壓縮感知理論
隨機(jī)矩陣R∈Rn×m,可以使數(shù)據(jù)從高維度空間x∈Rm投影到低維度空間v∈Rn:
v=Rx
(1)
其中,n?m。如果式(1)中的隨機(jī)矩陣R滿(mǎn)足Johnson-Lindenstrauss引理[11],且x是可以壓縮的信號(hào),那么可以以很大概率和最小的誤差從v來(lái)重建x。
1.2 特征提取
Haar-like特征[12]類(lèi)似于Haar小波而得名,特征值是使用兩種矩陣的像素差值。每個(gè)Haar-like特征可以用式(2)表示:
(2)
式中,ωi是矩形ri的權(quán)值,Rect(ri)是矩形所圍成圖像的灰度積分,N是組成特征的矩形個(gè)數(shù)。在計(jì)算Haar-like特征值的時(shí)候采用積分圖的方法來(lái)簡(jiǎn)化運(yùn)算。
1.3 壓縮特征
對(duì)特征進(jìn)行壓縮,采用一個(gè)十分稀疏的矩陣,定義如下:
(3)
當(dāng)s取2和3的時(shí),矩陣滿(mǎn)足Johnson-Lindenstrauss引理。那么,特征的壓縮可以通過(guò)式(4)來(lái)完成:
v=Rx
(4)
其中,x∈Rm為原始特征,矩陣R∈Rn×m為測(cè)量矩陣。
1.4 構(gòu)建和更新分類(lèi)器
樸素貝葉斯分類(lèi)器構(gòu)建模型:
(5)
在式(5)中參量的更新:
(6)
(7)
文獻(xiàn)[7]提出的壓縮跟蹤算法無(wú)法自動(dòng)識(shí)別目標(biāo),目標(biāo)丟失后無(wú)法繼續(xù)跟蹤。本文提出了監(jiān)控視頻多目標(biāo)自適應(yīng)跟蹤算法,該算法通過(guò)背景建模和背景差分法,實(shí)現(xiàn)了自動(dòng)檢測(cè)運(yùn)動(dòng)目標(biāo),使用更新機(jī)制解決目標(biāo)漂移和丟失問(wèn)題。
2.1 背景建模
背景差分法實(shí)現(xiàn)運(yùn)動(dòng)目標(biāo)的檢測(cè)是由背景建模和背景更新兩部分組成。中值法建模的基本原理是學(xué)習(xí)一組圖像,將各個(gè)圖像對(duì)應(yīng)像素點(diǎn)的值構(gòu)成集合Ai,在集合Ai中取中值,將這個(gè)值作為背景圖像的值。
背景更新的實(shí)質(zhì)是使用當(dāng)前幀的變化信息去修正正使用過(guò)去幀建立的模型。
Bn(x,y)=(1-α)Bn-1(x,y)+αCn(x,y)
(8)
式中,Bn(x,y)是經(jīng)過(guò)更新后的背景,Bn-1(x,y)之前的背景模型,Cn(x,y)是當(dāng)前幀,α是學(xué)習(xí)效率,代表當(dāng)前幀中每個(gè)位置上的像素與背景相對(duì)應(yīng)位置上的像素值的加權(quán)和。
在得到背景模型之后,進(jìn)一步通過(guò)背景相減法進(jìn)行運(yùn)動(dòng)目標(biāo)的檢測(cè)。設(shè)當(dāng)前幀圖像是C(x,y),背景模型是B(x,y),經(jīng)過(guò)背景相減和二值化之后可得:
(9)
式中,T為判別閾值。
通常使用的濾波方法有鄰域平均法、中值濾波和邊界保持濾波。在不同的噪聲情況下,選擇不同的濾波方法,會(huì)使濾波效果更好。中值濾波對(duì)處理椒鹽噪聲的性能比較好,而對(duì)高斯噪聲的處理較差。領(lǐng)域平均法濾波對(duì)高斯噪聲的濾波性能較好,對(duì)椒鹽噪聲的處理較差。將采用兩種濾波方法的結(jié)合,抑制圖像中可能出現(xiàn)的噪聲。為了能夠更好消除噪聲,并且將目標(biāo)形態(tài)更加明顯。將采用形態(tài)學(xué)處理中的開(kāi)運(yùn)算進(jìn)行處理。
2.2 提取和壓縮特征
為了選取具有代表性的Haar-like特征,本文將采用隨機(jī)選擇矩形框的位置和大小的方法。在目標(biāo)區(qū)域,使用隨機(jī)函數(shù)構(gòu)建4個(gè)位置和大小不同的矩形區(qū)域,計(jì)算這4個(gè)矩形區(qū)域圖像的灰度積分相加即為Haar-like特征。為了能夠完整表述圖像,對(duì)每個(gè)目標(biāo)區(qū)域進(jìn)行同樣的五十次的Haar-like特征的提取。
由于提取的特征值比較龐大,運(yùn)算量比較大,因而需要采用壓縮感知理論進(jìn)行特征的壓縮。本文將使用十分稀疏的矩陣對(duì)4個(gè)矩形區(qū)域的灰度積分圖進(jìn)行加權(quán)和得到Haar-like特征。在稀疏矩陣為零的地方,不進(jìn)行圖像積分的運(yùn)算,使得特征提取的運(yùn)算量降低。同樣,根據(jù)壓縮理論,可以知道這些特征具有完整重建圖像的能力。
2.3 構(gòu)建和更新分類(lèi)器
本文算法中,對(duì)于貝葉斯分類(lèi)器的構(gòu)建是通過(guò)對(duì)正負(fù)樣本的學(xué)習(xí)。在目標(biāo)區(qū)域附近4個(gè)像素點(diǎn)的范圍中取50個(gè)等大區(qū)域,提取Harr-like特征作為正樣本特征,在目標(biāo)8到30個(gè)像素點(diǎn)的范圍之中取50個(gè)等大區(qū)域作為負(fù)樣本。在跟蹤過(guò)程中,在之前目標(biāo)附近20個(gè)像素點(diǎn)的范圍中作為候選目標(biāo),通過(guò)分類(lèi)器選取出最大匹配值,作為跟蹤目標(biāo)。對(duì)于更新分類(lèi)器,即在當(dāng)前幀中,采用同樣的方法進(jìn)行分類(lèi)器的構(gòu)建即為更新。
2.4 自適應(yīng)壓縮跟蹤算法
初始化階段:進(jìn)行圖像預(yù)處理,構(gòu)建背景模型
輸入:第t幀圖像
1. 進(jìn)行背景差分,判斷運(yùn)動(dòng)目標(biāo)區(qū)域,得到目標(biāo)位置和大小。
2. 使用第t幀圖像進(jìn)行背景更新。
跟蹤階段:
輸入:第t+1幀圖像
1. 在t幀跟蹤到的目標(biāo)位置附近采樣n個(gè)圖像片,然后對(duì)這些圖像片進(jìn)行特征提取和降維得到每個(gè)圖像片的特征向量。
2. 使用式(5)中的分類(lèi)器H(v)對(duì)v進(jìn)行分類(lèi),找出最大分類(lèi)數(shù)的圖像作為當(dāng)前幀跟蹤到的目標(biāo)。
3. 采集正負(fù)樣本集合,提取兩個(gè)樣本集合的特征,使用式(6)和式(7)進(jìn)行分類(lèi)器的更新,使用第t+1幀進(jìn)行背景更新。
4. 當(dāng)跟蹤5幀后,進(jìn)行一次初始化。
輸出:跟蹤到的目標(biāo)位置,更新后的參數(shù),更新的背景模型。
3.1 參數(shù)配置
實(shí)驗(yàn)是在Window 7的計(jì)算機(jī)(Inter(R)Core(TM) i5-2450M CPU@2.50 GHz)上進(jìn)行,在Matlab 2014a環(huán)境下實(shí)現(xiàn)。在仿真試驗(yàn)中算法均采用相同的參數(shù)配置。為了驗(yàn)證本文方法的有效性,算法在公共測(cè)試視頻[13]和監(jiān)控視頻下進(jìn)行研究。
對(duì)于背景建模和差分法中所需要的學(xué)習(xí)效率α和判別閾值T進(jìn)行參數(shù)分析,表1和表2給出了兩個(gè)視頻序列在不同學(xué)習(xí)效率α和判別閾值T下本文算法的表現(xiàn),通過(guò)試驗(yàn)發(fā)現(xiàn),在視頻序列Pedestrian1中采用α=0.1和T=20是最優(yōu)值,在視頻序列Pedestrian2中采用α=0.1和T=20是最優(yōu)值,此時(shí),算法的漏識(shí)幀數(shù)和錯(cuò)識(shí)幀數(shù)最少。綜上所述,本文算法在不同視頻序列上的表現(xiàn),具有較好的穩(wěn)定性。
表2 判別閾值實(shí)驗(yàn)
3.2 主觀性能分析
下面在公共測(cè)試視頻和監(jiān)控視頻進(jìn)行仿真試驗(yàn),從主觀性能上分析算法的跟蹤效果。采用了視頻庫(kù)中所有為監(jiān)控視角的公共視頻作為測(cè)試視頻,在Biker、Board、Crossing、Sylverster、Walking和Walking2共六個(gè)公共視頻進(jìn)行分析。圖1到圖3給出了本文算法和CT算法在公共視頻里的跟蹤結(jié)果。實(shí)線(xiàn)跟蹤框是本文算法跟蹤結(jié)果,虛線(xiàn)跟蹤框是CT算法跟蹤結(jié)果。
圖1是在視頻Crossing中的跟蹤結(jié)果。視頻中,有兩個(gè)物體離開(kāi)監(jiān)控畫(huà)面,一個(gè)物體進(jìn)入畫(huà)面。本文算法能夠及時(shí)取消對(duì)離開(kāi)目標(biāo)的跟蹤,重新定位新進(jìn)入的目標(biāo)。在#77和#117幀中,目標(biāo)背景的光照發(fā)生了變化,本文跟蹤依然穩(wěn)定。而壓縮跟蹤算法的處理結(jié)果,目標(biāo)在陰影處的跟蹤效果比較穩(wěn)定,當(dāng)目標(biāo)從陰影處走出來(lái)的時(shí)候,由于光照的變化,跟蹤出現(xiàn)了丟失,無(wú)法進(jìn)行跟蹤,如#117幀所示。圖2中,CT算法在目標(biāo)被遮擋后進(jìn)行了錯(cuò)誤跟蹤,存在漏識(shí)情況,如#284幀所示。本文算法能夠正確識(shí)別和跟蹤。圖3中,CT算法在第77幀已經(jīng)丟失目標(biāo),將繩子錯(cuò)識(shí)成目標(biāo),而本文算法能夠正確跟蹤。
圖1 CT算法和本文算法在Crossing視頻序列跟蹤結(jié)果
圖2 CT算法和本文算法在Walking2視頻序列跟蹤結(jié)果
圖3 CT算法和本文算法在Board視頻序列跟蹤結(jié)果
圖4和圖5分別是采用CT跟蹤算法和本文算法在監(jiān)控視頻Pedestrian1的結(jié)果。如圖4,在前80幀圖像中,CT算法可以很穩(wěn)定地進(jìn)行跟蹤。但是,從83幀以后,目標(biāo)幾乎完全被樹(shù)木擋住,跟蹤算法完全丟失目標(biāo),在目標(biāo)再次出現(xiàn)后,跟蹤算法已經(jīng)無(wú)法工作了。在圖5中,可以發(fā)現(xiàn)在添加了圖像預(yù)處理模塊后,CT算法是可以同時(shí)進(jìn)行多目標(biāo)跟蹤的。在#387中,在目標(biāo)重新出現(xiàn)后,本算法可以再次正確鎖定目標(biāo),并繼續(xù)進(jìn)行跟蹤。
圖4 CT算法對(duì)Pedestrian1視頻的跟蹤結(jié)果
圖5 本文算法對(duì)Pedestrian1視頻的跟蹤結(jié)果
為了進(jìn)一步說(shuō)明算法魯棒性,圖6給出了本文算法在監(jiān)控視頻Pedestrian2上的跟蹤結(jié)果。相比于Pedestrian1視頻,該視頻變換了拍攝角度,使畫(huà)面的視角更廣,且畫(huà)面中光線(xiàn)更強(qiáng)。在引入噪聲后,算法跟蹤性能不變。在#227幀中,對(duì)跟蹤目標(biāo)已經(jīng)丟失,在經(jīng)過(guò)更新后,在#232幀中目標(biāo)重新被正確跟蹤。
圖6 本文算法對(duì)Pedestrian2視頻跟蹤結(jié)果
3.3 客觀性能分析
為了進(jìn)一步說(shuō)明算法的優(yōu)越性,更客觀地評(píng)價(jià)跟蹤效果,采用漏識(shí)率LRR(Leak Recognition Rate)和錯(cuò)識(shí)率ERR(Error Recognition Rate)進(jìn)行定量分析。漏識(shí)率是指視頻中出現(xiàn)運(yùn)動(dòng)物體而沒(méi)有識(shí)別出來(lái)的比率,定義為:
(10)
其中,n為漏識(shí)目標(biāo)個(gè)數(shù),Nimg為存在漏識(shí)圖像的幀數(shù),ntarget圖像中總的目標(biāo)個(gè)數(shù),N為總幀數(shù)。錯(cuò)識(shí)率是指對(duì)視頻畫(huà)面做出錯(cuò)誤跟蹤的比率,定義為:
(11)
由于CT算法只能進(jìn)行單目標(biāo)跟蹤,所以CT算法對(duì)于客觀的結(jié)果只能存在正確跟蹤和錯(cuò)誤跟蹤兩種,故沒(méi)有漏識(shí)率。
表3 漏識(shí)率和錯(cuò)識(shí)率
由表3可知,本文算法對(duì)固定背景下,自動(dòng)識(shí)別運(yùn)動(dòng)目標(biāo)并進(jìn)行跟蹤有很好的效果。在這八個(gè)視頻中,僅在Sylverster視頻中,本文算法不如CT跟蹤算法,主要原因是在該視頻中,目標(biāo)運(yùn)動(dòng)不明顯,且與背景的區(qū)分不明顯,故而造成錯(cuò)識(shí)率較高。綜上所述,在跟蹤目標(biāo)框位置的主觀視覺(jué)和客觀定量分析方面,本文算法具有明顯的優(yōu)勢(shì)。同時(shí),可以穩(wěn)定地對(duì)多目標(biāo)同時(shí)進(jìn)行跟蹤,并且可以對(duì)重新出現(xiàn)的目標(biāo)進(jìn)行自動(dòng)識(shí)別跟蹤,更加適用于實(shí)際的監(jiān)控系統(tǒng)之中。
本文針對(duì)目前壓縮跟蹤算法無(wú)法自動(dòng)識(shí)別目標(biāo)和目標(biāo)丟失無(wú)法跟蹤的問(wèn)題,提出了一種監(jiān)控視頻多目標(biāo)自適應(yīng)壓縮跟蹤算法。該算法可以很好地適用在監(jiān)控視頻的目標(biāo)跟蹤之中。首先,對(duì)周邊環(huán)境進(jìn)行背景建模,并不停更新,以適應(yīng)光照的變化。隨后,進(jìn)行背景差分,識(shí)別運(yùn)動(dòng)目標(biāo)區(qū)域,使用壓縮跟蹤算法對(duì)運(yùn)動(dòng)目標(biāo)區(qū)域進(jìn)行跟蹤。采用更新機(jī)制,防止目標(biāo)偏移和丟失。該算法可以在監(jiān)控視頻中,穩(wěn)定檢測(cè)出運(yùn)動(dòng)目標(biāo),進(jìn)行多目標(biāo)跟蹤,防止目標(biāo)丟失,有很好的實(shí)用性能。實(shí)驗(yàn)證明,本文算法對(duì)目標(biāo)遮擋和外表變化的情況有很好的魯棒性。
[1] Nilakorn S, Ukrit W, Chaiwat N, et al. Acomputer vision based vehicle detection and counting system[C]//8th Ineternational conference on knowledge and smart technology, 2016:224-227.
[2] Chen T S, Lin M F, Chieuh T C, et al. An intelligent surveillance video analysis service in cloud environment[C]//International Carnahan Conference on Security Technology, 2015:1-6.
[3] Avidan S. Support vector tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2004,26(8):1064-72.
[4] Collins R T, Yanxi L, Marius L. Online selection of discriminative tracking features[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2005, 27(10):1631-1643.
[5] Grabner H, Leistner C, Bischof H. Semi-supervised On-Line Boosting for Robust Tracking[C]//Computer Vision-ECCV 2008, European Conference on Computer Vision, Marseille, France, October 12-18, 2008, Proceedings,2008:234-247.
[6] Candès E J, Tao T. Decoding by Linear Programming[J].IEEE Transactions on Information Theory, 2006,51(12):4203-4215.
[7] Zhang K, Zhang L, Yang M H. Real-Time Compressive Tracking[C]//European Conference on Computer Vision,2012:864-877.
[8] Yang H, Jiang X, Gao S. Adaptive Compressive Tracking Algorithm Based on SIFT Features[C]//2015 Third International Conference on Robot, Vision and Signal Processing, 2015:78-81.
[9] Shu Tian, Yin Xucheng, Xu Xi, et al. Transfer learning based compressive tracking[C]//The 2013 International Joint Conference on Neural Networks,2013:1-7.
[10] Gao Yun, Zhou Hao, Zhang Xuejie. Enhanced fast compressive tracking based on adaptive measurement matrix[J].IET Computer Vision, 2015,9(6):857-863.
[11] Achlioptas D. Database-friendly random projections: Johnson Lindenstrauss with binary coins[J].Journal of Computer and System Sciences,2003,66(4):671-687.
[12] Baraniuk R, Davenport M, Devore R, et al. A Simple Proof of the Restricted Isometry Property for Random Matrices[J].Constructive Approximation, 2015,28(3):253-263.
[13] http://cvlab.hanyang.ac.kr/tracker_benchmark/.
A MULTI-OBJECTIVE ADAPTIVE TRACKING ALGORITHM FOR VIDEO SURVEILLANCE BASED ON COMPRESSED SENSING
Liu Yangbo Li Hongjun Zhang Chen Xie Zhengguang
(SchoolofElectronicInformationEngineering,NantongUniversity,Nantong226019,Jiangsu,China)
Aiming at the problem that the compressed perceptual tracking algorithm can not automatically identify the target and easy to accumulate the noise, this paper proposes a compression tracking algorithm which combines image preprocessing. In the initialization phase, background model and background difference method are used to realize the automatic recognition of the target area and multi-target decision. Subsequently, the multi-target tracking is performed using the compression tracking algorithm. In the tracking process, the use of updated mechanisms to reduce the accumulation of noise, to prevent the loss of goals. Update the background model so that the algorithm adapts to changes in light. The algorithm is tested on the monitor video library and compared with the compression tracking algorithm. Experimental results show that the proposed multi-objective adaptive tracking algorithm has a significant improvement in the subjective and objective performance compared with the similar algorithms, and its tracking accuracy and robustness are improved.
Compressive sensing Multi-object tracking Adaptive
2016-04-27。國(guó)家自然科學(xué)基金項(xiàng)目(61171077,61401239);江蘇高校品牌專(zhuān)業(yè)建設(shè)工程項(xiàng)目(PPZY2015B135);江蘇省基礎(chǔ)研究計(jì)劃(自然科學(xué)基金)資助項(xiàng)目(BK20130393);2016年南通大學(xué)大學(xué)生創(chuàng)新訓(xùn)練計(jì)劃項(xiàng)目(2016069)。劉旸波,碩士生,主研領(lǐng)域:圖像處理。李洪均,講師。張晨,本科生。謝正光,教授。
TP301
A
10.3969/j.issn.1000-386x.2017.05.026