邵萬開,石澄賢
(常州大學(xué)信息科學(xué)與工程學(xué)院,江蘇常州 213164)
動態(tài)背景下運(yùn)動目標(biāo)檢測與跟蹤研究
邵萬開,石澄賢
(常州大學(xué)信息科學(xué)與工程學(xué)院,江蘇常州 213164)
主要研究動態(tài)背景下的運(yùn)動目標(biāo)檢測和跟蹤問題;背景補(bǔ)償差分法是一種常用的動態(tài)背景下運(yùn)動目標(biāo)檢測算法,但檢測到的目標(biāo)輪廓要比其真實(shí)輪廓大,檢測結(jié)果不準(zhǔn)確且算法復(fù)雜度較高;主動輪廓模型在圖像分割和目標(biāo)提取過程中具有拓?fù)浣Y(jié)構(gòu)變化靈活性,對數(shù)值計(jì)算方案的設(shè)計(jì)更加方便、有效,據(jù)此提出一種基于改進(jìn)C-V模型和卡爾曼濾波的算法,用來檢測和跟蹤動態(tài)背景下的運(yùn)動目標(biāo);提出的算法利用C-V模型曲線演化檢測和跟蹤目標(biāo),使C-V模型在目標(biāo)的邊緣處收斂;結(jié)合卡爾曼濾波預(yù)測運(yùn)動目標(biāo)下一幀位置,從而實(shí)現(xiàn)對運(yùn)動目標(biāo)輪廓的跟蹤;實(shí)驗(yàn)結(jié)果表明,該方法可以對動態(tài)背景下運(yùn)動目標(biāo)進(jìn)行精確的檢測與跟蹤。
C-V模型;目標(biāo)檢測;目標(biāo)跟蹤;卡爾曼濾波
基于圖像序列的運(yùn)動目標(biāo)檢測和跟蹤是機(jī)器視覺領(lǐng)域的熱點(diǎn)問題,在人機(jī)交互、視頻監(jiān)控[1 2]、智能交通等領(lǐng)域有著廣泛應(yīng)用。
運(yùn)動目標(biāo)檢測技術(shù)[3]是指將運(yùn)動目標(biāo)從視頻背景中分離出來,主要方法有:光流法、幀間差分法、背景差分法。光流法,即給予圖像上各像素點(diǎn)速度矢量,再將空間中運(yùn)動場投射到圖像上,若圖像上速度矢量連續(xù)變化,則該像素是運(yùn)動目標(biāo)。該方法不需要預(yù)先知道現(xiàn)場環(huán)境信息,就能夠檢測出運(yùn)動目標(biāo),有很強(qiáng)的適應(yīng)性,但計(jì)算相當(dāng)復(fù)雜,對噪聲敏感,抗噪性能差。幀間差分法,即對連續(xù)兩幀圖像進(jìn)行差分,優(yōu)點(diǎn)是計(jì)算簡單,受光線變化影響小,但分割精度不高,無法準(zhǔn)確分割運(yùn)動目標(biāo)。背景差分法,即用當(dāng)前幀圖像和背景幀圖像作差分,優(yōu)點(diǎn)是易于實(shí)現(xiàn),能夠較為完整地分割出目標(biāo),但易受光線變化等情況影響。
運(yùn)動目標(biāo)跟蹤技術(shù)[4]是指在連續(xù)的視頻圖像序列中實(shí)時(shí)找出運(yùn)動目標(biāo),主要方法有:基于目標(biāo)模型跟蹤、基于目標(biāo)區(qū)域跟蹤、基于目標(biāo)特征跟蹤以及基于目標(biāo)輪廓跟蹤。相比其他方法,基于目標(biāo)輪廓跟蹤,可自動更新曲線輪廓表示跟蹤目標(biāo),最終實(shí)現(xiàn)目標(biāo)跟蹤。幾何主動輪廓模型 (Geometric active contour model)能夠較好地?cái)M合出運(yùn)動目標(biāo)輪廓,因此在基于輪廓的目標(biāo)跟蹤理論中,幾何主動輪廓模型獲得了較多的應(yīng)用。
運(yùn)動目標(biāo)檢測與分割時(shí),對目標(biāo)背景的處理尤為重要。目標(biāo)的背景往往被分為靜態(tài)背景和動態(tài)背景兩類。靜態(tài)背景下的運(yùn)動目標(biāo)檢測與分割,主要考慮如何對目標(biāo)的靜態(tài)背景建模與更新,再進(jìn)行背景差分等操作,便能得到較好的檢測結(jié)果。相比靜態(tài)背景,動態(tài)背景下的運(yùn)動目標(biāo)檢測與分割更為復(fù)雜,因?yàn)榻^大多數(shù)適用于靜態(tài)背景下的運(yùn)動目標(biāo)檢測與分割算法,并不能正確進(jìn)行動態(tài)背景下的運(yùn)動目標(biāo)檢測與分割。下面主要研究動態(tài)背景下的運(yùn)動目標(biāo)檢測和跟蹤。
動態(tài)背景下常用的運(yùn)動目標(biāo)檢測算法,主要有光流法以及背景補(bǔ)償差分法。光流法引言中已有簡單介紹,這里不再作相關(guān)闡述。背景補(bǔ)償差分法,主要是先對背景運(yùn)動參數(shù)進(jìn)行計(jì)算,將計(jì)算得出的運(yùn)動參數(shù)用于背景補(bǔ)償,從而將動態(tài)背景問題轉(zhuǎn)化為靜態(tài)背景問題,再進(jìn)行背景差分法檢測運(yùn)動目標(biāo)。計(jì)算背景運(yùn)動參數(shù)首先要建立合適的全局運(yùn)動參數(shù)模型,下面對全局運(yùn)動參數(shù)模型[5]進(jìn)行簡單介紹。
1.1 全局運(yùn)動參數(shù)模型
攝像機(jī)在監(jiān)測視頻時(shí),因自身繞軸轉(zhuǎn)動,造成視頻中第k -1幀圖像像素點(diǎn)(xk-1,yk-1),移動到第k幀圖像像素點(diǎn)(xk,yk)處。(xk-1,yk-1)和(xk,yk)滿足全局運(yùn)動參數(shù)模型f :
常見的全局運(yùn)動參數(shù)模型主要有:雙線性運(yùn)動參數(shù)模型,投影運(yùn)動參數(shù)模型,平移運(yùn)動參數(shù)模型,仿射運(yùn)動參數(shù)模型。其中,仿射運(yùn)動參數(shù)模型是平移運(yùn)動參數(shù)模型的推廣,能夠較好的處理平移和旋轉(zhuǎn)運(yùn)動,相對其他模型計(jì)算起來也較為簡單,常用來計(jì)算運(yùn)動參數(shù)時(shí)的建模。接著對相鄰兩幀圖像進(jìn)行特征匹配,獲取大量的匹配特征點(diǎn)對,利用最小二乘法得到運(yùn)動參數(shù)模型中參數(shù)的近似解。
1.2 基于背景補(bǔ)償差分的運(yùn)動目標(biāo)檢測
對背景幀fk-1中每點(diǎn)像素(xk-1,yk-1),運(yùn)用計(jì)算得出的仿射運(yùn)動參數(shù)模型f進(jìn)行仿射變換,得到變換幀f′k中對應(yīng)像素點(diǎn)(x′k-1,y′k-1),用當(dāng)前幀fk與變換幀f′k作差分,得到兩者間二值圖像。
二值圖像往往存在含有空洞等問題,所以要先對二值圖像進(jìn)行連通性分析,利用形態(tài)學(xué)中的膨脹與腐蝕處理方法,填補(bǔ)空洞。經(jīng)過形態(tài)學(xué)處理后,二值圖像消除了大部分的空洞,但仍然可能存在多余的噪聲干擾,所以還需要采用閾值面積法對圖像除噪,最終得到目標(biāo)輪廓,檢測出動態(tài)背景下的運(yùn)動目標(biāo)。
2.1 基于C-V模型的運(yùn)動目標(biāo)檢測
通過背景補(bǔ)償差分檢測到的運(yùn)動目標(biāo)往往并不準(zhǔn)確,這是因?yàn)槎祱D像經(jīng)過形態(tài)學(xué)膨脹、腐蝕等處理,得到的目標(biāo)輪廓要比運(yùn)動目標(biāo)實(shí)際輪廓大,而且方法實(shí)現(xiàn)過程中費(fèi)時(shí)費(fèi)力,可行性不高。對此,提出了一種基于C-V模型的動態(tài)背景下運(yùn)動目標(biāo)檢測與分割。
主動輪廓模型[6]用封閉曲線來分割圖像中的目標(biāo),以能量函數(shù)來表示這條封閉曲線,將圖像分割問題歸結(jié)于最小化封閉曲線的能量函數(shù)。
C-V模型[7]是一種基于區(qū)域的主動輪廓模型,通過對目標(biāo)區(qū)域的檢測實(shí)現(xiàn)圖像分割。這種模型利用圖像同質(zhì)區(qū)域的全局信息,可以自動檢測目標(biāo)的內(nèi)外輪廓,更加適合分割目標(biāo)模糊的圖像。但是傳統(tǒng)的C-V模型,僅利用區(qū)域信息的片面性,沒有考慮到邊緣信息,在分割過程中常常會出現(xiàn)一些問題。考慮邊緣信息對圖像分割的重要性,將邊緣信息引入CV模型是改善分割性能的有效途徑,目前已有很多相關(guān)的研究。Lei Zhang等人通過改變原來C-V模型統(tǒng)計(jì)區(qū)域內(nèi)外的信息為統(tǒng)計(jì)局部信息來改善分割性能,滿足對多目標(biāo)區(qū)域不同統(tǒng)計(jì)量值的分割[8]。馬時(shí)平等人針對紅外圖像中包含較強(qiáng)噪聲,提出保留C-V模型的全局優(yōu)化特性,通過窗口濾波整合圖像鄰域空間信息來構(gòu)建曲線進(jìn)化的外部速度,從而提高CV模型的抗噪性能并減少分割中產(chǎn)生的冗余輪廓,對邊緣模糊、噪聲較大的圖像能實(shí)現(xiàn)快速而有效的分割[9]。
選取C-V模型作為演化曲線的能量函數(shù),并且融入邊緣信息對C-V模型加以改進(jìn),提出了一種基于區(qū)域和邊緣信息的改進(jìn)C-V模型,實(shí)現(xiàn)了動態(tài)背景下的運(yùn)動目標(biāo)檢測與分割。新模型的能量泛函如下:
式中,φ是水平集函數(shù),R2是圖像區(qū)域,H(φ)是Heaviside函數(shù),δ(φ)是Dirac函數(shù)。式(2)中,前兩項(xiàng)的作用是讓零水平集函數(shù)更好地?cái)M合目標(biāo)邊緣,第三項(xiàng)對應(yīng)演化曲線的長度,起正則化作用。實(shí)際計(jì)算中,H(φ)函數(shù)和δ(φ)函數(shù)用如下的規(guī)則化函數(shù)來求解:
g(ω)為邊緣引導(dǎo)函數(shù),ω是與圖像梯度有關(guān)的參數(shù),α為常量。定義為:
利用梯度下降流演化方法,最小化式(2)的能量,得到水平集演化的偏微分方程:
利用邊緣引導(dǎo)函數(shù)g(ω),能更好的控制輪廓曲線在圖像的邊緣處停止運(yùn)動,從而實(shí)現(xiàn)動態(tài)背景下運(yùn)動目標(biāo)檢測與分割。
2.2 基于卡爾曼濾波的目標(biāo)跟蹤
采用卡爾曼濾波算法[10]預(yù)測目標(biāo)質(zhì)心在下一幀圖像中的位置,再帶入C-V模型進(jìn)行曲線演化,使C-V模型在目標(biāo)的邊緣處收斂,實(shí)現(xiàn)動態(tài)背景下對運(yùn)動目標(biāo)的跟蹤。首先建立運(yùn)動目標(biāo)的狀態(tài)方程以及測量方程:
其中:X(k)=[x(k),y(k),S,Δx(k),Δy(k),ΔS]T為狀態(tài)向量,X(k)中變量分別表示目標(biāo)質(zhì)心k時(shí)刻x軸坐標(biāo),y軸坐標(biāo),目標(biāo)面積,時(shí)間間隔T=0.2內(nèi)目標(biāo)質(zhì)心x軸坐標(biāo)變化量,y軸坐標(biāo)變化量,目標(biāo)面積變化量。動態(tài)噪聲W(k)、測量噪聲V(k)均值都是0。
預(yù)測方程:
校正方程:
狀態(tài)轉(zhuǎn)移矩陣、測量矩陣分別為:
式中,^X-(k)為k時(shí)刻X(k)的先驗(yàn)估計(jì),P-(k)為^X-(k)誤差協(xié)方差;K(k)為卡爾曼增益矩陣,^X(k)為后驗(yàn)狀態(tài)估計(jì),P(k)為^X(k)誤差協(xié)方差矩陣,R 為V(k)的協(xié)方差矩陣,Q為W(k)的協(xié)方差矩陣。
采用卡爾曼濾波,先估計(jì)當(dāng)前幀目標(biāo)質(zhì)心位置,再預(yù)測下一幀目標(biāo)質(zhì)心位置。將當(dāng)前幀運(yùn)動目標(biāo)檢測所得精確輪廓移至相應(yīng)位置,利用改進(jìn)C-V模型控制輪廓曲線演化,曲線演化停止時(shí),得到運(yùn)動目標(biāo)下一幀位置的精確輪廓,實(shí)現(xiàn)了動態(tài)背景下運(yùn)動目標(biāo)的檢測與追蹤。另外,對下一幀精確輪廓提取目標(biāo)特征(面積、質(zhì)心坐標(biāo))后,重新傳給卡爾曼濾波狀態(tài)方程,更新狀態(tài)向量X(k),修正誤差,從而提高卡爾曼濾波預(yù)測目標(biāo)質(zhì)心的準(zhǔn)確性。
2.3 基于C-V模型和卡爾曼濾波目標(biāo)跟蹤算法
輸入視頻圖像序列,對第一幀圖像用改進(jìn)C-V模型檢測出運(yùn)動目標(biāo),提取目標(biāo)精確輪廓,并標(biāo)記出目標(biāo)質(zhì)心;將目標(biāo)質(zhì)心代入卡爾曼濾波方程中,預(yù)測出下一幀中運(yùn)動目標(biāo)的質(zhì)心位置;以當(dāng)前幀目標(biāo)輪廓作為初始化曲線,用改進(jìn)C-V模型演化輪廓進(jìn)行圖像分割,最終實(shí)現(xiàn)運(yùn)動目標(biāo)的檢測與追蹤。采用上述算法,成功解決了動態(tài)背景下難以檢測出運(yùn)動目標(biāo)的問題。流程圖如圖1所示。
圖1 目標(biāo)跟蹤算法流程圖
圖2選自一組共50幀的動態(tài)背景下序列圖像,每幀圖像大小140*99。選取第一幀圖像作為背景幀,如圖2(a);選取第30幀圖像作為當(dāng)前幀,如圖2(b);圖2(c)是背景幀與當(dāng)前幀的直接差分圖像;圖2(d)是背景幀進(jìn)行仿射變換后得到的變換幀圖像;圖2(e)是背景補(bǔ)償差分圖像;圖2 (f)自定義初始演化曲線,利用改進(jìn)C-V模型最終分割出的運(yùn)動目標(biāo)。改進(jìn)C-V模型參數(shù)設(shè)置:α=0.01,μ=1,ε=0.2,迭代步長Δt=0.01,迭代次數(shù)50次。實(shí)驗(yàn)結(jié)果表明,動態(tài)背景下直接背景差分無法正確檢測出期望的運(yùn)動目標(biāo);經(jīng)過背景補(bǔ)償后的背景差分則能夠較好的檢測出運(yùn)動目標(biāo),但是得到的目標(biāo)輪廓要比運(yùn)動目標(biāo)實(shí)際輪廓大,不夠精確。
圖2動態(tài)背景下運(yùn)動目標(biāo)檢測
圖3 選自一組共40幀的動態(tài)背景紅外序列圖像,每幀圖像大小230*170。圖3(a)中點(diǎn)為第30幀圖像中目標(biāo)質(zhì)心,圖3(b)、(c)中點(diǎn)分別為利用卡爾曼濾波算法預(yù)測的第40、50幀圖像中目標(biāo)質(zhì)心的位置,紅點(diǎn)分別為第45、50幀圖像中目標(biāo)質(zhì)心的測量位置。預(yù)測位置和測量位置很接近,證明了卡爾曼濾波預(yù)測的準(zhǔn)確性。
圖3動態(tài)背景下卡爾曼濾波預(yù)測目標(biāo)質(zhì)心
圖4 選自一組共有50幀的動態(tài)背景行人跑步紅外序列圖像,每5幀結(jié)合卡爾曼濾波算法以及改進(jìn)C-V模型進(jìn)行一次檢測與跟蹤,每幀圖像大小210*140。改進(jìn)C-V模型參數(shù)設(shè)置:α=0.01,μ=1,ε=0.2,迭代步長Δt=0.01,迭代次數(shù)50次。實(shí)驗(yàn)結(jié)果表明,本文方法可以準(zhǔn)確預(yù)測每幀圖像中的運(yùn)動目標(biāo)位置,改進(jìn)C-V模型可以準(zhǔn)確分割每幀圖像中的運(yùn)動目標(biāo)。完成了有效而準(zhǔn)確的目標(biāo)檢測與跟蹤實(shí)驗(yàn)。
提出一種基于改進(jìn)C-V模型和卡爾曼濾波算法的目標(biāo)檢測與跟蹤算法。算法利用改進(jìn)C-V模型檢測出動態(tài)背景下的運(yùn)動目標(biāo),提取目標(biāo)精確輪廓,并標(biāo)記出目標(biāo)質(zhì)心。后通過卡爾曼濾波預(yù)測目標(biāo)質(zhì)心下一幀位置,以改進(jìn)C-V模型最終實(shí)現(xiàn)對動態(tài)背景下運(yùn)動目標(biāo)的檢測與跟蹤操作。同時(shí),對下一幀精確輪廓提取目標(biāo)特征(面積、質(zhì)心坐標(biāo))后,重新傳給卡爾曼濾波狀態(tài)方程,更新狀態(tài)向量,修正誤差,從而提高卡爾曼濾波預(yù)測目標(biāo)質(zhì)心的準(zhǔn)確性。實(shí)驗(yàn)結(jié)果表明,該方法是切實(shí)可行的。同時(shí),要比基于背景補(bǔ)償差分的動態(tài)背景下運(yùn)動目標(biāo)檢測更為準(zhǔn)確、有效。
圖4 紅外視頻跟蹤圖
[1]Kim,Min-Gu,Moon,et al.A study on the human identification technique for privacy protection in intelligent video surveillance system[A].IEEE Asia-Pacific Services Computing Conference[C].APSCC,2011:402-405.
[2]Karasulu,Bahadir,Korukoglu,et al,Moving object detection and tracking by using annealed background subtraction method in videos:Performance optimization[J].Expert Systems with Applications.2012(39):33-43.
[3]Zhang X L,Li Z P,Zhou T G,et al.Neural activities in V1 create a bottom-up saliency map[J].Neuron,2012(1).
[4]Liang WH,Wang J Q,Ding H F,et al.Moving target detection based on the improved Gaussian mixture model background difference method[J].Advanced Materials Research,2012(482).
[5]Su Y P,Sun M T.A non-iterative motion vector based global motion estimation algorithm[A].IEEE Int.Conf.Multimedia Expo (ICME)[C].2004.
[6]Osher S,Sethian J A.Fronts propagation with curvature dependent speed:Algorithmbased onHamilton-Jacobi formulation[J].Journal of Computational Physics,1988,79(1):12-49.
[7]Chan T F,Vese L A.Active contours without edges[J].IEEE Transactions on Image Processing,2001.
[8]Zhang K H,Song HH,Zhang L.Active contours driven by local image fitting energy[J].PatternRecognition,2010,43(4):1199-1206.
[9]危自福,畢篤彥,馬時(shí)平.一種改進(jìn)的快速C-V水平集紅外圖像分割[J].數(shù)據(jù)采集與處理,2010,25(3):347-352.
[10]Havlicek M,F(xiàn)riston K J,Jan J,et al.Dynamic modeling of neuronal responses in f MRI using cubature Kalman filtering[J].Neuroimage.2012.
Moving Object Detection and Tracking under Dynamic Background
Shao Wankai,Shi Chengxian
(School of Information Science&Engineering,Changzhou University,Changzhou 213164,China)
The moving object detection and tracking technology under dynamic background is mainly researched.Background compensation difference is commonly used for moving object detection and tracking technology under dynamic background.Contour of moving object detected by background compensation difference is larger than the real contour,that the detection result is not accurate and the computational complexity is higher.Active contour model is flexible in topology,also convenient and effective in the design of numerical calculation for image segmentation and object extraction process.An new algorithm which is based on the improved C-V and the Kalman filter model is proposed to detect and track the moving objects under dynamic background.The algorithm uses the improved C-V model to perform the curve evolution for moving object detection and tracking,making the evolving curve approach to the edge of the object.Kalman filter is used to predict the next frame of the object position,so as to achieve the tracking of the moving object.The experimental results show that the method is suitable for the detection and tracking of objects under dynamic background.
C-V model;object detection;object tracking;Kalman filter
1671-4598(2016)08-0052-04
10.16526/j.cnki.11-4762/tp.2016.08.014
:TP391.9
:A
2016-03-06;
:2016-04-05。
國家自然科學(xué)基金資助項(xiàng)目(61572085)。
邵萬開(1990-),男,江蘇揚(yáng)州人,碩士研究生,主要從事圖像分割和目標(biāo)跟蹤方向的研究。
石澄賢(1961-),男,江蘇常州人,教授,碩士研究生導(dǎo)師,主要從事視覺識別和圖像分割方向的研究。