于亞楠 蘇遠歧
(1.濮陽職業(yè)技術(shù)學(xué)院數(shù)學(xué)與信息工程學(xué)院 河南省濮陽市 457000)
(2.西安交通大學(xué)計算機科學(xué)與技術(shù)系 陜西省西安市 710000)
近年來,由于人工智能的飛速發(fā)展,計算機視覺技術(shù)也得到了迅速發(fā)展,視頻中長期停留物體檢測技術(shù)[1]在檢測超時停車得到了廣泛應(yīng)用。傳統(tǒng)的檢測方法有:BoXin[2]等人在低秩稀疏的前背景提取法的基礎(chǔ)上提出廣義融合Lasso 法對視頻進行前景提取,該算法是一次性讀入數(shù)據(jù)集,對內(nèi)存造成很大負擔(dān)。利用相鄰幀的質(zhì)心距離差[3]判斷物體是否為靜止物體,該方法受視頻場景光照的變化而產(chǎn)生誤差。拉普拉斯[4]分布模型的靜止物體檢測方法在有遮擋的情況下準確率會下降。本文提出組合長短兩個時間尺度下的前景掩膜,得到只包含潛在長期停留物體的耦合前景掩膜;首先,短時間尺度下的前背景模型采用基于混合高斯背景模型[5]的方法,它能描述像素點在不同場景下表現(xiàn)出的多峰狀態(tài),并實時對短時間尺度下的背景模型進行實時更新判斷出視頻中運動物體的前背景分布[6];然后,用長時間尺度下的前背景模型法檢測出運動的物體,并對長時間尺度下的背景模型進行學(xué)習(xí)[7];最后,將長短背景模型進行耦合,剔除視頻中快速通過的物體,得到視頻中潛在的長期停留物體。
在攝像機固定的情況下,視頻中運動物體的檢測常用的方法主要有背景差分法、幀間差分法[8]和光流法[9]。幀間差分法是利用相鄰兩幀或多幀之間像素的變化來判斷目標是否發(fā)生了移動變化。光流法計算耗時、實時性差,在實時監(jiān)控場景中并不適用。
短時間尺度下的前背景模型是基于混合高斯的背景模型法,其基本思想是:對監(jiān)控視頻中的像素點,定義K 個狀態(tài),K 的每個狀態(tài)都由一個單峰的高斯模型來表示,本文中K 取3,像素點顏色取值的概率密度函數(shù)可用如下函數(shù)表示:
上式中,f(Xt)代表t 時刻像素值的概率值,Xt代表像素值,ωi,t為t 時刻像素點的第i 個高斯分布的權(quán)重,其值越大該高斯模型出現(xiàn)的概率越大,表示高斯概率密度函數(shù),μi,t表示t 時刻像素點的第i 個高斯分布的均值,∑i,t表示t 時刻像素點的第i 個高斯分布的方差。設(shè)定閾值為τ,如果前B 個高斯模型的權(quán)值和大于τ,則前B 個高斯模型為背景分布,其余為前景分布,前B 個高斯模型的確定可用如下公式來確定:
圖1:Light 視頻集檢測結(jié)果圖
當新獲得的像素點Xt與前b 個高斯分布中存在匹配,那么這個像素點為背景像素點,否則為前景像素點?;旌细咚鼓P头ㄔ谔幚硐袼攸c的波動方面有較強的能力,也能保證實際應(yīng)用中實時性的要求,由于長期停留車輛區(qū)域的像素點長時間保持一種像素值,其對應(yīng)的高斯模型的權(quán)值增大,但在檢測視頻中長期停留物體時,容易將其判定為背景物體。
針對短時間尺度下前背景模型法在檢測視頻中長期停留車輛時存在的問題,引入長時間尺度下的前背景模型法,長時間尺度下的前背景模型法主要根據(jù)背景差分法獲得前背景像素點的基礎(chǔ)上,利用像素級時間序列上的變化對背景像素點進行學(xué)習(xí),得到長期停留物體在當前時刻圖像上的一個背景估計。長時間尺度下的前背景模型構(gòu)建分為兩個步驟:前背景像素點的判斷、背景模型的學(xué)習(xí)。
根據(jù)背景差分法,設(shè)定一個判斷前背景像素點的閾值T,判定當前像素點屬于前景像素點還是背景像素點,判斷公式如下:
表1:運動物體檢測算法性能比較
其中,Dt(x,y)為t 時刻的差分圖像,ft(x,y)為t 時刻當前幀圖像,Bt-1(x,y)為t-1 時刻的背景圖像。將獲得的像素差值Dt(x,y)與閾值T 進行比較,如果差值大于T,則判定t 時刻視頻幀中該像素點屬于前景像素否則為背景像素點。
選取視頻序列的前N 幀作為背景模型的初始學(xué)習(xí)幀,根據(jù)得到的背景像素點進行學(xué)習(xí)更新[10],更新公式如下:
其中,Bt是t 時刻該像素點的背景估計,Xt是t 時刻該像素點的像素值,Bt-1是t-1 時刻該像素點的背景估計,β 為背景學(xué)習(xí)率,取β=0.05,在背景學(xué)習(xí)過程中設(shè)定較小的學(xué)習(xí)率,這樣背景的更新速率雖然比較慢但是提高了背景模型建立的準確性與穩(wěn)定性。
根據(jù)短時間尺度下的前景掩膜Fs構(gòu)建與之相對應(yīng)的短狀態(tài)矩陣Ms,Ms中記錄短時間尺度下前景掩膜上像素點的像素值用表示、持續(xù)時間為丟失時間為用一個狀態(tài)向量表示像素點的狀態(tài);同樣,構(gòu)造與長前景掩膜Fl相對應(yīng)的長狀態(tài)矩陣Ml,用狀態(tài)向量表示像素點在長時間尺度下前景掩膜上的狀態(tài)。假設(shè)潛在長期停留物體區(qū)域的像素點用集合C 表示,設(shè)置像素點的持續(xù)時間閾值為Td,最大丟失幀閾值為Tm。
為了驗證算法的魯棒性,對現(xiàn)實中“Light.avi”的視頻場景進行測試,實驗中的視頻集分辨率為568×320 像素,幀率為25Fps,實驗結(jié)果如圖1所示。
圖 1 為視頻集“Light.avi”中有潛在長期停留狀態(tài)物體與快速運動的物體同時出現(xiàn)時前景檢測的結(jié)果圖。圖 1(a)為視頻集的第1299 幀圖像,視頻場景中存在一輛潛在長期停留狀態(tài)的車輛和一輛正在快速行駛的車輛。圖1(b)為短時間尺度下前背景檢測的結(jié)果,從得到的短前景掩膜中可以看到,只檢測到了快速行駛的車輛,潛在長期停留狀態(tài)車輛被吸收為背景;圖 1(c)為長時間尺度下前背景檢測的結(jié)果,可以將快速行駛的車輛和潛在長期停留狀態(tài)的車輛同時檢測出來;圖 1(d)為耦合前背景檢測得到的耦合前景掩膜,耦合前景檢測將快速行駛的物體剔除掉,保留了潛在長期停留狀態(tài)的物體。對實驗數(shù)據(jù)集中潛在長期停留狀態(tài)物體檢測結(jié)果采用精確率P和召回率R 和檢測時間對本文的算法進行定量分析,耦合前背景模型法檢測結(jié)果如表1。
由表1 可知,短時間尺度下的前背景檢測可以檢測到快速行駛的物體,檢測不出潛在長期停留狀態(tài)物體;而長時間尺度下的前背景檢測可以檢測到快速行駛的物體和潛在長期停留狀態(tài)的物體。耦合的前背景模型剔除了快速行駛物體,保留了潛在長期停留狀態(tài)的物體。檢測算法的準確率高、召回率高,能有效檢測出視頻中潛在長期停留狀態(tài)的物體。
本文提出對視頻監(jiān)控中長期停留車輛進行檢測的算法。組合使用不同時間尺度下的前景掩膜得到耦合的前景掩膜,構(gòu)建與長短時間尺度下前景掩膜相對應(yīng)的長短狀態(tài)矩陣,根據(jù)不同時間尺度下的狀態(tài)矩陣上像素點的狀態(tài)向量,找到潛在長期停留狀態(tài)物體區(qū)域的像素點集合;最后,根據(jù)潛在長期停留狀態(tài)物體區(qū)域像素點集合對短時間尺度下的前景掩膜上獲得的前景物體的連通區(qū)域進行二值化操作,得到只包含有潛在長期停留狀態(tài)物體的耦合前景掩膜實驗證明,本算法能在現(xiàn)實的視頻場景下檢測出潛在的長期停留的物體,為道路暢通提供了技術(shù)支持。