王俊卜 宋英磊 張冰 孫陶瑩
摘 要: 針對(duì)視頻圖像中的目標(biāo)檢測(cè)問題,提出基于模型選擇的背景模型建模方法,并在此基礎(chǔ)上實(shí)現(xiàn)了目標(biāo)檢測(cè)。該方法能夠有效地根據(jù)視頻圖像的復(fù)雜度對(duì)其背景進(jìn)行建模。對(duì)簡(jiǎn)單視頻圖像選擇改進(jìn)的均值法背景模型,對(duì)復(fù)雜視頻圖像則選擇碼本模型。以信息論中的熵和邊緣比率作為依據(jù),判斷圖像的復(fù)雜度,進(jìn)而選擇建立相應(yīng)的背景模型。實(shí)驗(yàn)結(jié)果表明,提出的算法模型具有很好的目標(biāo)檢測(cè)效果,并可以較精確地處理不同復(fù)雜度的視頻圖像。
關(guān)鍵詞: 背景模型; 碼本模型; 均值法; 信息熵; 視頻圖像; 目標(biāo)檢測(cè)
中圖分類號(hào): TN911.73?34 文獻(xiàn)標(biāo)識(shí)碼: A 文章編號(hào): 1004?373X(2018)13?0034?04
Abstract: A background model modeling method based on model selection is proposed to realize target detection in video image. With the proposed method, the background of the video image is effectively modeled according to the complexity of the video image. The improved mean value method background model is used to process the simple video image, and the codebook model is used to process the complex video image. The complexity of the image is judged on the basis of entropy in information theory and edge ratio, so as to select the corresponding background model. The experimental results show that the algorithm model has perfect target detection effect, and can process the video image with different complexities accurately.
Keywords: background model; codebook model; mean value method; information entropy; video image; target detection
視頻運(yùn)動(dòng)目標(biāo)檢測(cè)在各個(gè)領(lǐng)域都有廣泛的應(yīng)用,同時(shí)也是目標(biāo)跟蹤的基礎(chǔ)環(huán)節(jié)。運(yùn)動(dòng)目標(biāo)檢測(cè)現(xiàn)階段主要有三種方法,分別是光流法、幀差法和背景減除法[1]。由于背景減除法對(duì)場(chǎng)景的動(dòng)態(tài)變化具有一定的適應(yīng)能力,故該方法是目前研究的熱點(diǎn)。背景減除法主要利用背景的像素特征進(jìn)行背景建模,其中最常用的背景建模方法是均值法背景建模和對(duì)平均模型改進(jìn)的單高斯背景建模方法,為了處理復(fù)雜背景和緩慢變換的背景,提出混合高斯模型[2]。
針對(duì)視頻圖像中光照變化較大和動(dòng)態(tài)背景造成運(yùn)動(dòng)目標(biāo)提取困難的問題,文獻(xiàn)[3]提出基于碼本(CodeBook,CB)的建模方法。該方法提出采用不同的方法處理各種不同的背景環(huán)境,實(shí)踐證明該方法能夠?qū)σ曨l中的不同圖像背景進(jìn)行有效地建模,運(yùn)動(dòng)目標(biāo)檢測(cè)的效果也得到了顯著改進(jìn)。但是該方法不能根據(jù)視頻中圖像的實(shí)際情況自適應(yīng)地選擇應(yīng)該使用的背景模型。因此,不能根據(jù)視頻圖像的復(fù)雜度,選擇建立相應(yīng)的簡(jiǎn)單或復(fù)雜的背景模型。
本文提出一種根據(jù)背景復(fù)雜度進(jìn)行背景模式切換的算法,該算法通過信息論的熵理論[4]和邊緣比率判斷圖像的復(fù)雜度[5]。對(duì)背景復(fù)雜度較低的圖像,利用改進(jìn)均值法進(jìn)行背景建模;對(duì)背景復(fù)雜度較高的圖像,則利用碼本進(jìn)行背景建模。實(shí)驗(yàn)結(jié)果表明,本文提出的方法具有良好的檢測(cè)精度和實(shí)時(shí)性能,并能有效地處理不同復(fù)雜度的視頻圖像。
1.1 改進(jìn)均值法背景模型
均值法背景模型[6]是基于時(shí)間的多幅圖像的平均,即通過求一段時(shí)間內(nèi)的連續(xù)視頻圖像累加和的平均值得到背景圖像。公式如下:
實(shí)驗(yàn)步驟為:
第一步:將視頻分解,取視頻圖像的第一幀和最后一幀,然后用視頻圖像的幀數(shù)除以5,使得進(jìn)行算法編程的圖像按比例取得。
第二步:通過sobel邊緣檢測(cè)算子檢測(cè)邊緣像素的數(shù)量,并通過公式計(jì)算邊緣比率。
第三步:按照0.6倍圖像信息熵和0.4倍邊緣比率進(jìn)行加權(quán),求解圖像的復(fù)雜度。求解出判斷圖像復(fù)雜度的閾值。
目前,背景建模通常采用一種模型結(jié)構(gòu)進(jìn)行目標(biāo)檢測(cè)。本文采用的模型選擇雙背景模型,即對(duì)簡(jiǎn)單視頻圖像選擇改進(jìn)的均值法背景模型和對(duì)復(fù)雜視頻圖像選擇的碼本模型,既可以根據(jù)視頻圖像的復(fù)雜度進(jìn)行背景建模,又可以有效地處理不同的視頻類型。為了區(qū)分視頻圖像的復(fù)雜度,這里引進(jìn)信息論的熵理論和邊緣比率,通過判斷復(fù)雜度的大小選擇構(gòu)造模型的方法,進(jìn)而檢測(cè)到運(yùn)動(dòng)目標(biāo)?;诒尘澳P瓦x擇的運(yùn)動(dòng)目標(biāo)檢測(cè)流程圖如圖1所示。
為了驗(yàn)證本文算法的有效性,算法在VS 2013+OPenCV 3.1.0平臺(tái)上進(jìn)行仿真實(shí)驗(yàn)。
首先,對(duì)多個(gè)視頻序列進(jìn)行數(shù)據(jù)分析,在數(shù)據(jù)分析中充分考慮到光照、目標(biāo)的數(shù)量、視頻圖像的背景,按照0.6倍圖像信息熵和0.4倍邊緣比率進(jìn)行加權(quán),最終得到模型選擇的閾值如表2所示。
其次,用不同復(fù)雜度的視頻進(jìn)行仿真實(shí)驗(yàn),結(jié)果如圖2~圖5所示。通過仿真結(jié)果可知,對(duì)于較為簡(jiǎn)單的視頻序列,改進(jìn)均值法背景模型和碼本背景模型都可以很好地檢測(cè)出運(yùn)動(dòng)目標(biāo)。對(duì)于較為復(fù)雜的視頻序列,碼本背景模型可以很好地檢測(cè)出運(yùn)動(dòng)目標(biāo),但是改進(jìn)均值法背景模型檢測(cè)效果較差。而且通過表3可知,處理簡(jiǎn)單視頻圖像,改進(jìn)均值法背景模型所用的時(shí)間遠(yuǎn)遠(yuǎn)小于碼本背景模型,因此在圖像復(fù)雜度較低的情況下使用改進(jìn)均值法背景模型能夠有效地節(jié)約計(jì)算時(shí)間,提高計(jì)算效率。處理復(fù)雜視頻圖像,改進(jìn)均值法背景模型所用的時(shí)間遠(yuǎn)遠(yuǎn)小于碼本背景模型,但是目標(biāo)檢測(cè)效果不好。對(duì)測(cè)試結(jié)果進(jìn)行分析可知,通過本文算法可以自適應(yīng)地進(jìn)行模型選擇,在保證檢測(cè)效果的同時(shí)提高效率。
基于模型選擇的背景建模方法對(duì)于視頻序列復(fù)雜度較為簡(jiǎn)單的,改進(jìn)均值法背景模型和碼本背景模型均可以很好地檢測(cè)出運(yùn)動(dòng)目標(biāo)。對(duì)于視頻序列較為復(fù)雜的,碼本背景模型可以很好地檢測(cè)出運(yùn)動(dòng)目標(biāo),但是改進(jìn)均值法背景模型檢測(cè)效果較差。通過實(shí)驗(yàn)可知,處理簡(jiǎn)單視頻圖像,改進(jìn)均值法背景模型的效率遠(yuǎn)遠(yuǎn)高于碼本背景模型,因此在圖像復(fù)雜度較低的情況下,改進(jìn)均值法背景模型在保證效果的同時(shí)可以有效地節(jié)約計(jì)算時(shí)間,提高計(jì)算效率。處理復(fù)雜視頻圖像,由于改進(jìn)均值法背景模型的目標(biāo)檢測(cè)效果不好,而碼本算法可以很好地檢測(cè)到目標(biāo)圖像?;谀P瓦x擇的背景建模方法可以滿足不同復(fù)雜度圖像的目標(biāo)檢測(cè),在保證目標(biāo)檢測(cè)效果的同時(shí),提高目標(biāo)檢測(cè)的效率。
[1] 趙瑤.運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤方法研究[D].濟(jì)南:山東大學(xué),2008.
ZHAO Yao. Research on moving target detection and tracking [D]. Jinan: Shandong University, 2008.
[2] LI Q Z, HE D X, WANG B. Effective moving objects detection based on clustering background model for video surveillance [C]// 2008 IEEE Congress on Image and Signal Processing. [S.l.]: IEEE, 2008: 656?660.
[3] LIN G C, YANG S C, WANG C M, et al. Background subtraction based on codebook model and texture feature [C]// 2016 IEEE International Symposium on Computer, Consumer and Control. [S.l.]: IEEE, 2016: 498?501.
[4] ZHANG X, MEI C, CHEN D, et al. Feature selection in mixed data: a method using a novel fuzzy rough set?based information entropy [J]. Pattern recognition, 2016, 56(1): 1?15.
[5] 張晶,薛澄岐,沈張帆,等.基于認(rèn)知分層的圖像復(fù)雜度研究[J].東南大學(xué)學(xué)報(bào)(自然科學(xué)版),2016,46(6):1149?1154.
ZHANG Jing, XUE Chengqi, SHEN Zhangfan, et al. Study on image complexity based on cognitive layering method [J]. Journal of Southeast University (natural science), 2016, 46(6): 1149?1154.
[6] 陳雷.基于自適應(yīng)背景模型的運(yùn)動(dòng)目標(biāo)檢測(cè)[D].北京:北京交通大學(xué),2016.
CHEN Lei. Moving object based on adaptive background model [D]. Beijing: Beijing Jiaotong University, 2016.
[7] 張峰.復(fù)雜背景下基于分層碼本模型的運(yùn)動(dòng)目標(biāo)檢測(cè)與陰影消除[D].武漢:武漢科技大學(xué),2015.
ZHANG Feng. Moving object detection and shadow elimination based on layered codebook model in complicated and dynamic scenes [D]. Wuhan: Wuhan University of Science and Technology, 2015.
[8] 張美靜.亞像素邊緣檢測(cè)技術(shù)研究[D].沈陽:沈陽理工大學(xué),2013.
ZHANG Meijing. Research on sub pixel edge detection technology [D]. Shenyang: Shenyang Ligong University, 2013.
[9] 沈德海,侯建,鄂旭.基于改進(jìn)的Sobel算子邊緣檢測(cè)算法[J].計(jì)算機(jī)技術(shù)與發(fā)展,2013,23(11):22?25.
SHEN Dehai, HOU Jian, E Xu. Edge detection algorithm based on improved Sobel operator [J]. Computer technology and development, 2013, 23(11): 22?25.
[10] GUO G, LAI A. A survey on still image based human action recognition [J]. Pattern recognition, 2014, 47(10): 3343?3361.