齊玉娟,牛瀟然,王延江
(中國(guó)石油大學(xué)信息與控制工程學(xué)院,山東青島266580)
基于人類(lèi)記憶機(jī)制的碼本建模方法研究
齊玉娟,牛瀟然,王延江
(中國(guó)石油大學(xué)信息與控制工程學(xué)院,山東青島266580)
碼本模型在實(shí)際應(yīng)用時(shí)需要提前進(jìn)行離線(xiàn)訓(xùn)練構(gòu)建碼本,在一定程度上限制了碼本模型的實(shí)時(shí)應(yīng)用。為此,將人類(lèi)三階段記憶機(jī)制引入到碼本建模過(guò)程,基于記憶機(jī)制進(jìn)行在線(xiàn)碼本建模。每個(gè)像素點(diǎn)的時(shí)序信息被抽象成碼本中不同的碼字,并通過(guò)在瞬時(shí)、短時(shí)和長(zhǎng)時(shí)記憶空間模擬記憶、遺忘、回憶等認(rèn)知行為,實(shí)時(shí)地對(duì)碼字進(jìn)行分類(lèi)。實(shí)驗(yàn)結(jié)果表明,提出的新算法不僅提高了模型的實(shí)時(shí)性而且對(duì)場(chǎng)景突變的適應(yīng)能力也強(qiáng)于原始模型;同時(shí),新算法在交通監(jiān)測(cè)等現(xiàn)實(shí)應(yīng)用中也能取得良好的效果。
碼本模型;三階段記憶模型;基于記憶的碼本模型;背景建模;運(yùn)動(dòng)目標(biāo)檢測(cè)
運(yùn)動(dòng)目標(biāo)檢測(cè)是計(jì)算機(jī)視覺(jué)領(lǐng)域的基礎(chǔ)性任務(wù),對(duì)運(yùn)動(dòng)目標(biāo)跟蹤、行為分析等后續(xù)處理非常重要,檢測(cè)結(jié)果直接影響后續(xù)處理的效果。目前,常用的目標(biāo)檢測(cè)算法有光流法、相鄰幀差法和背景減除法[1]。其中,背景減除法由于檢測(cè)準(zhǔn)確性高,處理速度快而被廣泛應(yīng)用。背景減除法通過(guò)計(jì)算當(dāng)前幀與背景模型的差實(shí)現(xiàn)運(yùn)動(dòng)目標(biāo)的檢測(cè),因此背景建模是背景減除法的關(guān)鍵。目前常用的背景建模方法有單高斯模型(GM)、混合高斯模型(MOG)、隱馬爾科夫模型(HMM)[2],以及近些年來(lái)被廣泛研究的碼本模型(CB)。碼本模型最初由Kim[3]提出,該模型不僅可以像混合高斯模型一樣對(duì)像素值的動(dòng)態(tài)變化建立準(zhǔn)確的模型,而且對(duì)于光照變化也具有較強(qiáng)的適應(yīng)能力。然而,原始碼本模型也存在著不足,研究者針對(duì)具體問(wèn)題做出了相應(yīng)的改進(jìn)。例如,對(duì)于運(yùn)動(dòng)目標(biāo)暫停運(yùn)動(dòng)、場(chǎng)景突變以及全局光照變化,Kim[3]提出了層次建模以及自適應(yīng)更新;為了解決原始模型計(jì)算量大的問(wèn)題,Guo等[4]提出了層次碼本模型,對(duì)像素塊統(tǒng)計(jì)量的動(dòng)態(tài)變化建立碼本模型以節(jié)省計(jì)算消耗;為了降低誤檢率,Li等[5]提出了基于高斯的碼本模型,使用高斯假設(shè)作為碼字的量化標(biāo)準(zhǔn);Qiu等[6]提出了一種基于box的碼本模型,降低了碼本模型的復(fù)雜性,能夠在復(fù)雜場(chǎng)景下準(zhǔn)確、快速地提取運(yùn)動(dòng)目標(biāo);郭春生等[7]使用Mean Shift對(duì)碼本中碼字和方差進(jìn)行更新,并利用歸一化的Mann-Whitney秩和統(tǒng)計(jì)量自適應(yīng)調(diào)整閾值,提高了運(yùn)動(dòng)目標(biāo)檢測(cè)的精度;范振濤等[8]將平均亮度與原算法中的亮度范圍相融合,使亮度范圍能夠隨像素值的變化正常更新,提高了模型對(duì)光照漸變的適應(yīng)性;莫林等[9]引入了信號(hào)能量分析的思想,對(duì)與碼字匹配的像素進(jìn)行能量累積統(tǒng)計(jì),提高了算法對(duì)復(fù)雜背景環(huán)境的適應(yīng)性,并且在陰影的抑制方面也有較強(qiáng)的魯棒性。由于原始碼本模型算法要先進(jìn)行離線(xiàn)訓(xùn)練構(gòu)建碼本,因此離線(xiàn)訓(xùn)練結(jié)果的好壞直接影響運(yùn)動(dòng)目標(biāo)檢測(cè)的魯棒性;而且在離線(xiàn)訓(xùn)練過(guò)程中不能進(jìn)行前、背景分割,限制了碼本模型算法的推廣應(yīng)用;此外,若場(chǎng)景發(fā)生突變,原始碼本算法不能及時(shí)更新背景模型,會(huì)導(dǎo)致誤檢測(cè)。針對(duì)這些問(wèn)題,筆者受人類(lèi)記憶機(jī)制的啟發(fā),將三階段記憶模型引入到碼本的建立與更新過(guò)程,提出一種能夠在線(xiàn)學(xué)習(xí)的基于記憶機(jī)制的碼本建模方法。
研究表明,記憶系統(tǒng)在人類(lèi)的認(rèn)知過(guò)程中發(fā)揮著至關(guān)重要的作用[11]。以視覺(jué)感知為例,人類(lèi)能夠在復(fù)雜環(huán)境下魯棒地識(shí)別、跟蹤、理解、解釋感興趣目標(biāo)及其所處的場(chǎng)景,這與視覺(jué)系統(tǒng)、人腦記憶、學(xué)習(xí)、推理等功能的協(xié)同工作是密不可分的。其中,記憶系統(tǒng)執(zhí)行將可能發(fā)生形變或有遮擋以及殘缺的注意目標(biāo)與記憶模式進(jìn)行匹配等任務(wù)[12]。作為人腦信息存儲(chǔ)的一個(gè)器官,記憶機(jī)制在自然科學(xué)、生物心理學(xué)、認(rèn)知科學(xué)等領(lǐng)域得到廣泛關(guān)注,研究者提出了多個(gè)記憶模型。其中由Atkinson和Shiffrin于20世紀(jì)60年代提出的記憶信息三級(jí)貯存模型被認(rèn)為是認(rèn)知心理學(xué)中的經(jīng)典模型,經(jīng)過(guò)后續(xù)研究人員的發(fā)展完善形成了三階段記憶理論[11],其模型框圖如圖1所示。
從圖1中可以看出,記憶空間被劃分為瞬時(shí)記憶空間、短時(shí)記憶空間和長(zhǎng)時(shí)記憶空間,對(duì)應(yīng)著信息處理流程的3個(gè)階段。其中瞬時(shí)記憶空間容量最小,信息保存時(shí)間最短,存儲(chǔ)著神經(jīng)系統(tǒng)傳來(lái)的感知信息;短時(shí)記憶空間是進(jìn)行信息編碼、解碼、轉(zhuǎn)換等處理的主要工作場(chǎng)所,并且控制著信息流的方向;長(zhǎng)時(shí)記憶空間容量最大,信息保存時(shí)間最長(zhǎng),存儲(chǔ)著經(jīng)驗(yàn)知識(shí)等具有概念性質(zhì)的信息?!皬?fù)述”決定著信息是否可以長(zhǎng)時(shí)存儲(chǔ),而“提取”將長(zhǎng)時(shí)記憶中的激活信息傳送到短時(shí)記憶。
圖1 三階段記憶模型Fig.1 Three-store memory model
近年來(lái),人類(lèi)記憶機(jī)制被成功應(yīng)用于短時(shí)交通流量預(yù)測(cè)[13]、人工魚(yú)認(rèn)知建模[14]、入侵檢測(cè)建模[15]、計(jì)算機(jī)視覺(jué)[16-19]等領(lǐng)域。特別是在計(jì)算機(jī)視覺(jué)領(lǐng)域的研究中,王延江等[16-17]將三階段記憶模型引入到視覺(jué)信息處理過(guò)程,提出了基于記憶機(jī)制的視覺(jué)信息處理的認(rèn)知建模,用于模擬人腦的一些認(rèn)知過(guò)程,并將其應(yīng)用于背景建模和運(yùn)動(dòng)目標(biāo)跟蹤算法的研究中[10,18-20],較好地解決了復(fù)雜場(chǎng)景下的背景突變、目標(biāo)姿態(tài)突變以及目標(biāo)被嚴(yán)重遮擋等問(wèn)題。
碼本模型采用量化和聚類(lèi)的技術(shù)思路從像素值的動(dòng)態(tài)變化中抽取出背景模型。具體來(lái)說(shuō),對(duì)于像素點(diǎn)Pj,定義Cj={c1,c2,…,cL}為Pj的碼本空間,其中,L是碼本中含有的碼字個(gè)數(shù),不同像素點(diǎn)的碼本空間中碼字的數(shù)量互不相關(guān),僅取決于各點(diǎn)自身亮度值的變化情況。每個(gè)碼字是相應(yīng)像素點(diǎn)的時(shí)變信息聚類(lèi)的結(jié)果,由一個(gè)顏色向量vi=(Ri,Gi,Bi)和一個(gè)六元組構(gòu)成。其中,vi表示碼字ci的RGB顏色向量基準(zhǔn),六元組auxi則封裝了該碼字的動(dòng)態(tài)統(tǒng)計(jì)信息,如表1所示。
基于碼本模型的運(yùn)動(dòng)目標(biāo)檢測(cè)算法由訓(xùn)練階段和前、背景分割階段組成。在訓(xùn)練階段,Pj的不同狀態(tài)被抽象為不同的碼字,構(gòu)成碼本空間。在前、背景分割階段,在碼本中搜索能夠與新的像素值xt匹配的碼字,匹配準(zhǔn)則如下:
其中,colordist(xt,vi)代表了顏色失真度,具體定義
為
表1 原始模型中碼字六元組中各參數(shù)含義Table 1 Meanings of parameters in six-tuple of one code word in original model
如果xt與ci匹配成功,則將該像素點(diǎn)劃分為背景,并更新ci,更新方式如下:
如果xt與碼本中的所有碼字均不匹配,則將該像素點(diǎn)劃分為前景。
3.1 基于三階段記憶機(jī)制的碼本模型
根據(jù)三階段記憶模型的信息處理流程,本文中將碼本空間分割為3部分,即瞬時(shí)、短時(shí)、長(zhǎng)時(shí)記憶空間,如圖2所示。在T時(shí)刻,瞬時(shí)空間存儲(chǔ)著碼本所對(duì)應(yīng)像素點(diǎn)在T-1時(shí)刻的RGB向量xT-1以及激活碼字cact,即在T-1時(shí)刻發(fā)生過(guò)匹配的碼字或新建碼字;短時(shí)空間存儲(chǔ)著在近段時(shí)間內(nèi)發(fā)生過(guò)匹配的碼字,其中既有背景碼字也有前景碼字;長(zhǎng)時(shí)空間中存放著長(zhǎng)時(shí)間未發(fā)生過(guò)匹配的背景碼字。各空間均擁有自身的遺忘機(jī)制和決策機(jī)制,并按一定的規(guī)則對(duì)碼字進(jìn)行更新、傳遞。
基于三階段記憶機(jī)制的碼本模型中,碼字ci仍然由xi和auxi組成。但六元組auxi改為{,,fi, λi,qi,lablei},各參數(shù)的具體含義見(jiàn)表2。
圖2 基于三階段記憶模型的碼本模型Fig.2 Three-stage memory based codebook model
表2 改進(jìn)模型中碼字六元組各參數(shù)的含義Table 2 Meanings of parameters in six-tuple of one code word in improved model
3.2 算法描述
運(yùn)動(dòng)目標(biāo)檢測(cè)時(shí),基于三階段記憶的碼本模型的碼本自身能夠?qū)崟r(shí)地學(xué)習(xí)背景,并存儲(chǔ)在記憶空間中,從而不斷適應(yīng)場(chǎng)景的變化。新一幀的像素值首先與瞬時(shí)空間存儲(chǔ)的像素值進(jìn)行比較,并根據(jù)比較結(jié)果嘗試分類(lèi)。如果得出了分類(lèi)結(jié)果,接下來(lái)只需要對(duì)各空間進(jìn)行更新;如果未得出分類(lèi)結(jié)果,則需要在短時(shí)和長(zhǎng)時(shí)空間中搜索能夠與之匹配的碼字,以確定新像素值的類(lèi)別。碼字的匹配標(biāo)準(zhǔn)和更新方式如式(1)~(4)。算法流程如圖3所示。
圖3 本文算法框圖Fig.3 Flowchart of proposed algorithm
(1)初始化。第一幀圖像序列時(shí),清空短時(shí)空間和長(zhǎng)時(shí)空間。瞬時(shí)空間中存入當(dāng)前幀的像素值x1,并構(gòu)造一個(gè)新的碼字作為激活碼字。構(gòu)造新碼字的方式如下:
(2)對(duì)第T幀圖像序列,新的像素值xT與瞬時(shí)空間中存儲(chǔ)的像素值xT-1進(jìn)行比較,比較函數(shù)如下:
如果式(6)的結(jié)果為1,轉(zhuǎn)向步驟(3.1);如果式(6)的結(jié)果為0,直接轉(zhuǎn)向步驟(3.2)。
(3)像素分類(lèi)。
(3.1)式(6)的結(jié)果為1,表明新的像素與瞬時(shí)空間中的激活碼字cact相匹配,則進(jìn)行分類(lèi)。分類(lèi)公式為
其中,lableact是cact的類(lèi)別標(biāo)記變量。
(3.2)在短時(shí)空間中搜索能夠匹配的碼字。如果存在,將其作為新的激活碼字替換瞬時(shí)空間中原激活碼字,同時(shí)按式(7)所示,將新的像素劃入激活碼字的類(lèi)別中,并直接轉(zhuǎn)向步驟4;如果短時(shí)空間中沒(méi)有與新的像素相匹配的碼字,轉(zhuǎn)向步驟(3.3)。
(3.3)在長(zhǎng)時(shí)空間中搜索能夠匹配的碼字。由于長(zhǎng)時(shí)空間中存儲(chǔ)的均是背景碼字,若存在匹配碼字,將新的像素分類(lèi)為背景;否則,分類(lèi)為前景,并以新的像素為基準(zhǔn)建立新碼字。同時(shí),將匹配碼字或新建碼字作為新的激活碼字提取至瞬時(shí)空間,原激活碼字被傳送到短時(shí)空間。
(4)記憶空間模型更新。
更新瞬時(shí)空間,即更新激活碼字,并用xT取代xT-1。
更新短時(shí)空間包括類(lèi)別轉(zhuǎn)換、遺忘與記憶,具體操作為
其中,式(8)是類(lèi)別轉(zhuǎn)換函數(shù),將發(fā)生匹配次數(shù)足夠多的前景碼字轉(zhuǎn)換為背景碼字;式(9)為遺忘函數(shù),將匹配次數(shù)不足且近段時(shí)間內(nèi)未發(fā)生匹配的碼字清除;式(10)為記憶函數(shù),將發(fā)生匹配次數(shù)足夠多但在近段時(shí)間內(nèi)未發(fā)生匹配的背景碼字存入長(zhǎng)時(shí)空間。
更新長(zhǎng)時(shí)空間,融合其中相似的碼字,融合方式為
為驗(yàn)證本文中所提模型及算法的有效性和實(shí)用性,用兩段標(biāo)準(zhǔn)視頻在主頻為Core 2.3GHz、內(nèi)存為2G的計(jì)算機(jī)上進(jìn)行測(cè)試,并與原始碼本算法以及參考文獻(xiàn)[3]的層次碼本算法(layered codebook modeling and detection)進(jìn)行了對(duì)比。實(shí)驗(yàn)中所用標(biāo)準(zhǔn)視頻大小均為320×240,幀頻分別為29幀/s和14幀/s。
4.1 對(duì)場(chǎng)景變化的適應(yīng)性對(duì)比實(shí)驗(yàn)
第一個(gè)序列采用一段拍攝于停車(chē)場(chǎng)的標(biāo)準(zhǔn)視頻。圖4(a)展示的是前景目標(biāo)暫停運(yùn)動(dòng)的情況:兩輛汽車(chē)先后駛?cè)腌R頭中并停止運(yùn)動(dòng)。在停止運(yùn)動(dòng)一段時(shí)間后,兩輛車(chē)均應(yīng)被視為背景。圖4(b)、(c)和(d)分別是原始碼本算法、層次碼本算法以及本文所提算法的分割結(jié)果。圖5(a)描述了背景突變的情景:一輛停泊的汽車(chē)重新啟動(dòng)行駛,同時(shí)另一輛停泊的汽車(chē)中走出一名乘客,而后乘客與行駛的汽車(chē)匯合并停止運(yùn)動(dòng)。圖5(b)、(c)和(d)分別是原始碼本算法、層次碼本算法以及本文所提算法的分割結(jié)果。
圖4 前景目標(biāo)暫停運(yùn)動(dòng)時(shí)的分割結(jié)果Fig.4 Segmentation results when moving objects stop
從圖4以及圖5中看出:原始碼本算法不能將停止運(yùn)動(dòng)后的目標(biāo)自適應(yīng)地轉(zhuǎn)化為背景,難以處理場(chǎng)景突變的情況;層次碼本算法可以自適應(yīng)地處理場(chǎng)景突變的情況,但檢測(cè)結(jié)果中存在著被誤檢為前景的區(qū)域;相比原始碼本與改進(jìn)后的層次碼本,本文算法的誤檢率更低,并且對(duì)場(chǎng)景突變的適應(yīng)速度也快于層次碼本模型。
圖5 場(chǎng)景突變時(shí)的分割結(jié)果Fig.5 Segmentation results when background changes suddenly
4.2 離線(xiàn)訓(xùn)練與在線(xiàn)學(xué)習(xí)對(duì)比實(shí)驗(yàn)
第二個(gè)序列采用一段拍攝于高速公路的標(biāo)準(zhǔn)視頻,圖6(b)、(c)和(d)分別給出了原始碼本算法、層次碼本算法和本文算法的運(yùn)動(dòng)目標(biāo)分割結(jié)果(序列第10、30、60、120、240和400幀)。實(shí)驗(yàn)中,用序列前30幀訓(xùn)練原始碼本模型算法。
從圖6(b)、(c)可以看出,原始碼本算法及層次碼本算法在訓(xùn)練階段無(wú)法分割前景和背景,且由于訓(xùn)練階段有運(yùn)動(dòng)物體的干擾,訓(xùn)練不夠徹底,因此背景分割時(shí)將路面誤檢為前景(圓圈圈出的區(qū)域)。此外,場(chǎng)景越復(fù)雜,原始碼本和層次碼本算法需要離線(xiàn)訓(xùn)練的時(shí)間就越長(zhǎng)。相比之下,本文中提出的算法用在線(xiàn)學(xué)習(xí)替代了離線(xiàn)訓(xùn)練,自始至終能夠進(jìn)行運(yùn)動(dòng)目標(biāo)檢測(cè),如圖6(d)所示;同時(shí)也避免了因訓(xùn)練不充足造成誤檢。
圖6 視頻‘highway’的分割結(jié)果Fig.6 Segmentation results of'highway'
在本實(shí)驗(yàn)中,本文算法的處理速度為10.7幀/ s,高于原始算法的6.2幀/s。
4.3 改進(jìn)模型的其他應(yīng)用
為了驗(yàn)證提出的模型和算法的實(shí)用性,采用本文中實(shí)驗(yàn)視頻作為實(shí)時(shí)交通監(jiān)測(cè)的對(duì)象,并選取坐標(biāo)為(120,60)的像素點(diǎn)為監(jiān)測(cè)點(diǎn),根據(jù)不同參數(shù)的變化情況判斷交通狀況。
圖7 交通監(jiān)測(cè)中各參數(shù)的變化Fig.7 Parameters used in monitoring
圖7(a)、(b)、(c)分別描述了前景碼字?jǐn)?shù)量、短時(shí)記憶空間中背景碼字?jǐn)?shù)量、長(zhǎng)時(shí)記憶空間中碼字?jǐn)?shù)量的變化趨勢(shì)。上述三者判斷場(chǎng)景中的交通狀況如表3(其中,a、b、c分別對(duì)應(yīng)圖7(a)、(b)、(c)中碼字?jǐn)?shù)量的變化,“↑”代表增加,“-”代表沒(méi)有變化)所示,并以此為根據(jù)采取相應(yīng)的措施。
為了能夠精確地監(jiān)測(cè)交通流量,圖7(d)記錄了監(jiān)測(cè)點(diǎn)碼本中激活碼字的類(lèi)別標(biāo)記變量lableact的跳變次數(shù),該參數(shù)的1/2即通過(guò)監(jiān)測(cè)點(diǎn)汽車(chē)的數(shù)量。從圖中可以看出,截止到第500幀(圖7(d)虛線(xiàn)標(biāo)注),總共有12輛汽車(chē)駛過(guò)了監(jiān)測(cè)點(diǎn)。
本文實(shí)驗(yàn)中僅設(shè)定了一個(gè)監(jiān)測(cè)點(diǎn)以驗(yàn)證算法的效果,如果同時(shí)對(duì)多個(gè)點(diǎn)進(jìn)行監(jiān)測(cè),則會(huì)取得更為詳盡的視頻分析。
表3 碼字?jǐn)?shù)量變化對(duì)應(yīng)的各種交通狀況Table 3 Different traffic condition corresponding to number of code words
針對(duì)離線(xiàn)訓(xùn)練對(duì)碼本模型的約束,將三階段記憶模型引入到碼本的建立與更新過(guò)程,提出一種能夠在線(xiàn)學(xué)習(xí)的碼本模型。該模型不需要離線(xiàn)訓(xùn)練,在瞬時(shí)、短時(shí)和長(zhǎng)時(shí)記憶空間中模擬記憶、遺忘、回憶等認(rèn)知行為對(duì)碼字進(jìn)行實(shí)時(shí)分類(lèi)。實(shí)驗(yàn)結(jié)果表明,提出的算法不僅提高了模型的實(shí)時(shí)性,而且對(duì)場(chǎng)景突變的適應(yīng)能力強(qiáng)于原始模型;同時(shí),該算法也能應(yīng)用于交通監(jiān)測(cè)領(lǐng)域。
[1] 萬(wàn)纓,韓毅,盧漢清.運(yùn)動(dòng)目標(biāo)檢測(cè)算法的探討[J].計(jì)算機(jī)仿真,2006,23(10):221-226. WAN Ying,HAN Yi,LU Hanqing.The methods for moving object detection[J].Computer Simulation,2006,23(10):221-226.
[2] YILMAZ A,JAVED O.Object tracking:a survey[J]. ACM Computing Survey,2006,38(4):1-45.
[3] KIM K,CHALIDABHONGSE T H,HARWOOD D,et al.Real-time foreground-background segmentation using codebook model[J].Real-Time Imaging,2005,11(3):172-185.
[4] GUO J M,LIU Y F,CHIH-HSIEN H,et al.Hierarchical method for foreground detection using codebook model[J].IEEE Trans Circuits Syst Video Techn,2011,21(6):804-815.
[5] LI Y B,CHEN F,XU W L,et al.Gaussian-based codebook model for video background subtraction:proceedings of Second International Conference of ICNC,Xi'an,China,Step.24-28,2006[C].Berlin Heidelberg:Springer,c2006.
[6] QIU T,XU Y P,ZHOU M L.Box-based codebook model for real-time objects detection:proceedings of 7th World Congress on Intelligent Control and Automation,2008[C].Piscataway:Institute of Electrical and Electronics Engineers Inc,c2008.
[7] 郭春生,王盼.一種基于碼本模型的運(yùn)動(dòng)目標(biāo)檢測(cè)算法[J].中國(guó)圖象圖形學(xué)報(bào),2010,15(7):1079-1083. GUO Chunsheng,WANG Pan.An algorithm based on codebook model to moving objects detection[J].Journal of Image and Graphics,2010,15(7):1079-1083.
[8] 范振濤,陳曉竹,陳亮.基于碼本算法中亮度范圍的改進(jìn)策略[J].中國(guó)計(jì)量學(xué)院學(xué)報(bào),2013,24(3):266-271. FAN Zhentao,CHEN Xiaozhu,CHEN Liang.Improvement strategy based on brightness ranges in codebook algorithms[J].Journal of China University of Metrology,2014,24(3):266-271.
[9] 莫林,周贊,雷禹,等.基于YUV空間碼本模型的運(yùn)動(dòng)檢測(cè)[J].計(jì)算機(jī)工程與應(yīng)用,2012,48(25):180-183. MO Lin,ZHOU Zan,LEI Yu,et al.Motion detection method based on YUV codebook model[J].Computer Engineering and Applications,2012,48(25):180-183.
[10] 齊玉娟,王延江,李永平.基于記憶的混合高斯背景建模[J].自動(dòng)化學(xué)報(bào),2010,36(11):1520-1526. QI Yujuan,WANG Yanjiang,LI Yongping.Memorybased Gaussian mixture background modeling[J].Acta Automatica Sinica,2010,36(11):1520-1526.
[11] 艾森克M W,基恩M T.認(rèn)知心理學(xué)[M].5版.上海:華東師范大學(xué)出版社,2009:223-230.
[12] 羅四維.視覺(jué)信息認(rèn)知計(jì)算理論[M].北京:科學(xué)出版社,2010.
[13] HUANG S,SADEK A W.A novel forecasting approach inspired by human memory:the example of short-term traffic volume forecasting[J].Transportation Research Part C:Emerging Technologies,2009,17(5):510-525.
[14] 張淑軍,班曉娟,陳勇,等.基于記憶的人工魚(yú)認(rèn)知模型[J].計(jì)算機(jī)工程,2007,33(19):33-35. ZHANG Shujun,BAN Xiaojuan,CHEN Yong,et al. Memory-based cognitive model of artificial fish[J]. Computer Engineering,2007,33(19):33-35.
[15] 黃光球,趙煜.基于生物記憶原理的入侵檢測(cè)模型[J].計(jì)算機(jī)應(yīng)用,2009,29(5):1279-1284.HUANG Guangqiu,ZHAO Yu.Approach to intrusion detection model based on biological memory principles[J].Journal of Computer Applications,2009,29(5):1279-1284.
[16] 王延江,齊玉娟.基于記憶機(jī)制的視覺(jué)信息處理認(rèn)知建模[J].模式識(shí)別與人工智能,2013,26(2):144-150. WANG Yanjiang,QI Yujuan.Memory-based cognitive modeling for visual information processing[J].Pattern Recognition and Artificial Intelligence,2013,26(2):144-150.
[17] WANG Yanjiang,QI Yujuan,LI Yongping.Memory-based multiagent coevolution modeling for robust moving object tracking[J].The Scientific World Journal,2013[2014-10-11]http://dx.doi.org/10.1155/2013/793013.
[18] 齊玉娟,王延江,索鵬.一種基于混合高斯的雙空間自適應(yīng)背景建模方法[J].中國(guó)石油大學(xué)學(xué)報(bào):自然科學(xué)版,2012,36(5):175-178,183. QI Yujuan,WANG Yanjiang,SUO Peng.A doublesubspace adaptive background modeling method based on Gaussian mixture model[J].Journal of China University of Petroleum(Edition of Natural Science),2012,36(5):175-178,183.
[19] 齊玉娟,王延江.基于人類(lèi)記憶模型的粒子濾波魯棒目標(biāo)跟蹤算法[J].模式識(shí)別與人工智能,2012,25(5):810-816. QI Yujuan,WANG Yanjiang.Robust object tracking algorithm by particle filter based on human memory model[J].Pattern Recognition and Artificial Intelligence,2012,25(5):810-816.
[20] WANG Y J,QI Y J.Memory-based cognitive modeling for robust object extraction and tracking[J].Applied Intelligence,2013,39(3):614-629.
(編輯 修榮榮)
Memory-based codebook modeling for real-time object detection
QI Yujuan,NIU Xiaoran,WANG Yanjiang
(College of Information and Control Engineering in China University of Petroleum,Qingdao 266580,China)
Codebook modeling builds codebook through offline training before segmentation,which will affect its real-time application to some extent.In order to tackle this problem,in this paper,three-stage memory mechanism is introduced into the construction and updating process of codewords and a memory-based codebook model(MCB)which is capable of online learning is proposed.The sequential information of each pixel is abstracted into codewords which are classified by imitating some cognitive behaviors such as memorization,forgetting,and recall.Experimental results demonstrate that our method not only improves real timing but also is much more adaptive to the scenes with sudden changes than the original model.In addition,the proposed method can be applied in traffic monitoring.
codebook;three-stage memory model;memory-based codebook;background modeling;object detection
TP391
A
1673-5005(2015)04-0178-07
10.3969/j.issn.1673-5005.2015.04.025
2014-10-20
國(guó)家自然科學(xué)基金項(xiàng)目(61271407,61301242);山東省自然科學(xué)基金項(xiàng)目(ZR2013FQ015);中央高?;究蒲袠I(yè)務(wù)費(fèi)專(zhuān)項(xiàng)(R1405008A);中國(guó)石油大學(xué)(華東)研究生創(chuàng)新工程項(xiàng)目(YCX2014056)
齊玉娟(1977-),女,講師,博士,研究方向?yàn)橛?jì)算機(jī)視覺(jué)、模式識(shí)別。E-mail:qiyj@upc.edu.cn。
王延江(1966-),教授,博士,博士生導(dǎo)師,研究方向?yàn)橛?jì)算機(jī)視覺(jué)、模式識(shí)別。E-mail:yjwang@upc.edu.cn。
引用格式:齊玉娟,牛瀟然,王延江.基于人類(lèi)記憶機(jī)制的碼本建模方法研究[J].中國(guó)石油大學(xué)學(xué)報(bào):自然科學(xué)版,2015,39(4):178-184.
QI Yujuan,NIU Xiaoran,WANG Yanjiang.Memory-based codebook modeling for real-time object detection[J].Journal of China University of Petroleum(Edition of Natural Science),2015,39(4):178-184.