• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于幀間差分與碼本模型的運(yùn)動(dòng)車輛檢測(cè)算法?

      2016-05-16 05:39:02楊燕妮吳向前劉鵬
      關(guān)鍵詞:碼本碼字前景

      楊燕妮,吳向前,劉鵬

      (1.新疆大學(xué)電氣工程學(xué)院,新疆烏魯木齊830049;2.新疆大學(xué)信息科學(xué)與工程學(xué)院,新疆烏魯木齊830049;3.成都信息工程大學(xué)計(jì)算機(jī)學(xué)院,四川成都610225)

      0 引言

      隨著我國(guó)經(jīng)濟(jì)的發(fā)展,道路交通也進(jìn)入高速發(fā)展的時(shí)代,汽車數(shù)目的快速增長(zhǎng)給人們的生活帶來(lái)便利.與此同時(shí),也帶來(lái)了如交通事故、交通擁堵等很多交通問(wèn)題.而今,智能交通系統(tǒng)[1]已逐漸成為解決這些日益嚴(yán)峻的交通問(wèn)題的重要手段.車輛檢測(cè)是智能交通系統(tǒng)中一個(gè)重要的研究?jī)?nèi)容,處于系統(tǒng)的最底層,主要獲取車輛的形狀和位置等基本信息,為后續(xù)的識(shí)別、跟蹤等提供了可能性.因此,良好的車輛檢測(cè)技術(shù)對(duì)整個(gè)智能交通系統(tǒng)尤為重要.基于視頻的車輛檢測(cè)技術(shù)因?yàn)槠涑杀镜?、適用廣、易維護(hù)等優(yōu)點(diǎn)在智能交通系統(tǒng)中得到越來(lái)越廣泛的應(yīng)用.當(dāng)前,常用的基于視頻的車輛檢測(cè)算法有光流法[2]、幀間差分法[3]、背景差分法[4].光流法計(jì)算復(fù)雜、實(shí)時(shí)性差,一般在實(shí)時(shí)檢測(cè)中應(yīng)用較少;幀間差分原理簡(jiǎn)單、速度快,很難獲取完整的車輛目標(biāo),但可以與其它方法相融合來(lái)提高整體性能;背景差分法易于實(shí)現(xiàn)、魯棒性強(qiáng),是目前車輛檢測(cè)的主要算法,建立一個(gè)良好的背景模型是背景差分法的關(guān)鍵.

      車輛檢測(cè)場(chǎng)景具有背景變化、光照變化、影子、遮擋等特點(diǎn),對(duì)檢測(cè)算法有實(shí)時(shí)性、準(zhǔn)確性、魯棒性的要求.目前,根據(jù)不同的應(yīng)用場(chǎng)景有很多不同的背景建模方式.最常用的混合高斯模型[5]能較好的克服光照變化、背景中的樹枝晃動(dòng),可用于復(fù)雜場(chǎng)景下的背景建模,但該方法的計(jì)算復(fù)雜度較高、實(shí)時(shí)性差.

      Kim等人提出的碼本模型算法,其基本思想是針對(duì)彩色視頻圖像,為每個(gè)像素建立一個(gè)由多個(gè)碼字組成的碼本模型,然后根據(jù)亮度范圍與顏色失真度對(duì)新輸入的像素點(diǎn)進(jìn)行聚類,進(jìn)而提取出前景目標(biāo)[6].該算法實(shí)時(shí)性與魯棒性較好,能夠解決復(fù)雜背景下的車輛檢測(cè)問(wèn)題.文獻(xiàn)[7]提出基于YUV空間的碼本模型算法,相比傳統(tǒng)的RGB空間模型,其碼字描述更加簡(jiǎn)單.文獻(xiàn)[8]提出基于Box模型的碼本算法,雖減少了內(nèi)存開銷,但同時(shí)也降低了檢測(cè)精度.本文結(jié)合像素的時(shí)域、空域信息[9],采用YUV空間下的Box模型,對(duì)亮度信號(hào)Y建立背景的碼本模型,在此基礎(chǔ)上融入幀間差分,來(lái)解決復(fù)雜檢測(cè)場(chǎng)景下的實(shí)時(shí)性、準(zhǔn)確性問(wèn)題.

      1 車輛檢測(cè)算法

      車輛檢測(cè)算法的選取依據(jù)為場(chǎng)景特點(diǎn)、系統(tǒng)要求.復(fù)雜場(chǎng)景下的車輛檢測(cè)需要在傳統(tǒng)算法上根據(jù)實(shí)際要求進(jìn)行改進(jìn).本文選擇背景差分法中的碼本模型和幀間差分法,并對(duì)兩種算法加以改進(jìn)、進(jìn)行融合.

      1.1 背景差分法

      背景差分法是常用的運(yùn)動(dòng)車輛檢測(cè)方法,其核心思想是將當(dāng)前幀與背景模型進(jìn)行差分,根據(jù)設(shè)定閾值得到運(yùn)動(dòng)車輛.該方法原理簡(jiǎn)單,能得到比較精確的運(yùn)動(dòng)車輛信息,但易受光線、天氣等環(huán)境條件的影響.運(yùn)用背景差分法進(jìn)行前景檢測(cè)的步驟為:

      (1)建立背景模型Bt(x,y);

      (2)進(jìn)行背景差分,同時(shí)更新背景,設(shè)Ft(x,y)為當(dāng)前幀,則差分結(jié)果如式(1).

      (3)分割出前景,即根據(jù)設(shè)定的閾值T,對(duì)差分結(jié)果進(jìn)行二值化

      1.2 幀間差分法

      幀間差分是將相鄰兩幀相減得到兩幀圖像亮度差的絕對(duì)值,通過(guò)比較該差值與設(shè)定閾值T之間的大小來(lái)確定是否為前景,該部分與背景差分割前景的方法相同.該方法實(shí)現(xiàn)簡(jiǎn)單,對(duì)場(chǎng)景變化的敏感度低,但不能提取前景的完整區(qū)域.設(shè)相鄰兩幀圖像分別為It(x,y)、It?1(x,y),則幀差圖像Dt(x,y)為式(3),

      2 本文算法

      YUV空間具有亮度分量Y和色度分量U、V相互獨(dú)立的優(yōu)點(diǎn),為了提高車輛檢測(cè)速度,本文將彩色圖轉(zhuǎn)換為灰度圖,將灰度值作為YUV空間的Y分量進(jìn)行處理.本文算法流程如圖1.運(yùn)用碼本算法對(duì)運(yùn)動(dòng)車輛進(jìn)行檢測(cè)包括背景建模和車輛檢測(cè)兩部分,建模過(guò)程中不能同時(shí)進(jìn)行前景車輛檢測(cè),而背景模型的好壞直接影響檢測(cè)效果.因此需要在保證建模質(zhì)量的同時(shí)提高建模速度.檢測(cè)部分包括前景分割與背景更新,背景更新采用一般的分層更新方法[10].

      2.1 建立碼本模型

      2.1.1 融入幀間差分的碼本建模思想

      傳統(tǒng)的碼本算法對(duì)圖片中包括前景目標(biāo)在內(nèi)的每個(gè)像素建立碼本模,在訓(xùn)練過(guò)程中再刪除前景目標(biāo)和噪聲才得到背景碼本.本文通過(guò)幀間差分得到粗糙的背景,再將該背景運(yùn)用碼本模型進(jìn)行訓(xùn)練最終得到精確碼本,該碼本適應(yīng)復(fù)雜的動(dòng)態(tài)場(chǎng)景,并且提高了建模的實(shí)時(shí)性.

      2.1.2 YVU空間下簡(jiǎn)化的碼本模型

      假設(shè)X={x1,x2,...,xN}是某像素的訓(xùn)練序列,長(zhǎng)度為N,其中,xi表示YUV顏色空間下像素的Y分量.定義C={c1,c2,...,cL}為該像素的碼本,包含L個(gè)碼字,每個(gè)碼本的碼字不一定相同.每個(gè)碼字定義為ci={Ymax,Ymin,fi,λi,tlast},其中,Ymax,Ymin為像素的最大和最小值,f為碼字出現(xiàn)的頻率,λ為學(xué)習(xí)期間碼字沒有再次出現(xiàn)的最大時(shí)間間隔,tlast為碼字最后一次匹配的時(shí)間.

      2.1.3 碼本模型訓(xùn)練

      像素碼本構(gòu)建完成之后對(duì)其進(jìn)行訓(xùn)練,碼本模型的訓(xùn)練步驟可總結(jié)如下:

      (1)碼本初始化,即L=0,c=0;

      (2)N幀的背景訓(xùn)練.

      圖1 本文算法流程

      定義背景訓(xùn)練的學(xué)習(xí)邊界Low和High,初始化為像素碼字最大和最小值.新的像素訓(xùn)練過(guò)程中,若某像素的像素值在學(xué)習(xí)邊界內(nèi),即滿足學(xué)習(xí)邊界公式(4)則認(rèn)為該像素找到匹配的碼字,更新該碼字,并調(diào)整Ymax和Ymin使元素包含在碼本中.

      a.若碼本為空或不存在匹配的碼字,則按照下式創(chuàng)建新碼字cL.

      b.若碼本不為空,且存在匹配的碼字cm,則將其更新為:

      (3)初始背景構(gòu)造

      訓(xùn)練結(jié)束后的碼本中存在少量的噪聲和前景碼字,根據(jù)背景碼本碼字出現(xiàn)的間隔時(shí)間短的特點(diǎn),可以通過(guò)計(jì)算λ,消除冗余碼字,以得到純凈的背景碼本M.

      其中,C表示訓(xùn)練得到的初始碼本,TM表示碼字相鄰兩次出現(xiàn)時(shí)間間隔的閾值,一般取為訓(xùn)練幀數(shù)的一半.

      2.2 融合分塊幀差的車輛檢測(cè)

      車輛檢測(cè)視頻圖像中只有出現(xiàn)運(yùn)動(dòng)車輛的區(qū)域才會(huì)出現(xiàn)大的灰度變化,而該區(qū)域占圖像的總面積較小,圖像中的大部分區(qū)域是保持不變或緩慢變化的.為了提高檢測(cè)精度而又不影響效率,可以通過(guò)分塊幀差[11]獲取車輛的大概位置,進(jìn)而將該位置的像素送入訓(xùn)練好的碼本模型進(jìn)行匹配,最終確定該像素是否為前景車輛.

      2.2.1 分塊幀差確定車輛大概位置

      將幀間差分得到灰度圖Dt(x,y)分成不重復(fù)的l個(gè)子塊,每個(gè)子塊包括m?n個(gè)像素,設(shè)視頻圖像每幀的大小為M?N,則第k個(gè)子塊表示為其中p=1,2,··,int(M/m),q=1,2,···,int(N/n).T為設(shè)定的前景像素檢測(cè)閾值,對(duì)于每個(gè)子塊中的每個(gè)像素點(diǎn)的灰度值Dt(x,y)(x=(p?1)m+1,(p?1)m+2,···,pm;y=(q?1)n+1,(q?1)n+2,···,qn)與閾值T比較,若滿足Dt(x,y)>T,則認(rèn)為是前景像素點(diǎn),該子塊的前景像素點(diǎn)個(gè)數(shù)加1,若其達(dá)到設(shè)定的前景像素個(gè)數(shù)閾值TH,則認(rèn)定該子塊為前景目標(biāo).閾值T、TH的取值很關(guān)鍵,取值過(guò)大會(huì)造成前景像素點(diǎn)的漏檢,由于該步是對(duì)前景的粗提取,閾值可以適當(dāng)設(shè)置小一點(diǎn)把運(yùn)動(dòng)區(qū)域放大得到一個(gè)粗略的前景車輛目標(biāo).

      2.2.2 粗略前景像素的碼本模型匹配

      根據(jù)背景建立階段訓(xùn)練得到的碼本上下邊界Ymax和Ymin,可以確定碼本模型檢測(cè)階段的上下范圍,進(jìn)而確定輸入的像素采樣值與碼本是否匹配,若匹配則為背景,否則為前景.具體匹配條件如下式:

      其中,minMod和maxMod為偏移量,檢測(cè)中應(yīng)調(diào)整其值以達(dá)到最好的前景分割.

      圖2為運(yùn)動(dòng)車輛經(jīng)過(guò)粗、細(xì)兩步分割的效果圖,原始視頻分辨率320*240,子塊大小為10*10,閾值T=20,TH=5,minMod=maxMod=20.圖2(a)是當(dāng)前幀,圖2(b)是分塊幀差提取的粗略前景,圖2(c)是最終的精確前景.從最終分割結(jié)果來(lái)看,本文所采取融入分塊幀差的檢測(cè)方法可以獲得良好的檢測(cè)結(jié)果.

      圖2 車輛檢測(cè)結(jié)果

      3 實(shí)驗(yàn)結(jié)果與分析

      本文實(shí)驗(yàn)環(huán)境為:Intel Core i5-4590S 3.00GHZ、內(nèi)存8GB、Windows 7操作系統(tǒng),編程環(huán)境為Vs2010、OpenCV2.4.9.通過(guò)三段經(jīng)典視頻驗(yàn)證本文算法的有效性,視頻一為道路視頻,背景中存在下方草坪和樹枝晃動(dòng)干擾、中央護(hù)欄上光線的漫反射干擾,視頻分辨率320*240;視頻二場(chǎng)景中存在幅度較大的樹枝晃動(dòng)和光線局部變化,視頻分辨率768*576;視頻三場(chǎng)景中光線逐漸變亮,房屋窗戶上有光線反射,分辨率768*576.對(duì)三段視頻分別運(yùn)用混合高斯模型(MOG)算法、RGB空間碼本算法及本文算法進(jìn)行比較.

      圖3為視頻一的第226幀,該時(shí)刻右上角有兩個(gè)前景融為背景,一個(gè)車輛開始緩慢移動(dòng).試驗(yàn)結(jié)果表明,MOG算法在道路中央護(hù)欄位置及車輛邊緣有很多噪聲信號(hào);原碼本算法對(duì)前景融為背景和左側(cè)樹枝晃動(dòng)的情況產(chǎn)生誤判;本文算法能夠較好的克服光照變化和背景晃動(dòng)的干擾,同時(shí)避免了融入背景的誤判,提取目標(biāo)更加精確.圖4為視頻二的第304幀,從檢測(cè)結(jié)果可以看出,MOG效果最差;原始碼本算法依然沒有完全克服樹枝晃動(dòng)干擾,但前景車輛提取準(zhǔn)確完整;本文算法準(zhǔn)確的檢測(cè)出了運(yùn)動(dòng)車輛,對(duì)干擾的敏感度較低,但對(duì)下方車輛的檢測(cè)出現(xiàn)小塊空洞,這與檢測(cè)過(guò)程中的粗分割閾值選取有關(guān).圖5為視頻三的第666幀,由圖可得,MOG檢測(cè)結(jié)果較差,原始碼本算法對(duì)窗戶的反射光線產(chǎn)生誤檢,本文算法可跟隨光線的變化,檢測(cè)效果較好.

      圖3 視頻一檢測(cè)結(jié)果

      圖4 視頻二檢測(cè)結(jié)果

      圖5 視頻三檢測(cè)結(jié)果

      最后給出這幾種車輛檢測(cè)算法處理時(shí)間上的比較,結(jié)果如表1.可以看出本文算法在碼本模型訓(xùn)練速度上有較大的提高,檢測(cè)時(shí)間與RGB空間碼本算法相比略有提高.

      表1 處理速度比較 單位:幀/s

      4 結(jié)束語(yǔ)

      本文根據(jù)車輛檢測(cè)場(chǎng)景較為復(fù)雜的特點(diǎn),通過(guò)比較三種常用運(yùn)動(dòng)車輛檢測(cè)算法的優(yōu)缺點(diǎn),確定采用對(duì)環(huán)境具有更強(qiáng)適應(yīng)性的背景差分法作為本文車輛檢測(cè)的主要算法,幀間差分法作為提高整體性能的補(bǔ)充算法.在此基礎(chǔ)上,針對(duì)常用的混合高斯模型計(jì)算復(fù)雜、實(shí)時(shí)性差等問(wèn)題,引入Kim等人提出的碼本模型作為本文的背景建模方法,針對(duì)已有的基于Box模型的改進(jìn)碼本算法所存在的檢測(cè)精度低等問(wèn)題,采用對(duì)YUV空間下的亮度分量建立碼本模型.實(shí)驗(yàn)結(jié)果表明,本文算法提高了碼本模型的訓(xùn)練速度和檢測(cè)的準(zhǔn)確性,增強(qiáng)了算法對(duì)環(huán)境的適應(yīng)性.同時(shí)實(shí)驗(yàn)發(fā)現(xiàn),算法中分塊幀差的閾值對(duì)檢測(cè)結(jié)果有一定影響,為進(jìn)一步提高本算法的檢測(cè)性能,在未來(lái)的工作中將進(jìn)一步研究閾值的自適應(yīng)選?。?/p>

      參考文獻(xiàn):

      [1]Venetianer P L,Deng H.Performance evaluation of an intelligent video surveillance system–A case study[J].Computer Vision and Image Understanding,2010,114(11):1292-1302.

      [2]YIN Bo,QI Wenjuan,WEI Zhiqiang,et al.Indirect human activity recognition based on optical f l ow method[C].Proc of the 5th International Congress on Image and Signal Processing,2012:99-103.

      [3]趙欽君,趙東標(biāo),陸永華.一種基于時(shí)空信息的多目標(biāo)檢測(cè)新算法[J].儀器儀表學(xué)報(bào),2011,32(4):877-882.

      [4]WANG Jianlin,YANG Yinsheng.A moving object detection algorithm based on background subtraction model[C].Proc of the 3rd IEEE International Conference on Information Management and Engineering,2011:3273-3276.

      [5]CHEN Xiaorong,XI Chuanli,CAO Jianhui.Research on moving object detection based on improved mixture Gaussian model[J].Optik-international Journal for Light and Electron Optics,2015,126(20):2256-2259.

      [6]Kim K,Chalidabhongse T H,Harwood D,et al.Real-time foreground–background segmentation using codebook model[J].Real-time Imaging,2005,11(3):172-185.

      [7]齊美彬,楊愛麗,蔣建國(guó),等.一種基于改進(jìn)碼本的車輛檢測(cè)與跟蹤方法[J].中國(guó)圖象圖形學(xué)報(bào),2011,16(3):406-412.

      [8]YAN Dan,YU Qiang,Wang Minghui.Real-Time Objects Detection Using Layered Codebook Model[J].Advanced Materials Research,2013,694:1937-1944.

      [9]許倫輝,卜文萍,陳衍平,等.基于幀差法和背景差法融合的車流量檢測(cè)方法[J].計(jì)算機(jī)仿真,2012,29(2):353-357.

      [10]GUO Jingming,LIU Yanfei,Hsia C H,et al.Hierarchical method for foreground detection using codebook model[J].Circuits and Systems for Video Technology,2011,21(6):804-815.

      [11]高美鳳,劉娣.分塊幀差和背景差相融合的運(yùn)動(dòng)目標(biāo)檢測(cè)[J].計(jì)算機(jī)應(yīng)用研究,2013,30(1):299-302.

      猜你喜歡
      碼本碼字前景
      Galois 環(huán)上漸近最優(yōu)碼本的構(gòu)造
      免調(diào)度NOMA系統(tǒng)中擴(kuò)頻碼優(yōu)化設(shè)計(jì)
      基于有限域上仿射空間構(gòu)造新碼本
      我國(guó)旅游房地產(chǎn)開發(fā)前景的探討
      四種作物 北方種植有前景
      離岸央票:需求與前景
      放 下
      幾類近似達(dá)到Welch界碼本的構(gòu)造
      數(shù)據(jù)鏈系統(tǒng)中軟擴(kuò)頻碼的優(yōu)選及應(yīng)用
      放下
      文安县| 麦盖提县| 江城| 鄯善县| 安平县| 麟游县| 滁州市| 吉隆县| 焦作市| 尖扎县| 如东县| 盈江县| 虎林市| 留坝县| 瑞昌市| 潼关县| 庆安县| 和静县| 任丘市| 清镇市| 体育| 河间市| 门头沟区| 临湘市| 奉新县| 巴中市| 阿鲁科尔沁旗| 神池县| 周至县| 长葛市| 湖北省| 龙川县| 开化县| 台前县| 五峰| 获嘉县| 金寨县| 突泉县| 都兰县| 乡城县| 潍坊市|