• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于Adaboost分類器的車輛檢測與跟蹤算法

      2017-10-23 02:22:39陳擁權(quán)陳學(xué)三
      計算機技術(shù)與發(fā)展 2017年10期
      關(guān)鍵詞:車流量質(zhì)心分類器

      陳擁權(quán),陳 影,陳學(xué)三

      (合肥寰景信息技術(shù)有限公司,合肥 安徽 230088)

      基于Adaboost分類器的車輛檢測與跟蹤算法

      陳擁權(quán),陳 影,陳學(xué)三

      (合肥寰景信息技術(shù)有限公司,合肥 安徽 230088)

      車輛檢測與跟蹤是智能交通領(lǐng)域的重要研究課題之一。為了促進平安城市的建設(shè),更好地輔助車輛駕駛,提出了一種基于類Haar特征和Adaboost分類器的實時車輛檢測與跟蹤算法。采集大量車輛正負樣本圖像,基于積分圖提取圖像的類Haar特征;利用Adaboost算法對類Haar特征進行選擇及分類器訓(xùn)練;利用得到的分類器進行模式匹配,實現(xiàn)對車輛的檢測。在相鄰幀中進行車輛的特征匹配,完成車輛的跟蹤。在車輛跟蹤的基礎(chǔ)上,通過場景標(biāo)定,實現(xiàn)對車輛的測速和車流量的統(tǒng)計。在真實道路場景中的實驗結(jié)果表明,所提方法能實時并有效地對車輛進行檢測與跟蹤,在一定程度上緩解了交通壓力;能準(zhǔn)確地進行車輛測速和車流量統(tǒng)計,可為超速和道路擁擠的判定提供相關(guān)依據(jù),具有較好的應(yīng)用前景。

      車輛檢測與跟蹤;類Haar特征;Adaboost算法;測速;車流量統(tǒng)計

      0 引 言

      隨著城市化進程的加快,智能交通的重要性越發(fā)凸顯。而車輛檢測作為智能交通領(lǐng)域中至關(guān)重要的一部分,激發(fā)了廣大學(xué)者們的研究興趣。車輛檢測方法一般有光流法[1-2]、幀差法[3-4]和背景差分法[5-6]等。其中,光流法的算法復(fù)雜度較高,不能在實時系統(tǒng)中得到有效應(yīng)用;幀差法雖然算法復(fù)雜度較低,但是檢測精度達不到應(yīng)用的需求;背景差分法是最常用的方法,但背景的初始化和維護比較困難,且由于忽視了相鄰像素點之間的關(guān)系,因此抗噪聲能力較差,同時算法易受圖像陰影的干擾,也不能很好地解決遮擋問題。

      近年來,機器學(xué)習(xí)的發(fā)展為目標(biāo)檢測提供了新的思路。在基于神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測方法中,Rowley等提出采用局部連接的神經(jīng)網(wǎng)絡(luò)進行人臉檢測[7],取得了較好的效果,具有里程碑的意義;張全發(fā)等提取圖像的梯度方向直方圖特征,利用支持向量機訓(xùn)練分類器,實現(xiàn)圖像中工程車輛的檢測[8],具有較高的準(zhǔn)確度。為此,利用Adaboost算法[9-10]實現(xiàn)車輛的檢測,其針對同一個訓(xùn)練集訓(xùn)練不同的弱分類器,然后聯(lián)合弱分類器,構(gòu)造最終的強分類器。Adaboost算法無需任何關(guān)于弱學(xué)習(xí)器性能的先驗知識,算法效率高,具有很強的應(yīng)用性。

      在車輛跟蹤方面,基于區(qū)域的跟蹤方法[11]很難處理車輛間的遮擋問題;基于模型的方法[12]存在難以獲得所有車輛詳細的幾何模型和穩(wěn)健性不夠高的問題;而動態(tài)輪廓法[13]在復(fù)雜的交通場景中初始化較困難。為此,提出一種基于類Haar特征與Adaboost分類器的車輛檢測與跟蹤算法。該算法采用基于特征的跟蹤方法[14],將車輛的某些特征作為匹配跟蹤的基礎(chǔ),并用相應(yīng)的特征參數(shù)來描述目標(biāo)的運動狀態(tài),通過跟蹤車輛上的某些特征實現(xiàn)對車輛的跟蹤。在車輛跟蹤的基礎(chǔ)上,通過場景標(biāo)定,將圖像坐標(biāo)轉(zhuǎn)化為世界坐標(biāo),實現(xiàn)對車輛的測速和車流量的統(tǒng)計。

      1 基于Adaboost算法的車輛檢測

      Adaboost算法的主要思想是將許多分類能力較差的弱分類器通過一定方式整合起來,構(gòu)成一個分類能力較強的強分類器,再將若干強分類器串聯(lián)起來,形成分級分類器,進一步在圖像上進行多尺度搜索檢測。

      1.1特征選取與計算

      為了判斷圖像中是否含有車輛,需要對車輛的多個特征進行建模。這里選用Viola等提出的類Haar特征[10,15]作為車輛檢測的特征向量,對車輛進行刻畫。

      類Haar的每個特征由多個矩形組成,可以對邊緣和線性特征進行檢測,其特征值的計算為組成的矩形區(qū)域灰度積分之和,如式(1)所示。

      (1)

      其中,ωi∈R為矩形的權(quán)重;RecSum(ri)為矩形ri構(gòu)成的區(qū)域灰度積分;N為構(gòu)成的矩形個數(shù)。

      1.2Adaboost算法描述

      利用級聯(lián)分類器作為判斷圖像窗口類別的二分類器,該級聯(lián)式的分類器能快速排除圖像中絕大部分的非車輛窗口,進而加快車輛檢測速度。算法描述如下:

      (1)對于給定的訓(xùn)練樣本(x1,y1),(x2,y2),…,(xn,yn),其中yi=0代表其為非車輛(負樣本),yi=1代表其為車輛(正樣本),n為訓(xùn)練樣本總數(shù)。

      (2)對權(quán)重進行初始化:w1,i=D(i)。當(dāng)樣本是正樣本時,D(i)=1/2k;當(dāng)樣本是負樣本時,D(i)=1/2l。其中k,l分別為正負樣本的數(shù)量,k+l=n。

      (3)對t=1,2,…,T,有:

      ①歸一化權(quán)重。

      (2)

      ②基于每個特征f均訓(xùn)練一個弱分類器h(x,f,p,θ);計算所有這些弱分類器的加權(quán)(qt)錯誤率εf。

      εf=∑iqi|h(xi,f,p,θ)-yi|

      (3)

      ③選擇最佳的弱分類器ht(x)(擁有最小錯誤率εt)。

      (4)

      ④按照該最佳弱分類器調(diào)整權(quán)重。

      (5)

      (4)最終的強分類器如式(6)所示:

      (6)

      在訓(xùn)練時,減小被正確分類的樣本權(quán)重,增加被錯誤分類的樣本權(quán)重,以強化后面訓(xùn)練的簡單分類器對這些錯誤分類樣本的訓(xùn)練。最后,整合所有的弱分類器,構(gòu)成最終的強分類器。

      1.3車輛檢測流程

      車輛檢測分類器采用離線的方式進行訓(xùn)練,以保證車輛檢測的實時性。在視頻的各個場景中采集大量的車輛和非車輛正負樣本;提取樣本圖像的類Haar特征,進一步進行特征選擇;基于Haar特征訓(xùn)練一系列Adaboost弱分類器,依據(jù)權(quán)重把這些弱分類器組合成強分類器。該過程運算量較大,耗時較長,但因在離線的模式下進行,不會占用系統(tǒng)檢測時間。

      利用訓(xùn)練得到的分類器對采集的車輛圖像進行檢測,具體過程如下:在待檢測圖像上利用不同大小的矩形框進行多尺度掃描,利用級聯(lián)分類器對掃描的每個矩形區(qū)域進行判斷。如果某矩形區(qū)域通過了所有的級聯(lián)分類器,說明該區(qū)域為車輛窗口,并得到當(dāng)前圖像中車輛所在的位置;否則,說明該區(qū)域不是車輛區(qū)域。車輛檢測的具體流程如圖1所示。

      圖1 車輛檢測算法流程

      2 基于特征匹配的車輛跟蹤

      車輛跟蹤的基本思想是確定同一輛車在不同幀中的位置?;谔卣髌ヅ涞能囕v跟蹤并不是對整個車進行跟蹤,僅利用檢測框的質(zhì)心進行匹配。通過對車輛上點的跟蹤來完成對車輛的跟蹤,當(dāng)車輛存在部分遮擋時,該算法仍能保持較好的跟蹤效果。

      (7)

      (8)

      (9)

      當(dāng)當(dāng)前幀中車輛的質(zhì)心與估計的質(zhì)心位置差距越小時,函數(shù)f3的值越小。

      利用式(7)對相鄰幀中的車輛質(zhì)心進行匹配,可以形成軌跡。如果k的值不存在,則表示幀t中車輛i為新出現(xiàn)的車輛,在幀t+1中開始跟蹤,將形成一條新的軌跡;如果幀t-1中有未被匹配上的車輛質(zhì)心,則表示對該車輛的跟蹤結(jié)束。由于交通場景中連續(xù)兩幀之間圖像的差異很小,加之車輛的運動為剛性運動,所以在兩幀之間可以很好地對質(zhì)心進行匹配。

      基于特征匹配的車輛跟蹤方法具有其他方法少有的優(yōu)點,具體如下:

      (1)提取的特征較為簡單,運算速度較快,實時性較好;

      (2)抗遮擋和光照變化能力較強。在跟蹤過程中,即使車輛間發(fā)生部分遮擋或者光照變化,也能準(zhǔn)確地檢測出跟蹤框質(zhì)心的位置,仍然可以對運動車輛進行持續(xù)跟蹤。

      3 實驗及結(jié)果分析

      為了驗證所提算法的有效性,在拍攝的真實道路場景中的視頻圖像上采集不同環(huán)境、不同光照條件下的車輛正負樣本,其中正樣本4 000,負樣本8 500,并全部歸一化為24*24像素的大小,部分樣本如圖2所示。

      圖2 部分訓(xùn)練樣本

      使用OpenCV來實現(xiàn)樣本的特征提取和分類器的訓(xùn)練,訓(xùn)練階段數(shù)設(shè)為18。每個階段分類器需要的最小命中率設(shè)為0.995,總的錯誤警告率為0.5。按照該設(shè)置得到的強分類器個數(shù)為18,每個強分類器包含了若干弱分類器及其分割的閾值。

      3.1車輛檢測

      (10)

      其中,0<α<1,實驗中取α=0.7。

      部分車輛檢測結(jié)果如圖3所示,其中外面較大的矩形框為檢測的感興趣區(qū)域,里面較小的矩形框標(biāo)出的為檢測到的車輛區(qū)域。

      圖3 車輛檢測結(jié)果

      由圖3可以看出,在不同環(huán)境、不同光照條件下,該算法對不同行駛方向的車均有較好的檢測效果。每幀圖像處理的時間在20 ms左右,達到了實時檢測。

      3.2車輛跟蹤

      在檢測的基礎(chǔ)上,對檢測框的質(zhì)心進行匹配,形成車輛運動的軌跡,完成車輛的跟蹤。依據(jù)車輛出現(xiàn)的先后順序,對車輛進行標(biāo)號。部分車輛跟蹤結(jié)果如圖4和圖5所示,其中外面較大的矩形框為跟蹤的感興趣區(qū)域,里面較小的矩形框標(biāo)出的為檢測到的車輛區(qū)域,車輛后面的曲線為車輛運動的軌跡。

      圖4 晴天前拍車輛跟蹤結(jié)果

      圖5 陰雨天后拍車輛跟蹤結(jié)果

      由圖4和圖5可以看出,在不同環(huán)境、不同光照條件下,該算法對不同行駛方向的車均有較好的跟蹤效果,只有在極個別的情況下才會出現(xiàn)在某一幀跟丟的情況。算法有效性得到驗證。每幀圖像處理的平均時間在30 ms左右,達到了實時跟蹤。

      3.3測速與流量統(tǒng)計

      在跟蹤的基礎(chǔ)上,還進行了車輛測速和流量統(tǒng)計,擴展了車輛跟蹤的應(yīng)用。這里通過計算軌跡點的速度來估計車輛的速度。由于軌跡點會出現(xiàn)在圖像的不同位置,而像素間的距離和真實世界的距離不成比例,因此需要通過場景標(biāo)定來解決。在實驗中采集36對圖像坐標(biāo)點和對應(yīng)的世界坐標(biāo)點,計算單應(yīng)矩陣,進而對圖像坐標(biāo)和世界坐標(biāo)進行轉(zhuǎn)換。因為標(biāo)定的是二維場景,所以計算速度的點越靠近地面,計算出的速度的準(zhǔn)確度越高。實驗中取檢測框下邊界的中點O,將該點的圖像坐標(biāo)轉(zhuǎn)為世界坐標(biāo),根據(jù)點O在兩幀圖像中移動的距離和幀差,計算點O的速度,用點O的速度近似地估計車輛的速度。為了保證速度的穩(wěn)定性,只對幀t中軌跡大于5的車輛采用多幀平均法進行速度的計算。

      具體過程如下:分別計算點O在下列兩幀圖像:(t,t-1),(t,t-2),…,(t,1)之間的速度;求出上述t-1個速度的平均值u和標(biāo)準(zhǔn)差sigma,如果某一個速度v滿足:abs(v-u)>sigma,則認為該速度是外點,予以舍棄;求剩余速度的平均值即為該車輛在幀t中的速度。

      統(tǒng)計到當(dāng)前幀為止,經(jīng)過某一絆線的車輛數(shù)量。在感興趣區(qū)域內(nèi)定義一條水平的絆線y=LineY(世界坐標(biāo)),在車輛跟蹤的基礎(chǔ)上,如果某個車輛的軌跡長度大于1,則求得該車輛檢測框質(zhì)心在當(dāng)前幀和上一幀中的世界坐標(biāo)位置,分別為(xt,yt)、(xt-1,yt-1),假設(shè)LineY>yt>yt-1,進而得到y(tǒng)方向幀間距離l=yt-yt-1。如果0

      部分車輛測速和流量統(tǒng)計結(jié)果如圖6所示。

      圖6 車輛測速與車流量統(tǒng)計結(jié)果

      由圖6可以看出,車輛測速算法可以較準(zhǔn)確地對車輛進行測速,經(jīng)實驗得知測量值和真實車速之間的差距在±1 km/h之內(nèi)。在良好的車輛檢測基礎(chǔ)上,車流量統(tǒng)計算法可以精確地對車輛的個數(shù)進行統(tǒng)計,準(zhǔn)確率高達99%以上。每幀圖像處理的平均時間在35 ms左右,達到了實時測速與車流量統(tǒng)計。

      4 結(jié)束語

      為了促進智能交通的進一步發(fā)展,提出了一種基于Adaboost算法的車輛檢測方法。該方法利用基于特征匹配的跟蹤方法對車輛進行跟蹤,在車輛跟蹤的基礎(chǔ)上實現(xiàn)對車速的測量和車流量的統(tǒng)計。實驗結(jié)果表明,該方法在不同的環(huán)境與光照條件下均可以對不同行駛方向的車輛進行實時精確地檢測與跟蹤。今后,針對道路交通環(huán)境的復(fù)雜性,將進一步研究車輛的連續(xù)精確檢測跟蹤方法,并同時對車輛闖紅燈、違章停車等行為的檢測方法進行研究。

      [1] Xin Y,Hou J, Dong L,et al. A self-adaptive optical flow method for the moving object detection in the video sequences[J].International Journal for Light and Electron Optics,2014,125(19):5690-5694.

      [2] 朱 婧.基于改進的光流場算法對運動目標(biāo)的檢測與跟蹤技術(shù)研究[D].哈爾濱:哈爾濱工程大學(xué),2006.

      [3] 姚春蓮,郭克友.一種利用幀差信息的實時運動對象檢測算法[J].計算機工程與應(yīng)用,2011,47:390-394.

      [4] Weng M Y,Huang G C,Da X Y.A new interframe difference algorithm for moving target detection[C]//International congress on image and signal processing.[s.l.]:[s.n.],2010:285-289.

      [5] Zhu Y. Moving objects detection and segmentation based onbackground subtraction and image over-segmentation[J].Journal of Software,2011,6(7):1361-1367.

      [6] Wang W,Yang J,Gao W.Modeling background and segmenting moving objects from compressed video[J].IEEE Transactions on Circuits and Systems for Video Technology,2008,18(5):670-681.

      [7] Rowley H A,Baluja S,Kanade T.Neural network-based face detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1998,20(1):23-38.

      [8] 張全發(fā),蒲寶明,李天然,等.基于HOG特征和機器學(xué)習(xí)的工程車輛檢測[J].計算機系統(tǒng)應(yīng)用,2013,22(7):104-107.

      [9] 文學(xué)志,方 魏,鄭鈺輝.一種基于類Haar特征和改進AdaBoost分類器的車輛識別算法[J].電子學(xué)報,2011,39(5):1121-1126.

      [10] 李文波,王立研.一種基于Adaboost算法的車輛檢測方法[J].長春理工大學(xué)學(xué)報:自然科學(xué)版,2009,32(2):292-295.

      [11] Comanniciu D,Ramesh V,Meer P.Kernel-based object tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2003,25(5):564-577.

      [12] 劉國翌,陳 睿,鄧 宇,等.基于視頻的三維人體運動跟蹤[J].計算機輔助設(shè)計與圖形學(xué)學(xué)報,2006,18(1):82-88.

      [13] Freedman D,Zhang T.Active contours for tracking distributions[J].IEEE Transactions on Image Processing,2004,13(4):518-526.

      [14] Tissainayagam P,Suter D.Object tracking in image sequences using point feature[J].Pattern Recognition,2005,38(1):105-113.

      [15] Viola P,Jones M.Robust real-time face detection[J].International Journal of Computer Vision,2004,57(2):137-154.

      AVehicleDetectionandTrackingAlgorithmBasedonAdaboostClassifier

      CHEN Yong-quan,CHEN Ying,CHEN Xue-san

      (Hefei VRview Information Technology Co.,Ltd.,Hefei 230088,China)

      Vehicle detection and tracking is one of the most important research topics in the field of intelligent transportation.A real-time algorithm of vehicle detection and tracking based on Haar-like features and the Adaboost classifier is proposed to promote the construction of safe city and assist vehicle driving.A large number of positive and negative sample images of vehicle are collected.The Haar-like features of the images are extracted based on the integral map and the Adaboost algorithm is exploited to do Haar-like features selection and classifier training for matching the pattern with the obtained classifier to realize the vehicles detection.The characteristics of the vehicles in the adjacent frames are matched to complete vehicles tracking.By calibrating scene,the vehicle speed measurement and traffic statistics have been achieved based on vehicles tracking.Experimental results in real road scene show that it can effectively conduct vehicle detection and tracking in real-time for alleviating the traffic pressure to some extent and can implement vehicle speed measurement and traffic statistics accurately,which has provided the relevant basis for speeding and road congestion with an excellent application prospect.

      vehicle detection and tracking;Haar-like features;Adaboost algorithm;speed measurement;traffic statistics

      TP301.6

      A

      1673-629X(2017)10-0165-04

      2016-11-08

      2017-03-14 < class="emphasis_bold">網(wǎng)絡(luò)出版時間

      時間:2017-07-11

      安徽省自主創(chuàng)新專項資金計劃項目(13Z02005)

      陳擁權(quán)(1978-),男,碩士,CCF高級會員,研究方向為計算機視覺、圖像處理與模式識別。

      http://kns.cnki.net/kcms/detail/61.1450.TP.20170711.1457.088.html

      10.3969/j.issn.1673-629X.2017.10.035

      猜你喜歡
      車流量質(zhì)心分類器
      重型半掛汽車質(zhì)量與質(zhì)心位置估計
      基于GNSS測量的天宮二號質(zhì)心確定
      BP-GA光照分類器在車道線識別中的應(yīng)用
      電子測試(2018年1期)2018-04-18 11:52:35
      加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
      結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機的TSK分類器
      參考答案
      高速公路重大節(jié)假日免費車流量金額算法研究與應(yīng)用
      基于LLE降維和BP_Adaboost分類器的GIS局部放電模式識別
      一種海洋測高衛(wèi)星質(zhì)心在軌估計算法
      航天器工程(2014年5期)2014-03-11 16:35:53
      一種新型多車道車流量檢測算法
      晋宁县| 诸城市| 东平县| 塘沽区| 保亭| 绥滨县| 饶平县| 韶山市| 邯郸县| 潮州市| 高青县| 惠来县| 芜湖县| 济源市| 宕昌县| 航空| 滦南县| 太谷县| 峨边| 华阴市| 壶关县| 柳州市| 和硕县| 读书| 河西区| 崇左市| 西贡区| 许昌市| 石狮市| 家居| 封开县| 资溪县| 宜宾市| 民丰县| 济源市| 霍林郭勒市| 平安县| 冷水江市| 西安市| 依安县| 同仁县|