• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于級(jí)聯(lián)微型神經(jīng)網(wǎng)絡(luò)的多角度車輛檢測(cè)方法

      2018-11-17 02:51:06王辛巖
      關(guān)鍵詞:分類器像素神經(jīng)網(wǎng)絡(luò)

      李 浩,連 捷,王辛巖

      1.西安文理學(xué)院 西安市物聯(lián)網(wǎng)應(yīng)用工程重點(diǎn)實(shí)驗(yàn)室,西安 710065

      2.東南大學(xué) 交通學(xué)院,南京 210000

      3.中國(guó)電子科技集團(tuán)公司 第三十八研究所,合肥 230088

      4.西藏大學(xué) 工學(xué)院,拉薩 850000

      1 引言

      快速準(zhǔn)確地獲取復(fù)雜交通場(chǎng)景的車輛信息是構(gòu)建城市智能交通系統(tǒng)的基礎(chǔ)。基于視頻的圖像識(shí)別和大數(shù)據(jù)處理技術(shù)的車輛檢測(cè)方法吸引了大量學(xué)者的關(guān)注[1-2],例如天津工業(yè)大學(xué)苗長(zhǎng)云團(tuán)隊(duì)于2016年利用亮斑分割和連通組件匹配來檢測(cè)和定位車輛前燈,并利用區(qū)域跟蹤算法對(duì)前燈進(jìn)行跟蹤?;谝曨l分析的車輛檢測(cè)算法主要有幀差法[3]、背景建模法[4]、光流法[5]和3D模型法[6]。隨著大數(shù)據(jù)技術(shù)的發(fā)展,近兩年興起的依靠GPU加速的深度學(xué)習(xí)方法也越來越受到重視,并且該方法在實(shí)際應(yīng)用中效果顯著。He等[7]在總結(jié)了Viola研究的基礎(chǔ)上利用Haar特征與AdaBoost相結(jié)合的方法進(jìn)行人臉檢測(cè)。金立生等[8]將此方法進(jìn)行了改進(jìn)用于車臉檢測(cè),首先提取車輛的Haar特征,然后利用AdaBoost算法訓(xùn)練車輛檢測(cè)分類器,該方法對(duì)于車輛的檢測(cè)更加準(zhǔn)確。Negri等[9]利用特征多發(fā)性及高分辨性的方法將HOG特征與Haar特征進(jìn)行融合,然后利用融合特征訓(xùn)練AdaBoost分類器,由于兩種特征都具有多發(fā)性以及高分辨率的特點(diǎn),該方法對(duì)車輛檢測(cè)率較高。DPM(Deformable Parts Model)[10]通過結(jié)合HOG和LSVM,并構(gòu)建多個(gè)組件訓(xùn)練混合模型,在Pascal VOC數(shù)據(jù)庫上獲得了較高的車輛檢測(cè)率。Dollar等[11]將梯度幅值、梯度方向及LUV顏色通道等10個(gè)通道的圖像特征存儲(chǔ)到查找表中,構(gòu)成累積通道特征(Aggregate Channel Feature,ACF),并使用臨近尺度特征估計(jì)算法大幅度提升了特征提取速度,同時(shí)獲得了較好的檢測(cè)率。這些方法雖然優(yōu)勢(shì)明顯,但在面臨復(fù)雜交通場(chǎng)景時(shí)檢測(cè)的準(zhǔn)確率也會(huì)降低。Viola的方法雖然效率較高,但在復(fù)雜交通場(chǎng)景下虛警率隨之上升,不適用于精度較高車輛的檢測(cè)。Negri的方法雖然檢測(cè)率較高,但受特征融合的局限,對(duì)空間多維復(fù)雜角度的車輛檢測(cè)性能較差,無法適用于交通路口等復(fù)雜場(chǎng)景的車輛檢測(cè)。DPM的方法復(fù)雜度過高,計(jì)算速度較慢,無法保證車輛檢測(cè)的實(shí)時(shí)性。Dollar的方法對(duì)多姿態(tài)的車輛檢測(cè)效果不夠理想,其在KITTI數(shù)據(jù)庫上的檢測(cè)率僅為55.89%。綜上所述,基于視頻的復(fù)雜場(chǎng)景車輛檢測(cè)算法對(duì)車輛角度要求高魯棒性差,基于3D模型以及深度學(xué)習(xí)的方法復(fù)雜度過高,對(duì)GPU資源消耗大,兩者都不適合應(yīng)用在復(fù)雜場(chǎng)景多角度環(huán)境下實(shí)時(shí)的目標(biāo)檢測(cè)?;趶?fù)雜度和準(zhǔn)確率的問題,本文對(duì)基于AdaBoost算法的車輛檢測(cè)進(jìn)行了改進(jìn),從Sinha以及Lin等的三級(jí)AdaBoost遞歸模型獲得啟發(fā),提出了一種結(jié)合局部歸一化像素差值特征(Local Normalized Pixel-value Difference,LNPD)的AdaBoost嵌入微型的神經(jīng)網(wǎng)絡(luò)模型,并利用多態(tài)復(fù)雜角度樣本對(duì)具有微型神經(jīng)網(wǎng)絡(luò)的AdaBoost模型進(jìn)行訓(xùn)練,基于真實(shí)的交通場(chǎng)景進(jìn)行測(cè)試實(shí)驗(yàn),結(jié)果表明,本文方法完全能夠滿足現(xiàn)實(shí)場(chǎng)景中的車輛實(shí)時(shí)檢測(cè)要求,且與傳統(tǒng)的快速檢測(cè)算法相比其檢測(cè)性能提高30%以上。

      2 像素差值特征的歸一化處理方法

      像素差值特征提取方法是靜態(tài)檢測(cè)中比較常用的特征獲取方法[12-13],車輛前臉與人臉有較多相似特性,因此本文將該特征應(yīng)用于車輛前臉檢測(cè)中。由于像素差值特征易受光照條件變化影響[14],而使用如下的歸一化像素差值特征對(duì)其基本模型進(jìn)行改進(jìn),能有效地去除光照變化對(duì)檢測(cè)的影響。

      對(duì)于一幅圖像I中的兩個(gè)像素點(diǎn)x和y,其對(duì)應(yīng)的灰度值分別為I(x)、I(y),則像素差值特征 f(x,y)表示為:

      圖像樣本中的歸一化像素差(NPD)特征模型可由式(2)表示:

      其中,I(x)、I(y)為兩個(gè)像素的灰度值,且I(x),I(y)≥0。當(dāng)進(jìn)行歸一化處理時(shí)記為x=y=0即 f(0,0)=0。

      歸一化像素差值特征具有反對(duì)稱性,即 f(x,y)或者 f(y,x)均可用于特征表示,該特性可以減少特征空間的維數(shù)且具有光照不變性。由于在訓(xùn)練該特征時(shí)需要將所有樣本的特征存儲(chǔ)到內(nèi)存空間,需要占用極大的內(nèi)存,對(duì)于一幅20×20大小的人臉圖像,NPD特征的維度為(20×20)×(20×20-1)/2=79 800。這在尺度較小的特征維度的人臉檢測(cè)領(lǐng)域尚可使用,對(duì)于尺度較大的車輛圖像,NPD特征的維度非常大,如果將樣本歸一化到較小尺寸,則會(huì)損失許多細(xì)節(jié)信息。假設(shè)將車輛圖像歸一化到64×64得到的NPD特征維度大小為8 386 560,對(duì)于內(nèi)存為4 GB的計(jì)算機(jī),分別給定5 000左右的正負(fù)樣本,該特征就將占用90%以上的內(nèi)存,導(dǎo)致后續(xù)特征篩選計(jì)算困難。因此,本文提出使用局部歸一化像素差值特征,即LNPD,首先將圖像均分為n個(gè)區(qū)域Ri(i=1,2,…,n),之后在n個(gè)局部區(qū)域內(nèi)提取NPD特征,同時(shí)為突出每個(gè)特征的貢獻(xiàn),將像素差值特征歸一化到0~255之間,得到局部歸一化像素特征提取公式如下:

      將所有區(qū)域的NPD特征串聯(lián),組成最終的LNPD特征,LNPD特征綜合了圖像全局性和局部性特點(diǎn),經(jīng)過將圖像劃分為n個(gè)區(qū)域提取局部歸一化像素差值特征,LNPD特征的維度約為NPD的這種方法不但節(jié)省內(nèi)存空間,同時(shí)適用于有遮擋、旋轉(zhuǎn)角度較大的車輛目標(biāo)檢測(cè),特征獲取樣例如圖1所示。

      圖1為一幅輸入圖像提取的LNPD特征,將圖像歸一化為64×64維度,LNPD特征是基于局部區(qū)域內(nèi)提取NPD特征,且LNPD特征綜合了圖像全局性和局部性特點(diǎn),因此與NPD特征相比,LNPD更能顯示出圖像每個(gè)局部特征的貢獻(xiàn),且特征維度較NPD低。

      圖1 輸入圖像的NPD特征和LNPD特征對(duì)比圖

      3 基于LNPD及MLP的模型構(gòu)建

      3.1 基本模型的優(yōu)化方法

      AdaBoost算法具有很強(qiáng)的自適應(yīng)性,即上一級(jí)的基本分類器錯(cuò)誤的樣本會(huì)得到加強(qiáng),將其加權(quán)后再次用于訓(xùn)練下一個(gè)基本分類器。在每一級(jí)分類中加入一個(gè)新的弱分類器,進(jìn)行多次迭代直到錯(cuò)誤率足夠小或達(dá)到預(yù)期迭代次數(shù)。使用級(jí)聯(lián)AdaBoost進(jìn)行目標(biāo)檢測(cè)的方法有很多,例如使用Haar特征進(jìn)行車輛檢測(cè),同時(shí)與Haar特征相關(guān)的變形及擴(kuò)展特征也有很多。此外與之相關(guān)的局部二值模式(Local Binary Pattern,LBP)及梯度方向直方圖特征(Histogram of Oriented Gradient,HOG)[15]在車輛識(shí)別或行人檢測(cè)領(lǐng)域也有著廣泛的應(yīng)用。然而這些特征普遍存在計(jì)算復(fù)雜,目標(biāo)針對(duì)性較強(qiáng)等缺點(diǎn)。以構(gòu)建目標(biāo)過程為例,AdaBoost算法需要經(jīng)過三步。

      (2)訓(xùn)練弱分類器。如果某一樣本點(diǎn)能夠精確地分類,在構(gòu)造下一級(jí)訓(xùn)練集時(shí),權(quán)重降低;未被精確分類的樣本點(diǎn),權(quán)重提升。由更新過權(quán)重的樣本點(diǎn)構(gòu)造新的訓(xùn)練集,往復(fù)迭代。即使用具有權(quán)值分布Dx的訓(xùn)練數(shù)據(jù)集學(xué)習(xí),得到基本分類器:

      計(jì)算Gm(x)在訓(xùn)練數(shù)據(jù)集上的分類誤差率:

      (3)將各個(gè)訓(xùn)練得到的弱分類器進(jìn)行重組,加大未分類的樣本在分類函數(shù)中的權(quán)重,減小其他樣本在分類函數(shù)中的權(quán)重,即:

      由以上過程可以看出,傳統(tǒng)模型構(gòu)建復(fù)雜,冗余度高,中間節(jié)點(diǎn)過多,識(shí)別效率低,因此本文使用了較為簡(jiǎn)單的像素差值特征,在特征篩選階段引入了微型神經(jīng)網(wǎng)絡(luò)篩選出辨別性較好的弱分類器,在節(jié)省特征計(jì)算時(shí)間的同時(shí)提高了特征的普適性,使得其不僅限于單一物體的檢測(cè)。

      3.2 AdaBoost模型的改進(jìn)

      通常情況下,基于AdaBoost分類器的檢測(cè)算法是將每次訓(xùn)練的分類器進(jìn)行重新組合,將權(quán)值較低的弱分類器經(jīng)過訓(xùn)練結(jié)合成為一個(gè)強(qiáng)分類器,并用同樣的閾值將空間分成兩類。這種方法缺點(diǎn)明顯,首先簡(jiǎn)單的結(jié)構(gòu)不能很好地解析互異特殊類型空間維數(shù)的相關(guān)性;其次二值化忽略了特征中包含的高階特征信息。根據(jù)文獻(xiàn)[12]提出的方法,本文使用二次分割學(xué)習(xí)深度樹,即對(duì)于特征x,使用下述二次函數(shù)進(jìn)行樹節(jié)點(diǎn)的劃分:

      其中,a、b、c為常量;t為閾值的劃分點(diǎn),其作用是判斷閾值是否位于兩個(gè)訓(xùn)練過的閾值之間。這種改進(jìn)后的模型能夠兼顧特征x的一階和二階信息,使其可以更好地解析劃分策略??紤]到車輛特征是一種多復(fù)雜度的檢測(cè)對(duì)象,且特征維度更高,因此使用微型神經(jīng)網(wǎng)絡(luò)[16]代替深度二次樹,基本模型參考Lin等[15]在深度學(xué)習(xí)中使用的微型神經(jīng)網(wǎng)絡(luò)模型。經(jīng)分析論證,微型神經(jīng)網(wǎng)絡(luò)可以根據(jù)問題的復(fù)雜性調(diào)整網(wǎng)絡(luò)的結(jié)構(gòu),得到最優(yōu)的模型。另外微型神經(jīng)網(wǎng)絡(luò)既可以表示傳統(tǒng)的AdaBoost閾值分類,也可以表示較復(fù)雜的深度樹形分類器,還可以表示更復(fù)雜的多項(xiàng)式表達(dá)式,即神經(jīng)網(wǎng)絡(luò)可以擬合任何連續(xù)函數(shù),因此本文將微型神經(jīng)網(wǎng)絡(luò)作為訓(xùn)練AdaBoost的弱分類器。對(duì)于多角度車輛檢測(cè)問題,本文使用兩層感知器模型對(duì)樹節(jié)點(diǎn)進(jìn)行閾值劃分,隱層有多個(gè)節(jié)點(diǎn)。4層微型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,網(wǎng)絡(luò)的兩個(gè)輸出是判斷特征是否滿足閾值劃分的條件。

      圖2 多層感知閾值分類模型

      圖2 的每個(gè)神經(jīng)元節(jié)點(diǎn)包含一個(gè)閾值θi,網(wǎng)絡(luò)中的弧線ωij表示兩層神經(jīng)元之間的權(quán)值;hi(i=1,2,…,n)為隱含層節(jié)點(diǎn)。隱含層和輸出層的輸入Ij為:

      神經(jīng)元的輸出由激活函數(shù)得到,激活函數(shù)一般使用Sigmoid函數(shù),神經(jīng)元的輸出Oj為:

      網(wǎng)絡(luò)的參數(shù)ωij和θj通過學(xué)習(xí)得到,使用神經(jīng)網(wǎng)絡(luò)替換式(2)中的分割策略,構(gòu)建深度樹對(duì)車輛和非車輛圖像特征進(jìn)行預(yù)測(cè),它能夠更好地劃分特征空間,使得AdaBoost具有更好的檢測(cè)性能。這種方法在每個(gè)局部感受野中進(jìn)行更加復(fù)雜的運(yùn)算,大大降低了網(wǎng)絡(luò)的參數(shù),且能夠更快地從低層弱特征中學(xué)習(xí)到高層特征。

      3.3 車輛檢測(cè)器的構(gòu)建

      在檢測(cè)過程中,LNPD特征存在一定的冗余,因此使用AdaBoost算法訓(xùn)練差異最大的N組特征構(gòu)建強(qiáng)分類器[14],本文采用的是改進(jìn)后的AdaBoost算法來訓(xùn)練LNPD特征多層感知器,即每個(gè)迭代過程中,一個(gè)多層感知器被劃分為權(quán)重較低的弱分類器來進(jìn)行學(xué)習(xí),同時(shí)當(dāng)前AdaBoost分類器的閾值也被學(xué)習(xí),再將多個(gè)多層感知器組合成一個(gè)強(qiáng)分類器。對(duì)于一幅輸入圖像,首先將輸入圖像用網(wǎng)格劃分,之后提取每個(gè)區(qū)域內(nèi)的局部歸一化像素特征,將所有的局部特征串聯(lián)并存儲(chǔ)在查找表中,使用微型神經(jīng)網(wǎng)絡(luò)進(jìn)行特征篩選,提取局部歸一化像素差值特征并進(jìn)行特征篩選,過程如圖3所示。

      圖3 LNPD特征提取及篩選過程

      4 實(shí)驗(yàn)驗(yàn)證

      (1)實(shí)驗(yàn)樣本:取某市交警大隊(duì)提供的10個(gè)交通路口電子卡口24小時(shí)采集的實(shí)時(shí)圖像。

      (2)樣本角度:正視圖(偏轉(zhuǎn)角度±20°,包括車輛頭部及尾部圖像)及側(cè)視圖(20°~60°)。

      (3)采集方式:虛擬線圈觸發(fā)方式,原始圖像大小從1 920×1 080到2 448×2 048不等。部分樣圖如圖4所示。

      圖4 實(shí)驗(yàn)樣圖

      用于訓(xùn)練的樣本由1 502張圖像中的5 103個(gè)車輛樣本組成,通過對(duì)車輛圖像進(jìn)行鏡像操作增加正樣本,得到9 984個(gè)正樣本,大小歸一化為64×64,負(fù)樣本由不包含車輛圖像的25 660個(gè)樣本組成,部分正負(fù)樣本如圖5所示。在實(shí)驗(yàn)中,將訓(xùn)練圖像劃分為4個(gè)區(qū)域,則LNPD特征維度為其為原始NPD特征維度的1/4,在保存樣本細(xì)節(jié)信息的同時(shí)降低了特征維度。根據(jù)參考文獻(xiàn)[8]推薦的最好級(jí)聯(lián)次數(shù),經(jīng)過20次級(jí)聯(lián)訓(xùn)練得到最終的檢測(cè)器包含1 226個(gè)多層感知器,46 401個(gè)LNPD特征。對(duì)于非目標(biāo)區(qū)域,平均大約210多次特征評(píng)估來排除。

      圖5 部分正負(fù)樣本

      圖6 車輛檢測(cè)結(jié)果

      測(cè)試集是711張圖像中的3 568個(gè)車輛圖像,為了對(duì)結(jié)果進(jìn)行評(píng)價(jià),先對(duì)車輛使用包圍框進(jìn)行標(biāo)記,使用訓(xùn)練好的分類器對(duì)測(cè)試集進(jìn)行檢測(cè),當(dāng)檢測(cè)出的目標(biāo)框與標(biāo)記的框交并比大于某一閾值時(shí)(IOU>0.5)認(rèn)為是正確的檢測(cè)。為了分析不同難度的車輛檢測(cè)結(jié)果,根據(jù)測(cè)試集中目標(biāo)的分辨率及遮擋水平,將測(cè)試圖像分為較難、中等和較易三個(gè)數(shù)據(jù)集:較難的數(shù)據(jù)庫為目標(biāo)大小范圍32×32到128×128,且有20%~30%的部分被遮擋;中等的數(shù)據(jù)庫為目標(biāo)大小范圍128×128到256×256,且有10%~20%的部分被遮擋;較易的數(shù)據(jù)庫為目標(biāo)大小范圍256×256到625×625,且有10%以下的部分被遮擋。對(duì)應(yīng)每個(gè)數(shù)據(jù)集的車輛數(shù)目分別為1 023、980和1 735。

      4.1 定性分析

      定性評(píng)價(jià)是由視覺評(píng)價(jià)得出的對(duì)檢測(cè)效果的主觀量度,本節(jié)主要根據(jù)幾種不同檢測(cè)方法的實(shí)驗(yàn)結(jié)果進(jìn)行評(píng)價(jià)。NPD、ACF方法的檢測(cè)度可用于評(píng)價(jià)上述幾種檢測(cè)方法的檢測(cè)結(jié)果,圖6分別給出了基于這些城市交通場(chǎng)景的檢測(cè)結(jié)果。為了表明每種方法的檢測(cè)效果,圖6給出了五個(gè)具有代表性的圖像的比較結(jié)果,其中參與比較的幾種方法分別如圖6的第一行至第三行所示。第一行三個(gè)圖像分別為NPD方法得到的檢測(cè)結(jié)果,由圖像可以看出該方法在多角度狀態(tài)下檢測(cè)率較低。第二行采用的是ACF檢測(cè)方法,可以看出,在遮擋的情況下識(shí)別率不高。第三行為本文采用的方法,可以看出在運(yùn)動(dòng)狀態(tài)、多角度、有遮擋情況下識(shí)別率較高。結(jié)果表明,本文方法對(duì)有旋轉(zhuǎn)、遮擋的車輛魯棒性較好。

      4.2 定量分析

      本節(jié)對(duì)上述實(shí)驗(yàn)結(jié)果進(jìn)行了定量評(píng)價(jià),主要采用兩種衡量方法:一種是利用平均處理時(shí)間與檢測(cè)效果進(jìn)行對(duì)比衡量;另外一種是采用每種車輛數(shù)據(jù)集所對(duì)應(yīng)的檢測(cè)結(jié)果進(jìn)行對(duì)比分析。對(duì)比對(duì)象為RCNN、NPD、DPMV5、ACF方法,數(shù)據(jù)庫為本文提出的數(shù)據(jù)庫。對(duì)比過程如下:首先使用文獻(xiàn)[11]提出的HOG和Haar組合特征在相同的訓(xùn)練集上訓(xùn)練AdaBoost分類器,正樣本大小歸一化為24×24,負(fù)樣本從362張不含車輛的圖片隨機(jī)裁切,AdaBoost訓(xùn)練級(jí)數(shù)為20,每級(jí)的最低可接受檢測(cè)率為95%,最高可接受虛警率為40%。接著使用訓(xùn)練好的分類器對(duì)三個(gè)難度不同的測(cè)試集進(jìn)行測(cè)試,最終每種車輛數(shù)據(jù)集所對(duì)應(yīng)的檢測(cè)結(jié)果如表1所示。

      實(shí)驗(yàn)結(jié)果表明,本文提出的MLP-CNN方法在三種數(shù)據(jù)庫上檢測(cè)率均為最高,在檢測(cè)時(shí)間上繼承了特征查找表的快速訪問特點(diǎn),對(duì)于降采樣后平均尺寸為640×480的圖像,使用MLP-CNN檢測(cè)一張圖像只需要125ms,比NPD特征更快。

      表1 檢測(cè)結(jié)果比較

      采用數(shù)據(jù)集衡量的方法,可用每種車輛數(shù)據(jù)集所對(duì)應(yīng)的檢測(cè)度來進(jìn)行衡量,方法如下:首先對(duì)于NPD方法,使用全部4 957個(gè)正樣本進(jìn)行訓(xùn)練,正樣本大小歸一化為24×24,使用深度二次樹學(xué)習(xí)弱分類器。對(duì)于DPM目標(biāo)檢測(cè)方法,使用開源代碼DPM-V5來做對(duì)比實(shí)驗(yàn),設(shè)置組件的個(gè)數(shù)為6,正樣本按照原始圖像對(duì)應(yīng)的車輛坐標(biāo)標(biāo)記的格式準(zhǔn)備。對(duì)于ACF目標(biāo)檢測(cè)方法,對(duì)輸入圖像進(jìn)行通道變換,獲取歸一化梯度幅值、梯度方向直方圖及LUV顏色空間10個(gè)通道的圖像,并在4×4加和池化后將特征存入查找表中,使用AdaBoost對(duì)在w×h的窗口上獲取的維度為的特征進(jìn)行訓(xùn)練,并組合2 048個(gè)深度為2的特征樹,其中w和h分別為窗口的寬和高。每種方法在三種難度級(jí)別的數(shù)據(jù)庫上實(shí)驗(yàn)結(jié)果如圖7所示。

      圖7 實(shí)驗(yàn)結(jié)果柱狀圖

      從實(shí)驗(yàn)結(jié)果可以看出,本文設(shè)計(jì)的基于微型神經(jīng)網(wǎng)絡(luò)的弱分類器優(yōu)于傳統(tǒng)的單閾值法和深度二次樹法,神經(jīng)網(wǎng)絡(luò)進(jìn)行了網(wǎng)絡(luò)權(quán)值和誤差反饋,使得其對(duì)特征的篩選能力更強(qiáng)。使用改進(jìn)后的MLP-CNN法在三種數(shù)據(jù)庫上的實(shí)驗(yàn)結(jié)果均為最優(yōu),同時(shí)在較難的數(shù)據(jù)集上與其他方法相比提升29%,與基于深度二次樹的特征篩選方法相比識(shí)別率提高了10%左右,說明本文方法對(duì)尺度較小,遮擋較大的車輛檢出率較高。

      5 結(jié)束語

      本文結(jié)合局部歸一化像素差值特征(LNPD)和多層感知器(MLP),基于級(jí)聯(lián)微型神經(jīng)網(wǎng)絡(luò)的算法提出了一種能夠于視頻中快速高效檢測(cè)出車輛的方法。本文方法不僅檢測(cè)速度優(yōu)于目前常用的快速檢測(cè)法,且對(duì)于復(fù)雜角度、多場(chǎng)景以及有遮擋物狀態(tài)能夠進(jìn)行有效檢測(cè),更符合十字路口等復(fù)雜場(chǎng)景下的車輛檢測(cè),實(shí)用性較強(qiáng)。在實(shí)驗(yàn)中,將訓(xùn)練數(shù)據(jù)分為較難、中等和較易三個(gè)數(shù)據(jù)集,并與其他檢測(cè)方法如ACF、NPD及DPM等進(jìn)行對(duì)比實(shí)驗(yàn),結(jié)果表明本文方法效果最優(yōu),且在車輛有遮擋、尺度比較小的數(shù)據(jù)集中檢測(cè)率提升明顯。

      在實(shí)驗(yàn)過程中,發(fā)現(xiàn)優(yōu)化后的局部歸一化差值特征算法對(duì)光照變化場(chǎng)景的車輛檢測(cè)具有魯棒性,但對(duì)于對(duì)比度不明顯的車輛圖像檢測(cè)效果適應(yīng)性還不甚理想,后期工作中將在提取特征前對(duì)圖像進(jìn)行增強(qiáng)處理,并對(duì)特征進(jìn)行預(yù)篩選以進(jìn)一步提高檢測(cè)率。

      猜你喜歡
      分類器像素神經(jīng)網(wǎng)絡(luò)
      趙運(yùn)哲作品
      藝術(shù)家(2023年8期)2023-11-02 02:05:28
      像素前線之“幻影”2000
      神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
      電子制作(2019年19期)2019-11-23 08:42:00
      “像素”仙人掌
      BP-GA光照分類器在車道線識(shí)別中的應(yīng)用
      加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
      結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
      高像素不是全部
      CHIP新電腦(2016年3期)2016-03-10 14:22:03
      基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
      復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
      曲水县| 福鼎市| 桐乡市| 揭西县| 循化| 剑阁县| 且末县| 汾西县| 林西县| 友谊县| 武宁县| 梅河口市| 舒城县| 峡江县| 锡林郭勒盟| 安溪县| 彝良县| 台湾省| 自贡市| 长阳| 株洲县| 灵丘县| 平安县| 崇左市| 夏津县| 融水| 温州市| 广元市| 于都县| 大英县| 东阳市| 台东市| 蕲春县| 盐山县| 西充县| 万山特区| 定边县| 浮梁县| 双流县| 乌拉特前旗| 武鸣县|