• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于自適應(yīng)池化的行人檢測(cè)方法

      2019-01-14 02:46:56余珮嘉張靖謝曉堯
      關(guān)鍵詞:池化檢測(cè)器行人

      余珮嘉 張靖 謝曉堯

      摘 要:基于卷積神經(jīng)網(wǎng)絡(luò)的行人檢測(cè)器普遍采用圖像識(shí)別網(wǎng)絡(luò),通常會(huì)引起多池化層導(dǎo)致小目標(biāo)行人特征信息丟失、單一池化方法導(dǎo)致行人局部重要特征信息削弱甚至丟失等,針對(duì)以上問(wèn)題,基于最大值池化和平均值池化方法,提出了一種自適應(yīng)池化方法,結(jié)合通用目標(biāo)檢測(cè)器Faster R-CNN,形成了有效的行人檢測(cè)器,達(dá)到增強(qiáng)行人局部重要特征信息、保留小目標(biāo)行人有效特征信息的目的。對(duì)多個(gè)公開(kāi)的行人數(shù)據(jù)集進(jìn)行大量實(shí)驗(yàn),結(jié)果表明,與傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)行人檢測(cè)器相比,所提方法將行人檢測(cè)漏檢率降低了2%~3%,驗(yàn)證了方法的有效性。新方法改進(jìn)了卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),在無(wú)人駕駛領(lǐng)域具有一定的參考價(jià)值。

      關(guān)鍵詞:計(jì)算機(jī)神經(jīng)網(wǎng)絡(luò);卷積神經(jīng)網(wǎng)絡(luò);行人檢測(cè);圖像識(shí)別;自適應(yīng)池化;Faster R-CNN

      中圖分類號(hào):TP183 ? 文獻(xiàn)標(biāo)志碼:A ? doi:10.7535/hbkd.2019yx06011

      Abstract: Pedestrian detectors based on convolutional neural networks generally adopt image recognition network, which usually causes the following problems:1) multi-pool layers lead to the loss of feature information of small target pedestrian; 2) the single pool method leads to the weakening or even loss of the local important feature information of pedestrians. Therefore, based on the maximum pooling and average pooling methods, an adaptive pooling method is proposed, and combined with the Faster R-CNN, an effective pedestrian detector is formed, so as to enhance the local important feature information of pedestrians and retain the effective feature information of small target pedestrians. Through a large number of experiments on several public pedestrian datasets, the results show that compared with the traditional convolutional neural network pedestrian detector, the proposed method reduces the miss rate by about 2%~3%, which verifies the effectiveness of the method.

      Keywords:computer neural network; convolution neural networks; pedestrian detection; image recognition; adaptive pooling; Faster R-CNN

      在計(jì)算機(jī)視覺(jué)研究領(lǐng)域中,目標(biāo)檢測(cè)作為一類基本問(wèn)題得到了深入的研究[1-5]。近年來(lái),在輔助駕駛、智能視頻監(jiān)控等應(yīng)用背景下,行人檢測(cè)作為目標(biāo)檢測(cè)中的一類重要應(yīng)用,受到了國(guó)內(nèi)外學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注[6-9]。

      過(guò)去10多年,出現(xiàn)了許多基于傳統(tǒng)人工設(shè)計(jì)特征的行人檢測(cè)方法。2005年,文獻(xiàn)[10]提出了一種描述圖像局部特征的方法,通過(guò)對(duì)局部區(qū)域中每個(gè)像素點(diǎn)的梯度方向和幅值進(jìn)行統(tǒng)計(jì),獲得了方向梯度直方圖(histograms of oriented gradients,HOG),與后續(xù)分類器結(jié)合,構(gòu)成了有效的行人檢測(cè)器。文獻(xiàn)[11]提出了利用HOG特征與Boosted Cascad算法[12]級(jí)聯(lián)結(jié)構(gòu)相結(jié)合,實(shí)現(xiàn)了行人的快速檢測(cè)。2009年,文獻(xiàn)[13]提出了基于積分通道特征(integrate channel features,ICF)的快速行人檢測(cè)器,不同于HOG的單一特征,ICF包含了圖像的多種通道特征,特征信息更加豐富,同時(shí)采用AdaBoost分類器構(gòu)成的檢測(cè)器,從檢測(cè)精度和運(yùn)行速度上都要優(yōu)于HOG檢測(cè)器。文獻(xiàn)[14]通過(guò)擴(kuò)展HOG檢測(cè)器提出了可形變部件模型(deformable parts model,DPM),它是一種基于組件的檢測(cè)方法,對(duì)于遮擋類行人具有較好的檢測(cè)效果。文獻(xiàn)\[15\]對(duì)DPM方法進(jìn)行了改進(jìn),增加了級(jí)聯(lián)檢測(cè)算法和分支定界算法,有效提高了檢測(cè)速度。文獻(xiàn)\[16\]提出了改進(jìn)的顏色自相似性方法,能夠降低顏色自相似性維度,提升特征提取速度和行人檢測(cè)速度。

      隨著卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNNs)技術(shù)在計(jì)算機(jī)視覺(jué)領(lǐng)域的快速發(fā)展,基于CNNs的行人檢測(cè)取得了巨大進(jìn)展。卷積神經(jīng)網(wǎng)絡(luò)采用多層結(jié)構(gòu),目標(biāo)物體的特征可以通過(guò)學(xué)習(xí)自動(dòng)獲取。文獻(xiàn)[17]提出TA-CNN網(wǎng)絡(luò),通過(guò)加入語(yǔ)義信息,比如行人輔助信息(如背包),場(chǎng)景信息(如樹(shù))等,將多種信息融合用于處理行人檢測(cè)中的難例問(wèn)題。文獻(xiàn)[18]提出將通道特征與基于卷積神經(jīng)網(wǎng)絡(luò)的行人檢測(cè)器相融合,不光將通道特征加入,同時(shí)將卷積神經(jīng)網(wǎng)絡(luò)中逐層的特征圖結(jié)合到最終的特征提取,豐富的特征顯著提升了行人的檢測(cè)精度。文獻(xiàn)[19]提出利用提升森林策略替換通用目標(biāo)檢測(cè)器Faster R-CNN[2]的分類器,新的策略可以融合多種分辨率的特征圖,提升難例挖掘能力。文獻(xiàn)[20]提出對(duì)通用目標(biāo)檢測(cè)器Faster R-CNN[2]進(jìn)行改進(jìn),使其適合于行人檢測(cè),其中一項(xiàng)重要改進(jìn)是通過(guò)減少池化層數(shù)量達(dá)到調(diào)小降采樣因子,目的是保留更多行人的特征信息,尤其對(duì)小目標(biāo)行人的檢測(cè)有較大提升。文獻(xiàn)[21]中為目標(biāo)檢測(cè)建立專門(mén)的骨干特征提取網(wǎng)絡(luò),通過(guò)減少池化層數(shù)量達(dá)到減少感受野的大小,較小感受野能提升小目標(biāo)的識(shí)別精度和大目標(biāo)的定位精度。上述的行人檢測(cè)器大多采用在圖像分類任務(wù)(比如ImagNet數(shù)據(jù)集)中獲得較好效果的分類網(wǎng)絡(luò)(比如AlexNet[3],VGG16[4])作為行人檢測(cè)器的特征提取網(wǎng)絡(luò)。但是使用分類網(wǎng)絡(luò)作為行人檢測(cè)的特征提取網(wǎng)絡(luò)會(huì)從以下方面導(dǎo)致特征信息丟失:1)分類網(wǎng)絡(luò)中普遍采用較多池化層,雖然可以降低網(wǎng)絡(luò)的計(jì)算量和增大感受野,對(duì)圖像分類任務(wù)有利,但是多層池化形成的較大特征步長(zhǎng)作用在寬度較?。ū热?0像素)的目標(biāo)行人上,將導(dǎo)致小尺寸行人特征信息丟失,進(jìn)而降低識(shí)別結(jié)果的置信度(如Caltech數(shù)據(jù)集中,大部分行人的高×寬=80像素×40像素);2)分類網(wǎng)絡(luò)中使用的池化層通常采用單一池化方法,如最大值池化(max pooling)或者平均值池化(average pooling),行人作為一類特殊目標(biāo),具有尺度較小、外形特征較復(fù)雜的特點(diǎn),但是在對(duì)行人特征提取過(guò)程中,因使用單一池化方法,不僅獲取的特征信息粗糙,而且池化方法與局部特征不匹配會(huì)導(dǎo)致重要特征信息丟失。

      針對(duì)以上問(wèn)題,提出了基于自適應(yīng)池化的行人檢測(cè)方法,該方法能夠根據(jù)行人身體各部位的特征,通過(guò)學(xué)習(xí)獲得適合的池化層,改善網(wǎng)絡(luò)特征提取能力。

      1 理論基礎(chǔ)

      池化方法是指池化區(qū)域中用總體統(tǒng)計(jì)特征來(lái)代替網(wǎng)絡(luò)在該區(qū)域的輸出。卷積神經(jīng)網(wǎng)絡(luò)中使用池化方法可使網(wǎng)絡(luò)具有特征不變性、特征降維和防止過(guò)擬合等功能。

      1.1 多次池化

      從式(3)可以得到,經(jīng)過(guò)n次池化,輸出特征圖的空間分辨率將逐級(jí)降低,池化次數(shù)越多,池化步長(zhǎng)累積越大,丟失的信息也就越多,輸出特征圖的空間分辨率較原始圖像降低。對(duì)于行人這類小目標(biāo),原始圖像中行人的分辨率較小,比如Caltech數(shù)據(jù)集中,大部分行人的高×寬=80像素×40像素,池化步長(zhǎng)越大,則丟失的行人特征信息越多。該多次池化特征提取示意圖如圖1所示。

      1.2 自適應(yīng)池化方法

      基于卷積神經(jīng)網(wǎng)絡(luò)的行人檢測(cè)器通常采用的池化方法為式(4)所示的最大值池化和式(5)所示的平均值池化。

      最大值池化是指在每個(gè)池化區(qū)域中,選擇最大值的元素來(lái)表示池化區(qū)域的輸出,池化操作可以表示為yl+1ij_max=max(p,q)∈Rijxlpq,(4)式中:yl+1ij表示池化操作作用在區(qū)域Rij后的輸出;l表示卷積神經(jīng)網(wǎng)絡(luò)的第l層特征圖;xlpq表示在池化區(qū)域Rij中,位置為(p,q)的元素。

      平均值池化是指采用池化區(qū)域中所有元素的數(shù)學(xué)平均值來(lái)表示池化區(qū)域的輸出,可以表示為yl+1ij_ave=1N∑(p,q)∈Rijxlpq,(5)式中,N表示池化區(qū)域Rij中元素的個(gè)數(shù)。

      雖然最大值池化和平均值池化兩種方法分別在很多研究中表現(xiàn)良好,但是這兩種池化方法對(duì)不同問(wèn)題的處理效果差異較大,均不能同時(shí)兼顧。如圖2 a)所示的灰度圖像中,大部分像素點(diǎn)具有高灰度值,少部分像素點(diǎn)具有低灰度值,兩類像素點(diǎn)的值差異明顯,在圖像中的特征對(duì)比明顯。經(jīng)過(guò)最大值池化后,具有低灰度值的像素點(diǎn)消失,只有高灰度值的像素點(diǎn)被保留,原始圖像中高低灰度值對(duì)比明顯的特征消失。如果采用平均值池化方法,仍保留了高低灰度值對(duì)比的特征。如圖2 b)所示的灰度圖像中,大部分像素點(diǎn)具有低灰度值,少部分像素點(diǎn)具有高灰度值,兩類像素點(diǎn)的值差異明顯,在圖像中的特征對(duì)比明顯。經(jīng)過(guò)平均值池化后,高低灰度值對(duì)比的特征信息存在,但是被弱化。

      如果采用最大值池化方法,高低灰度值對(duì)比明顯的特征信息仍然被保留[22]。

      因此,無(wú)論采用以上哪種池化方法,考慮到行人身體結(jié)構(gòu)的復(fù)雜性,在特征提取過(guò)程中,將引起特征信息的削弱甚至丟失。為此,文獻(xiàn)[22]提出了隨機(jī)混合池化方法,將最大值池化和平均值池化進(jìn)行簡(jiǎn)單線性連接,但是其線性連接系數(shù)為隨機(jī)數(shù),不能可靠地學(xué)習(xí)對(duì)象的不同特征以獲得適合的池化層。為解決該問(wèn)題,本文提出自適應(yīng)池化方法,根據(jù)行人身體各部位的特征,通過(guò)學(xué)習(xí)獲得自適應(yīng)池化層。該方法表示如下:ylij=fact(fcom(ylij_max,ylij_ave)),(6)式中:ylij_max和ylij_ave分別表示第l層中最大值池化和平均值池化在位置(i,j)的輸出值; fcom表示自適應(yīng)連接函數(shù),連接圖像中相同區(qū)域的最大值池化和平均值池化,本文采用卷積函數(shù)來(lái)實(shí)現(xiàn)fcon;fact為非線性激活函數(shù)。

      為了實(shí)現(xiàn)對(duì)圖像中每個(gè)局部區(qū)域最大值池化和平均值池化的自適應(yīng)連接,使用寬、高分別為1,通道為2的卷積核。非線性激活函數(shù)fact用于增強(qiáng)fcon的表達(dá)能力,文中采用線性整流(rectified linear unit, ReLU)函數(shù)作為非線性激活函數(shù)。圖3描述了自適應(yīng)池化方法與普通池化方法結(jié)構(gòu)的區(qū)別。

      2 實(shí)驗(yàn)結(jié)果與討論

      Caltech[8],CityPersons[20]和ETH[23]是目前研究中通常采用的數(shù)據(jù)集,每個(gè)數(shù)據(jù)集的圖片大小、分辨率等參數(shù)都存在明顯差異性,因此,為驗(yàn)證本文所提方法的通用性和有效性,對(duì)這3個(gè)典型行人數(shù)據(jù)集進(jìn)行測(cè)試,并分別與采用最大值池化方法和平均值池化方法的卷積神經(jīng)網(wǎng)絡(luò)行人檢測(cè)器進(jìn)行對(duì)比。

      實(shí)驗(yàn)采用基于CNNs的通用目標(biāo)檢測(cè)器Faster R-CNN作為行人檢測(cè)器。在網(wǎng)絡(luò)訓(xùn)練過(guò)程中,使用水平翻轉(zhuǎn)方法進(jìn)行數(shù)據(jù)量的增廣,采用基于動(dòng)量(Momentum)的隨機(jī)梯度下降(stochastic gradient descent,SGD)算法進(jìn)行訓(xùn)練,動(dòng)量值設(shè)置為0.9,初始學(xué)習(xí)率設(shè)置為0.001。訓(xùn)練中用于判定候選框中為正/負(fù)樣例的交并比(intersection-over-union,IoU)設(shè)置為0.5。

      2.1 評(píng)價(jià)指標(biāo)

      采用文獻(xiàn)[8]所示的評(píng)價(jià)指標(biāo)來(lái)評(píng)估行人檢測(cè)方法的性能。該評(píng)價(jià)指標(biāo)描述了平均每張圖片不同錯(cuò)誤正樣本數(shù)量(false positives per-image,F(xiàn)PPI)下對(duì)應(yīng)的漏檢率(miss rate,MR)。FPPI具體指測(cè)試集中平均每張圖片錯(cuò)誤正樣本數(shù)量。MR是漏檢率,指測(cè)試集圖片中沒(méi)有被框中的行人在整個(gè)測(cè)試集中的比率。FPPI與MR具有較強(qiáng)的相關(guān)性,F(xiàn)PPI值越大,MR值越小,為了比較不同行人檢測(cè)方法的性能,統(tǒng)一采用FPPI=10-1時(shí)不同方法對(duì)應(yīng)的MR值為衡量標(biāo)準(zhǔn),其中MR值越小,表示檢測(cè)方法越好。MR和FPPI如式(7)和式(8)所示:MR=∑Ngti=1GT(i)Ngt×100%,(7)式中:GT(i)是判斷標(biāo)注框是否被匹配,未匹配則置為1,匹配則置為0;Ngt是測(cè)試數(shù)據(jù)集中標(biāo)注框(ground truth)的總數(shù)。FPPI=∑Nbbi=1FP(i)N,(8)式中:FP(i)是檢測(cè)器的檢測(cè)結(jié)果是否框住行人,未框住則置為1,框住則置為0;N是測(cè)試數(shù)據(jù)集中圖片的總數(shù)。

      2.2 Caltech數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果與分析

      Caltech數(shù)據(jù)集是由從大約10 h的視頻中提取出的圖片構(gòu)成的。整個(gè)數(shù)據(jù)集分為訓(xùn)練集和測(cè)試集2部分,訓(xùn)練集共6個(gè)子集(set00-set05),測(cè)試集共5個(gè)子集(set06-set10)。數(shù)據(jù)集中的所有圖片大小均為640像素×480像素。表1列出了Caltech數(shù)據(jù)集的詳細(xì)信息。

      表2中列舉了基于Faster R-CNN檢測(cè)網(wǎng)絡(luò)在不同數(shù)量池化層對(duì)應(yīng)的行人檢測(cè)結(jié)果。從表2中可以得到,隨著池化層數(shù)量的增加,對(duì)應(yīng)的池化步長(zhǎng)相應(yīng)增大,特征信息的丟失增多,表征行人檢測(cè)效果的漏檢率(MR)逐步增大,檢測(cè)性能降低。池化層數(shù)量過(guò)少,比如池化數(shù)目為2,池化步長(zhǎng)為4,并不是提升檢測(cè)性能的有效方法,反而會(huì)使網(wǎng)絡(luò)可能出現(xiàn)過(guò)擬合情況。因?yàn)?,?dāng)池化層數(shù)量為3、池化步長(zhǎng)為8時(shí),既能使網(wǎng)絡(luò)避免過(guò)擬合,行人特征具有不變性,又能有效控制特征信息丟失過(guò)多等問(wèn)題。

      為了驗(yàn)證本文所提基于自適應(yīng)池化的行人檢測(cè)方法,將其與基于最大值池化的行人檢測(cè)方法和基于平均值池化的行人檢測(cè)方法進(jìn)行比較。實(shí)驗(yàn)中,將3種池化方法分別應(yīng)用于包含3個(gè)池化層的Faster R-CNN檢測(cè)網(wǎng)絡(luò),使用相同的Caltech數(shù)據(jù)集。從表3中可以看出,最大值池化方法和平均值池化方法的漏檢率分別為16.93%和17.07%,而本文所提方法漏檢率為14.91%。可以看出,本文所提方法漏檢率明顯降低,對(duì)行人檢測(cè)的性能提升效果較好。

      本文基于自適應(yīng)池化方法改進(jìn)Faster R-CNN目標(biāo)檢測(cè)器,使其適用于行人檢測(cè)。改進(jìn)后的行人檢測(cè)器與多個(gè)行人檢測(cè)器在Caltech數(shù)據(jù)集上進(jìn)行比較。如圖4所示,進(jìn)行比較的檢測(cè)器大體分為3類。1)基于傳統(tǒng)人工特征的檢測(cè)器,VJ,HOG,ACF+SDt,InformedHaar,ACF-Caltech+,LDCF檢測(cè)器;2)基于DPM的檢測(cè)器,MT-DPM,JointDeep,MT-DPM+Context;3)基于CNN的檢測(cè)器,SpatialPooling,TA-CNN。本文提出的基于自適應(yīng)池化(AdaptPooling)方法改進(jìn)的行人檢測(cè)取得了較好的檢測(cè)效果,MR為14.91%。

      2.3 其他數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果與分析

      為了驗(yàn)證所提方法在其他行人數(shù)據(jù)集上的通用性,采用與Caltech數(shù)據(jù)集有明顯差別的CityPersons數(shù)據(jù)集和ETH數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)分析。

      CityPersons數(shù)據(jù)集包含來(lái)自德國(guó)和鄰國(guó)不同城市的大量多樣化視頻,表4給出了CityPersons數(shù)據(jù)集的詳細(xì)信息。可以看出,CityPersons數(shù)據(jù)集不論是總體圖片數(shù)量還是各個(gè)子集圖片數(shù)量均少于Caltech數(shù)據(jù)集,但是CityPersons數(shù)據(jù)集的圖片分辨率較高,標(biāo)注框質(zhì)量較好。

      采用相同方法在CityPersons數(shù)據(jù)集上進(jìn)行訓(xùn)練與測(cè)試。實(shí)驗(yàn)結(jié)果如表5所示,最大值池化方法和平均值池化方法的漏檢率分別為19.26%和20.61%,而本文所提方法漏檢率為15.67%??梢钥闯?,本文所提方法漏檢率明顯降低,對(duì)行人檢測(cè)的性能提升效果較好。

      ETH數(shù)據(jù)集是由一對(duì)裝載于移動(dòng)平臺(tái)上的雙目攝像頭拍攝得到的視頻。訓(xùn)練數(shù)據(jù)集由490張圖片組成,測(cè)試數(shù)據(jù)集有1 803張圖片。訓(xùn)練集的數(shù)據(jù)量很少,無(wú)法訓(xùn)練具有較多參數(shù)的Faster R-CNN檢測(cè)器。本文在Caltech+CityPersons數(shù)據(jù)集上訓(xùn)練檢測(cè)器,而使用ETH數(shù)據(jù)集進(jìn)行測(cè)試。實(shí)驗(yàn)結(jié)果如表6所示,最大值池化方法和平均值池化方法的漏檢率分別為22.01%和25.81%,而本文所提方法漏檢率為19.77%,漏檢率明顯降低,對(duì)行人檢測(cè)的性能提升效果較好。

      對(duì)比表3、表5和表6的結(jié)果可以看出,將在Caltech+CityPersons數(shù)據(jù)集上訓(xùn)練好的行人檢測(cè)器用于測(cè)試ETH數(shù)據(jù)集,雖然各種方法的漏檢率略微提高,但仍然能得到很好的效果,有較好的通用性。

      2.4 運(yùn)行時(shí)間

      采用英偉達(dá)1080Ti顯卡對(duì)3種方法進(jìn)行了測(cè)試,結(jié)果如表7所示?;谧畲笾党鼗推骄党鼗男腥藱z測(cè)器的運(yùn)行時(shí)間都約為50 ms,所提出的自適應(yīng)池化的行人檢測(cè)器的運(yùn)行時(shí)間稍多一些,為58 ms,但與前兩種方法仍處于同一數(shù)量級(jí)。雖然注意到這是以略微增加的計(jì)算時(shí)間成本為代價(jià)(見(jiàn)表3),但是本文提出的基于自適應(yīng)池化的行人檢測(cè)方法在Caltech數(shù)據(jù)集上達(dá)到了較好的檢測(cè)效果,漏檢率提高到14.91%。

      通過(guò)在主流的公開(kāi)數(shù)據(jù)集Caltech,CityPersons以及ETH上進(jìn)行大量實(shí)驗(yàn),計(jì)算了漏檢率、運(yùn)行時(shí)間,并分別與采用最大值池化方法和平均值池化方法的卷積神經(jīng)網(wǎng)絡(luò)行人檢測(cè)器相比,本文所提出的方法均能降低漏檢率2%~3%,表明了本文所提方法是通用的和有效的。

      3 結(jié) 語(yǔ)

      提出了基于自適應(yīng)池化的行人檢測(cè)方法,自適應(yīng)池化方法考慮了行人特征的復(fù)雜性,在行人特征提取過(guò)程中,能根據(jù)行人身體的不同部位特征,將最大值池化和平均值池化進(jìn)行自適應(yīng)混合處理?;谧赃m應(yīng)池化的行人檢測(cè)器,能獲得更加豐富的行人特征,對(duì)低分辨率的小目標(biāo)行人的特征提取能力要明顯優(yōu)于采用單一池化方法的行人檢測(cè)器。通過(guò)對(duì)多個(gè)公開(kāi)的標(biāo)準(zhǔn)行人數(shù)據(jù)集進(jìn)行大量實(shí)驗(yàn),結(jié)果驗(yàn)證了所提出的基于自適應(yīng)池化的行人檢測(cè)方法能明顯提高行人檢測(cè)的精度,降低漏檢率,也可靈活應(yīng)用于其他目標(biāo)檢測(cè)器。未來(lái)的研究重點(diǎn)是進(jìn)一步提升檢測(cè)精度,并對(duì)整個(gè)檢測(cè)系統(tǒng)進(jìn)行算法優(yōu)化,降低檢測(cè)運(yùn)行時(shí)間,更好地實(shí)現(xiàn)檢測(cè)系統(tǒng)的實(shí)時(shí)性。

      參考文獻(xiàn)/References:

      [1] GIRSHICK R. Fast R-CNN[C]//Proceedings of the IEEE International Conference on Computer Vision. Boston:IEEE,2015:1440-1448.

      [2] REN Shaoqing, HE Kaiming, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015,39(6):1137-1149.

      [3] KRIZHEVSKY A,SUTSKEVER I,HINTON G E. ImageNet classification with deep convolutional neural networks[J].Advances in Neural Information Processing Systems,2012,25(2):3065386.

      [4] SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[J]. Computer Science,2014:1556v3.

      [5] SZEGEDY C,LIU Wei,JIA Yangqing,et al. Going deeper with convolutions[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition(CVPR). Boston: IEEE,2015:7298594.

      [6] 陳政宏,李愛(ài)娟,邱緒云,等.智能車環(huán)境視覺(jué)感知及其關(guān)鍵技術(shù)研究現(xiàn)狀[J].河北科技大學(xué)學(xué)報(bào),2019,40(1):15-23.

      CHEN Zhenghong, LI Aijuan, QIU Xuyun, et al. Survey of environment visual perception for intelligent vehicle and its supporting key technologies[J].Journal of Hebei University of Science and Technology,2019,40(1):15-23.

      [7] 徐超,閆勝業(yè).改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)行人檢測(cè)方法[J].計(jì)算機(jī)應(yīng)用, 2017,37(6):1708-1715.

      XU Chao,YAN Shengye.Improved pedestrian detection method based on convolutional neural network[J].Journal of Computer Applications,2017,37(6):1708-1715.

      [8] BENENSON R, OMRAN M, HOSANG J, et al.Ten years of pedestrian detection, what have we learned?[C]//European Conference on Computer Vision. Cham: Springer,2014: 613-627.

      [9] DOLLAR P, WOJEK C, SCHIELE B, et al. Pedestrian detection: A benchmark[C]//IEEE Computer Society Conference on Computer Vision and Pattern Recognition. [S.l.]:[s.n.],2009:304-311.

      [10] DALAL N, TRIGGS B. Histograms of oriented gradients for human detection[C]//2005 IEEE Computer Society Conference on Com-puter Vision and Pattern Recognition(CVPR05). San Diego:IEEE,2005:886-893.

      [11] 葉林,陳岳林,林景亮.基于HOG的行人快速檢測(cè)[J].計(jì)算機(jī)工程, 2010,36(22):206-207.

      YE Lin,CHEN Yuelin, LIN Jingliang. Pedestrian fast detection based on histograms of oriented gradient[J].Computer Engineering, 2010, 36(22):206-207.

      [12] VIOLA P, JONES M J. Robust real-time face detection[J].International Journal of Computer Vision,2004,57(2):137-154.

      [13] DOLLR P, TU Z W, PERONA P, et al. Integral channel features[C]//Proceedings of the British Machine Vision Conference.London:[s.n.],2009: 10.5244/C.23.91.

      [14] ?FELZENSZWALB P F, MCALLESTER D A, RAMANAN D. A discriminatively trained, multiscale, deformable part model[C]//2008 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Alaska: IEEE, 2008:4587597.

      [15] 柴恩惠, 智敏. 融合分支定界的可變形部件模型的行人檢測(cè)[J]. 計(jì)算機(jī)應(yīng)用, 2017,37(7): 2003-2007.

      CAI Enhui, ZHI Min. Pedestrian detection based on deformable part model with branch and bound[J].Journal of Computer Applications,2017,37(7):2003-2007.

      [16] 顧會(huì)建,陳俊周.基于改進(jìn)顏色自相似特征的行人檢測(cè)方法[J].計(jì)算機(jī)應(yīng)用,2014,34(7):2033-2035.

      GU Huijian, CHEN Junzhou. Pedestrian detection based on improved color self-similarity feature[J].Journal of Computer Applications, 2014,34(7):2033-2035.

      [17] TIAN Yonglong, LUO Ping, WANG Xiaogang, et al. Pedestrian detection aided by deep learning semantic tasks[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition(CVPR).Boston:[s.n.],2015:5079-5087.

      [18] MAO Jiayuan, XIAO Tete, JIANG Yuning, et al. What can help pedestrian detection?[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition(CVPR). [S.l.]:[s.n.],2017:3127-3136.

      [19] ZHANG Liliang, LIN Liang, LIANG Xiaodan, et al. Is Faster R-CNN doing well for pedestrian detection?[C]//European Conference on Computer Vision. Cham: Springer,2016:443-457.

      [20] ZHANG Shanshan, BENENSON R, SCHIELE B. CityPersons:A diverse dataset for pedestrian detection[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).[S.l.]:[s.n.],2017:4457-4465.

      [21] LI Z, PENG C, YU G, et al. Detnet: Design backbone for object detection[C]//Proceedings of the European Conference on Computer Vision (ECCV). [S.l.]:[s.n.], 2018:334-350.

      [22] YU Dingjun, WANG Hanli, CHEN Peiqiu, et al. Mixed pooling for convolutional neural networks[C]//The 9th International Conference on Rough Sets and Knowledge Technology(RSKT 2014). Shanghai:[s.n.], 2014:364-375.

      [23] ESS A, LEIBE B, van GOOL L,et al. Depth and appearance for mobile scene analysis[C]//2007 IEEE 11th International Conference on Computer Vision. Rio de Janeiro:IEEE,2007:4409092.

      猜你喜歡
      池化檢測(cè)器行人
      基于緊湊型雙線性網(wǎng)絡(luò)的野生茵識(shí)別方法研究
      基于Sobel算子的池化算法設(shè)計(jì)
      卷積神經(jīng)網(wǎng)絡(luò)中的自適應(yīng)加權(quán)池化
      毒舌出沒(méi),行人避讓
      意林(2021年5期)2021-04-18 12:21:17
      路不為尋找者而設(shè)
      基于卷積神經(jīng)網(wǎng)絡(luò)和池化算法的表情識(shí)別研究
      我是行人
      車道微波車輛檢測(cè)器的應(yīng)用
      一種霧霾檢測(cè)器的研究與設(shè)計(jì)
      一體化火焰檢測(cè)器常見(jiàn)故障分析
      河南科技(2014年22期)2014-02-27 14:18:12
      黔南| 中方县| 广河县| 滨州市| 安丘市| 资溪县| 汶川县| 磐石市| 香河县| 江川县| 介休市| 绥芬河市| 金川县| 郸城县| 海晏县| 收藏| 桂阳县| 岐山县| 山东| 许昌市| 高邑县| 武强县| 沽源县| 北京市| 奇台县| 青神县| 衡山县| 德庆县| 离岛区| 剑河县| 修武县| 临桂县| 广安市| 淅川县| 南城县| 定安县| 来凤县| 密山市| 筠连县| 理塘县| 辽阳市|