• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      Faster RCNN的交通場(chǎng)景下行人檢測(cè)方法

      2020-06-19 08:45:58徐向前孫濤
      軟件導(dǎo)刊 2020年4期
      關(guān)鍵詞:means算法卷積神經(jīng)網(wǎng)絡(luò)

      徐向前 孫濤

      摘要:為了提高行人檢測(cè)的準(zhǔn)確性和魯棒性,針對(duì)現(xiàn)有行人檢測(cè)方法準(zhǔn)確率低且實(shí)時(shí)性不佳等問題,參考目標(biāo)檢測(cè)算法中快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)Faster RCNN算法,首先采用K-means聚類算法得到合適的寬高比,然后優(yōu)化區(qū)域建議網(wǎng)絡(luò)( RPN)結(jié)構(gòu),降低計(jì)算量,并通過比較MobileNet、VGG16、ResNet50特征提取網(wǎng)絡(luò)效果優(yōu)劣,提出改進(jìn)Faster RCNN的交通場(chǎng)景下行人檢測(cè)方法,在Caltech-NEW數(shù)據(jù)集上進(jìn)行訓(xùn)練與測(cè)試。實(shí)驗(yàn)結(jié)果表明,該方法大幅提高交通場(chǎng)景下行人檢測(cè)的實(shí)時(shí)性和準(zhǔn)確性,在測(cè)試集上檢測(cè)準(zhǔn)確度達(dá)到87.5%,單張圖片檢測(cè)耗時(shí)為0.187s,相比現(xiàn)有其它方法,其檢測(cè)效果更好。

      關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);行人檢測(cè);K-means算法;區(qū)域建議網(wǎng)絡(luò)

      DOI: 10. 11907/rjdk.192692

      開放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):

      中圖分類號(hào):TP306

      文獻(xiàn)標(biāo)識(shí)碼:A

      文章編號(hào):1672-7800( 2020)004-0067-04

      Pedestrian Detection Method in Traffic Scene Based on Faster RCNN

      XU Xiang-qian, SUN Tao

      (kSchool of Mech.an ical Engi,zeering ,Univer.sity of Sh.angh.aifor Science and Tech.nology,Sharzgh.ai 200093,China )Abstract : In order to iiuprove the accuracy and robustness of pedestrian detection , aiming at the problems of' low accu racy and poor re-al-time perforruance of existing pedestrian detection methods. fast neural network of fast region convolution in target detection algo-rithm is ref'erred. Firstly, K-means algorithru is used to obtain the appropriate aspect ratio. then the structure of region proposal net-work ( RPN) is improved to reduce the amount of calculations. By conlparing the performance of MobileNet. VGG16. and ResNet50feature extraction networks. an improved detection method of traffic scene based on Faster RCNN is proposed. and the improved algo-rithm is trained and tested on the Caltech-NEW dataset. The experimenfal results shouw that the method greatly improves the real-timeand accuracy of detection in traffic scenes. The mAP (mean Average Precision) on the test set is 87.5% . and the detection speed of asingle picture is 0.187 seconds. Compared with other methods.this method is better.Key Words : convolutional neural network ; pedestrian detection ; K-means algorithm ; RPN

      O 引言

      交通場(chǎng)景下行人檢測(cè)是指在交通場(chǎng)景下,判斷圖像或者視頻序列中是否包含行人目標(biāo)并準(zhǔn)確判斷出行人位置。行人檢測(cè)是目標(biāo)檢測(cè)中非常重要的課題,基于卷積神經(jīng)網(wǎng)絡(luò)的行人目標(biāo)檢測(cè)方法是國(guó)內(nèi)外學(xué)者的研究熱點(diǎn),行人檢測(cè)算法在高級(jí)駕駛輔助系統(tǒng)(ADAS)、智能駕駛系統(tǒng)、智能機(jī)器人、行人數(shù)據(jù)分析等領(lǐng)域有著重要應(yīng)用“。

      傳統(tǒng)的目標(biāo)檢測(cè)方法將SIFT[2](Scale-Invariant Fea-ture Transform)、HOG[3](histogram of oriented gradient)等傳統(tǒng)人工提取的特征算子傳人SVM[4]。(Support Vector Ma-chine)、AdaBoost等分類器進(jìn)行分類并完成目標(biāo)檢測(cè)。在現(xiàn)實(shí)生活中,人類是一個(gè)剛性和柔性相結(jié)合的物體,在受到光照、姿態(tài)、尺寸等因素v影響時(shí),傳統(tǒng)人工提取的特征算子往往不能滿足行人檢測(cè)要求,存在泛化能力弱、準(zhǔn)確度低等缺點(diǎn)[5]。

      近年來,以卷積神經(jīng)網(wǎng)絡(luò)為代表的深度學(xué)習(xí)算法在圖片分類、目標(biāo)檢測(cè)等領(lǐng)域取得了巨大成功?;诰矸e神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)目標(biāo)檢測(cè)方法相比于人工設(shè)計(jì)特征算子的傳統(tǒng)方法,其能夠自主學(xué)習(xí)圖片不同層級(jí)的不同特征,提取圖片中更加豐富、更加抽象的特征[6]。目前,深度學(xué)習(xí)算法中最有代表性的算法有RCNN[7]、Fast RCNN.sJ、FasterRCNN[9]。、YOLO[10]等。在這些算法中,整體可以歸為兩類,第一類是以R-CNN為代表的卷積神經(jīng)網(wǎng)絡(luò),其采用兩步式( Two-Stage)[11].首先會(huì)找出圖片中目標(biāo)可能出現(xiàn)的位置,即區(qū)域提議(Region Proposal),然后利用特征層提取的特征信息對(duì)目標(biāo)作分類,這類檢測(cè)器的優(yōu)點(diǎn)是檢測(cè)準(zhǔn)確率高,問題是無法達(dá)到實(shí)時(shí)性要求;第二類是以YOLO為代表的卷積神經(jīng)網(wǎng)絡(luò),采用端到端(End-to-End)的方式[12],將目標(biāo)檢測(cè)任務(wù)轉(zhuǎn)化為回歸問題,這類檢測(cè)器的實(shí)時(shí)性顯著提高,但是準(zhǔn)確率不如Faster RCNN等兩步式檢測(cè)器[13]。

      本文基于Faster RCNN目標(biāo)檢測(cè)算法,使用K-means聚類算法得出適合交通場(chǎng)景下的行人錨框?qū)捀弑?,?yōu)化區(qū)域提議網(wǎng)絡(luò)RPN),然后將MobileNet[14]、VGG16[15]、ResNet50分別作為特征提取網(wǎng)絡(luò),對(duì)比3種特征提取網(wǎng)絡(luò)對(duì)行人檢測(cè)模型準(zhǔn)確率的影響。在此基礎(chǔ)上,提出改進(jìn)的Faster RCNN的交通場(chǎng)景下行人檢測(cè)方法,并研究對(duì)比不同模型在不同行人數(shù)據(jù)集上的行人檢測(cè)能力。

      1 基于Faster RCNN的行人檢測(cè)方法

      Faster RCNN目標(biāo)檢測(cè)算法流程如圖1所示。整個(gè)過程分為輸入原始圖像、通過特征提取網(wǎng)絡(luò)提取特征,利用區(qū)域建議網(wǎng)絡(luò)生成初步候選區(qū)域、利用檢測(cè)網(wǎng)絡(luò)進(jìn)行行人分類和回歸計(jì)算得到行人位置框等過程[16]。

      Faster RCNN為了得到初步候選區(qū)域,運(yùn)用區(qū)域建議網(wǎng)絡(luò)自動(dòng)生成候選區(qū)域,將特征網(wǎng)絡(luò)提取的特征圖作為區(qū)域建議網(wǎng)絡(luò)的輸入,區(qū)域建議網(wǎng)絡(luò)將輸出初步的目標(biāo)候選矩形框。為了生成候選區(qū)域,在特征網(wǎng)絡(luò)提取的特征圖上使用一個(gè)nXn的滑動(dòng)窗口(卷積核)以一定的步長(zhǎng)滑動(dòng)。區(qū)域建議網(wǎng)絡(luò)是一個(gè)全卷積網(wǎng)絡(luò),由分類和窗口回歸兩部分組成,在分類層輸出2xh個(gè)得分,主要用于判斷候選區(qū)域中的目標(biāo)所屬類別(行人或者背景)。候選區(qū)域與真實(shí)值( ground truth)重疊部分面積超過閾值0.7,則被判定為存在行人目標(biāo),此時(shí)被判定為背景,其余忽略不計(jì)。在回歸層會(huì)根據(jù)輸入的候選區(qū)域得到4xk個(gè)坐標(biāo)位置,用于微調(diào)候選框。

      Faster RCNN引入錨框機(jī)制(Anchors),F(xiàn)aster RCNN的錨框具有不同的尺度和比例,3種尺度大小分別為128、256、512以及3種寬高比分別為1:1、1:2、2:1。

      2 改進(jìn)的行人檢測(cè)方法

      2.1 區(qū)域建議網(wǎng)絡(luò)(RPN)改進(jìn)

      Faster RCNN網(wǎng)絡(luò)能夠白動(dòng)提取訓(xùn)練集樣本的特征信息,對(duì)位移、尺度等具有一定的不變性,在檢測(cè)目標(biāo)時(shí)有較好的檢測(cè)精度和較快的檢測(cè)速度[17]。但Faster RCNN網(wǎng)絡(luò)在檢測(cè)行人目標(biāo)時(shí)存在眾多影響網(wǎng)絡(luò)檢測(cè)實(shí)時(shí)性和識(shí)別準(zhǔn)確率的因素,F(xiàn)aster RCNN網(wǎng)絡(luò)并不能完全滿足交通場(chǎng)景下行人檢測(cè)任務(wù)實(shí)時(shí)性和準(zhǔn)確率的要求[18]。其存在如下缺點(diǎn):①交通場(chǎng)景下,行人檢測(cè)需要較高的實(shí)時(shí)性,F(xiàn)ast-er RCNN檢測(cè)行人目標(biāo)的實(shí)時(shí)性不足;②Faster RCNN檢測(cè)行人目標(biāo)的檢測(cè)精度較差。本文利用K-means算法計(jì)算出合適的錨框?qū)捀弑?,?yōu)化區(qū)域建議網(wǎng)絡(luò)結(jié)構(gòu),提高準(zhǔn)確率與實(shí)時(shí)性。建立Caltech-NEW行人數(shù)據(jù)集用于訓(xùn)練模型,提高模型準(zhǔn)確率和泛化能力。

      區(qū)域建議網(wǎng)絡(luò)的錨框參數(shù)設(shè)置忽略了行人目標(biāo)的特殊性。在絕大多數(shù)交通場(chǎng)景下,行人目標(biāo)都是高度大于寬度,因此設(shè)置不同寬高比的錨框?qū)煌▓?chǎng)景下的行人目標(biāo)而言是一種干擾,錨框?qū)捀弑葢?yīng)該根據(jù)實(shí)際情況確定。

      2.2錨框聚類分析

      通過K-means聚類算法統(tǒng)計(jì)Caltech-NEW行人數(shù)據(jù)集中全部行人目標(biāo)位置框的真實(shí)值(Ground Truth)。將行人目標(biāo)框真實(shí)值的寬高比作為樣本i,聚類目標(biāo)是找到每個(gè)樣本潛在的類別v,并將同類v的樣本i放在一起。算法具體步驟如下:

      Stepl:隨機(jī)選取k=2、3,聚類中心點(diǎn)為:

      Step2:對(duì)于每一個(gè)樣本i,計(jì)算其歷屬類別:

      Step3:對(duì)于每一個(gè)類i,計(jì)算該類的中心:

      Step4:重復(fù)以上過程直到收斂。

      K-means聚類算法隨機(jī)計(jì)算K個(gè)類中心作為起始點(diǎn)。如圖2所示,聚類算法會(huì)將寬高比樣本i分配到離其最近的類中心,根據(jù)收斂結(jié)果移類中心,重復(fù)直至類中心不再改變或者達(dá)到限定迭代次數(shù)。

      如圖3所示,聚類分析得出交通場(chǎng)景下行人目標(biāo)寬高比為w - 0.4lh,本文將原Faster RCNN算法中區(qū)域建議網(wǎng)絡(luò)錨框的寬高比修改為(0.41:1),修改之后的每個(gè)位置就有3個(gè)Anchor,分類層輸出6個(gè)節(jié)點(diǎn),回歸層輸出12個(gè)節(jié)點(diǎn)。

      3 實(shí)驗(yàn)分析

      3.1實(shí)驗(yàn)平臺(tái)

      本文實(shí)驗(yàn)以上海理工大學(xué)智能車為平臺(tái),使用單目攝像頭在陰天、雨天、夜晚等多種天氣和環(huán)境下采集行人數(shù)據(jù)。

      3.2 實(shí)驗(yàn)數(shù)據(jù)集

      實(shí)驗(yàn)使用的數(shù)據(jù)集由兩個(gè)部分組成:①加州理T學(xué)院的Caltech Pedestrian Dataset公共數(shù)據(jù)集。[19];②上海理工大學(xué)智能車平臺(tái)采集的真實(shí)交通場(chǎng)景行人數(shù)據(jù)集。

      本次實(shí)驗(yàn)所用的數(shù)據(jù)集命名為Caltech-NEW數(shù)據(jù)集,數(shù)據(jù)集共包含約16000張圖片。為了提高泛化能力,在Caltech數(shù)據(jù)集的基礎(chǔ)上加入上海市區(qū)以及校園內(nèi)采集的大量符合汽車行車視角的行人圖片,分別包含:晴天、雨天、陰天、雪天、夜晚。圖片尺寸為640x480,數(shù)據(jù)集圖像示例如圖4所示。

      3.3 實(shí)驗(yàn)評(píng)價(jià)方法

      本文引進(jìn)準(zhǔn)確率和召回率以更好地評(píng)價(jià)模型,如式(3)、式(4)所示。

      準(zhǔn)確率=

      召回率=

      式中,TP代表正確地檢測(cè)出了行人,F(xiàn)P代表將其它目標(biāo)當(dāng)作行人,F(xiàn)N代表將行人當(dāng)作其它目標(biāo),TN代表沒有檢測(cè)出行人目標(biāo)。

      假設(shè)Ⅳ個(gè)樣本,其中M個(gè)正例,可以得到M個(gè)召回率: ,對(duì)于每個(gè)召回率r,其最大準(zhǔn)確率如式(5)所示。

      (Average Precision)[20]用以衡量模型在每個(gè)類別上的好壞,衡量模型在所有類別上檢測(cè)性能的高低,計(jì)算如式(6)所示。

      由于本文只對(duì)行人目標(biāo)這一個(gè)類別進(jìn)行檢測(cè),因此m.AP和AP的值相等。

      3.4訓(xùn)練過程

      本次實(shí)驗(yàn)硬件配置是Inter Core i7處理器,內(nèi)存8GB,GPU為英偉達(dá)Quadro P4000。采用的編程環(huán)境是Pvthon,基于深度學(xué)習(xí)框架Tensorflow,網(wǎng)絡(luò)架構(gòu)分別以MobileNet、VGG16、ResNet50為基礎(chǔ),最大迭代次數(shù)為70000次,學(xué)習(xí)率為0.001,權(quán)值衰減值設(shè)置為0.0005,訓(xùn)練30000輪之后開始衰減學(xué)習(xí)率,動(dòng)量值設(shè)置為0.9。將Caltech-NEW行人數(shù)據(jù)集的80%作為訓(xùn)練集,20%作為測(cè)試集,通過迭代訓(xùn)練調(diào)優(yōu),得到最佳網(wǎng)絡(luò)模型。

      4 實(shí)驗(yàn)結(jié)果分析

      錨框是區(qū)域建議網(wǎng)絡(luò)的核心,原Faster RCNN算法由于目標(biāo)大小和寬高比不一致,需要多個(gè)尺度的錨框組合,但在本文算法中并不需要如此。本文采用對(duì)數(shù)據(jù)集目標(biāo)框進(jìn)行聚類分析得到更加適合行人目標(biāo)檢測(cè)的錨框個(gè)數(shù)和寬高比,使得錨框數(shù)量變得較少,縮短了計(jì)算時(shí)間,加快了檢測(cè)速度。為了比較RPN網(wǎng)絡(luò)調(diào)整Anchor寬高比對(duì)訓(xùn)練結(jié)果的影響,在PASCAL VOC2007數(shù)據(jù)集上訓(xùn)練評(píng)估Faster RCNN算法和本文算法,分別訓(xùn)練30000輪。如表1所示,本文改進(jìn)算法檢測(cè)率優(yōu)于原Faster RCNN算法,準(zhǔn)確率提高了4.1%。實(shí)驗(yàn)結(jié)果表明,本文提出的改進(jìn)算法對(duì)于行人檢測(cè)具有有效性,并提高了準(zhǔn)確率。

      表2為在Caltech-NEW交通場(chǎng)景數(shù)據(jù)集測(cè)試集上的單張圖片檢測(cè)耗時(shí)結(jié)果??梢钥闯?,本文算法在改進(jìn)Fast-er RCNN后,檢測(cè)所用時(shí)間優(yōu)于未改變的Faster RCNN檢測(cè)算法。使用改進(jìn)的RPN使得初步矩形目標(biāo)候選區(qū)域減少,這是一種簡(jiǎn)單有效的解決方案,使用了GPU加速,減少了訓(xùn)練時(shí)間。實(shí)驗(yàn)結(jié)果表明,本文算法有效提高了行人檢測(cè)的實(shí)時(shí)性。

      為了對(duì)比不同特征提取網(wǎng)絡(luò)對(duì)算法準(zhǔn)確率的影響,分別采用MobileNet、ResNet50、VGG16特征提取網(wǎng)絡(luò)與本文改進(jìn)算法相結(jié)合,在Caltech-NEW行人數(shù)據(jù)集上分別訓(xùn)練行人目標(biāo)檢測(cè)模型。如表3所示,在0- 30000輪迭代次數(shù),本文算法訓(xùn)練得出的檢測(cè)模型隨著迭代次數(shù)的增加,mAP值快速提升并趨于穩(wěn)定;在迭代次數(shù)為30000輪時(shí),準(zhǔn)確率達(dá)到0.85左右,之后隨著迭代次數(shù)的增加,準(zhǔn)確率略有波動(dòng),但總體上保持不變。這表明本文算法所得出的3種模型在迭代30 000次時(shí)其檢測(cè)性能基本都達(dá)到了較好水平。繼續(xù)訓(xùn)練達(dá)到70 000輪迭代后,各特征提取網(wǎng)絡(luò)都出現(xiàn)不同程度的準(zhǔn)確率下降。綜上所述,采用VGG16、ResNet50為特征提取網(wǎng)絡(luò)時(shí),本文算法得出的檢測(cè)模型效果較佳,當(dāng)?shù)螖?shù)超過30 000輪時(shí),采用MoblieNet為特征提取網(wǎng)絡(luò)效果最好。

      本文算法得出的檢測(cè)模型Loss曲線隨著訓(xùn)練迭代次數(shù)的增加,檢測(cè)模型性能基本保持不變,在超過70000迭代次數(shù)之后,模型沒有出現(xiàn)過擬合現(xiàn)象。

      由圖5可知,本文的算法在召回率小于0.8時(shí),模型準(zhǔn)確率處于0.95左右。在Caltech-NEW數(shù)據(jù)集測(cè)試集上mAP值為0.860,相較于原Faster RCNN算法在行人目標(biāo)的準(zhǔn)確率0.702,采用改進(jìn)后的Faster RCNN算法準(zhǔn)確率大幅提高。

      在不同的交通環(huán)境場(chǎng)景下,采用本文算法在Caltech-NEW數(shù)據(jù)集測(cè)試集中的部分檢測(cè)結(jié)果如圖6所示。

      5 結(jié)語(yǔ)

      隨著智能駕駛的不斷發(fā)展,保障行人安全一直是智能駕駛研究人員的共同目標(biāo),行人目標(biāo)相較于交通場(chǎng)景下其它目標(biāo)顯得尤為重要。針對(duì)已有的目標(biāo)檢測(cè)算法在行人檢測(cè)中檢測(cè)準(zhǔn)確率不佳、檢測(cè)速度較慢、區(qū)域建議網(wǎng)絡(luò)錨框設(shè)置不合理等缺點(diǎn),以Faster RCNN為基礎(chǔ),提出了交通場(chǎng)景下改進(jìn)的行人檢測(cè)算法,根據(jù)行人目標(biāo)在圖像中呈現(xiàn)寬高比相對(duì)固定的規(guī)律,通過K-means聚類算法優(yōu)化RPN區(qū)域建議網(wǎng)絡(luò),設(shè)置合理的anchor數(shù)量和寬高比,綜合比較3種不同特征提取網(wǎng)絡(luò)對(duì)算法準(zhǔn)確率的影響,白建Caltech-NEW數(shù)據(jù)集,提高模型在交通場(chǎng)景下檢測(cè)行人目標(biāo)的泛化能力。通過實(shí)驗(yàn)驗(yàn)證,本算法準(zhǔn)確率和實(shí)時(shí)性都較高,證明Anchor框?qū)λ惴?zhǔn)確率有一定的積極影響。

      [1]許言午。曹先杉,喬紅,行人檢測(cè)系統(tǒng)研究新進(jìn)展及關(guān)鍵技術(shù)展望[j],電子學(xué)報(bào),2008.36(5):368-376.

      [2]BAY H , ESS A, TLTYELAARS T. et al.Speeded-up rohust features(SURF) [J]. Computer Vision and Image Lnderstanding, 2008, 110(3): 346-359.

      [3]DALAL N,TRIGGS B. Histograms of oriented gradients for human de-tection[C]. 2005 IEEE Computer Society Conference on Computer Vi-sion and Pattern Recognition , 2005 : 886-893.

      [4]]VIOLA P. JPNES M.Robust real-time object detectinn[j]. Interna-tional Journal of Computer Vision.2001,4 : 34-47.測(cè)研究綜述[J]. 動(dòng)化學(xué)報(bào). 2007 33(I) : 84 -90 .

      [6]CERONIMO D, LOPEZ A. SAPPA A, et al.Survey of pedestrian de-tection for ad.anc.ed driver assistance systems [J]. IEEE Trans . onPattern Analysis and Machine Intelligence , 2010 , 32(7) : 1239-1258.

      [7GIRSHICK R . DONAHUE J. DARRELL T. et al. Rich feature hierar-chies for accurate object detection and semantic segmentation[c].Pro-ceeding of the IEEE Conference on Computer Vision and Pattern Rec- ognition, 2014 : 580-587.

      [8]GIRSHICK R. Fast R-CNW[c]. Santiago:2015 lEEE InternationalConference on Computer Vision,2015.

      [9]REW S, HE K. CIRSHICK R. et al. Faster R-CNN : towards real-timeohject detection with region proposal networks [j].IEEE Transactionson Pattern Analysis &- Machine Intelligenc.e , 2017 , 39(6) : 1137-1 149

      [10]REDMON J, DIVVALA S, GIRSHICK R, et al.You onlv look once :unified , real-time obj ect detection[c] . Prriceedings of the IEEE Con-ference on Computer Vision and Pattern Recognition, 2016 : 779-788.

      [11]杜友田 ,陳峰 ,徐文立,等 .基于視覺的的運(yùn)動(dòng)別綜述 .電子學(xué)報(bào) , 2007, 35(1): 84-90.

      [12]蘇松志 .行人檢測(cè)若干關(guān)鍵技術(shù)術(shù)研究 [D].廈門:廈門大學(xué) , 2011.

      [13]REILLY V , SOLMAZ B.SHAH M. Geometric constraints for humandetection in aerial imagery [C]. The llth European conferenc:e onComputer ,'ision, 2010 : 252-265.

      [14]HOWARD A C. ZHU M . CHEN B , et al. Mobilenets efficient convn-lutional neural networks for mohile vision applications[DB/OL] . arX-iv preprint arXir : 1704.04861.2017.

      [15]SIMONYAhr K, ZISSERMAN A.Very deep convr)lutional networksfor large-scale image recongnition[R].Computer Research Reposito-rv.2014.

      [16]DOLLAR P, BELOhrCIE S.PERONrA P.The fastest pedestrian detec-tor in the west [C]. Proceedings on British Machine Vision Cnnfer-ence(BMVC 2010) .2010: 1-11.

      [17]WOJEK C , B.SCHIELE. A performance evaluatinn of single andmulti -feature people detection [C] . Annual Symposium of theDeutsche-Arheitsgemeinschaft-fu r-Mustererkennung , 2008 : 82-91 .

      [18]OJALA T, PIETIKAINEN M . HARWOOD D.A comparative study oftexture measures with classification based ON feature distributions[J]. Pattern Recognition , 1996, 19(3) : 51-59.

      [19]DOLLAR P, WOJEK C . SCHIELE B . et al. Pedestrian detection : anevaluatir)n of the state of the art [J]. IEEE Transactions on PatternAnalysis and Machine Intelligence , 2012 , 34(4) : 743-761.

      [20]HENDERSON P. FERRARI V. End-to-end training of ohject classdetectors for mean average precision[J]. Asian Conference on Com-puter Vision, 2016 ( 6) : 198-213.

      收稿日期:2019-12-02

      作者簡(jiǎn)介:徐向前(1995-),男,上海理工大學(xué)機(jī)械工程學(xué)院碩士研究生,研究方向?yàn)槠囅到y(tǒng)動(dòng)力學(xué);孫濤(1974-),男,博士,上海理

      工大學(xué)機(jī)械工程學(xué)院副教授、碩士生導(dǎo)師,研究方向?yàn)槠囅到y(tǒng)動(dòng)力學(xué)。本文通訊作者:徐向前。

      猜你喜歡
      means算法卷積神經(jīng)網(wǎng)絡(luò)
      基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
      基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
      SIFT算法在木材紋理分類上的應(yīng)用
      深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
      基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
      軟件工程(2016年8期)2016-10-25 15:47:34
      基于K—Means聚類算法入侵檢測(cè)系統(tǒng)研究
      基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識(shí)別的算法的研究
      基于Weka的Apriori算法在原油產(chǎn)量預(yù)測(cè)中的應(yīng)用
      基于HSI顏色空間的小麥粉精度自動(dòng)識(shí)別研究
      基于聚類的Web日志挖掘
      富民县| 彭水| 绿春县| 班戈县| 蓝山县| 砚山县| 靖州| 马公市| 怀来县| 阳江市| 扎鲁特旗| 塔城市| 闽侯县| 民权县| 分宜县| 房山区| 洛宁县| 芒康县| 卓尼县| 洛宁县| 林甸县| 湟中县| 浪卡子县| 景东| 萨迦县| 宁都县| 合山市| 莫力| 巴南区| 晋州市| 繁昌县| 沂南县| 临武县| 白山市| 柘城县| 梓潼县| 化隆| 宝应县| 九寨沟县| 迁西县| 专栏|