• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于Faster R-CNN的人臉檢測(cè)方法①

      2018-01-08 03:12:52董蘭芳張軍挺
      關(guān)鍵詞:人臉卷積神經(jīng)網(wǎng)絡(luò)

      董蘭芳,張軍挺

      (中國科學(xué)技術(shù)大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,合肥 230027)

      基于Faster R-CNN的人臉檢測(cè)方法①

      董蘭芳,張軍挺

      (中國科學(xué)技術(shù)大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,合肥 230027)

      近年來,基于候選區(qū)域的快速卷積神經(jīng)網(wǎng)絡(luò)(Faster R-CNN)算法,在多個(gè)目標(biāo)檢測(cè)數(shù)據(jù)集上有出色的表現(xiàn),吸引了廣泛的研究興趣. Faster R-CNN 框架本來是用做通用目標(biāo)檢測(cè)的,本文將它應(yīng)用到人臉檢測(cè)上,分別使用ZF和VGG16卷積神經(jīng)網(wǎng)絡(luò),在WIDER人臉數(shù)據(jù)集上訓(xùn)練Faster R-CNN模型,并在FDDB人臉數(shù)據(jù)庫上測(cè)試. 實(shí)驗(yàn)結(jié)果表明,該方法對(duì)復(fù)雜光照、部分遮擋、人臉姿態(tài)變化具有魯棒性,在非限制性條件下具有出色的人臉檢測(cè)效果. 這兩種網(wǎng)絡(luò)結(jié)構(gòu),在檢測(cè)效率和準(zhǔn)確性上各有優(yōu)勢(shì),可以根據(jù)實(shí)際應(yīng)用需求,選擇使用合適的網(wǎng)絡(luò)模型.

      人臉檢測(cè); 候選區(qū)域; 卷積神經(jīng)網(wǎng)絡(luò); 非限制性條件

      1 引言

      傳統(tǒng)的人臉檢測(cè)方法,主要在Viola和Jone[1]的工作基礎(chǔ)上進(jìn)行改進(jìn),研究者們關(guān)注手工設(shè)計(jì)的圖像特征,以及不同的級(jí)聯(lián)結(jié)構(gòu). 各種復(fù)雜的特征,如文獻(xiàn)[2-6]等特征被設(shè)計(jì)出來,代替Haar-like特征. 這些手工設(shè)計(jì)的特征在一定程度上可以改進(jìn)人臉檢測(cè),但是它們大部分維度較高,增加了計(jì)算復(fù)雜度. 文獻(xiàn)[7]對(duì)稀疏表示算法進(jìn)行改進(jìn),使用度量學(xué)習(xí)方法,有助于挖掘出人臉特征在組間和組內(nèi)之間的關(guān)系. 另外一種思路就是學(xué)習(xí)不同的級(jí)聯(lián)結(jié)構(gòu),檢測(cè)多角度人臉,比如平行級(jí)聯(lián)結(jié)構(gòu)[8],金字塔框架[9],寬度優(yōu)先搜索樹[10]等. 這些方法對(duì)于特定的人臉角度,都需要學(xué)習(xí)一個(gè)級(jí)聯(lián)分類器,而準(zhǔn)確標(biāo)記每個(gè)人臉的角度比較困難,工作量比較大.

      近年來,深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)[11]不斷改進(jìn)與發(fā)展,在計(jì)算機(jī)視覺領(lǐng)域中占據(jù)著越來越重要的地位.相較于傳統(tǒng)手工設(shè)計(jì)的特征,CNN特征能夠克服復(fù)雜光照、部分遮擋、角度旋轉(zhuǎn)的影響.

      在人臉檢測(cè)領(lǐng)域中,也有很多基于深度學(xué)習(xí)的檢測(cè)算法被提出. 文獻(xiàn)[12]使用深度卷積神經(jīng)網(wǎng)絡(luò),對(duì)大量的人臉與非人臉圖像進(jìn)行二進(jìn)制分類訓(xùn)練. 訓(xùn)練好模型之后,將網(wǎng)絡(luò)的最后一層全連接層轉(zhuǎn)換為卷積層,前向網(wǎng)絡(luò),可以得到熱力圖,用于定位人臉. 文獻(xiàn)[13]構(gòu)建了5個(gè)共享權(quán)值的CNN網(wǎng)絡(luò),這幾個(gè)網(wǎng)絡(luò)分別用來提取頭發(fā)、眼睛、鼻子、嘴巴、胡子的特征. 根據(jù)人臉的空間結(jié)構(gòu),器官的相對(duì)位置,來定位人臉. 即使圖像存在嚴(yán)重遮擋的情況,該方法仍能檢測(cè)出人臉. 文獻(xiàn)[14]提出了基于CNN的級(jí)聯(lián)網(wǎng)絡(luò),滑動(dòng)窗口先通過較小的12-net卷積神經(jīng)網(wǎng)絡(luò),快速排除大部分背景區(qū)域,然后使用矯正網(wǎng)絡(luò)微調(diào)檢測(cè)窗口,接著級(jí)聯(lián)24-net卷積神經(jīng)網(wǎng)絡(luò),使檢測(cè)結(jié)果更加精確. 該方法在單個(gè)CPU 上的速度是 14 fps,檢測(cè)準(zhǔn)確性較高. 文獻(xiàn)[15]提出基于候選區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)(R-CNN),R-CNN框架經(jīng)過科研人員近幾年的改進(jìn),共發(fā)展了三個(gè)版本. 其中 Faster R-CNN[16]是最新的一個(gè)版本,通過 RPN 網(wǎng)絡(luò)回歸計(jì)算出高質(zhì)量的候選區(qū)域,提高了檢測(cè)效率,在目標(biāo)檢測(cè)數(shù)據(jù)集上取得出色的成績.

      本文分別使用ZF[17]和VGG16[18]深度卷積神經(jīng)網(wǎng)絡(luò),在 WIDER[19]人臉數(shù)據(jù)集上訓(xùn)練 Faster R-CNN 模型,并在FDDB[20]人臉數(shù)據(jù)庫上測(cè)試. 實(shí)驗(yàn)結(jié)果表明,使用Faster R-CNN框架可以快速、準(zhǔn)確地檢測(cè)非限制性條件下的人臉. 其中使用ZF網(wǎng)絡(luò)模型檢測(cè)的速度更快,而VGG16網(wǎng)絡(luò)模型則更加精確.

      2 基于候選區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)發(fā)展概覽

      2.1 RCNN(Region based CNN)

      基于候選區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)目標(biāo)檢測(cè)算法,由Girshick等人[15]首次提出. 圖1展示了使用RCNN進(jìn)行目標(biāo)檢測(cè)的流程,主要分為三個(gè)步驟:

      ① 預(yù)先找出圖像中目標(biāo)可能出現(xiàn)的位置,即候選區(qū)域. 常用的方法有 selective search[21]和 edge boxes[22].

      ② 將每個(gè)候選區(qū)域縮放到固定尺寸,并輸入到卷積神經(jīng)網(wǎng)絡(luò)中,將CNN的全連接層輸出作為特征.

      ③ 使用SVM進(jìn)行分類,并對(duì)提取到的窗口進(jìn)行糾正的邊框回歸計(jì)算,使檢測(cè)得到的窗口跟目標(biāo)真實(shí)窗口更加吻合.

      該方法最大的優(yōu)點(diǎn),是可以解決特征魯棒性問題,使用CNN特征進(jìn)行分類有較高的準(zhǔn)確率. 然而RCNN存在一些不可忽視的問題:

      ① 訓(xùn)練過程是多階段的. 首先對(duì)卷積神經(jīng)網(wǎng)絡(luò)微調(diào)訓(xùn)練; 然后提取全連接層特征輸作為SVM的輸入,訓(xùn)練得到目標(biāo)檢測(cè)器; 最后訓(xùn)練邊框回歸器.

      ② 訓(xùn)練過程需要耗費(fèi)較多的空間與時(shí)間. 如圖1所示,提取候選區(qū)域使用 selective search 算法,假設(shè)一張圖像提取2000個(gè)候選區(qū)域,就需要進(jìn)行2000次卷積神經(jīng)網(wǎng)絡(luò)運(yùn)算,而每次提取的特征都需要寫入磁盤空間,這一過程需要耗費(fèi)大量計(jì)算與存儲(chǔ)資源.

      ③ 目標(biāo)檢測(cè)速度慢. 在GPU上使用VGG16網(wǎng)絡(luò)進(jìn)行目標(biāo)檢測(cè),需要花費(fèi)47秒.

      圖1 RCNN 目標(biāo)檢測(cè)流程框圖

      2.2 SPP-net(Spatial pyramid pooling)

      2.1中的RCNN方法,每個(gè)候選區(qū)域都需要前向卷積神經(jīng)網(wǎng)絡(luò)來提取特征,而每個(gè)候選區(qū)域都是整個(gè)圖像的一部分. 因此完全可以對(duì)圖像提取一次卷積特征,然后只需將候選區(qū)域在原圖的位置映射到卷積層特征圖上,這樣對(duì)于一張圖像,只需要前向一次網(wǎng)絡(luò).

      傳統(tǒng)CNN網(wǎng)絡(luò)固定了輸入圖像的尺寸,在實(shí)際使用中,需要對(duì)圖像進(jìn)行裁剪或者縮放預(yù)處理. 無論裁剪還是縮放,都無法保證圖像不失真. 比如裁剪可能會(huì)截?cái)鄼z測(cè)目標(biāo),而縮放會(huì)拉伸物體,失去“原形”. SPP-net[23]和Fast R-CNN[24]先后被提出來解決上述問題.

      如圖2 所示,SPP-net最后一個(gè)卷積層的頂部,連接到空間域金字塔池化層,該池化層產(chǎn)生固定長度的輸出,用來輸入到全連接層. 可以這樣理解,SPP-net將原先固定大小的池化窗口,改成自適應(yīng)大小,每個(gè)候選區(qū)域使用不同大小的金字塔映射. 即使輸入圖像尺寸發(fā)生改變,經(jīng)過池化后的特征長度仍然保持一致. 例如當(dāng)輸入圖像尺寸是224×224時(shí),conv5輸出尺寸為13×13×256,對(duì)于 13×13 的激活圖,將它分別池化成4×4、2×2、1×1 三張子圖,得到 (16+4+1)×256 維的特征向量. 當(dāng)輸入圖像大小發(fā)生改變時(shí),池化窗口尺寸相應(yīng)發(fā)生改變,與激活圖尺寸成正比,使得池化后的特征向量長度不變.

      圖2 SPP-net示意圖

      相對(duì)于R-CNN來說,SPP-net可以大大加快目標(biāo)檢檢測(cè)速度,但是仍然存在一些問題:

      ① 訓(xùn)練分為多個(gè)階段,如微調(diào)網(wǎng)絡(luò),訓(xùn)練 SVM,訓(xùn)練邊框回歸器,步驟較繁瑣.

      ② SPP-net微調(diào)網(wǎng)絡(luò)時(shí),固定住卷積層參數(shù),只對(duì)全連接層進(jìn)行微調(diào)訓(xùn)練. 對(duì)于新的分類或檢測(cè)任務(wù),有必要對(duì)卷積層進(jìn)行微調(diào).

      2.3 Fast RCNN

      Fast R-CNN融合了R-CNN和SPP-NET的精髓,該方法目標(biāo)檢測(cè)流程如圖3所示. 首先輸入一張圖像到 CNN 中,得到卷積特征圖; 接著對(duì)每個(gè)候選區(qū)域,使用感興趣區(qū)域(ROI)池化,從卷積特征圖中提取固定長度的特征向量; 然后將該特征向量輸入到全連接層中,這里有兩個(gè)分支網(wǎng)絡(luò): 其中一個(gè)網(wǎng)絡(luò)使用softmax對(duì)目標(biāo)進(jìn)行分類,另一網(wǎng)絡(luò)對(duì)坐標(biāo)進(jìn)行回歸計(jì)算,矯正邊框位置.

      這里ROI是指卷積特征圖中的一個(gè)窗口,ROI池化,是將ROI卷積特征圖轉(zhuǎn)化為固定空間尺寸(H×W),該尺寸參數(shù)跟任何一個(gè)ROI都相互獨(dú)立. 例如有一個(gè)ROI窗口尺寸為h×w,則需要?jiǎng)澐謍/H×w/W個(gè)子窗口,然后在每個(gè)子窗口中使用最大池化方法,得到對(duì)應(yīng)的輸出. ROI池化層,其實(shí)是2.2中空間域金字塔池化層的一種特殊情況,只含有一個(gè)金字塔層. 在特征圖的每個(gè)通道上,池化操作之間都是相互獨(dú)立的.

      圖3 Fast R-CNN 目標(biāo)檢測(cè)流程框圖

      Fast R-CNN 網(wǎng)絡(luò)含有 ROI池化層,用來提取固定長度的特征向量,使用了softmax替代SVM分類,同時(shí)將邊框回歸計(jì)算也加入到了網(wǎng)絡(luò)中,主要有以下幾處優(yōu)點(diǎn):

      ① 訓(xùn)練使用多任務(wù)損失函數(shù),除了候選區(qū)域的提取,其它訓(xùn)練過程都是端到端的.

      ② 在網(wǎng)絡(luò)訓(xùn)練過程中,將卷積層進(jìn)行了微調(diào),取得更好的檢測(cè)結(jié)果.

      ③ 不需要額外磁盤空間來存儲(chǔ)特征向量.

      然而Fast R-CNN方法仍然存在一個(gè)性能瓶頸,檢測(cè)時(shí)間大多消耗在候選區(qū)域的提取上,無法滿足實(shí)時(shí)應(yīng)用. 比如使用 selective search 算法提取候選區(qū)域,需要花費(fèi)約2秒時(shí)間,而特征分類只需要0.3秒.

      2.4 Faster RCNN

      Faster R-CNN減少了提取候選區(qū)域的計(jì)算壓力,它主要分為兩部分,如圖4所示. 第一部分是全卷積神經(jīng)網(wǎng)絡(luò),也稱作 RPN(Region proposal network),該網(wǎng)絡(luò)用來產(chǎn)生候選區(qū)域; 第二部分是Fast R-CNN檢測(cè)器,使用第一部分網(wǎng)絡(luò)產(chǎn)生的候選區(qū)域進(jìn)行分類與邊框回歸計(jì)算. 整個(gè)系統(tǒng)共享卷積特征圖,將這兩部分連接起來,成為單一、統(tǒng)一的網(wǎng)絡(luò).

      RPN網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示,任意尺寸圖像輸入到RPN中,可以輸出高質(zhì)量的矩形候選區(qū)域集. 使用RPN網(wǎng)絡(luò)在卷積特征圖上滑動(dòng),將特征圖上n×n大小的窗口作為輸入 (在文獻(xiàn)[16]中,n=3),后面分別連接兩個(gè)1×1的同級(jí)卷積層,這兩個(gè)全連接卷積層分別用作分類和回歸.

      對(duì)于每一個(gè)滑動(dòng)窗口,可以同時(shí)預(yù)測(cè)多個(gè)區(qū)域是否存在目標(biāo). 將滑動(dòng)窗口的中心點(diǎn)作為錨點(diǎn),文獻(xiàn)[16]分別使用3種縮放比和3種長寬比,在每一個(gè)滑動(dòng)窗口位置,可以得到k=9個(gè)錨矩形框. 對(duì)于一個(gè)尺寸為W×H的特征圖,總共有W×H×k個(gè)錨矩形框. RPN網(wǎng)絡(luò)輸出2k個(gè)是否存在目標(biāo)的概率,以及4k個(gè)回歸坐標(biāo)值.

      圖4 Faster R-CNN 目標(biāo)檢測(cè)流程框圖

      圖5 RPN 網(wǎng)絡(luò)結(jié)構(gòu)

      Faster R-CNN通過共享卷積層的方法,將候選區(qū)域的提取和CNN分類結(jié)合在一起,使用端到端的網(wǎng)絡(luò)進(jìn)行訓(xùn)練和測(cè)試,速度和精度都得到不錯(cuò)的提高.

      3 實(shí)驗(yàn)與分析

      3.1 實(shí)驗(yàn)數(shù)據(jù)

      本文在WIDER人臉數(shù)據(jù)庫上訓(xùn)練Faster R-CNN模型,該數(shù)據(jù)庫有 12880 張圖像,共 15 多萬張人臉,均是在自然場景下拍攝. 如圖6所示,隨機(jī)選取了4張圖像,圖像中的人臉尺寸、姿態(tài)、光照等存在較大變化,使該數(shù)據(jù)庫更加具有挑戰(zhàn)性.

      圖6 WIDER 數(shù)據(jù)庫測(cè)試圖像

      在FDDB人臉數(shù)據(jù)庫上對(duì)訓(xùn)練好的模型進(jìn)行評(píng)估. FDDB是世界上最權(quán)威的人臉檢測(cè)評(píng)估數(shù)據(jù)庫之一,該數(shù)據(jù)庫包含2845張圖像,共含有5171個(gè)人臉,每張圖像均有人臉坐標(biāo)的詳細(xì)標(biāo)簽.

      3.2 實(shí)驗(yàn)結(jié)果與分析

      實(shí)驗(yàn)環(huán)境,在 Inter? CoreTMi7-2600 CPU 和GTX1080 GPU配置下實(shí)現(xiàn). 我們分別使用兩種卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,它們是VGG16和ZF網(wǎng)絡(luò). 本文使用在ImageNet上預(yù)訓(xùn)練得到的模型,對(duì)網(wǎng)絡(luò)權(quán)值進(jìn)行初始化. 使用SGD算法(隨機(jī)梯度下降)更新權(quán)值,將初始學(xué)習(xí)率設(shè)置為0.001,經(jīng)過5萬次迭代后,減少學(xué)習(xí)率為0.0001,繼續(xù)迭代3萬次結(jié)束訓(xùn)練. 圖6中的矩形框,是在WIDER測(cè)試集上進(jìn)行人臉檢測(cè)的結(jié)果.

      我們?cè)贔DDB數(shù)據(jù)庫上評(píng)估訓(xùn)練的模型,共有兩種評(píng)價(jià)指標(biāo),分別是離散分?jǐn)?shù)和連續(xù)分?jǐn)?shù). 離散分?jǐn)?shù),是當(dāng)檢測(cè)的人臉區(qū)域與對(duì)應(yīng)的人臉標(biāo)簽區(qū)域重疊部分超過50%時(shí),得分為1,否則為0; 連續(xù)分?jǐn)?shù)則是上述重疊的比率. 本文采用離散分?jǐn)?shù)作為評(píng)價(jià)指標(biāo),實(shí)驗(yàn)結(jié)果如圖7所示. 使用VGG16網(wǎng)絡(luò)訓(xùn)練的Faster R-CNN模型,人臉檢測(cè)的真陽率較高,誤檢率相對(duì)ZF網(wǎng)絡(luò)要低. 對(duì)于人臉檢測(cè)效率,使用ZF模型檢測(cè)一張圖像的平均時(shí)間為0.094秒,VGG模型則需要0.23秒. 兩種網(wǎng)絡(luò)各有優(yōu)勢(shì),可以根據(jù)具體應(yīng)用選擇合適的網(wǎng)絡(luò)模型.

      圖7 兩種網(wǎng)絡(luò)模型在FDDB上的測(cè)試結(jié)果比較

      將本文實(shí)驗(yàn)結(jié)果與其它一些人臉檢測(cè)方法進(jìn)行比較,如圖8所示,記錄了各個(gè)人臉檢測(cè)方法在FDDB上測(cè)試評(píng)估的ROC曲線. 除了Viola-Jones的經(jīng)典人臉檢測(cè)方法之外,其它幾種方法都是近幾年提出來的,其中 DDFD,Cascade CNN 以及 Joint Cascade 這三種方法,都是使用卷積神經(jīng)網(wǎng)絡(luò)提取特征. 從圖中可以看出,當(dāng)假陽性數(shù)量大于200左右時(shí),使用Faster R-CNN方法做人臉檢測(cè)比其他方法表現(xiàn)得更好.

      圖8 與其它人臉檢測(cè)方法比較

      隨機(jī)從FDDB數(shù)據(jù)庫中選取幾張圖像,使用Faster R-CNN模型進(jìn)行人臉檢測(cè),效果如圖9所示.

      4 結(jié)語

      Faster R-CNN本來是用作通用目標(biāo)檢測(cè)的,本文在WIDER人臉數(shù)據(jù)庫上分別訓(xùn)練了ZF和VGG16網(wǎng)絡(luò)模型,并在 FDDB 數(shù)據(jù)集上測(cè)試. 實(shí)驗(yàn)結(jié)果表明,該模型可以快速、準(zhǔn)確地檢測(cè)自然條件下的人臉,對(duì)復(fù)雜光照、部分遮擋、人臉姿態(tài)變化具有魯棒性. Faster R-CNN最大的優(yōu)點(diǎn),是共享了RPN和Fast R-CNN網(wǎng)絡(luò)的卷積層,大量減少了計(jì)算候選區(qū)域消耗的時(shí)間.

      圖9 隨機(jī)選取圖像做人臉檢測(cè)

      展望未來,發(fā)現(xiàn)有一些應(yīng)用,需要進(jìn)行人臉檢測(cè),并識(shí)別人臉生物特征,比如性別、年齡、表情等. 可以借鑒Faster R-CNN共享卷積層的思想,使用一個(gè)網(wǎng)絡(luò),對(duì)大量人臉生物特征進(jìn)行識(shí)別,來提高效率.

      1Viola P,Jones M. Rapid object detection using a boosted cascade of simple features. Proc. of IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Kauai,HI,USA. 2001,1. I-511–I-518.

      2Lienhart R,Maydt J. An extended set of haar-like features for rapid object detection. Proc. of IEEE International Conference on Image Processing. Rochester,NY,USA. 2002,1. I-900–I-903.

      3Li SZ,Zhu L,Zhang ZQ,et al. Statistical learning of multiview face detection. Proc. of the 7th European Conference on Computer Vision. London,UK. 2002. 67–81.

      4Jones M,Viola P. Fast multi-view face detection. Mitsubishi Electric Research Lab. TR-20003-96. 2003,3. 14.

      5Froba B,Ernst A. Face detection with the modified census transform. Proc. of the Sixth IEEE International Conference on Automatic Face and Gesture Recognition. Seoul,South Korea. 2004. 91–96.

      6Jin HL,Liu QS,Lu HQ,et al. Face detection using improved LBP under Bayesian framework. Proc. of the Third International Conference on Image and Graphics (ICIG’04). Hong Kong,China. 2004. 306–309.

      7Shao H,Chen S,Zhao JY,et al. Face recognition based on subset selection via metric learning on manifold. Frontiers of Information Technology & Electronic Engineering,2015,16(12): 1046–1058.

      8Wu B,Ai HZ,Huang C,et al. Fast rotation invariant multiview face detection based on real adaboost. Proc. of the Sixth IEEE International Conference on Automatic Face and Gesture Recognition. Seoul,Korea. 2004. 79–84.

      9Li SZ,Zhang ZQ. Floatboost learning and statistical face detection. IEEE Trans. on Pattern Analysis and Machine Intelligence,2004,26(9): 1112–1123. [doi: 10.1109/TPAMI.2004.68]

      10Huang C,Ai HZ,Li YZ,et al. High-performance rotation invariant multiview face detection. IEEE Trans. on Pattern Analysis and Machine Intelligence,2007,29(4): 671–686.[doi: 10.1109/TPAMI.2007.1011]

      11Li QF,Zhou XF,Gu AH,et al. Nuclear norm regularized convolutional Max Pos@Top machine. Neural Computing and Applications,2016: 1–10.

      12Farfade SS,Saberian MJ,Li LJ. Multi-view face detection using deep convolutional neural networks. Proc. of the 5th ACM on International Conference on Multimedia Retrieval.Shanghai,China. 2015. 643–650.

      13Yang S,Luo P,Loy CC,et al. From facial parts responses to face detection: A deep learning approach. Proc. of the IEEE International Conference on Computer Vision. Santiago,Chile. 2015. 3676–3684.

      14Li HX,Lin Z,Shen XH,et al. A convolutional neural network cascade for face detection. Proc. of the IEEE Conference on Computer Vision and Pattern Recognition. Boston,MA,USA. 2015. 5325–5334.

      15Girshick R,Donahue J,Darrell T,et al. Rich feature hierarchies for accurate object detection and semantic segmentation. Proc. of the IEEE Conference on Computer Vision and Pattern Recognition. Columbus,OH,USA. 2014.580–587.

      16Ren SQ,He KM,Girshick R,et al. Faster R-CNN: Towards real-time object detection with region proposal networks.Advances in Neural Information Processing Systems.Montréal,Canada. 2015. 91–99.

      17Zeiler MD,Fergus R. Visualizing and understanding convolutional networks. Proc. of the 13th European Conference on Computer Vision. Cham,Germany. 2014.818–833.

      18Simonyan K,Zisserman A. Very deep convolutional networks for large-scale image recognition. arXiv: 1409.1556,2014.

      19Yang S,Luo P,Loy CC,et al. Wider face: A face detection benchmark. Proc. of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas,NV,USA. 2016.5525–5533.

      20Jain V,Learned-Miller EG. FDDB: A benchmark for face detection in unconstrained settings. UMass Amherst Technical Report. Amherst: University of Massachusetts,2010.

      21Uijlings JRR,van de Sande KEA,Gevers T,et al. Selective search for object recognition. International Journal of Computer Vision,2013,104(2): 154–171. [doi: 10.1007/s11263-013-0620-5]

      22Zitnick CL,Dollar P. Edge boxes: Locating object proposals from edges. Proc. of the 13th European Conference on Computer Vision. Cham,Germany. 2014. 391–405.

      23He KM,Zhang XY,Ren SQ,et al. Spatial pyramid pooling in deep convolutional networks for visual recognition. Proc.of the 13th European Conference on Computer Vision.Cham,Germany. 2014. 346–361.

      24Girshick R. Fast R-CNN. Proc. of the IEEE International Conference on Computer Vision. Santiago,Chile. 2015.1440–1448.

      Face Detection Using the Faster R-CNN Method

      DONG Lan-Fang,ZHANG Jun-Ting
      (College of Computer Science and Technology,University of Science and Technology of China,Hefei 230027,China)

      Recently,the faster R-CNN has demonstrated impressive performance on various object detection benchmarks,and it has attracted extensive research interests. We train a faster R-CNN model on the WIDER face dataset with the ZF and VGG16 convolutional neural network respectively,and then we test the trained model on the FDDB face benchmark.Experimental results demonstrate that the method is robust to complex illumination,partial occlusions and facial pose variations. It achieves excellent performance in detecting unconstrained faces. The two kinds of network have their own advantages in detection accuracy and efficiency,so we can choose to use an appropriate network model according to the actual application requirements.

      face detection; candidate region; convolutional neural network; unconstrained condition

      董蘭芳,張軍挺.基于 Faster R-CNN 的人臉檢測(cè)方法.計(jì)算機(jī)系統(tǒng)應(yīng)用,2017,26(12):262–267. http://www.c-s-a.org.cn/1003-3254/6102.html

      2017-03-15; 修改時(shí)間: 2017-04-05; 采用時(shí)間: 2017-04-07

      猜你喜歡
      人臉卷積神經(jīng)網(wǎng)絡(luò)
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      有特點(diǎn)的人臉
      神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
      電子制作(2019年19期)2019-11-23 08:42:00
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      三國漫——人臉解鎖
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
      復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
      基于支持向量機(jī)回歸和RBF神經(jīng)網(wǎng)絡(luò)的PID整定
      馬面部與人臉相似度驚人
      锡林郭勒盟| 买车| 乐清市| 永福县| 绥棱县| 娄底市| 云安县| 肃宁县| 永泰县| 马边| 济宁市| 南木林县| 威信县| 巴林左旗| 凤山县| 临泽县| 五家渠市| 平乡县| 册亨县| 库尔勒市| 皋兰县| 昌邑市| 广昌县| 南安市| 屏边| 疏附县| 酒泉市| 墨竹工卡县| 黄山市| 塔河县| 宁城县| 陇南市| 韶关市| 深泽县| 伊通| 湛江市| 三门峡市| 沛县| 于田县| 柳州市| 克拉玛依市|