• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      改進(jìn)YOLO的密集小尺度人臉檢測方法

      2020-04-24 03:07:58鄧珍榮白善今馬富欣黃文明
      關(guān)鍵詞:柵格人臉尺度

      鄧珍榮,白善今,馬富欣,黃文明

      (1.桂林電子科技大學(xué) 計(jì)算機(jī)與信息安全學(xué)院,廣西 桂林 541004; 2.桂林電子科技大學(xué) 廣西高校云計(jì)算與復(fù)雜系統(tǒng)重點(diǎn)實(shí)驗(yàn)室,廣西 桂林 541004)

      0 引 言

      傳統(tǒng)人臉檢測方法發(fā)展較快,并取得一定的效果[1]。例如Viola等[2]提出的基于Adaboost的方法及其改進(jìn)之后的HeadHunters算法和SURF-Adaboost[3,4]算法。但是傳統(tǒng)方法普遍采用人工手段按照既定的規(guī)則提取圖像以及人臉的特征,這種方法提取的特征具有較多的主觀屬性,導(dǎo)致其表征的人臉特征具有一定的偏差,此外處于分類器發(fā)展的初級(jí)階段,其分類能力有限,導(dǎo)致對(duì)人臉目標(biāo)的檢測精度較低。

      近年來,基于卷積神經(jīng)網(wǎng)絡(luò)搭建的計(jì)算機(jī)視覺模型在目標(biāo)檢測領(lǐng)域取得巨大進(jìn)展,卷積神經(jīng)網(wǎng)絡(luò)采用多種濾波器滑窗的形式自動(dòng)提取圖像和人臉特征,深層特征圖組合的結(jié)構(gòu)具有較強(qiáng)的魯棒性,可以提高目標(biāo)檢測的精度。例如利用Selective search[5]生成候選框的R-CNN[6]。優(yōu)化特征提取的空間金字塔池化網(wǎng)絡(luò)[7]。單級(jí)訓(xùn)練的Fast R-CNN[8]?;谌矸e神經(jīng)網(wǎng)絡(luò)[9]改進(jìn)的Faster R-CNN[10]。

      同時(shí)研究人員發(fā)現(xiàn),根據(jù)不同的人臉檢測場景,對(duì)通用的目標(biāo)檢測方法做相應(yīng)的改進(jìn),可以取得比傳統(tǒng)方法更好的結(jié)果[11]。Jiang H等[12]將通用目標(biāo)檢測模型Faster R-CNN 應(yīng)用在人臉檢測領(lǐng)域,并使用人臉數(shù)據(jù)集重新訓(xùn)練Faster R-CNN模型使其滿足檢測需求。Wan S等[13]改進(jìn)了通用目標(biāo)檢測模型Faster R-CNN,同時(shí)在小型人臉數(shù)據(jù)集FDDB[14]上對(duì)改進(jìn)的模型進(jìn)行遷移學(xué)習(xí)訓(xùn)練,提高了人臉檢測的精度。Li等[15]對(duì)Faster R-CNN模型進(jìn)行了進(jìn)一步改進(jìn),引入聯(lián)級(jí)訓(xùn)練檢測結(jié)構(gòu)提高檢測精度。

      但是以上工作大部分采用先產(chǎn)生目標(biāo)候選框,再對(duì)候選框進(jìn)行分類的兩階段檢測方法,在提高了檢測精度的同時(shí)犧牲了檢測速度。Redmon等[16]提出YOLO(you only look once)模型,將目標(biāo)框定位的問題轉(zhuǎn)化為回歸問題進(jìn)行處理,實(shí)現(xiàn)對(duì)圖像端到端的檢測,極大提高了檢測速度,但是由于算法不會(huì)提前生產(chǎn)檢測框,所以檢測精度相比于兩階段模型較低。

      基于以上討論,為有效提高人臉檢測精度,同時(shí)保證檢測速度,提出改進(jìn)YOLO的密集小尺度人臉檢測方法。首先使用目標(biāo)框與真實(shí)框的面積交并比作為距離損失函數(shù)對(duì)傳統(tǒng)的k-means聚類算法進(jìn)行改進(jìn),同時(shí)結(jié)合小尺度人臉目標(biāo)占比小且長寬比例接近1的特點(diǎn),對(duì)候選框進(jìn)行聚類篩選合適的尺度數(shù)量,其次對(duì)多級(jí)特征圖進(jìn)行細(xì)粒度特征融合,提高對(duì)小尺度人臉特征的表示能力,最后調(diào)整預(yù)測層的寬度和深度,形成適用于檢測密集小尺度人臉的網(wǎng)絡(luò)結(jié)構(gòu)。在WIDER FACE人臉檢測數(shù)據(jù)庫上進(jìn)行實(shí)驗(yàn)的結(jié)果顯示,該方法對(duì)密集小尺度人臉的檢測精度有明顯提高。

      1 YOLO算法

      YOLO是繼R-CNN、Fast R-CNN和Faster R-CNN之后一種新的端到端目標(biāo)檢測模型,其使用一個(gè)完整的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)提取圖像特征,在網(wǎng)絡(luò)的輸出層對(duì)目標(biāo)的類別和位置信息進(jìn)行統(tǒng)一的回歸預(yù)測,完成從原始圖像的輸入到目標(biāo)類別和位置的輸出。其檢測流程如圖1所示。

      圖1 YOLO檢測目標(biāo)流程

      YOLO算法將輸入圖像劃分為7×7的柵格,當(dāng)圖像中某一個(gè)目標(biāo)的中心點(diǎn)落在其中一個(gè)柵格中時(shí),該柵格就會(huì)初始化兩個(gè)邊框,負(fù)責(zé)預(yù)測當(dāng)前目標(biāo)的類別和大小,再運(yùn)行神經(jīng)網(wǎng)絡(luò)預(yù)測含有物體的邊框,通過非極大抑制篩選合適的邊框,得到輸入圖像中目標(biāo)的位置和類別。YOLO的網(wǎng)絡(luò)借鑒了GoogLeNet分類網(wǎng)絡(luò)結(jié)構(gòu),在訓(xùn)練過程中隨機(jī)初始化網(wǎng)絡(luò)參數(shù)。在人臉檢測任務(wù)中,網(wǎng)絡(luò)輸出層為7×7×11的預(yù)測張量,其中7×7為劃分圖像的柵格,11為兩個(gè)預(yù)測框的坐標(biāo)信息和置信度以及每個(gè)柵格所屬類別的概率。

      YOLO將整張圖像作為目標(biāo)檢測網(wǎng)絡(luò)模型的輸入,直接在輸出層預(yù)測圖像中前景目標(biāo)的類別,并且回歸預(yù)測框的位置,這種one-stage的檢測方式提高了檢測速度,但是完全端到端的訓(xùn)練模式也導(dǎo)致了檢測精度較低的問題,特別是在檢測秘籍小目標(biāo)人臉時(shí)尤為突出。首先,在two-stage的檢測模型中,通常會(huì)在深層特征圖上采用滑動(dòng)窗口的形式,映射到訓(xùn)練圖像中的感受野區(qū)域,使用固定長寬比例的先驗(yàn)框,遞歸的與標(biāo)注框進(jìn)行匹配,通過設(shè)置好的閾值提前篩選出有助于檢測的先驗(yàn)框。但是YOLO網(wǎng)絡(luò)并沒有采用以上方式,而是使用輸出層的全連接結(jié)構(gòu)預(yù)測目標(biāo)的位置和置信度,導(dǎo)致模型在訓(xùn)練的過程中,需要從隨機(jī)初始化的狀態(tài)開始,增加了模型往正確方向收斂的時(shí)間,與全卷積結(jié)構(gòu)相比,全連接網(wǎng)絡(luò)的參數(shù)量和計(jì)算量會(huì)更多,模型的復(fù)雜度也相應(yīng)增加。其次,由于不同層次的特征圖的感受野不同,且不同層特征圖之間包含前景目標(biāo)的上下文語義特征,而YOLO模型采用的自下而上的單級(jí)網(wǎng)絡(luò)結(jié)構(gòu)提取特征,會(huì)使得部分小目標(biāo)的上下文語義特征缺失,導(dǎo)致小目標(biāo)物體漏檢的情況。最后,YOLO在劃分圖像為7×7的網(wǎng)格之后,每一個(gè)網(wǎng)格只設(shè)置了兩個(gè)預(yù)測框,整個(gè)圖像一共只有98個(gè)檢測框可以預(yù)測目標(biāo),在檢測密集小目標(biāo)人臉時(shí)出現(xiàn)預(yù)測框漂移的現(xiàn)象,導(dǎo)致多個(gè)目標(biāo)只被一個(gè)預(yù)測框檢測到,且預(yù)測的位置與真實(shí)位置有較大的偏差。

      針對(duì)以上問題,本文結(jié)合密集小尺度人臉目標(biāo)的特點(diǎn),分別從選擇合適的先驗(yàn)框、融合多級(jí)特征圖和構(gòu)造適用于檢測密集小尺度人臉目標(biāo)的預(yù)測層3個(gè)方面,對(duì)YOLO算法進(jìn)行改進(jìn),以提高對(duì)密集小尺度人臉的檢測精度,同時(shí)也具有YOLO算法檢測速度快的優(yōu)點(diǎn)。

      2 改進(jìn)YOLO的人臉檢測模型

      2.1 對(duì)k-means算法進(jìn)行改進(jìn)之后聚類標(biāo)準(zhǔn)參考框

      YOLO模型在檢測圖像中的人臉目標(biāo)時(shí),首先會(huì)隨機(jī)初始化模型中的參數(shù),然后使用人臉數(shù)據(jù)集訓(xùn)練模型,更新參數(shù),最后在網(wǎng)絡(luò)的輸出層進(jìn)行人臉目標(biāo)的位置預(yù)測。在對(duì)參數(shù)初始化的過程中,由于每次隨機(jī)種子都不固定,導(dǎo)致網(wǎng)絡(luò)中的參數(shù)具有較大的偏差和方差,增加了模型訓(xùn)練的難度和收斂時(shí)間,浪費(fèi)很多的計(jì)算資源,此外對(duì)預(yù)測的精度也有較大的影響。如果在參數(shù)初始化的階段,通過一些數(shù)據(jù)預(yù)處理等先驗(yàn)的手段,得到更具有代表性參數(shù)分布來替代隨機(jī)初始化的參數(shù),盡量減少初始化參數(shù)與最優(yōu)化參數(shù)之間的偏差和方差,這樣不僅可以加速模型的收斂,而且有助于模型在訓(xùn)練過程中更快的微調(diào)預(yù)測框的位置信息,也更容易學(xué)習(xí)到更加準(zhǔn)確的預(yù)測框的坐標(biāo),最終得到準(zhǔn)確的邊界框,提高檢測網(wǎng)絡(luò)的精度。

      結(jié)合密集小尺度人臉的寬高比接近1且像素區(qū)域集中在10×10的特點(diǎn),平衡了IOU均值和不同聚類框個(gè)數(shù)的復(fù)雜度之后,最終選擇了3種大小的框作為網(wǎng)絡(luò)預(yù)測框的初始化,分別為(10,13)、(43,47)、(168,180),其中正方形的框更符合人臉形狀的特征,在提升小尺度人臉目標(biāo)的同時(shí)對(duì)大尺度人臉目標(biāo)的預(yù)測框也有一定的修正作用。在WIDER FACE數(shù)據(jù)集上聚類結(jié)果如圖2所示。

      圖2 在WIDER FACE數(shù)據(jù)集上的聚類結(jié)果

      2.2 在不同層級(jí)特征圖中進(jìn)行細(xì)粒度特征融合

      原始YOLO算法在7×7的特征圖上進(jìn)行預(yù)測,這樣的分辨率有利于檢測大尺度的目標(biāo),但是對(duì)于密集小尺度人臉的檢測效果很差??紤]到人臉特征在深度學(xué)習(xí)網(wǎng)絡(luò)中呈結(jié)構(gòu)性,淺層的特征映射在原圖中的感受野比深層的特征較小,對(duì)圖像中的特征表示具有較高的抽象性,而深層的特征映射在原圖中的感受野比較大,對(duì)圖像中的特征表示相對(duì)具體。結(jié)合不同細(xì)粒度特征,可以增加人臉特征的魯棒性。為了提高對(duì)密集小尺度人臉的檢測精度,融合多級(jí)特征圖,讓不同粒度的特征表達(dá)都參與檢測,得到的特征圖具有較高的分辨率,由原來的7×7的分辨率提升為14×14的分辨率,融合后的特征圖具有更豐富的小尺度人臉特征,有助于檢測精度的提高。

      在原始YOLO算法的特征提取網(wǎng)絡(luò)中,采用16個(gè)卷積層加4個(gè)池化層的單級(jí)網(wǎng)絡(luò),在416×416×3分辨率的輸入圖像上,得到14×14×1024維度的特征圖。本文在其基礎(chǔ)上,對(duì)特征提取網(wǎng)絡(luò)進(jìn)行了改進(jìn)。利用單級(jí)網(wǎng)絡(luò)提取特征,截取出28×28×512分辨率的特征圖,使用4個(gè)步長為2的空間濾波器對(duì)其進(jìn)行特征重組,每個(gè)空間濾波器均為2×2×512的維度,且濾波器中分別有1個(gè)位置的值是1,其它3個(gè)位置的值均為0,特征圖經(jīng)過空間濾波器之后,得到4個(gè)14×14×512維度的子特征圖,然后將這4個(gè)自特征圖按照先后順序鏈接在一起,得到14×14×2048的重組特征圖。單級(jí)網(wǎng)絡(luò)最后提取到的特征圖維度是14×14×1024,將重組特征圖與其融合,得到最終的特征輸出維度是14×14×3072。由于在圖像中,相鄰像素之間的空間維度信息的連接是很緊密的,在對(duì)其進(jìn)行特征提取的過程中,不同感受野映射在原圖中的區(qū)域會(huì)交叉重疊,提取到的特征圖中會(huì)有較多的空間冗余性。通過在空間上降維,可以減少感受野中圖像相鄰像素的冗余性,在通道上升維可以豐富感受野區(qū)域里的圖像信息在卷積網(wǎng)絡(luò)中映射的特征信息,盡量以最小的維度,來獲得圖像中最本質(zhì)的特征。

      2.3 改進(jìn)預(yù)測層的結(jié)構(gòu)

      在YOLO算法將輸入圖像劃分為7×7的柵格,每個(gè)柵格有兩個(gè)預(yù)測框,整個(gè)YOLO檢測網(wǎng)絡(luò)共有98個(gè)預(yù)測框。在人臉檢測任務(wù)中,網(wǎng)絡(luò)的分類部分只需要區(qū)分目標(biāo)是否人臉即可,是二分類問題,所以在預(yù)測網(wǎng)絡(luò)最后的輸出張量維度是7×7×11,其中7×7對(duì)應(yīng)將原始圖像劃分為 7×7 的柵格。每一個(gè)柵格即一個(gè)11維的向量,其中前10維對(duì)應(yīng)著兩個(gè)預(yù)測框的信息,分別是預(yù)測框在圖像中的中心點(diǎn)坐標(biāo)、預(yù)測框的長寬和當(dāng)前預(yù)測框中有目標(biāo)的置信度,最后一維向量對(duì)應(yīng)著當(dāng)前柵格中的目標(biāo)是人臉目標(biāo)還是背景目標(biāo)。當(dāng)待檢測的圖像中存在較密集的小尺度人臉目標(biāo)時(shí),YOLO算法對(duì)這種圖像的檢測精度較低,甚至檢測不到,主要的原因是兩個(gè)預(yù)測框共用最后一維向量,而最后一維向量主要負(fù)責(zé)預(yù)測柵格中的目標(biāo)是否是人臉目標(biāo)的,當(dāng)最后一維向量得到的預(yù)測結(jié)果是柵格中的目標(biāo)不是人臉目標(biāo)時(shí),這個(gè)柵格對(duì)應(yīng)的兩個(gè)預(yù)測框?qū)⑷渴В瑢?dǎo)致預(yù)測框的數(shù)量進(jìn)一步減少,檢測精度降低。原始YOLO的網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

      圖3 原始YOLO網(wǎng)絡(luò)結(jié)構(gòu)

      為了克服這一問題,本文改進(jìn)了YOLO算法的預(yù)測層結(jié)構(gòu),將輸出層的分辨率從7×7提升為14×14,同時(shí)改進(jìn)每一個(gè)柵格中預(yù)測邊框的結(jié)構(gòu)。使用改進(jìn)的k-means算法對(duì)標(biāo)準(zhǔn)參考框進(jìn)行聚類,得到適用于小尺度人臉檢測的預(yù)測框尺度,使用這些尺度去初始化預(yù)測框的參數(shù),此外對(duì)YOLO算法中每個(gè)柵格只負(fù)責(zé)預(yù)測一個(gè)類別的網(wǎng)絡(luò)結(jié)構(gòu),改進(jìn)為每個(gè)柵格分別預(yù)測3個(gè)類別。在改進(jìn)后的預(yù)測層中,輸出的預(yù)測張量維度是14×14×18,其中14×14對(duì)應(yīng)將原始圖像劃分為14×14的柵格。每一個(gè)柵格由18維向量組成,分別對(duì)應(yīng)3個(gè)預(yù)測框。與YOLO中兩個(gè)預(yù)測框共用一個(gè)預(yù)測維度不同,改進(jìn)之后的預(yù)測層,每一個(gè)預(yù)測框?qū)⒎謩e獨(dú)立預(yù)測當(dāng)年柵格中的目標(biāo)是否人臉目標(biāo),所以每一個(gè)柵格由6為向量組成,其中的前4維向量分別對(duì)應(yīng)預(yù)測框在原圖中的中心點(diǎn)坐標(biāo)和預(yù)測框的長寬信息,第5維向量代表檢測框中有無目標(biāo)的置信度,第6維向量代表柵格中的目標(biāo)是否人臉目標(biāo)的置信度。同時(shí)每個(gè)柵格中的3個(gè)預(yù)測框,均負(fù)責(zé)預(yù)測不同尺度的人臉目標(biāo),彼此獨(dú)立預(yù)測。原始YOLO使用全連接網(wǎng)絡(luò)將最后的特征圖壓縮為4096維的一維向量,然后在連接到預(yù)測層網(wǎng)絡(luò)中,這種連接方式會(huì)導(dǎo)致特征圖中的空間信息和上下文語義信息的丟失,降低密集小尺度人臉的檢測精度。在改進(jìn)的預(yù)測層網(wǎng)絡(luò)中,使用1×1的卷積核對(duì)特征圖進(jìn)行壓縮,整合不同感受野的信息,增強(qiáng)對(duì)小尺度人臉的特征表示,在最后的預(yù)測層也是通過全卷積網(wǎng)絡(luò)進(jìn)行預(yù)測,最大程度的保留了圖像中有用的空間信息,有助于小尺度人臉的檢測。

      通過對(duì)預(yù)測層的結(jié)構(gòu)改進(jìn)之后,整個(gè)模型的預(yù)測框達(dá)到588個(gè),而YOLO算法只有98個(gè)預(yù)測框,在預(yù)測框的數(shù)量上,增加了6倍之多,進(jìn)一步提高了檢測的精度,極大的改善了原始YOLO對(duì)小目標(biāo)的檢測效果不理想的問題。改進(jìn)YOLO之后的網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。

      圖4 改進(jìn)的YOLO網(wǎng)絡(luò)結(jié)構(gòu)

      3 實(shí)驗(yàn)結(jié)果分析

      以原始YOLO網(wǎng)絡(luò)特征提取框架為基礎(chǔ),使用改進(jìn)的預(yù)測層結(jié)構(gòu),引入聚類框初始化參數(shù),對(duì)不同層級(jí)的特征圖進(jìn)行細(xì)粒度的特征融合,訓(xùn)練人臉檢測模型。同時(shí)為了加快網(wǎng)絡(luò)的收斂速度避免過擬合,本文采取多分布策略,初始化學(xué)習(xí)率為0.0005,并設(shè)置權(quán)值衰減系數(shù)為0.0005,設(shè)置沖量常數(shù)為0.9,使用圖形加速單元訓(xùn)練模型。

      3.1 實(shí)驗(yàn)環(huán)境

      本文實(shí)驗(yàn)環(huán)境使用Ubuntu 14.04操作系統(tǒng),中央處理器為Intel(R) Xeon(R) CPU E5-2698 v4 @ 2.20GHz,運(yùn)行內(nèi)存16 G,顯卡使用NVIDIA Tesla K80,16G顯存。

      3.2 數(shù)據(jù)集

      使用卷積神經(jīng)網(wǎng)絡(luò)作為特征提取網(wǎng)絡(luò)的模型需要從大量的樣本中學(xué)習(xí)人臉的特征,因此最好選用具有代表性的數(shù)據(jù),這樣模型可以學(xué)習(xí)到更好的特征表示。本文使用的人臉數(shù)據(jù)集是由香港中文大學(xué)YangShuo等[18]收集發(fā)布的WIDER FACE人臉檢測數(shù)據(jù)集。該數(shù)據(jù)集是由61個(gè)事件類別組成的,共包含32 203張圖像數(shù)據(jù),其中人臉目標(biāo)共393 793個(gè),這些人臉目標(biāo)在尺度、姿勢(shì)、裝扮和光照等方面均有比較大的變化,這種規(guī)模的數(shù)據(jù)集可以使模型更有效的學(xué)習(xí)到人臉目標(biāo)的特征屬性。本文選取其中每一個(gè)事件的40作為訓(xùn)練數(shù)據(jù)集,50%作為測試數(shù)據(jù)集,10%作為交叉驗(yàn)證數(shù)據(jù)集。

      3.3 實(shí)驗(yàn)結(jié)果分析

      本文使用改進(jìn)的模型在WIDER FACE人臉檢測數(shù)據(jù)集上迭代訓(xùn)練一萬步,并且在測試數(shù)據(jù)集上對(duì)YOLO算法和本文提出的算法進(jìn)行對(duì)比分析,對(duì)每一個(gè)改進(jìn)點(diǎn)進(jìn)行驗(yàn)證。

      3.3.1 本文提出的模型的收斂性驗(yàn)證

      在訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模型時(shí),模型是否能夠達(dá)到穩(wěn)定收斂狀態(tài)也是模型性能的參考標(biāo)準(zhǔn)之一。本文在訓(xùn)練模型的過程中,分別在每一步迭代中收集模型的訓(xùn)練日志,其中包括模型的損失值、模型的準(zhǔn)確率、模型的召回率、平均IOU值等信息,通過對(duì)訓(xùn)練日志的分析,可以掌握模型在訓(xùn)練中的狀態(tài)。圖5是將日志中的模型損失可視化的展示,可以很直觀的看出模型在前2000步的迭代訓(xùn)練中,損失值在不斷的降低,在2000步左右到達(dá)穩(wěn)定狀態(tài),并且在之后的訓(xùn)練步數(shù)中,模型的損失值持續(xù)降低,整體趨于穩(wěn)定,也反映了本文提出的模型可以較快的達(dá)到收斂狀態(tài)。

      圖5 模型訓(xùn)練損失變化曲線

      3.3.2 測試改進(jìn)策略對(duì)模型精度的影響

      本文采用變量控制的原則,對(duì)提出的3個(gè)改進(jìn)點(diǎn)進(jìn)行逐一測試,并在測試數(shù)據(jù)中對(duì)比其對(duì)檢測精度的影響。測試結(jié)果如圖6所示,YOLO算法在測試數(shù)據(jù)集中的精度是76%,當(dāng)只在YOLO算法中引入聚類結(jié)果中不同尺度的檢測框時(shí),檢測精度提高了近10個(gè)百分點(diǎn);當(dāng)只改進(jìn)YOLO算法預(yù)測層的網(wǎng)絡(luò)結(jié)構(gòu)時(shí),檢測精度提高了近5個(gè)百分點(diǎn);當(dāng)只對(duì)YOLO算法進(jìn)行細(xì)粒度特征融合時(shí),檢測精度提高了近3個(gè)百分點(diǎn)。由測試結(jié)果可以看出,本文提出的改進(jìn)點(diǎn)對(duì)YOLO算法的檢測精度均有不同程度的提升,也驗(yàn)證了每一個(gè)改進(jìn)點(diǎn)都是有效的。其中聚類框的引入對(duì)模型精度的提升最為顯著。最后本文將以上3個(gè)改進(jìn)點(diǎn)同時(shí)應(yīng)用在YOLO算法中訓(xùn)練,得到的模型在測試集上的檢測精度為90.5%,相比于YOLO算法提高了近15個(gè)百分點(diǎn)。

      圖6 不同改進(jìn)策略對(duì)模型精度的影響

      3.3.3 不同檢測模型對(duì)比

      目標(biāo)檢測模型的性能不止有模型的精度,還有模型的速度,即平均檢測一張圖像花費(fèi)的時(shí)間。檢測速度快、精度高的目標(biāo)檢測模型一直是研究人員所追求的目標(biāo)。本文在同一測試環(huán)境下,對(duì)比了其它檢測模型與本文方法在WIDER FACE測試數(shù)據(jù)集上的性能表現(xiàn),由表1可見,本文方法與YOLO檢測模型相比,查準(zhǔn)率提高了14.9%,達(dá)到了90.5%;查全率提高了22.7%,達(dá)到了86.1%;由于使用了較密集的柵格和較多的預(yù)測框,檢測速度比YOLO慢了90毫秒,但是依然比兩階段的檢測模型速度快,平均檢測一張圖像只需0.34 s。

      表1 性能對(duì)比

      3.3.4 與YOLO檢測結(jié)果對(duì)比

      文本在相同檢測環(huán)境下,分別對(duì)YOLO和本文方法的檢測結(jié)果進(jìn)行對(duì)比分析,檢測結(jié)果如圖7所示,圖7左邊是YOLO模型檢測密集小尺度人臉的效果圖,右邊是本文方法檢測密集小尺度的效果圖。可以看出本文提出的方法對(duì)密集的小目標(biāo)人臉的檢測結(jié)果好于YOLO。

      圖7 左:YOLO檢測結(jié)果右:本文方法檢測結(jié)果

      4 結(jié)束語

      為解決密集小尺度人臉檢測精度低的問題,本文提出一種基于改進(jìn)YOLO算法的密集小尺度人臉檢測方法。首先使用目標(biāo)框與真實(shí)框的面積交并比作為距離損失函數(shù)對(duì)傳統(tǒng)的k-means聚類算法進(jìn)行改進(jìn),同時(shí)結(jié)合小尺度人臉目標(biāo)占比小且長寬比例接近1的特點(diǎn),對(duì)候選框進(jìn)行聚類篩選合適的尺度數(shù)量,然后在多級(jí)特征圖中融合細(xì)粒度特征,對(duì)感受野較小的淺層特征進(jìn)行空間降維通道升維之后,與感受野較大的深層特征進(jìn)行融合,得到的特征圖中包含小尺度人臉的抽象信息和細(xì)節(jié)信息,提高特征圖對(duì)小尺度人臉的特征表達(dá)能力;最后結(jié)合聚類選擇的候選框,增加預(yù)測層的深度和寬度,形成適用于檢測密集小尺度人臉的網(wǎng)絡(luò)結(jié)構(gòu)。在WIDER FACE人臉檢測數(shù)據(jù)庫上進(jìn)行實(shí)驗(yàn)的結(jié)果表明,該方法在對(duì)密集小尺度人臉的檢測精度有明顯提高。

      猜你喜歡
      柵格人臉尺度
      基于鄰域柵格篩選的點(diǎn)云邊緣點(diǎn)提取方法*
      有特點(diǎn)的人臉
      財(cái)產(chǎn)的五大尺度和五重應(yīng)對(duì)
      三國漫——人臉解鎖
      宇宙的尺度
      太空探索(2016年5期)2016-07-12 15:17:55
      不同剖面形狀的柵格壁對(duì)柵格翼氣動(dòng)特性的影響
      馬面部與人臉相似度驚人
      9
      長得象人臉的十種動(dòng)物
      奇聞怪事(2014年5期)2014-05-13 21:43:01
      基于CVT排布的非周期柵格密度加權(quán)陣設(shè)計(jì)
      永顺县| 屏南县| 江源县| 穆棱市| 大余县| 内乡县| 钟祥市| 荆门市| 崇礼县| 张掖市| 高陵县| 泽普县| 凤冈县| 墨竹工卡县| 广宗县| 改则县| 新田县| 江都市| 宣威市| 泰兴市| 龙山县| 杨浦区| 隆化县| 张家口市| 怀来县| 耿马| 新竹市| 赤壁市| 石首市| 阜南县| 上栗县| 海盐县| 梅河口市| 苏尼特右旗| 射阳县| 新丰县| 双鸭山市| 吉林省| 大理市| 阳信县| 东城区|