• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      面向小目標(biāo)的YOLOv5安全帽檢測(cè)算法

      2023-07-03 14:12:30呂宗喆王唯鑒
      計(jì)算機(jī)應(yīng)用 2023年6期
      關(guān)鍵詞:安全帽置信度切片

      呂宗喆,徐 慧,楊 驍,王 勇,王唯鑒

      (1.北京機(jī)械工業(yè)自動(dòng)化研究所,北京 100120;2.北自所(北京)科技發(fā)展股份有限公司,北京 100120)

      0 引言

      在建筑業(yè)施工、制造業(yè)生產(chǎn)過(guò)程中,時(shí)常存在不同程度的安全隱患威脅著工作人員的人身安全。近5 年來(lái),我國(guó)因受物體打擊或高處墜落導(dǎo)致的重大安全生產(chǎn)事故占總事故量的近三成[1]。安全帽的主要作用是使工作人員的頭部減輕或免受墜落物等外物的傷害,在關(guān)鍵時(shí)刻可以拯救工人的生命[2],因此安全帽的佩戴作為保障高危工作人群人身安全的一項(xiàng)重要措施,意義重大。目前,對(duì)于廠區(qū)安全帽佩戴檢測(cè)的方法主要有以下幾類:人工判定法、基于傳感器反饋的方法、基于圖像識(shí)別處理的方法和基于目標(biāo)檢測(cè)的方法[3]。

      在圖像處理技術(shù)沒有廣泛應(yīng)用的時(shí)期,安全帽的檢測(cè)主要依靠傳感技術(shù)實(shí)現(xiàn)。Kelm 等[4]設(shè)計(jì)了一種安裝移動(dòng)射頻識(shí)別閘門,檢測(cè)經(jīng)過(guò)閘門工人的個(gè)人防護(hù)設(shè)備的佩戴情況;Dong 等[5]通過(guò)安裝在安全帽內(nèi)側(cè)的壓力傳感器檢測(cè)工人是否佩戴安全帽,并通過(guò)藍(lán)牙傳輸檢測(cè)結(jié)果,但是藍(lán)牙模塊需要定期充電,操作較為繁瑣。這些方法對(duì)硬件要求較高,穿戴和檢測(cè)較復(fù)雜,同時(shí)考慮到工人的健康和隱私,這些技術(shù)沒有得到推廣。

      隨著圖像處理技術(shù)的發(fā)展,Birchfield[6]使用橢圓形對(duì)佩戴安全帽的頭部輪廓建模,并在狀態(tài)空間中搜索是否存在與該形狀匹配的區(qū)域,可以很好地檢測(cè)出正面的頭部圖像,但對(duì)于傾斜的頭部不能有效檢測(cè);劉曉慧等[7]通過(guò)膚色檢測(cè)粗定位佩戴安全帽的頭部區(qū)域,提取安全帽的Hu 矩陣特征向量并使用支持向量機(jī)進(jìn)行分類;Chiverton[8]在行人檢測(cè)的基礎(chǔ)上,采用方向梯度直方圖(Histogram of Oriented Gradient,HOG)、尺度不變特征變換(Scale-Invariant Feature Transform,SIFT)等算法提取行人頭部特征,通過(guò)手動(dòng)選取特征進(jìn)行分類檢測(cè)。這些方法均需要提取圖像特征,對(duì)圖像清晰度要求較高且計(jì)算量龐大,識(shí)別精度不高,不適合在復(fù)雜的工廠施工環(huán)境中使用。

      近幾年,使用深度學(xué)習(xí)的目標(biāo)檢測(cè)方法在工業(yè)領(lǐng)域掀起了熱潮。小目標(biāo)檢測(cè)一直以來(lái)是目標(biāo)檢測(cè)技術(shù)中的重難點(diǎn),針對(duì)安全帽的目標(biāo)檢測(cè)通常使用工業(yè)現(xiàn)場(chǎng)采集的低分辨率照片(640×480),目標(biāo)密集、易出現(xiàn)遮擋且像素點(diǎn)少,屬于小目標(biāo)的范疇。DOIR(Detection,Observation,Identification and Recognition )將大小低于圖像高度10%的檢測(cè)目標(biāo)或大小低于圖像高度的20%的識(shí)別目標(biāo)定義為兩類小目標(biāo)[9]。MSCOCO(MicroSoft Common Objects in COntext)數(shù)據(jù)集[10]則將像素絕對(duì)值小于32×32 的目標(biāo)定義為小目標(biāo)。小目標(biāo)具有特征表達(dá)不充分、分辨率低和圖像覆蓋面積小等特點(diǎn),檢測(cè)難度更高。Rawat 等[11]使用紅外補(bǔ)丁圖像方法,在背景補(bǔ)丁圖像中引入總方差正則化項(xiàng)抑制復(fù)雜背景;Zhang 等[12]將雙向特征金字塔結(jié)構(gòu)引入RetinaNet,利用殘余連通的膨脹卷積塊充分提取圖像低特征層的高分辨率特征。這些方法都是為了保留小目標(biāo)特征,增強(qiáng)特征表達(dá)。

      對(duì)于小目標(biāo)安全帽的目標(biāo)檢測(cè)算法分為以YOLO(You Only Look Once)系列為代表的單階段算法和以R-CNN(Region-based Convolutional Neural Network)系列為代表的兩階段算法[13]。王慧[14]在Faster R-CNN 的基礎(chǔ)上,使用加性融合函數(shù)保留小目標(biāo)特征,通過(guò)在線困難樣本挖掘機(jī)制挖掘數(shù)據(jù)集中損失較大的樣本,并分批次訓(xùn)練,顯著地降低了對(duì)安全帽的誤檢和漏檢率,但相較于單階段算法,檢測(cè)速度較低。

      YOLO 和單點(diǎn)多盒檢測(cè)器(Single Shot multibox Detector,SSD)是典型的單階段目標(biāo)檢測(cè)算法。李明山等[15]將特征融合的分支網(wǎng)絡(luò)引入SSD算法,通過(guò)可變參數(shù)調(diào)節(jié)先驗(yàn)框大小,提升了安全帽檢測(cè)的速率和實(shí)時(shí)性。為了進(jìn)一步提高檢測(cè)的準(zhǔn)確性,肖體剛等[16]基于YOLOv3 網(wǎng)絡(luò),通過(guò)增大輸入圖像的尺度,使用深度可分離卷積的方法減少圖像特征的丟失,并使用K-Means 優(yōu)化先驗(yàn)框,顯著地提升了安全帽佩戴檢測(cè)的準(zhǔn)確性。王玲敏等[17]在YOLOv5 基礎(chǔ)上引入坐標(biāo)注意力機(jī)制,改善原有的特征金字塔模型,使雙向跨尺度連接與加權(quán)特征融合更加高效,將小目標(biāo)的平均檢測(cè)精度提高到95.9%。

      相較于SSD 與YOLOv3 算法,YOLOv5 在檢測(cè)速度和精確率上均更勝一籌,因此本文采用YOLOv5 作為基礎(chǔ)的算法框架。為了對(duì)實(shí)際場(chǎng)景中小目標(biāo)安全帽的獨(dú)特性檢測(cè),需要對(duì)YOLOv5 的網(wǎng)絡(luò)結(jié)構(gòu)和微調(diào)推理部分進(jìn)行相應(yīng)的調(diào)整和改進(jìn),提高所提算法在復(fù)雜密集的場(chǎng)景中對(duì)小目標(biāo)的檢測(cè)精度。

      1 改進(jìn)的YOLOv5安全帽檢測(cè)算法

      1.1 YOLOv5的網(wǎng)絡(luò)結(jié)構(gòu)

      本文采用的YOLOv5 網(wǎng)絡(luò)由主干網(wǎng)絡(luò)Backbone、頸部路徑聚合網(wǎng)絡(luò)(Path Aggregation Network,PANet)和輸出Output/Head 這3 個(gè)部分組成,網(wǎng)絡(luò)結(jié)構(gòu)如圖1[18]所示。主干網(wǎng)絡(luò)利用卷積神經(jīng)網(wǎng)絡(luò)使不同的圖像在細(xì)粒度上聚合形成圖像特征;頸部網(wǎng)絡(luò)采用了自頂向下與自底向上聯(lián)合的特征融合方式,將一系列的圖像特征混合并重新組合,再將特征傳遞到輸出層,更好地融合了主干網(wǎng)絡(luò)提取的多尺度特征[19];輸出層根據(jù)傳遞的圖像特征預(yù)測(cè)邊界框和類別,通過(guò)非極大值抑制(Non-Maximum Suppression,NMS)消除冗余預(yù)測(cè)框,最終輸出置信度最高的預(yù)測(cè)類別并返回邊框坐標(biāo)。

      圖1 YOLOv5的網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Network structure of YOLOv5

      圖1 中,F(xiàn)ocus 是代碼中一個(gè)類的名稱,它的意思就是集中,這個(gè)類的作用是下采樣,將寬度和高度信息集中到通道空間中;Conv 是卷積神經(jīng)網(wǎng)絡(luò)的一個(gè)常用模塊;C3 由3 個(gè)Conv 模塊構(gòu)成,用來(lái)增大網(wǎng)絡(luò)深度和感受野,提高特征提取能力;空間金字塔池化(Spatial Pyramid Pooling,SPP)用來(lái)拼接不同的池化結(jié)果,避免圖像因裁剪、縮放造成的失真問(wèn)題;Concat 用來(lái)增加特征圖的通道數(shù);Upsample 是上采樣,用于將圖像放大;Conv2d 是二維情況下卷積神經(jīng)網(wǎng)絡(luò)的模塊;na是預(yù)測(cè)框數(shù),nc是待預(yù)測(cè)的類數(shù),均為在算法中定義的變量。

      1.2 損失函數(shù)的改進(jìn)

      YOLOv5m(You Only Look Once version 5 medium)算法中損失函數(shù)由邊界框回歸損失(bounding box regression loss)、類別預(yù)測(cè)損失(class prediction loss)和置信度預(yù)測(cè)損失(confidence prediction loss)這3 個(gè)部分組成,其中使用廣義交并比損 失(Generalized Intersection over Union Loss,GIoU Loss)函數(shù)計(jì)算邊界框得分(Bounding box score),使用類別預(yù)測(cè)損失(class prediction loss)計(jì)算類別概率得分(Class probability score),使用置信度預(yù)測(cè)損失函數(shù)(confidence prediction loss)計(jì)算客觀性得分(Objectness score)。

      1.2.1 邊界框回歸損失函數(shù)改進(jìn)

      邊界框回歸損失函數(shù)GIoU Loss 計(jì)算公式與計(jì)算過(guò)程中預(yù)測(cè)框和真實(shí)框的關(guān)系公式如下:

      其中:x、y、w、h表示預(yù)測(cè)框中心點(diǎn)坐標(biāo)和預(yù)測(cè)框的寬度及高度;xgt、ygt、wgt、hgt表示真實(shí)框中心點(diǎn)坐標(biāo)和真實(shí)框的寬度及高度。

      結(jié)合圖2 與式(1)~(3),B表示圖2 中灰色預(yù)測(cè)框的大小和位置,Bgt表示圖2 中黑色真實(shí)框的大小和位置,C表示無(wú)論B與Bgt是否相交,同時(shí)包含預(yù)測(cè)框和真實(shí)框的最小區(qū)域的對(duì)角線長(zhǎng)度,d表示預(yù)測(cè)框和真實(shí)框中心點(diǎn)連線的長(zhǎng)度。B與Bgt之間的距離越遠(yuǎn),C值越大[20]。

      圖2 預(yù)測(cè)框和真實(shí)框的關(guān)系Fig.2 Relationship between prediction box and ground truth box

      GIoU 雖然解決了在計(jì)算交并比(Intersection over Union,IoU)時(shí),若預(yù)測(cè)框和真實(shí)框無(wú)重疊梯度消失的問(wèn)題,但對(duì)IoU原本的封閉框十分依賴,需要更多的迭代,所以有時(shí)GIoU Loss 不能很好地收斂。如圖3 所示,當(dāng)預(yù)測(cè)框出現(xiàn)在真實(shí)框的內(nèi)部時(shí)且預(yù)測(cè)框大小一樣時(shí),GIou 退化為IoU,導(dǎo)致檢測(cè)結(jié)果不準(zhǔn)確[21]。

      圖3 GIoU退化為IoUFig.3 GIoU degrading into IoU

      圖4 切片輔助微調(diào)的原理Fig.4 Principle of slicing aided fine-tuning

      本文參考文獻(xiàn)[22]采用完全交并比損失(Complete Intersection over Union Loss,CIoU Loss)代替GIoU Loss 計(jì)算邊界框的回歸損失。CIoU Loss 考慮了邊界框橫縱比一致性的情況,公式如下:

      其中:ρ(·)表示預(yù)測(cè)框和目標(biāo)框中心點(diǎn)的歐氏距離,c表示包含兩個(gè)框的對(duì)角線長(zhǎng)度,b和bgt表示預(yù)測(cè)框和真實(shí)框的中心點(diǎn),α是一個(gè)正權(quán)衡參數(shù),υ用于衡量預(yù)測(cè)框和目標(biāo)框橫縱比的一致性,wgt/hgt和w/h表示真實(shí)框和預(yù)測(cè)框的寬高比。CIoU使重疊面積因子在回歸中具有較高的優(yōu)先級(jí),可以使預(yù)測(cè)框有更好的回歸效果。

      1.2.2 置信度預(yù)測(cè)損失函數(shù)改進(jìn)

      YOLOv5 用于計(jì)算置信度預(yù)測(cè)損失的函數(shù)CrossEntropy Loss 包含式(7)中兩類損失函數(shù):

      該損失函數(shù)的輸出為(batch,D),batch是樣本數(shù),D是類別數(shù),對(duì)每個(gè)batch所對(duì)應(yīng)的D求Softmax,其中Softmax 的值符合概率分布,它可以確保最終輸出的概率總和為1,并且各類別之間是互斥且相互關(guān)聯(lián)的[23-24]。該損失函數(shù)一般用于多類別分類問(wèn)題。

      由于本文研究的安全帽檢測(cè)屬于二分類問(wèn)題,所以CrossEntropy Loss 不再適用。而BCEWithLogitsLoss 則是用于解決單標(biāo)簽二分類或多標(biāo)簽二分類問(wèn)題的損失函數(shù),更符合本文算法需求,故使用式(8)計(jì)算置信度預(yù)測(cè)損失,它包含兩類損失函數(shù):

      對(duì)每個(gè)batch所對(duì)應(yīng)的D值求LSigmoid,兩類檢測(cè)結(jié)果中batch所對(duì)應(yīng)的D相互獨(dú)立。

      2 切片輔助微調(diào)和切片輔助推理

      為了充分表達(dá)小目標(biāo)特征,提高改進(jìn)后YOLOv5 算法的檢測(cè)精度,本文在推理與微調(diào)過(guò)程中,對(duì)輸入網(wǎng)絡(luò)的圖像進(jìn)行重疊切片。相較于直接輸入網(wǎng)絡(luò)的圖像,這種方法可以使圖像中的小目標(biāo)對(duì)象產(chǎn)生較大的像素區(qū)域,盡可能地保留小目標(biāo)的特征,避免因原圖像中小目標(biāo)像素點(diǎn)過(guò)少導(dǎo)致特征丟失,同時(shí)保留對(duì)圖像中大目標(biāo)的檢測(cè)精度。

      2.1 切片輔助微調(diào)

      微調(diào)(fine-tuning)是神經(jīng)網(wǎng)絡(luò)應(yīng)用中最流行的遷移學(xué)習(xí)策略之一[25]。在深度學(xué)習(xí)的實(shí)踐中,由于數(shù)據(jù)集較小,很少?gòu)念^開始訓(xùn)練網(wǎng)絡(luò)。常見的做法是使用預(yù)訓(xùn)練的網(wǎng)絡(luò)重新微調(diào)網(wǎng)絡(luò)參數(shù)。

      微調(diào)就是利用已知的網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練參數(shù),調(diào)整輸出層前若干層的參數(shù),達(dá)到初始化網(wǎng)絡(luò)的目的。這個(gè)過(guò)程有效利用了深度神經(jīng)網(wǎng)絡(luò)強(qiáng)大的泛化能力,又免去了復(fù)雜的模型設(shè)計(jì)和耗時(shí)良久的訓(xùn)練,所以微調(diào)是當(dāng)數(shù)據(jù)量較少時(shí)的一個(gè)比較合適的選擇[26]。

      當(dāng)前廣泛使用的檢測(cè)對(duì)象框架,如Detectron2(https://github.com/facebookresearch/detectron2)、MMDetection[27]和YOLOv5,均使用大型數(shù)據(jù)集ImageNet 或MSCOCO 進(jìn)行預(yù)訓(xùn)練,并提供預(yù)訓(xùn)練權(quán)重,因此本文在訓(xùn)練自己的網(wǎng)絡(luò)時(shí)只需要構(gòu)建較小的數(shù)據(jù)集,花費(fèi)更短的訓(xùn)練周期,在預(yù)訓(xùn)練的基礎(chǔ)上微調(diào)網(wǎng)絡(luò)權(quán)重,不需要重新使用大型的數(shù)據(jù)集進(jìn)行訓(xùn)練,同時(shí)使用切片的方式輔助這一過(guò)程。

      切片輔助微調(diào)隨著切片尺寸(patch size)的減小,使切片無(wú)法覆蓋大目標(biāo)的圖像區(qū)域,這可能導(dǎo)致對(duì)大物體的檢測(cè)性能變差;因此,采用切片輔助推理(Slicing Aided Hyper Inference,SAHI)的方法解決微調(diào)過(guò)程中出現(xiàn)的問(wèn)題。

      2.2 切片輔助推理

      如圖5 所示,將原始輸入圖像I分割為l個(gè)p×q的重疊切片(上標(biāo)I 表示推理(Inference)),在保持寬高比不變的基礎(chǔ)上調(diào)整patch 的大小,單獨(dú)對(duì)每個(gè)重疊切片應(yīng)用目標(biāo)檢測(cè)的正向傳遞對(duì)小目標(biāo)進(jìn)行推理;同時(shí)使用原始圖像的可選全推理(Full Inference,F(xiàn)I)檢測(cè)大目標(biāo),最終使用NMS 將兩類預(yù)測(cè)結(jié)果合并為原始圖像。在NMS 的過(guò)程中,通過(guò)遍歷所有的檢測(cè)框,計(jì)算各檢測(cè)框與當(dāng)前置信度最高的檢測(cè)框之間的交并比,把交并比值大于一定閾值Tm或置信度低于一定閾值Td的檢測(cè)框都剔除,最終得到目標(biāo)預(yù)測(cè)框。Tm是交并比的最大閾值,Td是置信度的最低閾值。

      圖5 切片輔助推理的原理Fig.5 Principle of slicing aided hyper inference

      3 安全帽檢測(cè)算法的網(wǎng)絡(luò)訓(xùn)練

      3.1 數(shù)據(jù)集選用

      本文使用的是安全帽佩戴檢測(cè)數(shù)據(jù)集Safety Helmet Wearing-Dataset(https://github.com/njvisionpower/Safety-Helmet-Wearing-Dataset)。該數(shù)據(jù)集包含7 581 張圖像,其中有9 044 個(gè)佩戴安全帽的對(duì)象(positive)和111 514 個(gè)未佩戴安全帽的對(duì)象(negative)。本文將該數(shù)據(jù)集標(biāo)注文件的VOC格式通過(guò)編寫腳本的方式批量轉(zhuǎn)化為YOLO 格式,方便訓(xùn)練YOLOv5 算法。標(biāo)注文件的內(nèi)容包括類別序號(hào)0、1 和目標(biāo)位置的邊框坐標(biāo),其中0 代表hat,即佩戴安全帽;1 代表person,即未佩戴安全帽。同時(shí)編寫腳本,按7∶2∶1 隨機(jī)將該數(shù)據(jù)集劃分為訓(xùn)練集、測(cè)試集和驗(yàn)證集,訓(xùn)練集包含5 457 張圖像,測(cè)試集包含1 517 張,驗(yàn)證集包含607 張。

      3.2 實(shí)驗(yàn)設(shè)置

      本次實(shí)驗(yàn)在Windows 10 操作系統(tǒng)上進(jìn)行,CPU 為12th Gen Intel Core i9-12900KF 3.19 GHz,GPU 為12 GB顯存的NVIDIA GeForce RTX 3080Ti,深度學(xué)習(xí)框架選擇PyTorch1.9.0。

      為了有更好的檢測(cè)效果,本文實(shí)驗(yàn)預(yù)訓(xùn)練權(quán)重選擇YOLOv5m,由于使用VOC2028 數(shù)據(jù)集,實(shí)驗(yàn)超參文件為hyp.finetune.yaml。實(shí)驗(yàn)使用YOLOv5 中自帶的Mosaic 數(shù)據(jù)增強(qiáng)方法,實(shí)驗(yàn)的關(guān)鍵超參數(shù)如表1 所示。

      表1 實(shí)驗(yàn)關(guān)鍵超參數(shù)Tab.1 Key hyperparameters in experiments

      3.3 實(shí)驗(yàn)衡量指標(biāo)

      實(shí)驗(yàn)中對(duì)真實(shí)情況和預(yù)測(cè)情況的分類如表2 所示,其中真正例TP(True Positive)代表真實(shí)情況與預(yù)測(cè)情況均為正例,假正例FP(Flase Positive)代表真實(shí)為反例而預(yù)測(cè)為正例,假反例FN(Flase Negative)代表真實(shí)情況為正例而預(yù)測(cè)為反例,真反例TN(True Negative)代表真實(shí)情況與預(yù)測(cè)情況均為反例。

      表2 真實(shí)情況和預(yù)測(cè)情況的分類Tab.2 Classification of real and prediction situations

      本文實(shí)驗(yàn)采用的衡量指標(biāo)包括精確率(Precision,P)、召回率(Recall,R)和平均精確率均值(mean Average Precision,mAP)。P 是預(yù)測(cè)出的真正正例在預(yù)測(cè)出的所有正例中所占比例;召回率R 是指預(yù)測(cè)出的真正正例在所有真實(shí)正例中所占比例;平均精確率(Average Precision,AP)是對(duì)精確率-召回率曲線(PR 曲線)和坐標(biāo)軸之間所包圍的面積上的Precision 值求平均值,一般使用積分法計(jì)算,mAP 則是對(duì)每一個(gè)檢測(cè)的類別計(jì)算出的AP 值求平均值,一般以IoU=0.5計(jì)算mAP 的值,即mAP_0.5。以上指標(biāo)的計(jì)算公式如下:

      其中:S為檢測(cè)的類別數(shù),本文實(shí)驗(yàn)的S為2;(VAP)i代表第i個(gè)類別的精確率。

      3.4 訓(xùn)練結(jié)果

      實(shí)驗(yàn)中將修改損失函數(shù)后的算法與原始YOLOv5m 算法在相同的實(shí)驗(yàn)條件下分別訓(xùn)練300 輪,數(shù)據(jù)集分析效果如圖6 所示。圖6(a)表明數(shù)據(jù)集中包含的hat 類別與person 類別的數(shù)量,圖6(b)表明訓(xùn)練的圖片中標(biāo)注出的hat 與person錨框的寬度與高度,圖6(c)表明訓(xùn)練的圖片中標(biāo)注出的hat與person 錨框中心點(diǎn)的坐標(biāo)。

      圖6 數(shù)據(jù)集分析效果Fig.6 Dataset analysis rendering

      改進(jìn)后的算法在制作好的訓(xùn)練集上訓(xùn)練300 輪后的效果如圖7 所示。圖7(a)是IoU 閾值為0.5 時(shí)平均精確率曲線,圖7(b)是IoU 閾值從0.50~0.95,步長(zhǎng)為0.05 時(shí)的平均精確率曲線。可以觀察到,在訓(xùn)練前65 輪過(guò)程中模型迅速收斂,100 輪之后mAP 值趨于穩(wěn)定,且模型沒有出現(xiàn)欠擬合和過(guò)擬合現(xiàn)象,訓(xùn)練效果比較理想。

      圖7 改進(jìn)損失函數(shù)后算法訓(xùn)練效果Fig.7 Algorithm training performance after improving loss function

      3.5 消融實(shí)驗(yàn)

      為了進(jìn)一步驗(yàn)證改進(jìn)后算法的訓(xùn)練效果,設(shè)計(jì)如下消融實(shí)驗(yàn)。原始YOLOv5m 使用的是組合1(CrossEntropyLoss+GIoULoss)對(duì)Bounding box score 和Objectness score 進(jìn)行計(jì)算,本文以此為基礎(chǔ)分別改進(jìn)兩類損失函數(shù),設(shè)計(jì)組合2(CrossEntroyLoss+CIoULoss)、組 合3(BCEWithLogitsLoss+GIoULoss)和組合4(BCEWithLogitsLoss+CIoULoss)這3 組消融實(shí)驗(yàn)。在相同訓(xùn)練集下訓(xùn)練網(wǎng)絡(luò),以精確率(P)、召回率(R)和平均精確率(mAP)作為評(píng)估指標(biāo),實(shí)驗(yàn)結(jié)果如表3所示。

      表3 消融實(shí)驗(yàn)結(jié)果對(duì)比 單位:%Tab.3 Comparison of ablation experimental results unit:%

      從表3 中可以看出,相較于原始YOLOv5m,分別引入兩類損失函數(shù)之后,算法的精確率和召回率都有一定的提升,將兩種損失函數(shù)同時(shí)融入后,精確率提升了0.26 個(gè)百分點(diǎn),召回率提升了0.38 個(gè)百分點(diǎn),平均精確率提升了0.46 個(gè)百分點(diǎn),表明將兩種損失函數(shù)融合后得到了最佳的優(yōu)化算法模型。

      3.6 不同算法性能對(duì)比

      為了進(jìn)一步驗(yàn)證本文算法改進(jìn)的有效性,現(xiàn)將本文算法與引入特征融合的SSD 算法[15]、使用深度可分離卷積的YOLOv3 算法[16]、增加淺層特征圖的YOLOv5 算法[20]和原始YOLOv5 算法在同一測(cè)試集下進(jìn)行測(cè)試,各項(xiàng)性能指標(biāo)對(duì)比結(jié)果如表4 所示。其中文獻(xiàn)[20]中使用防毒面具數(shù)據(jù)集訓(xùn)練了網(wǎng)絡(luò),對(duì)于防毒面具的檢測(cè)結(jié)果會(huì)更高,但對(duì)本文檢測(cè)安全帽的結(jié)果上并不比原始YOLOv5 算法好。從表4 中可以看出,本文算法對(duì)小目標(biāo)安全帽的檢測(cè)性能更好,hat 與person 的AP 值相較于其他4 種算法均有一定提升,mAP 達(dá)到95.77%,相較于對(duì)比算法提高了0.46~13.27 個(gè)百分點(diǎn),訓(xùn)練結(jié)果比較理想,說(shuō)明了本文算法的可行性。

      表4 不同算法性能對(duì)比 單位:%Tab.4 Performance comparison of different algorithms unit:%

      4 算法檢測(cè)結(jié)果與對(duì)比分析

      使用上文中修改了兩種損失函數(shù)(BCEWithLogitsLoss+CIoULoss)后訓(xùn)練的算法模型和在原有YOLOv5m 權(quán)重上進(jìn)行訓(xùn)練的算法模型分別對(duì)圖像進(jìn)行檢測(cè),之后在進(jìn)行切片輔助推理及微調(diào)的基礎(chǔ)上再次對(duì)這些圖像進(jìn)行檢測(cè)。

      為了檢驗(yàn)優(yōu)化后的算法在不同場(chǎng)景下的檢測(cè)效果,根據(jù)距離越遠(yuǎn)檢測(cè)難度越大的特點(diǎn),本實(shí)驗(yàn)將檢測(cè)圖像分為近距離聚集小目標(biāo)、中距離聚集小目標(biāo)和中遠(yuǎn)距離小目標(biāo)三類。

      4.1 僅修改損失函數(shù)的檢測(cè)效果

      實(shí)驗(yàn)在安全帽數(shù)據(jù)集上的檢測(cè)結(jié)果如圖8 所示。其中在未進(jìn)行切片輔助推理及微調(diào)前,對(duì)比檢測(cè)結(jié)果如圖8(a)和圖8(b)??梢钥闯?,相較于圖8(a),圖8(b)中目標(biāo)的檢測(cè)結(jié)果均有所提升,置信度更高。其中圖8(b)在近距離聚集小目標(biāo)的檢測(cè)上糾正了誤檢的結(jié)果,最左側(cè)的保安頭戴鴨舌帽,在原檢測(cè)結(jié)果中會(huì)被誤檢為佩戴安全帽的目標(biāo),而優(yōu)化后的算法則可以將它與佩戴安全帽的目標(biāo)進(jìn)行區(qū)分;對(duì)于檢測(cè)難度較大的中距離聚集目標(biāo),圖8(b)的檢測(cè)結(jié)果說(shuō)明優(yōu)化后的算法仍然具有很好的識(shí)別能力,且識(shí)別結(jié)果更加精確;但對(duì)于檢測(cè)難度最大的中遠(yuǎn)距離小目標(biāo),雖然圖8(b)在精度上有所提升,但仍然存在漏檢的情況,且檢測(cè)結(jié)果中出現(xiàn)了低于0.5 的置信度,檢測(cè)結(jié)果不完全可靠。。

      4.2 使用切片輔助推理及微調(diào)

      為了更進(jìn)一步提高算法對(duì)小目標(biāo)的檢測(cè)精度,改善漏檢的問(wèn)題,本節(jié)在修改損失函數(shù)的基礎(chǔ)上,通過(guò)切片輔助推理及微調(diào)對(duì)相同的測(cè)試圖像進(jìn)行檢測(cè),檢測(cè)結(jié)果如圖8(c)所示。圖8(c)為修改兩類損失函數(shù)的同時(shí)進(jìn)行切片輔助推理及微調(diào)后對(duì)三種不同距離目標(biāo)的檢測(cè)效果。相較于圖8(a)(b),圖8(c)中對(duì)于小目標(biāo)的檢測(cè)精確率再次提高。其中圖8(c)中對(duì)于近距離和中距離小目標(biāo)的檢測(cè)置信度明顯提升,檢測(cè)難度最大的中遠(yuǎn)距離小目標(biāo)中檢測(cè)出了7 個(gè)小目標(biāo),相較于圖8(a)(b)中只檢測(cè)出的5 個(gè)以下小目標(biāo),進(jìn)一步減少了遠(yuǎn)距離小像素目標(biāo)的漏檢情況,置信度也更高。以上實(shí)驗(yàn)結(jié)果表明,相較于原始YOLOv5m 算法,修改兩類損失函數(shù)可以改善安全帽檢測(cè)中誤檢的問(wèn)題,使近距離和中距離密集小目標(biāo)的檢測(cè)結(jié)果更加精確;使用切片輔助推理及微調(diào)可以改善安全帽檢測(cè)中漏檢的問(wèn)題,即對(duì)于遠(yuǎn)距離小目標(biāo)的識(shí)別更加精確。將兩類優(yōu)化方法結(jié)合后的算法,在3 種檢測(cè)場(chǎng)景下的檢測(cè)精度、誤檢和漏檢的情況均有一定改善,表明本文設(shè)計(jì)的目標(biāo)檢測(cè)器在密集小目標(biāo)和遠(yuǎn)距離小目標(biāo)的檢測(cè)場(chǎng)景下泛化能力更強(qiáng)。

      5 結(jié)語(yǔ)

      針對(duì)工地場(chǎng)景下安全帽檢測(cè)過(guò)程中,密集小像素目標(biāo)存在漏檢誤檢的情況,本文基于YOLOv5m 算法,通過(guò)修改計(jì)算邊界框回歸、置信度預(yù)測(cè)損失函數(shù)和使用切片輔助微調(diào)及推理,與原始算法相比,提升了訓(xùn)練過(guò)程的平均精確度和檢測(cè)過(guò)程的置信度,減少了誤檢漏檢的情況,提高了密集小目標(biāo)場(chǎng)景下的泛化能力。改進(jìn)后的算法能夠集成到一個(gè)完整的安全檢查框架中,可廣泛部署于各類生產(chǎn)現(xiàn)場(chǎng),具有較強(qiáng)的應(yīng)用推廣價(jià)值。接下來(lái)將進(jìn)一步整理本文算法結(jié)構(gòu),使它能夠安全可靠地應(yīng)用在實(shí)際工廠場(chǎng)景的安全帽檢測(cè)工作中。

      猜你喜歡
      安全帽置信度切片
      刺猬戴上安全帽
      礦工有無(wú)數(shù)頂安全帽
      小小安全帽,生命保護(hù)傘
      硼鋁復(fù)合材料硼含量置信度臨界安全分析研究
      正負(fù)關(guān)聯(lián)規(guī)則兩級(jí)置信度閾值設(shè)置方法
      基于SDN與NFV的網(wǎng)絡(luò)切片架構(gòu)
      腎穿刺組織冷凍切片技術(shù)的改進(jìn)方法
      置信度條件下軸承壽命的可靠度分析
      軸承(2015年2期)2015-07-25 03:51:04
      冰凍切片、快速石蠟切片在中樞神經(jīng)系統(tǒng)腫瘤診斷中的應(yīng)用價(jià)值比較
      膚色檢測(cè)和Hu矩在安全帽識(shí)別中的應(yīng)用
      永安市| 察哈| 海原县| 西青区| 枞阳县| 隆德县| 河池市| 绵阳市| 信宜市| 侯马市| 新邵县| 丹棱县| 九龙城区| 新干县| 台州市| 且末县| 西乌珠穆沁旗| 定边县| 藁城市| 司法| 高雄市| 抚宁县| 讷河市| 永新县| 波密县| 炉霍县| 汤阴县| 石城县| 龙游县| 青岛市| 巴南区| 井冈山市| 虞城县| 泰兴市| 灵寿县| 乌鲁木齐县| 敖汉旗| 神木县| 岳西县| 贵阳市| 涿鹿县|