• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于YOLOv4-Tiny 與顯著性檢測(cè)的安全帽佩戴檢測(cè)*

      2023-12-09 08:50:58李岳陽(yáng)羅海馳
      關(guān)鍵詞:安全帽卷積顯著性

      蘭 天 李岳陽(yáng) 羅海馳

      (1.江南大學(xué)江蘇省模式識(shí)別與計(jì)算智能工程實(shí)驗(yàn)室 無(wú)錫 214122)

      (2.江南大學(xué)物聯(lián)網(wǎng)工程學(xué)院 無(wú)錫 214122)

      1 引言

      安全帽作為一種最常見(jiàn)和實(shí)用的個(gè)人防護(hù)用具,能夠有效地防止和減輕外來(lái)危險(xiǎn)源對(duì)人們頭部的傷害。根據(jù)公開(kāi)的網(wǎng)絡(luò)數(shù)據(jù)來(lái)看,由于施工人員的不安全行為造成的安全事故占到了所有事故總類(lèi)的88%以上[1],保證工人佩戴安全帽是安全生產(chǎn)的重中之重。

      近年來(lái),基于深度學(xué)習(xí)的目標(biāo)檢測(cè)技術(shù)得到了快速發(fā)展,主要可分為二階段和一階段兩種策略。在二階段方面,具有代表性的是從2014 年開(kāi)始的R-CNN 網(wǎng)絡(luò)[2];之后又在2015 年提出該網(wǎng)絡(luò)模型的改進(jìn)版Fast R-CNN[3]與Faster R-CNN 算法[4]。在一階段方面,具有代表性的是YOLO 系列網(wǎng)絡(luò)模型和SSD 算法[5]。對(duì)于YOLO 系列網(wǎng)絡(luò)模型,2015年由Joseph Redmon 提出YOLO 算法[6],又在2016年與2018 年分別提出了YOLOv2[7]與YOLOv3[8]算法,2020 年Alexey Bochkovskiy 提出了YOLOv4[9]的網(wǎng)絡(luò)結(jié)構(gòu)。與R-CNN 系列模型相比,YOLO 系列目標(biāo)檢測(cè)的方法檢測(cè)精度略低,但其檢測(cè)速度更快,檢測(cè)效率有很大提升,能夠應(yīng)用于實(shí)時(shí)目標(biāo)檢測(cè)任務(wù)中。

      目前已有很多將上述網(wǎng)絡(luò)模型應(yīng)用于解決實(shí)際問(wèn)題的案例。例如,文獻(xiàn)[10]提出基于YOLOv4的乒乓球識(shí)別算法,文獻(xiàn)[11]提出棘突YOLOv4 輔助機(jī)器人巡檢算法,文獻(xiàn)[12]提出的基于YOLOv4的障礙物實(shí)時(shí)檢測(cè)算法。在安全帽檢測(cè)領(lǐng)域也有很多先例,例如文獻(xiàn)[13]提出基于輕量化網(wǎng)絡(luò)的安全帽檢測(cè),文獻(xiàn)[14]一種基于高精度卷積神經(jīng)網(wǎng)絡(luò)的安全帽識(shí)別算法,文獻(xiàn)[15]提出基于YOLOv3 的安全帽檢測(cè)算法。

      綜合考慮不同檢測(cè)算法的優(yōu)點(diǎn),以及本文所要解決的工人安全帽佩戴實(shí)時(shí)檢測(cè)的任務(wù),我們通過(guò)優(yōu)化YOLOv4-Tiny和顯著性檢測(cè)模型,并將兩者有效融合,提出實(shí)時(shí)檢測(cè)工人安全帽佩戴的方法。所提出的方法主要有以下3個(gè)創(chuàng)新點(diǎn)。

      1)為兼顧目標(biāo)檢測(cè)的速度與準(zhǔn)確率,我們采用YOLOv4-Tiny 算法對(duì)安全帽佩戴進(jìn)行實(shí)時(shí)檢測(cè)。同時(shí)利用K-means聚類(lèi)算法得到合適的先驗(yàn)框,使模型檢測(cè)結(jié)果更為精準(zhǔn)。

      2)增加動(dòng)態(tài)顯著性模型輸入的時(shí)間跨度,增強(qiáng)輸入數(shù)據(jù)的時(shí)序特征,更好地排除背景因素的影響,得到更為準(zhǔn)確的顯著性檢測(cè)結(jié)果。

      3)將優(yōu)化后的YOLOv4-Tiny 模型目標(biāo)檢測(cè)結(jié)果和改進(jìn)后的動(dòng)態(tài)顯著性檢測(cè)結(jié)果有效融合,對(duì)目標(biāo)執(zhí)行復(fù)檢操作,從而降低誤檢率。

      2 YOLOv4-Tiny目標(biāo)檢測(cè)算法與優(yōu)化

      2.1 YOLOv4-Tiny目標(biāo)檢測(cè)算法

      YOLOv4-Tiny 目標(biāo)檢測(cè)算法[16]是在YOLOv4模型的基礎(chǔ)之上改進(jìn)而來(lái)的,對(duì)其主干網(wǎng)絡(luò)和特征提取網(wǎng)絡(luò)進(jìn)行一定程度的精簡(jiǎn),如圖1 所示,其網(wǎng)絡(luò)主要分為主干網(wǎng)絡(luò)CSPDarknet53-Tiny 與加強(qiáng)特征提取網(wǎng)絡(luò)。

      圖1 YOLOv4-Tiny網(wǎng)絡(luò)結(jié)構(gòu)

      YOLOv4-Tiny模型只在CSPDarkNet53-Tiny輸出兩個(gè)尺度的特征作為加強(qiáng)特征提取網(wǎng)絡(luò)(FPN)的輸入,其中對(duì)最后一個(gè)尺度的有效特征層卷積后進(jìn)行上采樣,再與上一個(gè)尺度的特征層進(jìn)行堆疊后卷積,二者分別輸出至YoloHead進(jìn)行預(yù)測(cè)。

      在YOLOv4-Tiny的損失函數(shù)的設(shè)計(jì)中,綜合考慮三個(gè)方面的誤差[8]:預(yù)測(cè)框與實(shí)際框的位置偏差Lloc、預(yù)測(cè)框與實(shí)際框的置信度誤差Lconf,以及預(yù)測(cè)框與實(shí)際框的預(yù)測(cè)種類(lèi)誤差Lcls。損失函數(shù)為這三個(gè)部分的和,可以用如式(1)表示。

      在計(jì)算預(yù)測(cè)框與實(shí)際框的位置偏差Lloc時(shí),采用了CIOU[17]這個(gè)度量指標(biāo)。CIOU 考慮了預(yù)測(cè)框與實(shí)際框之間的距離與重疊角度,同時(shí)引入二者框體長(zhǎng)寬比不同的懲罰因子,使目標(biāo)框體的回歸更加穩(wěn)定。

      2.2 算法優(yōu)化

      為了在模型訓(xùn)練時(shí)更加高效,模型中都會(huì)預(yù)設(shè)有不同尺度的先驗(yàn)框,先驗(yàn)框的設(shè)置直接關(guān)系到模型檢測(cè)性能的好壞。

      為了獲得合適的先驗(yàn)框,利用K-means聚類(lèi)的方法來(lái)對(duì)數(shù)據(jù)集中的安全帽目標(biāo)進(jìn)行處理。在聚類(lèi)過(guò)程中,首先隨機(jī)確定6 個(gè)初始聚類(lèi)中心。之后以IOU 為評(píng)判標(biāo)準(zhǔn),計(jì)算每個(gè)目標(biāo)框與6 個(gè)聚類(lèi)中心的距離,將該目標(biāo)分配給最近的聚類(lèi)中心。將所有目標(biāo)框分配完畢后,對(duì)每個(gè)類(lèi)計(jì)算所有屬于該類(lèi)的目標(biāo)框體的寬高平均值作為新的聚類(lèi)中心。之后重復(fù)分配所有目標(biāo)框體,直至聚類(lèi)中心不再改變。具體分類(lèi)的計(jì)算可用式(2)表示:

      其中boxi為第i個(gè)檢測(cè)目標(biāo)框,cenj為當(dāng)前第j個(gè)聚類(lèi)中心目標(biāo)框,n為檢測(cè)目標(biāo)的個(gè)數(shù),k為所需聚類(lèi)中心的個(gè)數(shù)。計(jì)算時(shí)隨機(jī)設(shè)定cenj的初始值,之后每計(jì)算一次,cenj為屬于第j個(gè)類(lèi)內(nèi)所有框體的尺寸平均值。

      最終得到的先驗(yàn)框與原始先驗(yàn)框?qū)Ρ热绫?所示。

      表1 先驗(yàn)框尺寸對(duì)比

      3 動(dòng)態(tài)顯著性檢測(cè)算法與改進(jìn)

      為提高安全帽檢測(cè)的準(zhǔn)確率,基于文獻(xiàn)[18],本文提出改進(jìn)后的動(dòng)態(tài)顯著性檢測(cè)算法。

      3.1 動(dòng)態(tài)顯著性檢測(cè)算法

      基于全局對(duì)比度圖像顯著性檢測(cè)方法(LC)[19]是計(jì)算每個(gè)像素與圖片中其他所有像素在顏色上的距離之和,將該值作為該像素的顯著性值。該方法只是單純地比對(duì)像素顏色,故檢測(cè)效果較差。

      為了能夠更好地檢測(cè)出圖片中的高顯著性區(qū)域,基于全卷積網(wǎng)絡(luò),文獻(xiàn)[18]提出了一種顯著性檢測(cè)算法,具體結(jié)構(gòu)如圖2所示。

      圖2 基于全卷積網(wǎng)絡(luò)的顯著性模型結(jié)構(gòu)

      該顯著性檢測(cè)結(jié)構(gòu)主要分為靜態(tài)顯著性檢測(cè)與動(dòng)態(tài)顯著性檢測(cè)兩部分。其中靜態(tài)顯著性檢測(cè)網(wǎng)絡(luò),會(huì)首先將圖片進(jìn)行5 步共13 次的卷積,之后再利用對(duì)應(yīng)的反卷積網(wǎng)絡(luò)得到靜態(tài)顯著性檢測(cè)結(jié)果。靜態(tài)顯著性檢測(cè)網(wǎng)絡(luò)的整體運(yùn)算公式為

      其中Y為輸出,I為圖像輸入,F(xiàn)S為卷積層產(chǎn)生的特征輸出,DS為反卷積操作,確保輸出Y與輸入圖像I相同大小,ΘF與ΘD代表卷積與反卷積時(shí)的參數(shù)。

      如圖2 所示,動(dòng)態(tài)顯著性檢測(cè)將靜態(tài)顯著性檢測(cè)網(wǎng)絡(luò)的輸入圖片It、該圖片的下一幀圖片It+1,以及靜態(tài)顯著性檢測(cè)結(jié)果Pt,三者在通道上連接作為輸入,該輸入通過(guò)如下公式進(jìn)入第一層的卷積運(yùn)算:

      其中W為卷積權(quán)重,b為偏置項(xiàng)。It和It+1為相鄰兩幀圖像,Pt為It對(duì)應(yīng)的靜態(tài)顯著性檢測(cè)結(jié)果。

      該模型利用光流圖像對(duì)視頻相鄰兩幀的時(shí)間信息進(jìn)行直接推斷,獲得了較高的計(jì)算效率與精度。

      3.2 算法改進(jìn)

      在文獻(xiàn)[18]的基于全卷積網(wǎng)絡(luò)的顯著性檢測(cè)算法中,其輸入數(shù)據(jù)為t時(shí)刻與t+1 時(shí)刻兩張相鄰幀的原圖It與It+1,以及t時(shí)刻對(duì)應(yīng)的靜態(tài)顯著性檢測(cè)結(jié)果Pt。使用這種方法只利用到了兩幀的時(shí)序信息。

      為了拓寬輸入幀的時(shí)序?qū)挾?,同時(shí)避免由于時(shí)序跨度過(guò)大而影響對(duì)移動(dòng)目標(biāo)檢測(cè)效果,我們把基于兩個(gè)時(shí)序輸入的方法拓展為基于三個(gè)時(shí)序輸入的方法,第一卷積層的計(jì)算公式修改如下:

      其中W為卷積時(shí)的權(quán)重,b為偏置項(xiàng)。It+1和It+2為后續(xù)兩幀圖像,Pt為It對(duì)應(yīng)的靜態(tài)顯著性檢測(cè)圖像。這種利用了三個(gè)時(shí)序特征的輸入可以進(jìn)一步緩解圖像中背景因素影響。

      4 安全帽佩戴檢測(cè)算法

      對(duì)于一幀圖片,得到其目標(biāo)檢測(cè)結(jié)果和動(dòng)態(tài)顯著性檢測(cè)結(jié)果以后,可將兩者有效融合,得到最終的安全帽佩戴檢測(cè)結(jié)果。

      具體操作為將目標(biāo)檢測(cè)結(jié)果圖和顯著性檢測(cè)結(jié)果圖縮放至相同大小,這樣目標(biāo)檢測(cè)結(jié)果中的目標(biāo)框體位置,與顯著性檢測(cè)結(jié)果圖中的目標(biāo)位置是相對(duì)應(yīng)的,故可對(duì)目標(biāo)檢測(cè)得到的每個(gè)目標(biāo),使用顯著性檢測(cè)結(jié)果進(jìn)行復(fù)檢操作。

      顯著性檢測(cè)結(jié)果圖為灰度圖,其中較亮的區(qū)域?yàn)楦唢@著性目標(biāo)區(qū)域,較暗的區(qū)域?yàn)榈惋@著性背景區(qū)域。根據(jù)顯著性檢測(cè)結(jié)果,就可以判斷目標(biāo)檢測(cè)框區(qū)域是否為高顯著區(qū)域,從而執(zhí)行復(fù)檢操作。

      利用動(dòng)態(tài)顯著性檢測(cè)結(jié)果,對(duì)每一個(gè)YOLOv4-Tiny 模型檢測(cè)到的目標(biāo)執(zhí)行復(fù)檢,進(jìn)一步判斷其是否為真實(shí)目標(biāo)。如圖3 所示,圖3(a)、(b)和(d)分別為原圖、YOLOv4-Tiny 模型目標(biāo)檢測(cè)結(jié)果圖和改進(jìn)后的動(dòng)態(tài)顯著性檢測(cè)結(jié)果圖,圖3(c)中三個(gè)小圖分別為根據(jù)圖3(b)中三個(gè)目標(biāo)檢測(cè)的結(jié)果在圖3(d)中得到的對(duì)應(yīng)三個(gè)顯著性檢測(cè)裁剪結(jié)果。

      圖3 利用顯著性檢測(cè)結(jié)果進(jìn)行復(fù)檢

      對(duì)圖3(b)中每一個(gè)目標(biāo)檢測(cè)結(jié)果執(zhí)行復(fù)檢操作的步驟如下:

      1)對(duì)于圖3(c)中每一個(gè)顯著性檢測(cè)裁剪小圖,檢測(cè)每一像素,如果其像素灰度值小于設(shè)定閾值T1,則判定為背景像素;否則,判定為目標(biāo)像素。

      2)預(yù)先設(shè)定一個(gè)占比閾值T2,對(duì)于圖3(c)中當(dāng)前復(fù)檢的顯著性檢測(cè)裁剪小圖,如果在該顯著性檢測(cè)裁剪小圖中,背景像素占比小于閾值T2,則判定該顯著性檢測(cè)裁剪小圖對(duì)應(yīng)的圖3(b)中的目標(biāo)檢測(cè)結(jié)果為有效目標(biāo),復(fù)檢通過(guò);反之,則對(duì)應(yīng)的圖3(b)中的檢測(cè)結(jié)果為背景區(qū)域,目標(biāo)檢測(cè)結(jié)果為誤檢。

      在本文的實(shí)驗(yàn)中,閾值T1設(shè)定為15(假設(shè)顯著性檢測(cè)結(jié)果圖中像素灰度值的范圍為0~255),閾值T2設(shè)定為70%。

      5 實(shí)驗(yàn)結(jié)果與分析

      5.1 實(shí)驗(yàn)平臺(tái)

      本實(shí)驗(yàn)在Windows10 操作系統(tǒng)環(huán)境下完成,實(shí)驗(yàn)所采用的硬件設(shè)備配置為NVDIA GeForce GTX 1060 6GB 顯存的GPU,內(nèi)存16GB。所使用的編程語(yǔ)言為Python,模型開(kāi)發(fā)框架為T(mén)ensorflow。

      5.2 優(yōu)化后的YOLOv4-Tiny模型目標(biāo)檢測(cè)性能

      對(duì)于優(yōu)化后的YOLOv4-Tiny模型,其初始權(quán)重為基于COCO 數(shù)據(jù)集得到的預(yù)訓(xùn)練模型權(quán)重。訓(xùn)練與測(cè)試使用的數(shù)據(jù)集為從網(wǎng)絡(luò)中搜索得到共3645張圖片的安全帽數(shù)據(jù)集,按照7∶1的比例劃分為訓(xùn)練集與測(cè)試集,這些圖片為單獨(dú)的照片,內(nèi)含有佩戴安全帽的人員hat 與未佩戴安全帽的人員person。

      針對(duì)安全帽佩戴檢測(cè)任務(wù),本文采用K-means聚類(lèi)方法得到適合安全帽數(shù)據(jù)集的先驗(yàn)框,最終得到的先驗(yàn)框大小如表1 所示。改進(jìn)后先驗(yàn)框尺寸相對(duì)較小,能夠更適合當(dāng)前安全帽檢測(cè)任務(wù)。

      對(duì)于450 張測(cè)試集,本文所提出的優(yōu)化后的YOLOv4-Tiny 模型與原始模型在安全帽佩戴檢測(cè)任務(wù)中檢測(cè)結(jié)果對(duì)比如圖4 所示,其中圖4(a)顯示的是原始模型檢測(cè)結(jié)果,而圖4(b)顯示的是本文所提出的優(yōu)化后的YOLOv4-Tiny模型檢測(cè)結(jié)果。

      圖4 優(yōu)化后的YOLOv4-Tiny模型與原始YOLOv4-Tiny模型檢測(cè)結(jié)果對(duì)比

      圖4 中分別顯示了對(duì)hat 與person 兩個(gè)目標(biāo)檢測(cè)正誤的數(shù)量。圖4(a)為原始模型檢測(cè)結(jié)果,圖4(b)為優(yōu)化后YOLOv4-Tiny檢測(cè)結(jié)果。

      在本文的實(shí)驗(yàn)中,使用準(zhǔn)確率和mAP 作為評(píng)價(jià)指標(biāo)。其中,準(zhǔn)確率Precision的計(jì)算公式為

      其中,TP(True Positive)為模型判定為正樣本且實(shí)際標(biāo)簽也為正樣本的數(shù)量,F(xiàn)P(False Positive)為模型判定為正樣本但實(shí)際標(biāo)簽為負(fù)樣本的數(shù)量。

      表2 所示的是本文所提出的優(yōu)化后的YOLOv4-Tiny 模型與原始模型在安全帽佩戴檢測(cè)任務(wù)中檢測(cè)準(zhǔn)確率以及mAP 對(duì)比結(jié)果??梢钥闯?,優(yōu)化后YOLOv4-Tiny 模型識(shí)別準(zhǔn)確率和mAP 均有提升。

      表2 本文所提出的優(yōu)化后的YOLOv4-Tiny模型與原始YOLOv4-Tiny模型性能對(duì)比

      在速度方面,相比于YOLOv4 網(wǎng)絡(luò)中六千四百萬(wàn)的參數(shù)量,本文使用的YOLOv4-Tiny的參數(shù)量?jī)H有不到六百萬(wàn),可以很好滿(mǎn)足對(duì)安全滿(mǎn)檢測(cè)的實(shí)時(shí)性要求。在本文的環(huán)境中,使用該模型可以達(dá)到平均每秒22幀,滿(mǎn)足對(duì)實(shí)地安全帽實(shí)時(shí)檢測(cè)需求。

      5.3 采用顯著性檢測(cè)復(fù)檢后的檢測(cè)性能

      由于動(dòng)態(tài)顯著性檢測(cè)的輸入數(shù)據(jù)必須為連續(xù)的多張視頻幀,上述實(shí)驗(yàn)使用的獨(dú)立圖片集在此實(shí)驗(yàn)中不適用。故在測(cè)試顯著性檢測(cè)性能的實(shí)驗(yàn)中,我們自建一組內(nèi)含100幀連續(xù)圖片的視頻測(cè)試集。

      圖5 所示的是視頻測(cè)試集中三幀連續(xù)圖片的四種顯著性檢測(cè)模型的檢測(cè)結(jié)果對(duì)比。其中圖5(a)為三幀連續(xù)圖片,圖5(b)為采用優(yōu)化后的YOLOv4-Tiny 模型目標(biāo)檢測(cè)結(jié)果,圖5(c)為真實(shí)顯著性圖,圖5(d)~(g)分別為L(zhǎng)C檢測(cè)結(jié)果、靜態(tài)顯著性檢測(cè)結(jié)果、原始動(dòng)態(tài)顯著性檢測(cè)結(jié)果和改進(jìn)后動(dòng)態(tài)顯著性檢測(cè)結(jié)果,圖5(h)為對(duì)應(yīng)圖5(b)的檢測(cè)到的多個(gè)目標(biāo),在改進(jìn)后動(dòng)態(tài)顯著性模型的檢測(cè)結(jié)果圖中裁剪得到的小圖。

      如果只是采用優(yōu)化后的YOLOv4-Tiny模型,有時(shí)會(huì)將圖5(b)所在行中第一幀圖片中的一個(gè)沒(méi)有佩戴在工人頭上的安全帽誤檢為hat(工人佩戴安全帽)。之后進(jìn)行復(fù)檢,我們可以得到在圖5(h)所在行的第一幀圖片的中間一個(gè)裁剪小圖,因其背景像素占比大于閾值T2,則判定該目標(biāo)檢測(cè)結(jié)果為背景區(qū)域,即為誤檢目標(biāo),復(fù)檢不通過(guò)。

      為了驗(yàn)證顯著性檢測(cè)的效果,本文采用平均絕對(duì)誤差MAE(Mean Absolute Error)作為評(píng)判顯著性檢測(cè)的標(biāo)準(zhǔn)。MAE的計(jì)算方法如式(7)所示:

      其中h和w表示圖片的高和寬;P(xi)和G(xi)分別表示像素的預(yù)測(cè)灰度值與真實(shí)灰度值,在計(jì)算時(shí)二者都會(huì)被歸一化到區(qū)間[0,1]。

      表3 所示的是四種顯著性檢測(cè)的對(duì)比結(jié)果。其中傳統(tǒng)LC 方法效果最差,靜態(tài)顯著性檢測(cè)結(jié)果仍會(huì)有較多干擾區(qū)域,改進(jìn)后動(dòng)態(tài)顯著性檢測(cè)模型檢測(cè)結(jié)果最為準(zhǔn)確。

      實(shí)驗(yàn)結(jié)果表明,如果使用靜態(tài)顯著性檢測(cè)方法進(jìn)行復(fù)檢,無(wú)法剔除誤檢目標(biāo)。利用改進(jìn)動(dòng)態(tài)顯著性檢測(cè)方法則可以有效檢測(cè)出圖5(b)中目標(biāo)檢測(cè)得到的誤檢目標(biāo),從而將誤檢目標(biāo)剔除。

      表4 所示的是安全帽佩戴檢測(cè)的消融實(shí)驗(yàn)結(jié)果。首先,從表中可看出,如果只是采用目標(biāo)檢測(cè)模型,與原始YOLOv4-Tiny 模型對(duì)比,優(yōu)化后的YOLOv4-Tiny模型檢測(cè)準(zhǔn)確率會(huì)提升較多。

      表4 安全帽佩戴檢測(cè)消融實(shí)驗(yàn)結(jié)果

      其次,不論目標(biāo)檢測(cè)模型采用原始YOLOv4-Tiny模型還是優(yōu)化后的YOLOv4-Tiny模型,靜態(tài)顯著性檢測(cè)模型沒(méi)有起到復(fù)檢效果。使用靜態(tài)顯著性檢測(cè)進(jìn)行復(fù)檢,對(duì)應(yīng)的檢測(cè)準(zhǔn)確率沒(méi)有提升。

      最后,不論目標(biāo)檢測(cè)模型采用原始YOLOv4-Tiny模型還是優(yōu)化后的YOLOv4-Tiny模型,改進(jìn)后的動(dòng)態(tài)顯著性檢測(cè)模型能夠起到復(fù)檢作用,可有效提升檢測(cè)準(zhǔn)確率。

      6 結(jié)語(yǔ)

      在本文中,對(duì)YOLOv4-Tiny 模型進(jìn)行優(yōu)化,再與改進(jìn)的動(dòng)態(tài)顯著性檢測(cè)算法相結(jié)合,應(yīng)用于工人安全帽佩戴檢測(cè)。首先針對(duì)安全帽佩戴檢測(cè)數(shù)據(jù)集,利用K-means 聚類(lèi)的方法選擇合適的YOLOv4-Tiny 模型目標(biāo)檢測(cè)先驗(yàn)框,有效提升目標(biāo)檢測(cè)的準(zhǔn)確率。在動(dòng)態(tài)顯著性檢測(cè)算法中,使用連續(xù)三個(gè)時(shí)序圖片的信息作為輸入,得到更為準(zhǔn)確的高顯著性區(qū)域檢測(cè)。最終,使用動(dòng)態(tài)顯著性檢測(cè)結(jié)果,對(duì)優(yōu)化后的YOLOv4-Tiny模型檢測(cè)到的每一個(gè)目標(biāo)執(zhí)行復(fù)檢操作,有效剔除誤檢目標(biāo),從而提高安全帽佩戴檢測(cè)準(zhǔn)確率。

      猜你喜歡
      安全帽卷積顯著性
      刺猬戴上安全帽
      礦工有無(wú)數(shù)頂安全帽
      小小安全帽,生命保護(hù)傘
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      基于顯著性權(quán)重融合的圖像拼接算法
      電子制作(2019年24期)2019-02-23 13:22:26
      基于視覺(jué)顯著性的視頻差錯(cuò)掩蓋算法
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      一種基于顯著性邊緣的運(yùn)動(dòng)模糊圖像復(fù)原方法
      論商標(biāo)固有顯著性的認(rèn)定
      聊城市| 长春市| 北碚区| 玉田县| 中方县| 锡林浩特市| 峨山| 克拉玛依市| 宜城市| 台东县| 延寿县| 新沂市| 梅州市| 祁连县| 多伦县| 和林格尔县| 南召县| 永仁县| 隆林| 高清| 莎车县| 嘉义县| 新和县| 阿坝| 哈巴河县| 佛山市| 宜黄县| 密山市| 荔波县| 崇左市| 肇庆市| 醴陵市| 诸城市| 岫岩| 永胜县| 平舆县| 二连浩特市| 乐业县| 苍南县| 察隅县| 钟祥市|