• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      引入Self-Attention的電力作業(yè)違規(guī)穿戴智能檢測技術(shù)研究

      2020-04-02 09:53:32莫蓓蓓吳克河
      計算機(jī)與現(xiàn)代化 2020年2期
      關(guān)鍵詞:防護(hù)用品安全帽注意力

      莫蓓蓓,吳克河

      (華北電力大學(xué)控制與計算機(jī)工程學(xué)院,北京 102206)

      0 引 言

      “安全第一,生產(chǎn)第二”一直是高危作業(yè)現(xiàn)場最常見的標(biāo)語,強(qiáng)調(diào)了安全施工遠(yuǎn)比不顧安全的盲目生產(chǎn)更加重要。在電力系統(tǒng)中,進(jìn)入現(xiàn)場作業(yè)必須正確佩戴安全帽及身著工作制服。電力作業(yè)現(xiàn)場存在大量大型危險設(shè)備,安全帽的佩戴對作業(yè)人員來說必不可少;工作制服是電力部門根據(jù)現(xiàn)場作業(yè)特點而專門設(shè)計的,具有耐磨、防靜電、燃燒時防粘皮膚等特點。因此安全防護(hù)用品的正確穿戴能一定程度上避免事故的發(fā)生或者在事故發(fā)生時大大降低人員受傷害程度。但是,由于作業(yè)點大多處于戶外,作業(yè)人員長期處于炎熱、暴曬的環(huán)境中,導(dǎo)致一些諸如未佩戴安全帽、未扣緊帽帶、敞開工作服等違反安全規(guī)則的行為時有發(fā)生,給作業(yè)人員帶來了安全隱患。據(jù)權(quán)威統(tǒng)計數(shù)據(jù)顯示,近年來在作業(yè)過程中因不正確佩戴安全防護(hù)用品而發(fā)生的傷亡事故占電力行業(yè)各類生產(chǎn)事故的50%以上[1],安全事故發(fā)生的類型以及安全防護(hù)用品使用情況的統(tǒng)計分析(抽樣調(diào)查200個安全帽使用案例)如表1所示。

      表1 安全防護(hù)用品佩戴情況統(tǒng)計

      安全防護(hù)用品使用情況數(shù)量/件所占比例/%備注情況正確佩戴安全帽17085可發(fā)揮保護(hù)作用不正確佩戴安全帽2211有條件發(fā)揮作用未佩戴安全帽84防護(hù)完全失效

      從表1可以看出,安全防護(hù)用品的佩戴與否以及佩戴方式?jīng)Q定了其能否有效發(fā)揮防護(hù)作用。

      無規(guī)矩不成方圓,要保證生產(chǎn)的安全穩(wěn)步開展,不僅需要加強(qiáng)安全文化建設(shè)、提高作業(yè)人員自身的安全意識,還要制定全面監(jiān)管策略、采取有效監(jiān)管措施對人員的行為加以約束[2-3]。其中,最直觀有效的監(jiān)管方式就是在作業(yè)現(xiàn)場設(shè)置專職巡管人員和攝像頭對作業(yè)人員進(jìn)行監(jiān)督,及時發(fā)現(xiàn)違規(guī)行為并進(jìn)行糾正。

      為了提高監(jiān)管水平,現(xiàn)在多采用自動化監(jiān)管方法取代低效的人工巡檢方式,近年來已有許多研究人員提出了對施工現(xiàn)場安全防護(hù)用品穿戴的實時監(jiān)測技術(shù)[4-10]。目前主流技術(shù)是通過攝像頭采集現(xiàn)場圖像,然后采用深度學(xué)習(xí)算法對目標(biāo)進(jìn)行檢測?;谏疃葘W(xué)習(xí)的目標(biāo)檢測經(jīng)歷了從R-CNN到Faster R-CNN的不斷改進(jìn)[11-13]:張明媛等[7]基于TensorFlow框架搭建Faster R-CNN模型,識別未佩戴安全帽行為的mAP達(dá)到88.32%;徐守坤等[8]在原始Faster R-CNN上運(yùn)用多尺度訓(xùn)練和增加錨點數(shù)量,引入在線困難樣本挖掘策略,采用多部件結(jié)合方法剔除誤檢目標(biāo),mAP達(dá)到91.42%。盡管Faster R-CNN檢測精度很高,但計算速度略慢,不能滿足實時監(jiān)測的需求。2016年,Redmon等[14]提出了YOLO模型,雖然精度達(dá)不到最優(yōu),但速度更快更適用于實時檢測,劉君等[9]在YOLO模型上融合了RPN和R-FCN[15]的思想,mAP達(dá)到93.42%,fps達(dá)到20.659。之后,Redmon等基于YOLO又提出了性能更好的YOLOv2[16]、YOLOv3[17],施輝等[10]運(yùn)用K-means算法對先驗框參數(shù)聚類,然后對YOLOv3預(yù)測層進(jìn)行了修改,將mAP提升到92.13%,fps達(dá)到62,取得了不錯的效果,但是,該工作僅對是否佩戴安全帽進(jìn)行判斷,而未根據(jù)安全帽的顏色區(qū)分人員類別。此外,現(xiàn)有對于作業(yè)現(xiàn)場安全防護(hù)用品穿戴的研究大多集中于安全帽檢測,缺少工作制服穿著情況檢測技術(shù)的研究。

      針對電力作業(yè)現(xiàn)場的特點和對于安全防護(hù)用品穿戴檢測的細(xì)致要求,本文選取目前性能最優(yōu)、速度最快的YOLOv3算法與自注意力機(jī)制相結(jié)合,提出一種針對電力作業(yè)違規(guī)穿戴的目標(biāo)檢測模型,在YOLOv3原有架構(gòu)中結(jié)合DANet的思想,以學(xué)習(xí)網(wǎng)絡(luò)空間和通道之間的相互關(guān)系(包括相對位置關(guān)系和圖像特征關(guān)系),顯著提高了目標(biāo)檢測效果。

      1 安全防護(hù)用品穿戴檢測模型設(shè)計

      1.1 基礎(chǔ)網(wǎng)絡(luò)選取

      YOLOv3是由Redmon等基于YOLO、YOLOv2提出的目標(biāo)檢測算法。YOLO(You Only Look Once)系列只需要一次端到端計算即可檢測出目標(biāo),具有結(jié)構(gòu)輕量、運(yùn)算速度快的特點,適用于實時目標(biāo)檢測。下面對YOLOv3進(jìn)行詳細(xì)介紹。

      1.1.1 特征提取網(wǎng)絡(luò)Darknet-53

      筆者借鑒殘差網(wǎng)絡(luò)(ResNet)[18]的思想設(shè)計了新的網(wǎng)絡(luò)Darknet-53,作為YOLOv3的特征提取網(wǎng)絡(luò)。相較于YOLOv2的Darknet-19,Darknet-53加深了網(wǎng)絡(luò),用卷積代替池化,可以提取更高級的圖像特征。圖1為Darknet-53的網(wǎng)絡(luò)結(jié)構(gòu),虛線框表示模塊內(nèi)容,左邊數(shù)字代表殘差模塊的重復(fù)次數(shù)。

      圖1 Darknet-53網(wǎng)絡(luò)結(jié)構(gòu)

      1.1.2 特征金字塔多尺度融合

      圖2 多尺度特征融合

      為了提高對多尺度目標(biāo)的檢測效果,YOLOv3借鑒了FPN[19]的思想,采用多尺度特征圖進(jìn)行檢測。YOLOv3輸出小、中、大3個尺寸的特征圖,分別為13×13、26×26、52×52,對應(yīng)的感受野為大、中、小,即在該尺寸特征圖能檢測到的目標(biāo)大小,較低層次特征圖尺寸較大,可以捕捉局部細(xì)節(jié),適用于檢測小目標(biāo);高層次特征圖尺寸較小,聚合了全局信息,適用于檢測大目標(biāo)。融合過程如圖2所示,將小尺寸的特征圖上采樣至中等尺寸,與中等尺寸特征圖拼接,拼接特征圖與原中等尺寸特征圖相比,融合了更高層次的語義特征。同理,其它層次也依次進(jìn)行操作。

      1.1.3 邊界框預(yù)測方法

      不同于Faster R-CNN采用的RPN篩選候選框方式,YOLOv3直接將圖片劃分成N×N個網(wǎng)格,在每個網(wǎng)格上預(yù)測目標(biāo)邊界框的中心點坐標(biāo)、長寬、目標(biāo)類別,既顯著提升了計算速度又保證了較好的預(yù)測效果。預(yù)測邊界框的方式為:先采用K-means聚類,在需要預(yù)測的數(shù)據(jù)集上計算出現(xiàn)頻率最高的k種邊界框大小,由于大、中、小3個尺寸特征圖的網(wǎng)格分別設(shè)置了3個先驗框,所以k=3×3=9。網(wǎng)絡(luò)的輸出不直接輸出預(yù)測框的坐標(biāo)、大小,而是通過輸出結(jié)果結(jié)合偏移量計算出最終結(jié)果,計算公式為:

      (1)

      式中,tx、ty、tw、th為每個網(wǎng)格一個預(yù)測框的輸出結(jié)果,cx、cy表示該網(wǎng)格在所處特征圖的坐標(biāo),pw、ph表示先驗框的大小(事先聚類的參數(shù)),bx、by為預(yù)測框的中心坐標(biāo),bw、bh為預(yù)測框的長寬。

      1.2 自注意力機(jī)制

      注意力(Attention)機(jī)制由Mnih等[20]提出,最初應(yīng)用于自然語言處理(NLP)領(lǐng)域[21],對語言序列進(jìn)行加權(quán)變換,帶來了巨大的提升。注意力機(jī)制模擬人類在實際處理信息時的注意力分配情況,可以強(qiáng)調(diào)關(guān)注的部分,忽略不重要的部分。該機(jī)制隨后被引入視覺圖像處理中。隨后Vaswani等[22]提出了自注意力(Self-Attention)機(jī)制,并被各領(lǐng)域廣泛應(yīng)用[23-26],Wang等[23]提出Non-local神經(jīng)網(wǎng)絡(luò),捕獲全局像素之間的依賴關(guān)系,作為特征的加權(quán),Woo等[25]提出CBAM模塊,結(jié)合空間注意力和通道注意力,比僅使用其中一種注意力取得了更好的效果。

      受Non-local和CBAM啟發(fā),F(xiàn)u等[27]提出了雙重注意力網(wǎng)絡(luò)(DANet),首先考慮了特征圖中所有位置的相互關(guān)系,其次考慮了空間信息和通道信息的共同貢獻(xiàn)。此外,該模塊不同于CBAM中用全局池化提取注意力權(quán)重的方法,而是利用每個位置的空間信息對通道信息建模。DANet的網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

      圖3 DANet結(jié)構(gòu)

      首先,輸入圖像通過特征提取網(wǎng)絡(luò)獲取特征圖,將特征圖分別進(jìn)行卷積操作后獲取相同維度特征圖,然后放入自注意力模塊。自注意力模塊分為位置注意力模塊和通道注意力模塊,分別用于獲取特征圖的各元素之間的關(guān)系特征和各通道之間的關(guān)系特征。進(jìn)一步,借鑒Non-local方法,將關(guān)系特征與原有特征進(jìn)行相加。最后將位置注意力模塊和通道注意力模塊的輸出相加融合,此時輸出的特征圖挖掘了原本特征圖中各位置和各通道之間隱藏的依賴關(guān)系,更有助于語義特征的表達(dá)。

      1.2.1 位置注意力模塊

      位置注意力模塊的架構(gòu)如圖4所示。

      Step1將特征圖ARC×H×W分別進(jìn)行卷積得到同樣維度的特征圖B、C、D({B,C,D}RC×H×W),進(jìn)一步將B、C、D進(jìn)行reshape操作轉(zhuǎn)化為維度RC×N(N=H×W,即A中像素的數(shù)量)。

      Step2將reshape后的B的轉(zhuǎn)置(RN×C)與reshape后的C進(jìn)行矩陣相乘,并進(jìn)行Softmax計算,得到空間注意力特征矩陣SRN×N,計算公式如下:

      (2)

      式中,sji代表著特征圖A中第i個像素對第j個像素的影響,即在空間上特征圖A任意2個位置之間的相互關(guān)系。

      Step3將reshape后的矩陣D(RC×N)與矩陣S的轉(zhuǎn)置相乘,將計算結(jié)果(RC×N)reshape回到特征圖A原本的維度(RC×H×W)。

      Step4將Step3的結(jié)果與一個尺度參數(shù)α相乘,并與特征圖A進(jìn)行逐位求和(element-wise sum)計算,獲得結(jié)果ERC×H×W,計算公式如下:

      (3)

      式中α為學(xué)習(xí)權(quán)重,初始值為0,由模型學(xué)習(xí)獲得。Ej為第j個位置的加權(quán)位置特征與原始特征之和,其結(jié)合了全局上下文的影響,又能通過學(xué)習(xí)權(quán)重和空間注意力特征有選擇地聚合特征。

      圖4 位置注意力模塊

      1.2.2 通道注意力模塊

      在高層次特征中,特征的每個通道包含著一定的對應(yīng)于某些類的信息,則可以將通道間的關(guān)系看做類間關(guān)系。通道注意力模塊對通道關(guān)系建模挖掘類間依賴關(guān)系,并加強(qiáng)這種相互依賴關(guān)系的表達(dá),以提高語義特征表示。

      通道注意力模塊的架構(gòu)如圖5所示,與位置注意力模塊相似但稍有不同,第一步中特征圖ARC×H×W直接進(jìn)行reshape和轉(zhuǎn)置,經(jīng)過相似操作得到通道注意力特征矩陣XRC×C,計算公式如下:

      (4)

      式中,xji代表著特征圖A中第i個通道對第j個通道的影響,即在特征圖A中任意2個通道之間的相互關(guān)系。

      通道注意力模塊最終輸出結(jié)果E∈RC×H×W,計算公式如下:

      (5)

      式中,β為學(xué)習(xí)權(quán)重,初始值為0,由模型學(xué)習(xí)獲得。Ej為第j個通道的加權(quán)通道特征與原始特征之和,其匯聚了通道之間的依賴關(guān)系,并通過學(xué)習(xí)權(quán)重和通道注意力特征有選擇地聚合特征。

      圖5 通道注意力模塊

      1.3 引入自注意力機(jī)制的模型架構(gòu)

      圖6 引入自注意力機(jī)制的模型架構(gòu)

      YOLOv3模型中未對注意力機(jī)制加以研究,對所有位置和通道分配了同等的重要性,為了提高檢測效果,本文在實時檢測模型YOLOv3中引入注意力機(jī)制,在較高層次的特征層后嵌入DANet的自注意力模塊。需要注意的是,使用自注意力模塊沒有增加太多的參數(shù),但是有效地增強(qiáng)了特征的表達(dá)[27]。嵌入自注意力模塊的YOLOv3架構(gòu)如圖6所示。首先,分別在DarkNet-53網(wǎng)絡(luò)的倒數(shù)第二個殘差模塊之前、倒數(shù)第一個殘差模塊之后和最后的卷積操作之后保存該階段輸出的特征圖。然后,把感受野最大即尺寸最小的特征圖進(jìn)行2倍上采樣,與中等尺寸的特征圖拼接;將拼接后的中等尺寸特征圖卷積后進(jìn)行2倍上采樣,與大尺寸特征圖拼接后再次卷積。本文在YOLOv3模型的3個尺度特征圖進(jìn)行最后的一系列卷積操作前,嵌入自注意力模塊。由于該階段的特征圖已經(jīng)具備了高級語義特征,并融合了來自更高層次上采樣的語義信息,很適合作為自注意力模塊的輸入。為了對該選擇進(jìn)行驗證,在實驗中分別將自注意力模塊嵌入上采樣操作前、拼接操作前與當(dāng)前方案進(jìn)行對比,對比結(jié)果在2.2節(jié)中詳述。最后,3個自注意力模塊的輸出再經(jīng)過一系列卷積操作,分別輸出大目標(biāo)特征圖(R13×13)、中等目標(biāo)特征圖(R26×26),小目標(biāo)特征圖(R52×52)。最終的特征圖經(jīng)過非極大值抑制(NMS)運(yùn)算去除重復(fù)候選框,得到最終預(yù)測結(jié)果。

      2 模型訓(xùn)練與結(jié)果分析

      2.1 數(shù)據(jù)集準(zhǔn)備

      電力作業(yè)現(xiàn)場大多處于郊區(qū)戶外,作業(yè)時間從清晨至夜間不固定,光線變化較大,加之現(xiàn)場存在許多大型電氣設(shè)備,作業(yè)人員可能時而處于陽光曝曬處,時而處于背陰處,導(dǎo)致攝像頭采集的圖像明暗效果差異較大。人員佩戴的安全防護(hù)設(shè)備種類也有規(guī)定細(xì)則,依據(jù)國家電網(wǎng)、南方電網(wǎng)的作業(yè)標(biāo)準(zhǔn)[28-29],安全帽的分類如表2所示。

      表2 電力作業(yè)現(xiàn)場安全帽分類

      安全帽顏色類型紅色生產(chǎn)管理部門黃色運(yùn)行或巡檢人員藍(lán)色檢修維護(hù)人員白色領(lǐng)導(dǎo)或外來參觀人員

      表3 標(biāo)簽類別

      檢測框位置標(biāo)簽名描述頭部production生產(chǎn)管理人員(正確佩戴安全帽)operation運(yùn)行或巡檢人員(正確佩戴安全帽)maintenance檢修維護(hù)人員(正確佩戴安全帽)visitor參觀人員(正確佩戴安全帽)helmet_improper安全帽佩戴不規(guī)范helmet_off未佩戴安全帽軀干uniform_on正確穿著工作服uniform_improper工作服穿著不規(guī)范uniform_off未穿著工作服

      并且,安全帽佩戴時的標(biāo)準(zhǔn)方式為:將帽帶扣在顎下并系緊,可以有效防止安全帽滑落。此外,現(xiàn)場作業(yè)人員的工作制服分為著裝整齊和著裝違規(guī)(包括沒有穿著制服和上身制服敞開等情況)。攝像頭某個時刻拍攝到的作業(yè)人員也分為正面、側(cè)面、背面等多個角度和站立、蹲下、行走等姿勢。實驗數(shù)據(jù)主要來自于某電力作業(yè)現(xiàn)場采集的圖像,其中違規(guī)情況占比較小,為使實驗結(jié)果更準(zhǔn)確,筆者針對違規(guī)情況自主拍攝了一些圖像以擴(kuò)充數(shù)據(jù)集,保證每種互斥情況數(shù)量大致等比。使用VOC格式標(biāo)注工具labelImg對篩選后的圖像進(jìn)行標(biāo)注,給需要檢測的位置加上檢測框,并選擇相應(yīng)的類別標(biāo)簽(見表3)。最后將數(shù)據(jù)集按8:2比例劃分為訓(xùn)練集和測試集,分別用于模型訓(xùn)練和性能驗證。

      2.2 實驗環(huán)境與參數(shù)

      本文實驗硬件配置如表4所示,在此基礎(chǔ)上安裝操作系統(tǒng)Ubuntu 16.04,開發(fā)框架CUDA、OPENCV等。

      表4 硬件配置

      硬件名稱型號數(shù)量主板華碩WS X299 SAGE1CPUINTEL I7-9800X1內(nèi)存金士頓16GB DDR42顯卡GEFORCE GTX1080Ti2固態(tài)硬盤金士頓256GB1硬盤西數(shù)1TB1

      參考算法官方推薦參數(shù)取值并結(jié)合實際情況作出適當(dāng)調(diào)整后,設(shè)置的實驗參數(shù)如表5所示,其中卷積核數(shù)量為3×(標(biāo)簽類別數(shù)目+5)。

      表5 實驗參數(shù)

      參數(shù)名稱參數(shù)值備注batch size64批處理大小learning rate0.001學(xué)習(xí)率classes9標(biāo)簽類別filters42卷積核數(shù)量epoch13000迭代次數(shù)momentum0.9動量match threshold0.5置信度閾值NMS0.3非極大值抑制閾值

      依照K-means方法,對標(biāo)注完成的數(shù)據(jù)集進(jìn)行聚類操作,參數(shù)k=9,為大、中、小3個尺度的特征圖中每個網(wǎng)格設(shè)置3個先驗框尺寸,作為預(yù)測框的計算基準(zhǔn)。聚類結(jié)果如表6所示。

      表6 先驗框聚類結(jié)果

      特征圖尺寸尺度先驗框13×13大48×207106×7532×15626×26中23×10752×3315×6852×52小20×3712×256×13

      2.3 訓(xùn)練結(jié)果與對比

      本文對自注意力模塊嵌入YOLOv3中不同位置的模型架構(gòu)進(jìn)行了實驗,并聯(lián)合改進(jìn)前的YOLOv3模型進(jìn)行縱向比較。其中,把在上采樣操作之前嵌入自注意力模塊的架構(gòu)稱為Attention-YOLOv3-a(以下簡稱模型A),把在拼接操作之前嵌入自注意力模塊的架構(gòu)稱為Attention-YOLOv3-b(以下簡稱模型B),把在最后一系列卷積操作之前嵌入自注意力模塊的架構(gòu)稱為Attention-YOLOv3-c(以下簡稱模型C)。各模型使用上文準(zhǔn)備的訓(xùn)練集訓(xùn)練5000代后逐漸收斂,使用測試集驗證,精度對比如表7所示(正確佩戴安全帽在實際訓(xùn)練中分為4種標(biāo)簽,在這里取平均值作為AP),查全率(Recall)和fps對比如表8所示。

      表7 精度對比

      模型mAP/%AP/%未佩戴安全帽安全帽佩戴不規(guī)范正確佩戴安全帽未穿著工作服工作服穿著不規(guī)范正確穿著工作服YOLOv381.9290.5670.5672.7796.2971.5289.82Attention-YOLOv3-a88.6192.6184.2680.9596.3386.4291.09Attention-YOLOv3-b90.8993.1789.9587.5496.3686.9491.35Attention-YOLOv3-c94.5897.4393.6495.1398.8689.6292.81

      表8 查全率和fps對比

      模型Recall/%每秒幀率/fpsYOLOv393.9843Attention-YOLOv3-a94.2538Attention-YOLOv3-b94.5638Attention-YOLOv3-c96.6738

      從表8看出,由于引入了自注意力模塊,模型A、B、C的平均精度均值(mAP)和Recall相對改進(jìn)前的YOLOv3模型均有不同程度的提升。其中模型A、模型B的mAP和Recall相差不大,模型C相對于改進(jìn)前的YOLOv3模型提高了12.66%的mAP和2.69%的Recall,相對于模型A、B提高了5%左右的mAP和1.6%的Recall,獲得了最優(yōu)結(jié)果。并且,引入自注意力模塊增加了模型復(fù)雜度,模型A、B、C的fps指數(shù)均比改進(jìn)前下降至每秒38幀,但是依然滿足實時檢測的標(biāo)準(zhǔn)(36 fps)??梢苑治龅贸?,由于模型C嵌入自注意力模塊的位置處于網(wǎng)絡(luò)的較高層次且作為輸入的特征圖融合了上采樣的高層特征,此時自注意力模塊的輸入聚合了較具體的語義和空間信息,更有利于自注意力模塊挖掘位置和通道間的依賴關(guān)系,使輸出特征更為有意義。

      本研究的主要任務(wù)是識別出未佩戴安全帽、安全帽佩戴不規(guī)范、未穿著工作服、工作服穿著不規(guī)范4類情況,通過觀察模型改進(jìn)前后這4類的P-R曲線(圖7),可以看出:未佩戴安全帽(圖7(a))、未穿著工作服(圖7(c))在原來的基礎(chǔ)上進(jìn)一步提升了檢測效果;安全帽佩戴不規(guī)范(圖7(b))、工作服穿著不規(guī)范(圖7(d))原本的曲線呈現(xiàn)快速下降趨勢,效果不理想,改進(jìn)后,查準(zhǔn)率(Precision)在查全率(Recall)較高時才出現(xiàn)明顯的下降趨勢并保持在一定區(qū)間內(nèi)。

      (a) 未佩戴安全帽 (b) 安全帽佩戴不規(guī)范

      (c) 未穿著工作服 (d) 工作服穿著不規(guī)范

      并且,由于安全帽佩戴不規(guī)范和正確佩戴安全帽、工作服穿著不規(guī)范和正確穿著工作服之間存在外觀上的相似,在YOLOv3上這4類的AP都不高。引入自注意力模塊后,這4類的AP大幅提升,可以推斷,自注意力模塊有效地強(qiáng)調(diào)了類內(nèi)一致和類間不一致。網(wǎng)絡(luò)改進(jìn)前后檢測結(jié)果對比如圖8所示,圖8(a)為待預(yù)測原圖,圖8(b)為YOLOv3原始網(wǎng)絡(luò)預(yù)測結(jié)果。可以看到,圖8(b)第一張示例中,右二人員正確佩戴安全帽,工作服穿著不規(guī)范,卻因帽帶被手部分遮擋,被判定為安全帽佩戴不規(guī)范,工作服穿著情況也被誤判為沒有穿著工作服;右一人員并未身著工作服,由于衣著整體色調(diào)與工作制服色調(diào)相似且包含較大白色區(qū)域,被誤判為著裝不規(guī)范。圖8(c)為引入自注意力機(jī)制的YOLOv3網(wǎng)絡(luò)預(yù)測結(jié)果,將圖8(b)中誤判的類別正確地預(yù)測了出來,預(yù)測框?qū)δ繕?biāo)的定位和覆蓋精準(zhǔn)度也有明顯提升。

      (a)原圖

      (b) YOLOv3原始網(wǎng)絡(luò)預(yù)測結(jié)果

      (c) 引入自注意力機(jī)制的YOLOv3網(wǎng)絡(luò)預(yù)測結(jié)果

      3 結(jié)束語

      為了保證電力作業(yè)的安全穩(wěn)定運(yùn)行,電力系統(tǒng)要求現(xiàn)場人員必須正確穿戴防護(hù)用品,以保證其人身安全。但是因為種種原因,經(jīng)常出現(xiàn)一些違規(guī)穿戴的情況,為此本文提出了一種人工智能監(jiān)測現(xiàn)場人員違規(guī)穿戴的方法。該方法結(jié)合了實時深度檢測網(wǎng)絡(luò)YOLOv3和Self-Attention機(jī)制,Self-Attention借鑒了DANet的位置注意力和通道注意力,能夠更好地挖掘目標(biāo)隱含特征,學(xué)習(xí)類間和類內(nèi)依賴關(guān)系,區(qū)分相似類型目標(biāo),同時,該注意力模塊增加的參數(shù)量較少,與YOLOv3算法相比,該方法在檢測速度基本持平的情況下大幅改善了任務(wù)性能,具有較好的查準(zhǔn)率和查全率,不僅可以滿足違規(guī)穿戴檢測任務(wù)要求,而且為電力作業(yè)安全穩(wěn)定進(jìn)行提供了保障,具有較好的應(yīng)用前景。在之后的研究中,將進(jìn)一步研究模型精度和速度的提升,同時探尋變電站、輸電線路等其他電力場景的目標(biāo)檢測應(yīng)用方向。

      猜你喜歡
      防護(hù)用品安全帽注意力
      礦工有無數(shù)頂安全帽
      小小安全帽,生命保護(hù)傘
      讓注意力“飛”回來
      國家安全監(jiān)管總局修改《用人單位勞動防護(hù)用品管理規(guī)范》
      抓好四項任務(wù)加強(qiáng)采油廠職業(yè)病防護(hù)用品管理
      “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
      傳媒評論(2017年3期)2017-06-13 09:18:10
      A Beautiful Way Of Looking At Things
      加強(qiáng)勞動防護(hù)用品管理 確保職業(yè)健康安全
      淺析個體勞動防護(hù)用品的基本范疇與特征屬性
      化工管理(2014年12期)2014-08-15 00:51:32
      膚色檢測和Hu矩在安全帽識別中的應(yīng)用
      元氏县| 嘉禾县| 景洪市| 钟山县| 金昌市| 光泽县| 克拉玛依市| 米易县| 开平市| 特克斯县| 宁波市| 英山县| 新和县| 潜山县| 新蔡县| 广汉市| 石屏县| 余庆县| 青河县| 阿尔山市| 黑水县| 南华县| 曲水县| 化德县| 平谷区| 桦甸市| 兴业县| 绵竹市| 绥棱县| 潞城市| 抚宁县| 资阳市| 四会市| 武城县| 抚远县| 金乡县| 景东| 德昌县| 米易县| 陕西省| 堆龙德庆县|