李順祥 蔣海洋 熊伶 黃才生 蔣有高 鄧曦 王楷 張鵬
doi:10.11835/j.issn.1000.582X.2023.09.014
收稿日期:2023-05-12
基金項目:重慶市水利科技資助項目(渝西水司文[2021]19號),重慶市技術(shù)創(chuàng)新與應用發(fā)展專項重點項目(cstc2021jscx-gksbX0032)。
Foundation:Supported by Chongqing Water Science and Technology Project (No.19, Shuisiwen [2021], West Chongqing) and the Technology Innovation & Application Development Projects of Chongqing(cstc2021jscx-gksbX0032).
作者簡介:李順祥(1969—),男,高級工程師,主要從事水利工程建設(shè)管理、智慧水利等方向研究,(E-Mail)281849629@qq.com。
通信作者:王楷(1981—),男,博士,副教授,(E-mail)kaiwang@cqu.edu.cn。
摘要:在大型水利建造工程現(xiàn)場,存在高空墜物、塔吊轉(zhuǎn)動、墻體坍塌等問題,對于建造人員人身安全造成巨大威脅,佩戴安全帽是保護建造人員的有效措施,作為工程作業(yè)中的安全管理,對建造人員進行安全帽佩戴的精確檢測很有必要。針對現(xiàn)有安全帽檢測算法在大型水利建造場景下對小且密集的安全帽目標存在漏檢、檢測精度較低等問題,提出一種基于STA-YOLOv5的安全帽佩戴檢測算法,該算法將Swin Transformer和注意力機制引入到Y(jié)OLOv5算法中,提高模型對安全帽的識別能力。實驗結(jié)果表明,STA-YOLOv5算法具有更精確檢測結(jié)果,識別準確率達到91.6%,較原有的YOLOv5算法有明顯提升。
關(guān)鍵詞:水利建造;安全帽佩戴檢測;STA-YOLOv5;Swin Transformer;注意力機制
中圖分類號:TP391.4 ?????????文獻標志碼:A ?????文章編號:1000-582X(2023)09-142-11
Hydraulic construction personnel safety helmet wearing detection algorithm based on STA-YOLOv5
LI Shunxiang1, JIANG Haiyang2, XIONG Ling1, HUANG Caisheng1, JIANG Yougao1, DENG Xi3, WANG Kai2, ZHANG Peng2
(1. Chongqing Western Water Resources Development Co., Ltd., Chongqing 401329, P. R. China; 2. College of Automation, Chongqing University, Chongqing 400030, P. R. China; 3. China Academy of Building Research, Beijing 100013, P. R. China)
Abstract: At the site of large-scale water conservancy construction projects, there are problems such as falling objects, tower crane rotation, wall collapse, which pose a great threat to the personal safety of construction personnel. Wearing safety helmets is an effective measure to protect construction personnel. Therefore, it is necessary for construction personnel to carry out accurate detection of helmet wearing as a safety management in engineering operations. Aiming at the problems of missing detection and low detection accuracy of small and dense helmet targets in large-scale hydraulic construction scenarios, a helmet wearing detection algorithm based on STA-YOLOv5 is proposed, which introduces Swin Transformer and attention mechanism into YOLOv5 algorithm to improve the identification ability of the model to the helmet. The experimental results show that the STA-YOLOv5 algorithm has more accurate detection results, and the recognition accuracy reaches 91.6%, which is significantly improved compared with the original YOLOv5 algorithm.
Keywords: water conservancy construction; helmet wearing detection; STA-YOLOv5; Swin Transformer; attention mechanism
近年來,隨著大型水利建造工程建設(shè)項目的迅速發(fā)展,對建造現(xiàn)場的安全管理提出了更高要求。安全帽是施工過程中最基本的安全保護裝備之一,佩戴安全帽可有效保護人身安全,避免因高空墜物、塔吊轉(zhuǎn)動等意外事故造成傷害。因此,在建造現(xiàn)場的安全管理工作中,佩戴安全帽是不可缺少的施工要求之一,及時檢測工人是否佩戴安全帽具有較大意義。
隨著圖像處理與目標檢測的快速發(fā)展,很多學者對安全帽檢測方法進行了研究。張博[1]等使用open-pose定位人體頭部區(qū)域,再使用Faster RCNN來檢測安全帽,最后分析空間關(guān)系判斷是否佩戴安全帽;朱曉春[2]等基于改進Darknet網(wǎng)絡的YOLO v3算法實時檢測施工人員是否佩戴安全帽,檢測速度得到明顯提升;胡曉棟[3]等使用更加輕量的MobileViTv2對安全帽的特征進行提?。煌趿崦?sup>[4]等人將注意力機制加入YOLOv5算法中,并將特征金字塔替換為加權(quán)雙向特征金字塔(BiFPN),提高了網(wǎng)絡對密集物體的檢測能力;沈希忠[5]等在YOLOX基礎(chǔ)上,采用輕量級的GhostNet替換CSPDarknet作為backbone,同時擴展特征融合網(wǎng)絡的特征層輸入尺度,提高網(wǎng)絡對小目標的檢測能力,并使用深度可分離卷積代替常規(guī)卷積,降低網(wǎng)絡參數(shù)。Vishnu[6]等將CNN應用于摩托車駕駛員頭盔佩戴檢測,準確率高達92.87%,該方法不能進行多個目標檢測。Hao[7]等人使用基于顏色的混合描述提取安全帽特征,用分層支持向量機對安全帽進行分類檢測。
在大型施工場景中,如渝西水資源配置工程,是重慶歷史上投資規(guī)模最大、覆蓋面最全和受利人群數(shù)量最多的民生工程(如圖1所示),該工程以提高管理能力、工程質(zhì)量和工作效率為中心,包括智慧建管、智慧設(shè)計、智慧運維和智慧工地4大板塊,其中安全管理尤為重要。
針對大型水利建造工程,由于存在鋼筋、水泥、輸電線路、工地橋架等各種設(shè)備,使得施工場景圖像涵蓋范圍較廣泛且包含較多物體,圖像中工人佩戴的安全帽目標較小。且由于攝像頭本身受到光照強度、拍攝角度、拍攝距離、天氣等因素的影響,導致在安全帽檢測[8?10]時更容易出現(xiàn)準確度低、漏檢率大、錯檢率高等問題。為了提高大型施工場景中安全帽檢測的性能,提出一種引入Swin Transformer和注意力機制的YOLOv5算法,即STA-YOLOv5算法,使安全帽檢測的定位目標更加快速、精確。
1算法整體框架
1.1YOLO系列目標檢測算法對比分析
YOLO系列為單步目標檢測框架,對輸入圖像直接進行分類概率回歸和包圍框坐標回歸實現(xiàn)目標檢測。?Redmon J[11]等人在2016年提出基于回歸的目標檢測算法YOLOv1,實現(xiàn)了目標識別與定位的統(tǒng)一,先后提出改進版本YOLOv2[12]和YOLOv3[13],準確率得到了進一步提高。YOLOv4是對YOLOv3的改進,網(wǎng)絡結(jié)構(gòu)主要包括主干特征提取網(wǎng)絡CSPDarknet53、空間金字塔池化(SPP[14])、路徑聚合網(wǎng)絡(PANet[15]),同時使用多種數(shù)據(jù)增強技術(shù)來提升檢測性能。YOLOv5[16?17]使用C3Darknet作為主干網(wǎng)絡從輸入圖像中提取豐富的信息特征,使用PANet作為Neck聚合特征,模型檢測層與YOLOv3相同,Conv卷積模塊的激活函數(shù)采用SiLU[18]函數(shù)。因此,相比于其他YOLO系列算法,選擇YOLOv5作為安全帽佩戴檢測算法主網(wǎng)絡的原因在于其實時性能優(yōu)異、簡單易用、多尺度檢測能力,YOLO系列算法對比如表1所示。此外,YOLOv5通過設(shè)置depth_multiple和width_multiple 2個參數(shù)調(diào)節(jié)主干網(wǎng)絡的深度和寬度并劃分出4個量級模型:YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x。
1.2STA-YOLOv5算法整體框架
通過設(shè)計STA-YOLOv5網(wǎng)絡結(jié)構(gòu)解決安全帽是否佩戴及檢測過程誤檢、漏檢率高的問題。STA-YOLOv5 網(wǎng)絡結(jié)構(gòu)如圖2所示。整體框架主要由Input、Att、Backbone、Neck和Head等5部分組成。其中,輸入Input為三通道的RGB圖像。主干網(wǎng)絡Backbone使用Swin Transformer[19]網(wǎng)絡,通過對特征圖分解成小塊進行信息跨層交流,有效捕獲全局信息和局部信息之間的關(guān)系,增強提取特征。注意力模塊Att通過引入融合通道和空間注意力機制,對提取特征更深層次學習,增強模型的檢測能力。特征融合層Neck采用路徑聚合網(wǎng)絡(path aggregation network,PANet),對Backbone和Att輸出的有效特征圖進行融合,實現(xiàn)不同特征層的信息交融。PANet更好融合了淺層與深層的特征信息,充分提取到網(wǎng)絡中各層次的特征,加強特征提取,得到更豐富的特征信息。輸出檢測部分Head有3個YOLO Head檢測器,輸出不同尺度特征圖進行目標預測。
2基于Swin Transformer的安全帽特征提取網(wǎng)絡
Swin-Transformer[20?21]算法利用窗口多頭注意力機制(windows multi-head self-attention,W-MSA)和窗口移動多頭注意力機制(windows shift multi-head self-attention,WS-MSA)實現(xiàn)層級式Transformer,可作為安全帽的特征提取網(wǎng)絡,在應用到Y(jié)OLOv5的算法結(jié)構(gòu)中。Swin Transformer整體網(wǎng)絡結(jié)構(gòu)如圖3所示,采用類似CNN的層次化模型構(gòu)建方法。
整個網(wǎng)絡結(jié)構(gòu)主要由4個結(jié)構(gòu)相似的階段模塊組成,除第一個是由線性嵌入層+ Swin Transformer塊組成之外,其余均是由圖塊融合層+ Swin Transformer塊組成。除第一個階段外,每個階段都會先通過圖塊融合層縮小輸入的分辨率,對特征進行下采樣操作擴大感受野,以獲取全局信息。圖塊融合層是該環(huán)節(jié)中關(guān)鍵步驟(如圖4所示)。在每個階段開始前進行下采樣操作,縮小圖像的分辨率,調(diào)整通道數(shù)形成層次化設(shè)計,同時節(jié)省運算量。圖塊融合層通過在行方向和列方向間隔2個單位選取元素來進行二倍下采樣操作,將得到的圖像拼接在一起后展開,此時圖像的高和寬縮小了1/2,但是通道加深了4倍,再通過一個1×1的卷積對圖像深度進行調(diào)整變?yōu)樵瓉淼?倍[22]。圖塊融合層會增加一定計算量,但不會丟失信息,而?Pooling往往會丟失一部分信息,這也是該網(wǎng)絡提升準確率的一個因素。
3基于融合通道和空間注意力機制的安全帽檢測
YOLOv5網(wǎng)絡存在著不同程度的目標區(qū)域關(guān)注不全和對無關(guān)背景區(qū)域產(chǎn)生無效關(guān)注的問題,增大對安全帽檢測難度。工人集體作業(yè)時,出現(xiàn)人員堆積密集,使安全帽形狀不規(guī)則,邊緣存在棱角分明或是圓潤平滑的差異等問題,從而使檢測變得困難。注意力機制通過給不同部分的特征圖賦予權(quán)重選擇部分特征圖,抑制無用信息,以達到選擇更優(yōu)特征的目的。對此,研究設(shè)計一種融合通道和空間注意力(如圖5所示),以加強對重要特征的利用,減少重要細節(jié)特征損失。
3.1SENet通道注意力
網(wǎng)絡訓練過程中,圖像中安全帽的數(shù)量可能會出現(xiàn)類別不平衡、無關(guān)信息干擾多的情況,引入SENet模塊解決此問題。SENet[21?23](squeeze and excitation network)是一種應用通道注意力機制的深度卷積神經(jīng)網(wǎng)絡(CNN),自適應調(diào)整每個通道的權(quán)重,突出對當前任務最有用的特征通道,抑制對任務不重要的通道[24]。
SENet的通道注意力機制通過壓縮和激勵2個關(guān)鍵步驟來實現(xiàn)。
1)壓縮(Squeeze):通過全局平均池化操作對輸入特征圖進行降維,將每個通道的特征圖壓縮為單一值,如式(3)所示。這有助于捕獲每個通道的全局感受野信息,并得到通道維度上的全局特征描述
2)激勵(Excitation):使用一個多層感知機(MLP)來對每個通道的全局特征進行建模。通過2個全連接層(fully connected layer,F(xiàn)C)和函數(shù)ReLU,依次為FC- ReLU-FC,建立通道之間的相關(guān)性。再通過Sigmoid激活函數(shù)得到C個[0,1]之間的權(quán)重,如式(4)。MLP的目標是學習一種激勵函數(shù)(excitation function),它基于全局特征生成每個通道的權(quán)重。這些權(quán)重用于對原始特征進行重新加權(quán),增強有用特征通道的表示能力
最后通過乘法將通道加權(quán)到先前特征上,完成在通道維度上對原始特征的重標定,如式(5)。
在整個SENet結(jié)構(gòu)中,壓縮和激勵操作是串聯(lián)在一起的(如圖6所示)。
3.2多尺度可變形卷積的空間注意力
針對由于出現(xiàn)拍攝角度、拍攝距離等問題,采用可變形卷積(deformable convolutional Networks,DCN)?[24?25]增強幾何變換能力,構(gòu)造了空間注意力模塊如圖7所示。同時選擇了3種卷積核大小1x1,3x3,5x5以并行挖掘不同尺度的特征。為了得到權(quán)重信息,還需進一步對其進行3x3卷積,再經(jīng)過sigmod激活函數(shù),將得到的權(quán)值大小映射到[0,1]。
卷積網(wǎng)絡對大尺寸多形變目標的建模存在固有缺陷,因為卷積網(wǎng)絡只對輸入特征圖的固定位置進行采樣[26]??勺冃尉矸e可以提高模型對形變目標的建模能力,使用平行卷積層學習offset偏移,使得卷積核在輸入特征圖上的采樣點發(fā)生偏移,可集中于人們感興趣的區(qū)域或目標,即對卷積核中每個采樣點的位置都增加了偏移量,可實現(xiàn)在當前位置附近隨意采樣而不局限于常規(guī)卷積的規(guī)則采樣點。如圖8所示為常規(guī)卷積和可變形卷積采樣點的對比,其中,圖8(a)為常規(guī)3×3大小卷積核的采樣方式,圖8(b)為可變形卷積的普通采樣方式,圖8(c)與圖8(d)為可變形卷積采樣的特殊方式。
3.3安全帽檢測算法
在Head檢測層根據(jù)傳遞來的安全帽圖像特征對邊界框和類別進行預測,通過非極大值抑制(non maximum suppression,NMS)?[27]消除冗余預測框,最終輸出置信度最高的預測類別,并返回邊框坐標。
4實驗與分析
4.1安全帽圖像數(shù)據(jù)集
目前安全帽佩戴數(shù)據(jù)集主要有SHWD和GDUT-HWD 2種。而SHWD安全帽佩戴數(shù)據(jù)只有2個類別,head和helmet,即安全帽佩戴與否,類別較少。通過識別安全帽顏色,管理層可以更好地監(jiān)督和管理工地的工人活動,也可區(qū)分不同的工種或職責。而在水利建造工地中,受工人著裝與場景特定色彩影響,通過rgb信息獲得安全帽顏色干擾較大。為使模型更具實用性,選擇具有5個類別的GDUT-HWD數(shù)據(jù)集,分別是Red(佩戴紅色安全帽)、Blue(佩戴藍色安全帽)、Yellow(佩戴黃色安全帽)和White(佩戴白色安全帽)、None(未佩戴安全帽),這不僅可以識別是否佩戴安全帽,同時還能檢測佩戴安全帽的顏色。GDUT-HWD數(shù)據(jù)集數(shù)量有3 174張,包含18 893個實例,還具有場景變化、視角變化、照明變化等,使訓練的模型適用于真實場景。安全帽數(shù)據(jù)集部分樣本如圖9所示。
4.2實驗環(huán)境及配置
針對安全帽圖像進行檢測實驗,具體實驗的環(huán)境及配置如下所示:
1)操作系統(tǒng):Ubuntu16.04 操作系統(tǒng);
2)編譯器:Pycharm 2020;
3)處理器:Intel?Xeon(R)?CPU E5-2650 v4 @ 2.20 GHz×24;
4)內(nèi)存:1 T;
5)顯卡為:RTX2080Ti;
6)顯存容量:12 GB
7)編譯語言:Python 3.7.5
4.3評價指標
4.3.1 平均精度mAP
精度AP代表每個類別測試模型的性能,而mAP代表所有類別的測試模型性能,是所有AP的平均值。mAP公式為
4.3.2 準確率precision
準確率precision表示為正確預測的正樣本數(shù)量與預測為正樣本的樣本數(shù)量之間的比例。precision公式為
式中TP(true positives)為被識別正樣本,實際上也是正樣本的數(shù)量;FP(false positives)為被識別負樣本,實際上是負樣本的數(shù)量。
4.3.3 FLOPs
FLOPs指浮點運算數(shù),理解為計算量,用來衡量算法/模型的復雜度。
4.4實驗結(jié)果與分析
4.4.1 算法模型主要實驗參數(shù)表
STA-YOLOv5模型主要參數(shù)設(shè)置如表2所示。
4.4.2 安全帽圖像檢測
水利建造人員安全帽佩戴檢測效果如圖10所示。
4.4.3 不同算法模型loss
使用CIoU[28]作為Bounding box的損失函數(shù),對于每個網(wǎng)絡模型在300個批次訓練過程當中,保存其所有的loss值,再對loss值進行可視化。為權(quán)衡安全帽檢測速度與準確度,適應水利建造工地實時性與準確性需求,選用YOLOv5l與STA-YOLOv5模型進行對比,不同模型的loss曲線對比如圖10所示。由圖11可知,在訓練過程中兩模型都沒有出現(xiàn)過擬合與欠擬合現(xiàn)象,驗證了模型改進的可行性。
4.4.4 算法模型測試結(jié)果與分析
在實驗中使用100張安全帽圖像數(shù)據(jù)進行測試實驗,YOLOv5l、STA-YOLOv5模型的測試實驗結(jié)果如表3所示。
由實驗結(jié)果可知,STA-YOLOv5跟YOLOv5l相比,雖然模型復雜度稍顯大,但平均精確率與精確率分別提升了2.3個百分點和2個百分點,且識別不同種類安全帽的平均精確率都有一定程度提升,驗證了STA-YOLOv5模型能顯著提升檢測精確度,滿足實際復雜大型工地場景下安全帽佩戴的檢測需求。
5結(jié)語
為解決實際大型工地環(huán)境下安全帽是否佩戴問題,提出引入Swin Transformer和注意力機制的YOLOv5算法對安全帽進行檢測。首先,使用更容易捕獲圖像全局信息和局部信息之間關(guān)系的Swin Transformer作為網(wǎng)絡的特征提取器,使網(wǎng)絡對安全帽特征的提取能力得到顯著增強;其次,引入融合通道和空間注意力機制,使?YOLOv5算法可在保持速度優(yōu)勢的同時提高定位精度和減少漏檢安全帽的情況。通過將2種結(jié)構(gòu)結(jié)合起來的STA-YOLOv5算法,成功實現(xiàn)對工人是否佩戴安全帽的實時檢測任務。實驗結(jié)果表明,該方法具有高效、準確、穩(wěn)定等優(yōu)點,可以應用于各類大型水利建筑行業(yè)。
參考文獻
[1]??張博,宋元斌,熊若鑫,等.融合人體關(guān)節(jié)點的安全帽佩戴檢測[J]. 中國安全科學學報, 2020, 30(2): 177-182.
Zhang B,Song Y B,Xiong R X,et al.Helmet-wearing detection considering human joint[J].China Safety Science Journal,2020,30(2):177-182.(in Chinese)
[2]??朱曉春,王欣,馬國力, 等.改進YOLO v3算法的安全帽佩戴檢測[J]. 南京工程學院學報(自然科學版), 2020, 18(4): 23-26.
Zhu X C,Wang X,Ma G L, et al.Safety helmet wearing detection for improved YOLO v3 algorithm[J]. Journal of Nanjing Institute of Technology (Natural Science Edition), 2020, 18(4): 23-26.(in Chinese)
[3]??胡曉棟, 王國明. 基于改進YOLOv5的安全帽檢測算法研究[J]. 計算機時代, 2023(6): 76-81.
Hu X D, Wang G M. Research on helmet detection algorithm based on improved YOLOv5[J].Computer Era, 2023(6): 76-81. (in Chinese)
[4]??王玲敏, 段軍, 辛立偉. 引入注意力機制的YOLOv5安全帽佩戴檢測方法[J]. 計算機工程與應用, 2022, 58(9): 303-312.
Wang LM, Duan J, Xin L W. YOLOv5 helmet wear detection method with introduction of attention mechanism[J]. Computer Engineering and Applications, 2022, 58(9): 303-312. (in Chinese)
[5]??沈希忠, 戚成. 改進YOLOX的安全帽佩戴檢測算法[J]. 浙江工業(yè)大學學報, 2023, 51(3): 289-297.
Shen X Z, Qi C. Improved safety helmet wearing detection algorithm of YOLOX[J]. Journal of Zhejiang University of Technology, 2023, 51(3): 289-297.(in Chinese)
[6]??Vishnu C, Singh D, Mohan C K, et al. Detection of motorcyclists without helmet in videos using convolutional neural network[C]//2017 International Joint Conference on Neural Networks (IJCNN). May 14-19, 2017. Anchorage, AK, USA: IEEE, 2017: 3036-3041.
[7]??Hao W A, Jza B. An intelligent vision based approach for helmet identification for work safety[J]. Computers in Industry, 2018, 100: 267-277.
[8]??江新玲, 楊樂, 朱家輝, 等. 面向復雜場景的基于改進YOLOXs的安全帽檢測算法[J]. 南京師大學報(自然科學版), 2023, 46(2): 107-114.
Jiang X L, Yang L, Zhu J H, et al. Safety helmet detection algorithm based on improved YOLOXsfor complex scenes[J]. Journal of Nanjing Normal University (Natural Science Edition), 2023, 46(2): 107-114. (in Chinese)
[9]??李達, 劉輝. 針對小目標的YOLOv5安全帽檢測算法[J]. 現(xiàn)代信息科技, 2023, 7(9): 9-13.
Li D, Liu H. YOLOv5 helmet detection algorithm for small targets[J]. Modern Information Technology, 2023, 7(9): 9-13. (in Chinese)
[10]??陳光, 喬梁, 黃曉明, 等. 基于目標跟蹤的行為識別方法研究:以安全帽佩戴識別檢測為例[J]. 黑龍江科學, 2023, 14(8):50-52.
Chen G, Qiao L, Huang X M, et al. Research on behavior recognition method based on target tracking: through taking helmet wear identification detection as an example[J]. Heilongjiang Science, 2023, 14(8): 50-52. (in Chinese)
[11]??Redmon J, Divvala S, Girshick R, et al. You only look once: unified, real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). June 27-30, 2016. Las Vegas, NV, USA: IEEE, 2016:779-788.
[12]??Redmon J, Farhadi A.YOLO9000: better, faster, stronger[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition(CVPR). July 21-26, 2017. Honolulu, HI, USA: IEEE, 2017:6517-6525.
[13]??Redmon J, Farhadi A. YOLOv3: an incremental improvement[EB/OL]. 2018: arXiv:1804.02767. https://arxiv.org/abs/1804.02767.
[14]??He K M, Zhang X Y, Ren S Q, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1904-1916.
[15]??Liu S, Qi L, Qin H F, et al. Path aggregation network for instance segmentation[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. June 18-23, 2018. Salt Lake City, UT, USA: IEEE, 2018:8759-8768.
[16]??鄭楚偉, 林輝. 基于Swin Transformer的YOLOv5安全帽佩戴檢測方法[J]. 計算機測量與控制, 2023, 31(3): 15-21.
Zheng C W, Lin H. YOLOv5 helmet wearing detection method based on swin transformer[J]. Computer Measurement & Control,2023,31(3):15-21.(in Chinese)
[17]??喬炎, 甄彤, 李智慧. 改進YOLOv5的安全帽佩戴檢測算法[J]. 計算機工程與應用, 2023, 59(11): 203-211.
Qiao Y, Zhen T, Li Z H. Improved helmet wear detection algorithm for YOLOv5[J].Computer Engineering and Applications, 2023, 59(11) :203-211. (in Chinese)
[18]??Elfwing S, Uchibe E, Doya K. Sigmoid-weighted linear units for neural network function approximation in reinforcement learning[J]. Neural Networks, 2018, 107:3-11.
[19]??Cao X, Zhang Y W, Lang S, et al. Swin transformer based YOLOv5 for small-object detection in remote sensing images[J].Sensors,2023,23(7):3634.
[20]??Wen X, Li B, Wang X W, et al. A Swin transformer-functionalized lightweight YOLOv5s for real-time coal-gangue detection[J]. Journal of Real-Time Image Processing, 2023, 20(3): 47.
[21]??嵇文,劉全金, 黃崇文,等.基于Swin-Transformer的YOLOX交通標志檢測[J].無線電通信技術(shù),2023,49(3):547-555.
Ji W, Liu Q J, Huang C W, et al. YOLOX traffic sign detection based on Swin-Transformer[J]. Radio Communications Technology, 2023, 49(3): 547-555.(in Chinese)
[22]??任鈺. 基于Faster R-CNN的小目標檢測研究與應用[D]. 安慶: 安慶師范大學, 2022.
Ren Y. Research and application of small target detection based on faster R-CNN[D]. Anqing: Anqing Normal University, 2022. (in Chinese)
[23]??張雪明, 茅健. 嵌入SENet的卷積神經(jīng)網(wǎng)絡的零件缺陷檢測方法[J]. 農(nóng)業(yè)裝備與車輛工程, 2023, 61(1): 94-98.
Zhang X M, Mao J. A method of parts defect detection based on convolutional neural network embedded in SENet[J]. Agricultural Equipment & Vehicle Engineering, 2023, 61(1): 94-98. (in Chinese)
[24]??Dai J F, Qi H Z, Xiong Y W, et al. Deformable convolutional networks[C]//2017 IEEE International Conference on Computer Vision (ICCV).October 22-29, 2017. Venice, Italy: IEEE, 2017: 764-773.
[25]??盧俊哲, 張鋮怡, 劉世鵬, 等. 面向復雜環(huán)境中帶鋼表面缺陷檢測的輕量級DCN-YOLO[J]. 計算機工程與應用, 2023, 59(15): 318-328.
Lu J Z, Zhang C Y, Liu S P, et al. Lightweight DCN-YOLO for strip surface defect detection in complex environments[J]. Computer Engineering and Applications, 2023, 59(15): 318-328. (in Chinese)
[26]??Hu J, Shen L, Sun G. Squeeze-and-excitation networks[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. June 18-23, 2018. Salt Lake City, UT, USA: IEEE,2018:7132-7141.
[27]??Neubeck A, Van Gool L. Efficient non-maximum suppression[C]//18th International Conference on Pattern Recognition (ICPR06). August 20-24, 2006. Hong Kong, China: IEEE, 2006: 850-855.
[28]??Zheng Z H, Wang P, Liu W, et al. Distance-IoU loss: faster and better learning for bounding box regression[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2020, 34(7): 12993-13000.
(編輯??侯湘)