丁楠楠 胡旭曉 吳躍成 汪威 王佳
摘? 要:針對輸電線路附近可能出現的大型違章車輛施工造成外力破壞的情況,為保證輸電線路運行的安全和穩(wěn)定,提出了改進的YOLOv5目標檢測算法。在原有YOLOv5算法的基礎上,將其使用的Bounding box損失函數GIOU_Loss改為CIOU_Loss,使其具有更快更好的收斂效果;同時將其使用的經典NMS改為DIOU_NMS,使其對一些遮擋重疊的目標有更好的識別效果。實驗結果顯示,改進后的YOLOv5算法模型可以有效地監(jiān)控輸電線路附近的外力破壞情況。
關鍵詞:輸電線路;目標檢測;改進YOLOv5
中圖分類號:TP249? ? ?文獻標識碼:A
文章編號:2096-1472(2022)-01-14-04
Abstract: Operation of large illegal vehicles are likely to cause external damage on nearby transmission line. In order to ensure the safe and stable operation of transmission line, this paper proposes an improved YOLOv5 target detection algorithm. Based on the original YOLOv5 algorithm, the Bounding box loss function GIOU_Loss used by it is changed to CIOU_Loss, so that it has a faster and better convergence effect. At the same time, the classic NMS used by the original one is changed to DIOU_NMS, so that it has a better detection effect for some occluded and overlapped targets. Experimental results show that the improved YOLOv5 algorithm model can effectively monitor the damage caused by external forces near transmission line.
Keywords: transmission line; target detection; improved YOLOv5
1? ?引言(Introduction)
近年來,隨著我國各類產業(yè)尤其是互聯網的飛速發(fā)展,電力的需求量也直線上升。輸電線路是電力系統(tǒng)的生命線,關系到整個電力系統(tǒng)的安全和效益,因此保證輸電線路的穩(wěn)定運行至關重要。
由于輸電線路長期處于復雜的地理位置,且與人類活動緊密聯系,因此輸電線路有較高的可能性會出現故障,嚴重影響電網安全運行的同時,也對人民的生命財產安全構成了極大的威脅。
據統(tǒng)計,隨著城市化進程的加速發(fā)展,大型車輛違章施工已經成為輸電線路外力破壞的主要因素[1]。目前對于輸電線路的外力破壞檢測,主要是通過安裝在高空塔架的攝像頭拍攝照片,再交給后端中心去進行人工分析[2]。監(jiān)控人員通過監(jiān)看攝像頭拍攝現場傳回的靜態(tài)圖像查看其中可能出現的外力入侵目標,如吊車、油罐車、挖掘機等大型施工車輛,在發(fā)現外力入侵行為時則發(fā)出警告,派出電網維護人員至現場進行處理[3]。這種依靠人工檢查的方法工作量大,工作人員容易疲勞,實時性差且效率較低。
近年來,隨著深度學習的快速發(fā)展,許多研究學者發(fā)布了大量基于卷積神經網絡的目標檢測算法。目前,目標檢測領域的深度學習方法主要分為兩類:一類是基于區(qū)域候選網絡(RPN)來提取目標候選區(qū)域的兩階段算法,如R-CNN[4]、Fast R-CNN[5]、Faster R-CNN[6]等。這種類別的目標檢測算法主要是在特征提取的基礎上,使用一個神經網絡來生成候選區(qū)域,然后再對候選區(qū)域回歸來確定目標的類別和位置。另一類是端到端的一階段目標檢測算法,如YOLO系列[7-9]算法。此類方法直接對圖片內容進行分類和回歸,不需要提取候選區(qū)域,將目標檢測視為回歸問題處理。
本文使用輸電線路現場監(jiān)控圖像數據,以及網絡收集的工程車輛數據,制作了輸電線路外力破壞的檢測數據集,以YOLOv5模型為主體,研究改進模型的效果,進一步提高模型的識別精度和魯棒性。
2? YOLOv5算法簡介(Introduction to YOLOv5 algorithm)
YOLO(You Only Look Once)網絡是一種基于回歸的目標識別算法,具有較快的檢測速度,在很多任務中取得了很好的效果。YOLO網絡將輸入的圖像劃分成大小為S×S的網格,目標物的中心位置落到哪個網格上,就由該網格對應錨框負責檢測目標[10]。相比于其他目標檢測算法,YOLO的多尺度算法能夠更為有效地檢測目標,且在實時性方面表現得較為突出,適合輸電線路異常情況檢測的需求。
YOLOv5根據網絡深度的不同分為YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x,其中YOLOv5x檢測精度最高,但是網絡模型較大,對設備的要求較高;YOLOv5s的模型尺寸較小,檢測速度快,且部署方便??紤]到保證檢測精度的同時,能夠提高檢測速度,減小模型尺寸,本文選用YOLOv5l作為實驗使用的模型。YOLOv5的網絡結構可以分為Input、Backbone、Neck和Prediction四部分。
YOLOv5在輸入端采用了和YOLOv4一樣的Mosaic數據增強方式。Mosaic數據增強方式參考了CutMix數據增強方式,隨機讀取四張圖片,然后再對這四張圖片采取隨機縮放、隨機裁剪、隨機排布的方式拼接到一張圖上作為訓練數據,既豐富了檢測物體的背景,提高了數據樣本的多樣性,又增加了很多小目標,提高了小目標物的識別能力。并且,四張圖片拼接在一起,在進行Batch Normalization的時候會同時計算四張圖片,相當于增加了Batch Size的大小,減少了GPU內存的消耗。YOLOv5還在YOLOv4的基礎上增加了自適應錨框計算和自適應圖片縮放功能。在YOLO算法中,針對不同的數據集,都會使用K-means聚類出初始設定的錨框。在以往的YOLO算法中,計算初始錨框的值都是通過單獨的程序運行的,但在YOLOv5中將此功能嵌入代碼中,每次訓練時,自適應地計算出不同訓練集中的最佳錨框值。YOLOv5的自適應圖片縮放在對原始圖片進行縮放時,能夠自適應地添加最少的黑邊,減少信息冗余,提高推理速度。
在Backbone上主要使用了Focus結構、CSP結構。Focus模塊是對圖片進行切片操作,從而得到二倍下采樣特征圖,相比于一般的下采樣,Focus模塊可以在一定程度上減少模型的計算量,并且不會使信息丟失,為后續(xù)的特征提取保留了更完整的圖片下采樣信息。不同于YOLOv4只在主干網絡Backbone中使用CSP結構,YOLOv5中設計了兩種CSP結構,其中CSP1_X結構應用于Backbone,CSP2_X結構則應用于Neck中。在Neck上采用了PAN結構和FPN結構,用于特征增強。在損失函數上,YOLOv5采用GIOU_Loss作為Bounding Box的損失函數。
3 改進的YOLOv5算法(Improved YOLOv5 algorithm)
(1)用CIOU_Loss取代GIOU_Loss
IOU是指目標預測框與真實框的交集與并集的比例,通常稱為交并比,它可以反映預測檢測框與真實檢測框的檢測效果。IOU_Loss即為1-IOU,其表達式如式(1)所示。
IOU_Loss作為Bounding Box的損失函數存在一個問題,即如果預測框與真實框沒有相交,根據定義IOU=0,不能反映兩者的距離大小。同時因為損失函數失去了可導的性質,沒有梯度回傳,無法進行學習訓練。基于此,相關研究者提出了GIOU_Loss,對于兩個框A、B,先計算它們的最小凸集(包圍A、B的最小包圍框),然后結合最小凸集計算GIOU_Loss,其表達式如式(2)所示。
YOLOv5就是采用GIOU_Loss作為Bounding Box的損失函數,解決了兩個框沒有交集時無法訓練的問題,同時考慮到了IOU沒有關注的非重疊區(qū)域,能夠更好地反映出兩個框的重合度。但是,仍無法解決預測框在真實框內部且預測框面積不變的情況,因為這個時候預測框和真實框的差集是相同的,不管預測框在真實框內部的哪個位置,GIOU_Loss都是相同的。針對GIOU_Loss存在的問題,相關學者提出了DIOU_Loss,相比于GIOU_Loss限制最小外接矩形和預測框與真實框并集的差值,DIOU_Loss直接限制了最小外接矩形的面積和預測框與真實框中心點的位置,其表達式如式(3)所示。
其中,為預測框與真實框中心點之間的歐幾里得距離,c為預測框與真實框最小外接矩形的對角線長度。一個好的回歸損失應該考慮三點,分別為覆蓋面積、中心點距離和長寬比。而DIOU_Loss只考慮了覆蓋面積和中心點距離,所以研究人員在DIOU_Loss的基礎上加入了長寬比的因素,提出了CIOU_Loss,其表達式如式(4)所示。
其中,是預測框與真實框長寬比的距離:
是一個權重系數:
因此,本文選用將覆蓋面積、中心點距離和長寬比等信息都考慮在內的CIOU_Loss作為Bounding Box的損失函數,提高回歸精確度,使得預測框更加符合真實框。
(2)用DIOU_NMS取代經典的NMS
NMS(非極大值抑制)是目標檢測算法后處理中常用的技術,用于將冗余的檢測框過濾掉。在經典的NMS中,得分最高的檢測框和其他檢測框逐一計算出一個對應的IOU值,并將該值超過NMS Threshold的框全部過濾掉??梢钥闯觯诮浀涞腘MS算法中,IOU是唯一考慮的因素。但是在實際的應用場景中,當兩個不同物體距離很近時,由于IOU值比較大,往往經過NMS處理后只剩下一個檢測框,可能導致漏檢的情況發(fā)生。為了避免發(fā)生漏檢,本文用DIOU_NMS取代經典的NMS。DIOU_NMS不僅僅考慮IOU,還關注兩個框中心點之間的距離。如果兩個框之間的IOU比較大,且這兩個框之間的距離也比較大時,可能會認為這是兩個物體的框而不會被過濾掉。
4? ?評價指標(Evaluating indicator)
基于神經網絡的目標檢測常用的評價指標通常為精確率(Precision)和召回率(Recall)[11]。
以識別吊車為例,上式中,TP指的是正確檢測出吊車目標;FP指的是將其他目標物識別為吊車;FN指的是吊車未被正確識別出。
5? ?實驗分析(Experimental analysis)
5.1? ?實驗數據集的制作與訓練細節(jié)
針對檢測輸電線路附近可能出現大型施工車輛這一情況,本文制作了一個輸電線路附近大型施工車輛的數據集。本數據集的數據來源于安裝在多個輸電線路上的攝像頭拍攝到的圖像數據。并非所有采集到的圖像都適用于制作訓練目標檢測模型的數據集,因此,我們首先要對采集到的圖像數據進行篩選,然后使用labelImg圖像標注軟件對圖像進行標注。標注的類別為大型卡車、挖掘機、吊車和油罐車,如圖1(a)所示為輸電線路附近挖掘機的圖像標注。使用labelImg標注完圖像后會生成一個xml格式的文件,如圖1(b)所示,其中size一欄記錄原圖的寬度、高度和通道數目,object一欄記錄目標的類別及標注矩形框的左上角和右下角坐標[12]。整個數據集包含2,000 張圖片,將數據集隨機分為訓練集和測試集,其中訓練集1,400 張圖片,測試集600 張圖片。
此次實驗在Ubuntu 16.04操作系統(tǒng)、Intel i5-9300H處理器、NVIDIA GTX1660Ti顯卡下搭建實驗環(huán)境,包括CUDA 10.1、OpenCV 4.4.0,使用PyTorch 1.7.0搭建YOLOv5的網絡框架。epochs設置為300,batch_size設置為16。
5.2 實驗結果
為了驗證YOLOv5網絡模型對輸電線路外力破壞檢測的準確性,從輸電線路數據集的測試集中隨機選出包含大型卡車、挖掘機、吊車和油罐車的圖片各125 張,用于實驗測試。
將測試樣本放在YOLOv5的測試文件夾下,分別用原始YOLOv5算法訓練出的網絡模型和改進YOLOv5算法訓練出的網絡模型對樣本進行檢測,然后再統(tǒng)計出兩種網絡模型的精確率和召回率。
由表1和表2對比可得,YOLOv5改進算法相較于原始YOLOv5算法在精確率和召回率上都有所提高,圖2為改進YOLOv5的檢測效果示意圖。
6? ?結論(Conclusion)
本文使用輸電線路現場采集到的圖像數據制作數據集,并用其訓練網絡模型,對網絡模型的性能進行實驗測試。實驗結果表明,基于改進YOLOv5的目標檢測算法對輸電線路外力破壞的檢測效果較好,能夠滿足其要求。
參考文獻(References)
[1] 錢宇.基于深度學習的輸電塔架異常識別與預警系統(tǒng)的設計與實現[D].濟南:山東大學,2019.
[2] 沈方晴,許金明,王勁松.架空輸電線路防外力破壞工作的分析與對策[J].科技信息,2013(05):393,430.
[3] 閆春江,王闖,方華林,等.基于深度學習的輸電線路工程車輛入侵檢測[J].信息技術,2018,42(07):28-33.
[4] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]// SUN J, KIM J, PANTIC M, et al. 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, OH, USA: IEEE, 2014:580-587.
[5] GIRSHICK R. Fast R-CNN[C]// SUN J, LIU W, PRICE B, et al. 2015 IEEE International Conference on Computer Cision. Santiago, Chile: IEEE, 2015:1440-1448.
[6] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. 2017 IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6):1137-1149.
[7] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: Unified, real-time object detection[C]// PRICE B, LIN L, CUPTA A, et al. 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, USA: IEEE, 2016:779-788.
[8] REDMON J, FARHADI A. YOLO9000: Better, faster, stronger[C]// SCHIELE B, LIN L, DARRELL T, et al. 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, HI, USA: IEEE, 2017:6517-6525.
[9] REDMON J, FARHADI A. YOLOv3: An incremental improvement[Z/OL]. [2021-08-19]. https://arxiv.org/abs/1804.02767.
[10] 李同,阮士峰,陳卓,等.基于卷積神經網絡的目標檢測綜述[J].科技經濟導刊,2020,28(27):18-20.
[11] 萬晨霞.基于卷積神經網絡的道路多目標檢測算法研究[D].鄭州:河南工業(yè)大學,2019.
[12] 呂寧.基于深度學習的輸電線路防外力破壞監(jiān)測系統(tǒng)研究[D].哈爾濱:哈爾濱工程大學,2018.
作者簡介:
丁楠楠(1996-),男,碩士生.研究領域:圖像處理.
胡旭曉(1965-),男,博士,教授.研究領域:圖像處理,機器視覺.本文通訊作者.
吳躍成(1966-),男,博士,副教授.研究領域:人機交互.
汪? ?威(1997-),男,碩士生.研究領域:圖像處理.
王? ?佳(1998-),女,碩士生.研究領域:故障診斷算法研究.