錢平 張永 徐街明
摘 要: 傳統(tǒng)的變電站巡檢主要是人工巡檢,工作量繁多且不能實時檢測到系統(tǒng)的反常和障礙,使得巡檢存在漏檢和效率低的問題。因此提出智能電網(wǎng)巡檢機器人終端視覺巡檢方法,使用[3×3]鄰域的邊緣檢測算法,提取引導線的邊緣特征點,依據(jù)邊緣特征點通過隔10行掃描獲取指定行像素的中點,得到引導線中心線,采用優(yōu)化的行列聯(lián)合搜索算法獲取循跡圖片中心線,使用“區(qū)域均衡”判別算法對圖像進行判別,得到最佳引導線。依據(jù)最佳引導線采用智能電網(wǎng)巡檢機器人終端視覺巡檢控制系統(tǒng),實現(xiàn)智能電網(wǎng)巡檢機器人終端視覺巡檢。實驗結(jié)果表明,利用所提方法進行巡檢控制的成功率在93%以上,具有高效率、抗干擾的優(yōu)勢。
關(guān)鍵詞: 智能電網(wǎng); 巡檢機器人; 視覺巡檢; 引導線; 中心線; 行列聯(lián)合搜索
中圖分類號: TN915.5?34; TP242 文獻標識碼: A 文章編號: 1004?373X(2018)18?0113?04
Research on terminal visual inspection technology of smart grid inspection robot
QIAN Ping1,2, ZHANG Yong2, XU Jieming2
(1. Zhejiang University of Science & Technology, Hangzhou 310023, China; 2. Zhejiang Electric Power Co., Ltd. of State Grid, Hangzhou 310000, China)
Abstract: The traditional manual substation inspection has heavy workload, and cannot detect the abnormality and obstacle of the system in real time, resulting in missing inspection and low inspection efficiency. Therefore, a terminal visual inspection method of the smart grid inspection robot is proposed. The edge detection algorithm of the 3×3 neighborhood is adopted to extract edge feature points of the guide line. According to the edge feature points, the center point for pixels of the specified row is obtained by scanning once every 11 lines, so as to obtain the center line of the guide line. The optimized row column joint search algorithm is used to obtain the center line of the tracking picture. The "regional equilibrium" discriminant algorithm is used to discriminate images and obtain the best guide line. According to the best guide line, the terminal visual inspection control system of the smart grid inspection robot is adopted to realize terminal visual inspection of the smart grid inspection robot. The experimental results show that the proposed method has a success rate of over 93% in inspection control, and has the advantages of high efficiency and anti?interference.
Keywords: smart grid; inspection robot; visual inspection; guide line; center line; row column joint search
0 引 言
由于變電站是電網(wǎng)的重中之重,因此需要消除在電力系統(tǒng)生產(chǎn)中的危險因素并得以順利運轉(zhuǎn)[1]。傳統(tǒng)的變電站巡檢主要是人工巡檢,人工巡檢由于工作量繁多,會有漏檢的現(xiàn)象產(chǎn)生,而且人工不能實時檢測到系統(tǒng)的反常和障礙[2]??茖W技術(shù)的發(fā)展和電力體制的改革使智能電網(wǎng)巡檢機器人代替了傳統(tǒng)人工巡檢。機器人的技能特征可以勝任人工巡檢完成不了的工作,不僅提升了巡檢質(zhì)量,還使智能電網(wǎng)建設(shè)得以飛速發(fā)展[3]。本文采用智能電網(wǎng)巡檢機器人終端視覺巡檢方法,實現(xiàn)機器人終端的智能視覺導航,提高智能電網(wǎng)巡檢機器人終端視覺巡檢的效率和精度。
1 智能電網(wǎng)巡檢機器人終端視覺巡檢技術(shù)研究
1.1 引導線識別
如果變電站的路面沒有太大起伏,根據(jù)地面設(shè)置的藍色條狀線以及路面背景的影像灰度值的不同,對影像進行提取[4],通過在選取的影像畫面中使圖像灰度化,并且經(jīng)過對圖像的聯(lián)合濾波作用,獲取藍色引導線的邊緣,得到引導線的中心線[5]。中心線的位置是辨別機器人自身和引導線間距的重要依據(jù)。
1.1.1 中心線提取
中心線是機器人識別引導線的關(guān)鍵點所在。提取引導線的中心線需要先提取出引導線的邊緣特征點,才可以正確無誤地按照藍色引導線行駛。為了防止在像素之間里插點上計算梯度,在此使用[3×3]鄰域的邊緣檢測算法[6],提取引導線的邊緣特征點。
在邊緣檢測后的圖像中獲取的線條邊緣是單像素,傳統(tǒng)逐行搜索法是在相同區(qū)域邊緣線周圍搜索2個邊緣點并采集該2點的坐標中心點,按照這個對全部圖像區(qū)域進行檢索,得出的全部中心點的集合就是中心線。由于該方法的搜索效率低,因此,本文基于引導線邊緣特征點,通過隔10行掃描獲取指定行像素的中點,提取引導線中心線,以此提高搜索效率。
變電站巡檢機器人拍到的藍色引導線圖像會以穿過圖片上下邊界直線的形式呈現(xiàn)[7]??梢暂^為清楚地展現(xiàn)圖像信息。但是在圖片左右邊界處,由于機器人拍到的引導線穿過圖片左右邊界會使其發(fā)生畸變[8],因此在獲取該循跡圖片中心線時,需要使用優(yōu)化的行列聯(lián)合搜索算法,實現(xiàn)引導線中心線準確定位識別。
1.1.2 “區(qū)域均衡”判別算法
通過第1.1.1節(jié)可知,中心線是依據(jù)機器人拍攝的藍色引導線圖像進行搜索邊緣點而獲取的。而拍攝過程中變電站室外存在地面的差異和光照差異等外在因素的影響,需要對圖像進行判別[9],獲取最佳引導線。因此,采用“區(qū)域均衡”判別算法,把[16×16]點陣設(shè)定成一個判斷區(qū)域,通過對此區(qū)域平均RGB(顏色模型融合檢測)數(shù)值的計算[10],來判斷藍色引導線與此區(qū)域的關(guān)系。
實際現(xiàn)場的使用結(jié)果證明,“區(qū)域均衡”判別算法方便適用,對光線的抗干擾性強。引導線的視覺識別導航示意圖如圖1所示,“區(qū)域均衡”判別算法示意圖如圖2所示。
1.2 智能電網(wǎng)巡檢機器人終端視覺巡檢控制系統(tǒng)
通過上文的闡述,根據(jù)最終所得的最佳引導線,通過智能電網(wǎng)巡檢機器人終端視覺巡檢控制系統(tǒng),讓巡檢機器人通過拍攝的圖像,然后在終端視覺系統(tǒng)中做出操作指示,沿線行駛,完成“循跡”運行。首先按照智能終端視覺系統(tǒng)指出的引導線位置和巡檢機器人當前位置作對比,從而得知位置間隔的距離;然后通過智能PID控制方法對巡檢機器人的左右輪實行轉(zhuǎn)速協(xié)調(diào)控制;最后巡檢機器人行駛方向和速度會根據(jù)引導線進行循跡運行。巡檢機器人終端視覺循跡控制方案詳情見圖3。
由圖3可知,在智能電網(wǎng)巡檢機器人的終端視覺系統(tǒng)中,通過智能PID控制方法對巡檢機器人左右輪實行轉(zhuǎn)速協(xié)調(diào)控制,可使巡檢機器人按照引導線循跡運行。
2 實驗分析
實驗為了驗證本文提出的智能電網(wǎng)巡檢機器人終端視覺巡檢方法的性能優(yōu)劣,采用某智能電網(wǎng)的巡檢機器人獲取的循跡圖像進行仿真實驗的方法。采用的圖像包括白天各時間段的光照條件。各時間段不同光照條件下的圖像如圖4所示。
從室外環(huán)境提取不同光照條件的圖像一共200幅,訓練集和測試集的數(shù)量分別是120幅和80幅,進而測試驗證智能電網(wǎng)巡檢機器人采用本文終端視覺巡檢方法,采集引導線的有效性。首先在實驗前把在各光照條件下提取的一部分樣本圖像中的引導線周邊選取一片小區(qū)域,然后把圖像中的色調(diào)設(shè)為H、飽和度設(shè)為S。通過本文方法中的Sobel算法得出此區(qū)域里各個像素點的H,S值來提取二者的上下閾值,結(jié)果如表1所示。把在提取的引導線區(qū)域中H,S分量上下閾值當作所要獲取的引導線顏色特征值,然后在測試圖像里依據(jù)邊緣特征得到引導線區(qū)域。
由表1可知,在不同光照下H,S的特征值也分別存在差異,說明引導線的判別也受其影響。因此使用本文方法中的“區(qū)域均衡”判別算法把光照分為強光照、正常光照以及弱光照,進行抗干擾測試,測試集內(nèi)3幅各光照條件下的引導線的獲取結(jié)果如圖5所示。其中圖5a)是獲取的原始圖像,圖5b)描述的是相應(yīng)的顏色特征和邊緣特征的融合圖像。在選取的圖像畫面中進行圖像灰度化和聯(lián)合濾波,根據(jù)顏色特征和邊緣特征融合后的圖像在引導線邊緣處找到分散的邊緣點,通過行列聯(lián)合搜索算法獲取引導線的有效邊緣點。
如圖5b)所示,在不同光照條件下,因為受周圍樹木的干擾,使圖像中呈現(xiàn)出的強弱光條件下的路面區(qū)域顏色沒有太大的不同。但是在融合后的圖像里引導線邊緣周圍存在著分散的小像素點,而在各區(qū)域光照條件各異的情況下,像素點之間具有非線性關(guān)系。本文所提取的引導線像素點間應(yīng)是具有鮮明的線性關(guān)系才可以正確地指引巡檢機器人運行。因此通過本文方法中的“區(qū)域均衡”判別算法在不同光照條件下依然可以準確地獲取引導線,實現(xiàn)機器人的準確巡檢,具有較高的抗干擾性。
本文方法獲取的引導線邊緣如圖5c)所示,圖中白線標識的即是。從圖5所描述的內(nèi)容可以得出,本文方法在各區(qū)域不同光照條件下都可以獲取到正確有效的邊緣線從而識別出引導線的路徑,實現(xiàn)智能電網(wǎng)巡檢機器人終端視覺的準確巡檢。測試集里的剩余80幅圖像使用本文方法對引導線左右兩側(cè)邊緣進行檢測,如果出現(xiàn)獲取的引導線一側(cè)產(chǎn)生偏離或者誤檢現(xiàn)象,那么可以說明檢測失敗。在檢測中,測試集內(nèi)有5幅圖圖像存在誤檢,正確率高達93.75%,因此實驗結(jié)果證明了智能電網(wǎng)巡檢機器人終端視覺采用本文方法的指引在變電站進行巡檢作業(yè)時具有較高的效率、精度,并且抗干擾性能強。
3 結(jié) 論
在智能電網(wǎng)建設(shè)中,由于人工不能實時檢測到系統(tǒng)的反常和障礙,因此巡檢機器人的應(yīng)用成為當下研究的重要核心。本文提出智能電網(wǎng)巡檢機器人終端視覺巡檢方法,該方法的高效率以及抗干擾性通過實驗測試得以證明。把其運用到智能電網(wǎng)巡檢機器人終端視覺系統(tǒng)中后,智能電網(wǎng)巡檢機器人通過終端視覺系統(tǒng)按照引導線可以在室外不同光照下準確有效地進行導航工作,說明本文方法具有較高的應(yīng)用價值。
參考文獻
[1] 任天宇,端木慶鐸,吳博琦,等.巡線LiDAR多通道光譜圖像異常識別技術(shù)[J].紅外與毫米波學報,2017,36(5):554?562.
Ren Tianyu, DUANMU Qingduo, WU Boqi, et al. LiDAR multichannel spectral abnormal image recognition technology for transmission lines [J]. Journal of infrared and millimeter waves, 2017, 36(5): 554?562.
[2] 李和平,陳育新.基于物聯(lián)網(wǎng)的礦井智能巡檢機器人控制系統(tǒng)設(shè)計[J].機床與液壓,2015,43(11):119?122.
LI Heping, CHEN Yuxin. Design of control system of intelligent mine patrol robot based on Internet of Things [J]. Machine tool & hydraulics, 2015, 43(11): 119?122.
[3] 陳楊陽,蔡建羨,劉智偉,等.多路徑識別的智能循跡機器人設(shè)計與實現(xiàn)[J].測控技術(shù),2014,33(12):65?68.
CHEN Yangyang, CAI Jianxian, LIU Zhiwei, et al. Design and implementation of intelligent tracking robot in multi?path identification [J]. Measurement & control technology, 2014, 33(12): 65?68.
[4] 陳亮亮,李達輝.基于移動終端嵌入式的視覺傳感網(wǎng)絡(luò)的人像識別技術(shù)[J].科技通報,2015,31(8):219?221.
CHEN Liangliang, LI Dahui. Portrait recognition technology based on mobile terminal embedded visual sensing network [J]. Bulletin of science and technology, 2015, 31(8): 219?221.
[5] 曹若琛,陳靖,王涌天.一種面向移動終端的混合跟蹤定位算法[J].太原理工大學學報,2016,47(4):506?512.
CAO Ruochen, CHEN Jing, WANG Yongtian. Hybrid tracking algorithm for mobile terminals [J]. Journal of Taiyuan University of Technology, 2016, 47(4): 506?512.
[6] 梁經(jīng)倫,鄺泳聰,冼志軍,等.基于視覺測量的XY?Theta并聯(lián)平臺分步運動學標定[J].機械工程學報,2014,50(1):1?9.
LIANG Jinglun, KUANG Yongcong, XIAN Zhijun, et al. Step kinematic calibration of a XY?Theta parallel stage using vision?based metrology [J]. Journal of mechanical engineering, 2014, 50(1): 1?9.
[7] 徐顯金,吳龍輝,楊小俊,等.高壓直流巡檢機器人的磁懸浮方法建模與仿真[J].計算機仿真,2016,33(7):378?382.
XU Xianjin, WU Longhui, YANG Xiaojun, et al. Modeling and simulation of magnetic levitation method of inspection robot for HVDC transmission lines [J]. Computer simulation, 2016, 33(7): 378?382.
[8] 開思聰,陶重犇,孫云飛.基于STM32控制的倉儲搬運機器人[J].計算機系統(tǒng)應(yīng)用,2016,25(7):49?54.
KAI Sicong, TAO Chongben, SUN Yunfei. Automatism storage handling robot based on STM32 controller [J]. Computer systems & applications, 2016, 25(7): 49?54.
[9] FU P P, CHEN X W, LIU Z, et al. Intelligent inspection system on information equipment in smart grids based on IoT [J]. Advanced materials research, 2012, 542?543(2): 394?397.
[10] GUO H C, NIU D X, LIU J P, et al. Research on the utilization of smart meters′ information under the background of smart grid [J]. Advanced materials research, 2013, 605?607(1): 1023?1026.