• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于視覺引導的機器人分揀系統(tǒng)研究

      2023-01-20 03:26:58張可抒
      計算機應用文摘·觸控 2022年22期
      關(guān)鍵詞:機器視覺深度學習機器人

      關(guān)鍵詞:機器人;機器視覺;N點標定;深度學習

      中圖法分類號:TP391 文獻標識碼:A

      1引言

      隨著當今世界經(jīng)濟的快速發(fā)展,傳統(tǒng)制造業(yè)的轉(zhuǎn)型升級已迫在眉睫?!吨袊圃?025》要求加快發(fā)展新一代的智能制造裝備,未來制造業(yè)的發(fā)展方向必將是智能制造。工業(yè)機器人作為現(xiàn)代工業(yè)智能制造的典型代表,在噴涂、焊接、搬運以及裝配等多項作業(yè)中被廣泛應用。目前,工業(yè)機器人大多應用于批量的生產(chǎn)任務(wù),操作人員通過示教和離線編程的方式,預先給機器人設(shè)置軌跡并進行工件的裝配。此情景下,要求工件的擺放位置固定已知,有時還需要一定的輔助限位裝置。因此,生產(chǎn)線缺乏靈活性和柔性。近年來,隨著機器視覺技術(shù)的快速發(fā)展與應用,加裝工業(yè)之眼后工業(yè)機器人可以更加智能、靈活地進行上下料、裝配等工作,目前的自動化生產(chǎn)線中,利用工業(yè)相機或智能相機等光學設(shè)備可以對目標零件進行快速識別和空間位置信息的獲取,進而引導機器人進行自主工作。這已經(jīng)成為工業(yè)生產(chǎn)中的一大趨勢。

      隨著人工智能技術(shù)的發(fā)展,機器人與計算機視覺的結(jié)合越來越緊密,視覺引導機器人完成各種任務(wù),如裝配、上下料等,越來越受到研究人員的關(guān)注,并取得了一系列的研究進展。機器人視覺系統(tǒng)主要作用是利用視覺設(shè)備識別出待處理的目標并獲取其位置信息,為機器人抓取、分揀以及裝配提供信息。利用工業(yè)相機等視覺設(shè)備獲取目標圖像信息,根據(jù)特征檢測識別出目標,引導機器人動作,因而檢測識別的精度影響機器人動作的成敗。目前,國內(nèi)外研究人員針對不同的目標產(chǎn)品檢測識別提出了大量的方法,主要分為基于傳統(tǒng)視覺處理方法和深度學習方法。

      傳統(tǒng)視覺處理方法獲取目標的灰度、紋理、形狀、不變矩等特征作為依據(jù)實現(xiàn)目標的檢測。喬景慧等為了抓取不同型號和尺寸的電視機背板,采用模板匹配方法確定背板的型號和品質(zhì),開發(fā)了視覺伺服自適應控制系統(tǒng)。朱穎等針對機器人作業(yè)環(huán)境復雜、物料的隨機擺放使得目標識別與定位精度低、實時性差等問題,提出改進幾何矩的移動機器人目標識別,將Graham與旋轉(zhuǎn)卡殼相結(jié)合的算法尋找最小外接矩來獲取目標物料的準確位置。傳統(tǒng)的機器視覺算法具有處理簡單、速度快等優(yōu)勢,但針對復雜場景,如遮擋、光照不均等情況處理效果受限。另一方面,深度網(wǎng)絡(luò)方法因其強大的特征處理能力,被廣泛應用于各個領(lǐng)域的目標識別。仲訓杲等針對智能機器人抓取、判別問題,提出多模特征深度學習與融合的方法,將測試特征分布偏離訓練特征視為一類噪化,引入帶稀疏約束的降噪自動編碼(DAE),實現(xiàn)網(wǎng)絡(luò)權(quán)值學習,并以疊層融合策略,獲取初始多模特征的深層抽象表達,該方法可以提高深度網(wǎng)絡(luò)的魯棒性和抓取判別精確性。趙德安等利用YOLO神經(jīng)網(wǎng)絡(luò)實現(xiàn)了復雜環(huán)境下蘋果的識別。閆建偉等采用帶有殘差模塊的YOLO神經(jīng)網(wǎng)絡(luò)對刺梨果實進行了識別。以上處理流程及方法均是根據(jù)機器人完成不同任務(wù)時設(shè)計的,當應用于復雜目標分揀任務(wù)時適用性受限。

      本文設(shè)計了一種基于深度學習的智能機器人分揀系統(tǒng)。搭建機器人視覺系統(tǒng)后,利用手眼標定方法確定機器人和相機的映射關(guān)系:利用機器人視覺系統(tǒng)采集并增強目標數(shù)據(jù)集,利用Labellmg完成目標類別的標注,訓練獲取YOLOv5網(wǎng)絡(luò)模型參數(shù):結(jié)合變換矩陣,將網(wǎng)絡(luò)模型檢測到的目標像素坐標信息轉(zhuǎn)換至實際物理坐標;根據(jù)目標的類別,調(diào)用DobotMagicianPython接口,控制機械臂移動至該位置進行抓取操作。利用深度網(wǎng)絡(luò)檢測目標信息,可以避免人工設(shè)置特征的局限性,提高系統(tǒng)的魯棒性,實驗驗證了本文方法的有效性。

      2本文系統(tǒng)

      機器人分揀物料除了需要獲得物料類別信息之外,還需要識別出物料的位姿信息。本系統(tǒng)所處理的物料為對稱目標,因而需要識別抓取的位置信息。本文設(shè)計的智能機器人分揀系統(tǒng)工作流程為:通過2D相機對無序放置的物料實時拍照采集圖像,在上位機中經(jīng)過深度網(wǎng)絡(luò)處理后獲取物料類別和位置信息,發(fā)送給機器人進行智能分揀。智能機器人分揀系統(tǒng)主要包含硬件系統(tǒng)和軟件平臺兩大部分。

      2.1硬件

      本系統(tǒng)主要由機器人、大恒工業(yè)相機及鏡頭、環(huán)形光源、相機支架等組成,設(shè)備安裝情況如圖1所示。

      將相機固定于相機支架上,此時相機相對于機器人是眼在手外的形式。由于目標在平臺上的位置是隨機的,因而相機拍照并檢測出位置信息后轉(zhuǎn)換為世界坐標,進而告知機器人需要移動的位置。本系統(tǒng)采用的機器人是Dobot Magician,其由底座、大臂、小臂、末端工具等組成。

      2.2手眼標定

      機器人視覺系統(tǒng)獲取的是目標的像素坐標,需要將像素坐標轉(zhuǎn)換為世界坐標,引導機器人進行移動。由于工件所處的平臺平面是固定的,因而本系統(tǒng)采用N點標定方法建立機器人和相機之間的轉(zhuǎn)換關(guān)系。N點標定的主要原理為已知N個點的圖像坐標以及對應的機械坐標,根據(jù)其獲取手眼對應的轉(zhuǎn)換矩陣,操作步驟如下。

      首先,將標定板放置于相機視野之內(nèi),獲取標定板的圖像,建立特征模板并利用模板匹配獲取標定板特征點像素坐標,選取9個特征點,記錄為(x,y);其次,移動Dobot機械臂至上述九個點,記錄此時機械手末端的笛卡爾坐標,記為(x′,y′);最后,將兩組坐標一一對應,調(diào)用Opencv中的estimateAffine2D函數(shù)計算手眼變換矩陣。獲取變換矩陣之后,對實時檢測到的工件位置轉(zhuǎn)換至機械手坐標進行抓取。

      2.3深度網(wǎng)絡(luò)模型

      2.3.1數(shù)據(jù)集制作

      利用相機采集不同背景、不同光照條件下的各類目標圖像,同時考慮增加不同視角下目標圖像數(shù)據(jù)集。利用Labellmg等標記軟件實現(xiàn)不同目標的標注,獲取目標處于圖像中的位置及種類信息。

      采用Mosaic數(shù)據(jù)增強方法對不同目標樣本數(shù)據(jù)集進行擴充,主要手段包含信息丟棄(隨機擦除、Cutout,Hide and Seek和MixUp手段)、空間轉(zhuǎn)換(主要有隨機縮放、裁剪、翻轉(zhuǎn)、旋轉(zhuǎn)任意角度)、顏色扭曲(改變亮度、飽和度、對比度和噪聲)。

      2.3.2網(wǎng)絡(luò)模型

      本文采用的網(wǎng)絡(luò)模型為YOLOv5模型,網(wǎng)絡(luò)架構(gòu)主要由Backbone,Neck和Head等部分組成。

      Backbone部分主要由Focus模塊和CSP模塊組成,F(xiàn)ocus模塊作用是對輸入圖像進行切片操作,將通道擴大了4倍后卷積得到下采樣圖,而CSP模塊可以大大增強深度網(wǎng)絡(luò)學習性能的同時大幅減少計算量。Neck部分包含F(xiàn)PN模塊和PAN模塊,通過將經(jīng)典的FPN層與自下而上的特征金字塔結(jié)合,實現(xiàn)了高層語義特征與底層位置特征相融合,使網(wǎng)絡(luò)能夠提取更加豐富的特征。網(wǎng)絡(luò)的Head部分由三個尺度的檢測層組成,輸出結(jié)果包含目標的類別、得分以及目標框的位置信息。最終輸出的位置信息經(jīng)手眼矩陣轉(zhuǎn)換后可傳輸至機器人實現(xiàn)移動。

      3實驗

      本系統(tǒng)使用的相機是大恒相機,因此,首先安裝大恒相機sdk的gxipy接口,建立相機和上位機的通信。

      利用Python import調(diào)用Dobot機械臂動態(tài)鏈接庫DobotDll.dll.語句為import Dobot Dll Type as dType;利用dType.Set PTP Jump Params語句設(shè)置機械臂PTP運動模式參數(shù),即設(shè)置門型運動時抬升高度和最大高度;通過dType.SetEndEffectorParams函數(shù)設(shè)置機械臂末端為吸盤;通過dType.SetPTPCmd語句設(shè)置機械臂初始位姿。采用Pytorch框架搭建YOLOv5模型,最終位置信息通過dType.SetPTPCmd語句傳輸至機器人。實驗中采用圓柱物塊表面粘貼不同目標圖片模擬待處理物料目標,分揀結(jié)果如表1所列。

      由表1可知,本系統(tǒng)的分揀正確率都在98%以上,平均耗時1.5s。

      4結(jié)束語

      本文設(shè)計了基于視覺引導的機器人物料分揀系統(tǒng)。利用N點標定方法實現(xiàn)機械手和相機之間的對應轉(zhuǎn)換關(guān)系。面對復雜工業(yè)場景,尤其是光照變化、物料隨機位置,部分遮擋等情況,利用Pytorch框架構(gòu)建YOLOv5模型來處理。利用相機獲取物料類別信息后,將目標位置信息轉(zhuǎn)換為物理世界坐標進行分揀。實驗驗證了本文系統(tǒng)的有效性。

      作者簡介:

      張可抒(1996—),本科,助理工程師,研究方向:電氣潮流控制分析、公共管理、建設(shè)項目投資估算.設(shè)計方案技術(shù)經(jīng)濟論證和優(yōu)化、建設(shè)項目財務(wù)評價和經(jīng)濟評價等。

      猜你喜歡
      機器視覺深度學習機器人
      MOOC與翻轉(zhuǎn)課堂融合的深度學習場域建構(gòu)
      大數(shù)據(jù)技術(shù)在反恐怖主義中的應用展望
      大場景三維激光掃描儀在研究生實踐教學培養(yǎng)中的應用
      科教導刊(2016年25期)2016-11-15 17:53:37
      深度學習算法應用于巖石圖像處理的可行性研究
      軟件導刊(2016年9期)2016-11-07 22:20:49
      基于機器視覺的工件鋸片缺陷檢測系統(tǒng)設(shè)計
      軟件工程(2016年8期)2016-10-25 15:55:22
      基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
      軟件工程(2016年8期)2016-10-25 15:47:34
      基于機器視覺技術(shù)的動態(tài)“白帶”常規(guī)檢測系統(tǒng)的開發(fā)
      科技視界(2016年20期)2016-09-29 11:11:40
      機器視覺技術(shù)在煙支鋼印檢測中的應用
      機器人來幫你
      認識機器人
      新乡县| 定襄县| 花垣县| 图片| 日照市| 高雄市| 元氏县| 龙泉市| 长子县| 高要市| 桐梓县| 丽江市| 洪泽县| 济南市| 色达县| 临潭县| 晋州市| 衡水市| 淳安县| 曲阜市| 吉首市| 孝昌县| 新蔡县| 象山县| 临猗县| 共和县| 楚雄市| 施甸县| 苍梧县| 英德市| 南平市| 和林格尔县| 承德市| 紫阳县| 岳阳县| 高碑店市| 囊谦县| 和平县| 乌兰浩特市| 定边县| 丰镇市|