RGB-D傳感器實現六自由度工業(yè)機器人的視覺伺服方法
機器人協助人類已成為一種智能高效的工作流程,機器人應該準確感知工作環(huán)境,不干擾正常工作流程。將機器視覺方法用于圖像處理和機器人執(zhí)行過程,稱為機器人基于視覺運動控制的視覺伺服方法。目前主要采用2D攝像機進行視覺伺服應用,對圖像中的邊緣或角點方向進行精確定位,但是對于沒有明顯特征的物體,2D攝像機效果較差,深度感測攝像機是更好的選擇。RGB-D傳感器能提供從深度數據生成的點云,不用尋找特征點方向,檢測到的圖像已經是可用于工作區(qū)中的2.5D對象,可以通過迭代最近點(ICP)算法,將2.5D對象的點云與模型匹配。
本文將機器人分解為幾個鏈接部分,使得關節(jié)方向可以從云對齊中計算出來。兩個放置在65cm以外、俯仰角為30°的RGB-D傳感器具有較寬的視野,用于跟蹤具有六自由度的機械手,進行關節(jié)位置感知和視覺伺服,深度感測定位和對象匹配最高精度通過比較兩個RGB-D得出。ICP算法匹配機器人關節(jié)點云過程中,關節(jié)鏈接模型由計算機輔助設計(CAD)生成,根據鏈接坐標系建立對應D-H矩陣,表示各鏈接位姿關系,從機器人點云到匹配模型的偏差被用來計算關節(jié)運動速度,實現兩個點云的再次對齊,整體是通過點云庫(PLC)實現。
從PCL實現CAD模型的包絡點云,通過D-H與參數的變換耦合算法,保證關節(jié)間的相互耦合。RGB-D傳感器和機器人運動信息在操作系統(ROS)中進行交互,使可視化模型與深度圖像一起顯現,實現模型可觀察和可控。RGB-D在顛簸情況下檢測的圖像,ICP算法精度較低,難以準確計算匹配,此時通過最小二乘法進行機器人點云的平滑處理,關節(jié)角度匹配可以精確到±0.5°。
Varhegyi T,et al.Oagm&Arw 2017 Joint Workshop on"vision, Automation and Robotics Conference. Oct.2017.
編譯:羅蘭