• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      一種基于特征點三維信息的自然路標提取與快速匹配方法

      2015-04-29 00:44:03苑全德等
      智能計算機與應用 2015年1期
      關鍵詞:移動機器人

      苑全德等

      摘 要: 自然路標提取與匹配是 vSLAM 的基礎。文中提出了一種基于特征點三維信息的自然路標提取、局部特征描述與快速匹配方法。采用雙目視覺獲取環(huán)境圖像, 提取左右目圖像的特征點, 并進行匹配。建立左攝像機坐標系下的每個匹配點的三維信息, 提出視場約束規(guī)則對特征點進行過濾。在此基礎上基于改進的MeanShift聚類算法進行自然路標提取。提出一種路標描述符, 可以快速進行兩個聚類的匹配。該方法可以有效提取非結構化環(huán)境中的自然路標, 對機器人位姿估計精度要求較低。

      關鍵詞: 移動機器人;自然路標提??;路標描述符;MeanShift

      中圖分類號:TP242.6 文獻標識號:A 文章編號:2095-2163(2015)01-

      Abstract: Landmark extraction and matching is basis of vSLAM. A method of landmark extraction, local feature description and fast matching based on 3D information of feature points is proposed. Robot obtains images of environment via binocular vision, extracting feature points from left and right eye images, matching feature points of the two images. Three-dimensional information of each matched points under left camera coordinate system is built. Field of view constraint rule is proposed to filtering points. Then, the method of natural landmark extraction based on improved Mean Shift algorithm is discussed. The paper proposes a landmark descriptor, which can achieve fast matching of the two clustering. This method can extract natural landmarks in unstructured environment, tolerating relatively low accuracy of pose estimation.

      Key words: Mobile Robot; Natural Landmark Extraction; Landmark Descriptor; MeanShift

      0引 言

      同時定位和地圖創(chuàng)建(Simultaneous Localization and Mapping, SLAM)是實現(xiàn)機器人自主導航的一個關鍵技術[1]。SLAM技術主要采用視覺[2]、激光[3]等傳感器以實現(xiàn)環(huán)境感知,尤其是基于視覺的SLAM技術(vSLAM)具有的對環(huán)境無侵性、獲取環(huán)境信息的豐富性、以及成本低廉等顯著優(yōu)勢,使其受到研究學界的廣泛關注和高度重視。

      vSLAM主要采用路標方法, 路標的自動提取與快速匹配即是其中的基礎性問題?;谔卣鼽c的路標的表示方法主要分為兩類。在此,可做如下具體分析:

      一類以提取出的特征點直接作為路標,這類方法構建的地圖路標的特征點數(shù)量較多, 進行場景匹配的運算量也隨之較大。重點成果則有:文獻[2]基于SIFT算法對環(huán)境圖象進行特征提取,形成路標并構建分層地圖。 文獻[4]也提出一種基于顯著場景Bayesian Surprise的自然路標檢測方法。并且,文獻[5]又使用關鍵幀Harris角點作為自然路標, 實現(xiàn)了機器人的實時全局定位與導航。相應地,文獻[6]亦同樣使用環(huán)境圖像的SIFT特征點作為自然路標,利用特征點信息建立自然路標數(shù)據(jù)庫,實現(xiàn)了環(huán)境地圖創(chuàng)建。針對特征點的提取也進行了大量的研究,文獻[7]即提出了基于圖像二階多項擴展式局部方向張量的興趣點檢測 PLOT算子,并利用雙目視覺實現(xiàn)了機器人的SLAM過程。繼而,文獻[8]提出一種利用雙目視覺有效提取特征點的無監(jiān)督算法, 該算法使用SOM對SIFT特征點進行快速匹配以獲得穩(wěn)定的特征點。還有文獻[9]通過應用Harris算法來提取角點。而文獻[10]則針對單目視覺提取的特征點給出了統(tǒng)一逆深度參數(shù)方法來準確表達其不確定性。

      另一類路標表示法是通過對提取的特征點進一步聚類, 再將獲得的聚類整體作為一個路標。相應成果有,文獻[11]提出了一種基于角點聚類的自然路標局部特征提取其匹配算法。本文則基于對特征點聚類的思路,進一步提出了一種基于三維信息對特征點進行聚類分析形成路標、對路標進行局部特征描述與快速匹配的方法。

      1特征點及其三維信息的獲取與預處理

      機器人使用參數(shù)相同的兩個攝像機獲取環(huán)境圖像,對圖像進行特征點選取與過濾, 又采用雙目視覺原理獲得特征點對應空間點的三維信息。

      1.1特征點的選取

      本文采用SURF算法對左右目攝像機獲得的圖像分別進行特征點提取,基本可以達到實時處理的要求[12]。令由左目獲取的圖像標記為, 由的特征點組成集合, 同理右目圖像的特征點組成集合, 因為兩攝像機是對同一場景進行拍攝, 這就使得提取的特征點大致相同。為了計算特征點對應空間點的三維信息, 需要找到左目圖象的特征點在右目圖像中的對應點以獲得該點在雙目中的視差, 即某一點在兩幅圖像中相應點的位置差。

      以中的點為基準與中的點進行匹配,使之一一對應,未獲匹配的表示該點在其中一目中看不到。匹配上的特征點、組成特征點對并入集合中, 記 為主特征點。

      1.2特征點對應空間點的三維信息的獲取

      特征點對對應的空間點記為, 由所有空間點組成的集合記為。攝像機坐標系的原點在攝像機鏡頭的光心處。為簡化計算, 令左右鏡頭的參數(shù)相同, 兩攝像機光心在同一個平面上, 在左攝像機坐標系下的三維坐標信息可以利用視差原理獲得:

      其中, 是空間點P在左攝像機坐標系下的三維坐標, b為左右攝像機的基線距,d為視差,f為焦距,u1、v1為特征點在左右視覺中的圖像坐標。點的三維坐標在聚類過程中將會用到。而提取路標后、進行存儲時, 應將所有空間點在攝像機坐標系下的坐標轉換為世界坐標系下的坐標。

      2自然路標的提取與描述

      2.1基于改進MeanShift算法的特征點聚類提取路標

      已建立在攝像機坐標系下的坐標, 根據(jù)這些點的相對空間位置進行聚類分析以提取路標。 MeanShift算法因為運算量小, 計算速度快,且有一定的魯棒性,更為適合進行特征點聚類。但卻需要對該算法加以改進, 就使得算法可以根據(jù)不同特征點的聚合情況,相應產(chǎn)生不同數(shù)量的聚類。

      MeanShift 可以理解為一個核密度估計的過程, 即將空間點看作采樣得到的數(shù)據(jù)點, 并將單位體積內的空間點數(shù)看作概率密度, 由此求取概率密度最大的點集合就完成了聚類。每個點X的概率密度可以表示為:

      其中,為核密度函數(shù),k可取高斯函數(shù),是以點為圓心,即為半徑的球型區(qū)域內的點,為聚類半徑, 可以看作 Parzen 窗口尺寸,則為半徑內的空間點的個數(shù)。

      欲求概率密度最大的點,可先對求導,使則可求得極值點,令,有

      當, 即可近似求得點概率密度的極值點, 而以其為中心點, 半徑的區(qū)域內的點將形成一個聚類。其中,為閾值。

      考慮到自然路標有大有小,應保證聚類內最少包含個特征點數(shù), 否則形成的聚類特征點太少, 將導致路標不穩(wěn)定且不利于路標之間的區(qū)分,而且更不利于定位。此后,在聚類過程中將自動調整半徑。如果以點為圓心, 半徑內特征點數(shù), 則以步長增加半徑, 直至, 可稱為增長半徑。其中,為聚類中最少特征點數(shù),為聚類最大半徑。

      一般情況下,聚類半徑長度未增長到最大半徑時, 特征點數(shù)與已經(jīng)滿足要求了, 此時聚類已經(jīng)形成, 但存在半徑再適當擴大仍然可能有特征點的情況, 為此提出聚類進行小幅度擴張的應對策略。如果有距離聚類較近的點與聚類的距離小于, 可將聚類半徑增加以包括該點,并重復該過程。擴張幅度, 即可取。 如果在下一步擴張了的聚類范圍內沒有更多的點或者超過了最大聚類半徑限制, 則隨即停止該擴張過程。

      組成路標的特征點分布范圍半徑也應該控制在一定范圍內,這與自然環(huán)境中作為物體多會有一定尺寸限制現(xiàn)象相吻合。本文取

      其中,為聚類初始半徑。

      確定一個聚類后,從未訪問過的特征點中隨機選擇一點作為中心,繼續(xù)尋找下一聚類,直至未訪問過的點的數(shù)量。

      2.2聚類描述符

      考慮使用一個快速索引匹配路標的方法, 問題可以描述為已知一組形成聚類的點的三維坐標, 設計一個具有唯一性和旋轉不變性的描述符, 并且該描述符應在兩個聚類匹配過程中有充分的區(qū)分度。

      本文基于空間點的分布來表征描述符。由聚類中心指向組成聚類的各個特征點形成了一組向量,向量數(shù)學原理如式(6)所示,三維空間實現(xiàn)則如圖1所示。

      將聚類的區(qū)域平分若干份, 依次統(tǒng)計各個區(qū)域內向量, 得到一個特征向量。 其對應數(shù)學表示則如式(6)所示。

      在圖2中, 以步長0.5滑動窗口, 取絕對值最大的窗口方向為主方向。以聚類的主方向為基準方向, 圍繞聚類中心的x軸, 再取逆時針為正方向, 而將整個聚類按為跨度劃分作24個區(qū)域,并且分別重新計算各個區(qū)域的向量的模與高斯核函數(shù)的卷積, 將其組成一個24維的向量,該向量即為該聚類的描述符。

      3路標匹配過程

      機器人在環(huán)境中移動時, 對獲取的圖像先進行預處理, 估計自己的位姿, 并根據(jù)當前位姿到地圖數(shù)據(jù)庫查詢之前機器人以該位姿觀察到的路標。令當前位姿為, 為保證找到路標, 可查詢符合如下條件的路標,具體是:, , 。

      對當前提取的環(huán)境的特征點進行聚類, 計算該聚類描述符,并與數(shù)據(jù)庫中對應路標的描述符進行匹配, 在誤差允許的范圍內如果實現(xiàn)了匹配, 說明找到了路標, 則取出每個點的信息, 對已然匹配的兩個聚類中的各個點進行二次匹配, 對獲得匹配的點的世界坐標即可認定為一致, 并且是以數(shù)據(jù)庫中的坐標為基準。根據(jù)機器人與每個點的距離、每個點的世界坐標。

      4實驗結果及分析

      本文使配有雙目視覺的移動機器人在實驗室環(huán)境中運行而實現(xiàn)自然路標的提取。圖3為左右目特征點提取與匹配結果,可以看到在初步的匹配后,有許多誤匹配的點,需要對其進行高質量過濾。

      應用視差約束, 視場約束等規(guī)則過濾后的結果, 剔除了大多數(shù)明顯錯誤的匹配點,如圖4所示。

      對過濾后的特征點進行聚類?設定初始半徑為25cm,半徑增長步長為10cm,聚類結果如圖5所示。為了直觀起見,將聚類得到的特征點對應的圖像中的點標出,如圖6所示。

      需要注意的是,由于機器人位姿不同, 導致對同一個物體的觀察角度出現(xiàn)差別, 當觀察角度差別較大時, 會出現(xiàn)聚類結果不同的現(xiàn)象,因為物體的不同側面的特征點不可能完全相同。如果在匹配過程中,使用原有路標的靠近聚類中心的特征點進行引導聚類,無法聚類成功或者無法匹配成功,說明需要建立新的路標,并更新路標庫。

      5結束語

      利用圖像特征點的三維坐標信息進行聚類, 可以有效地將空間距離相近的點歸為一個路標, 在機器人由于位姿變化導致視角不同時, 仍然可以較大概率匹配到原先觀察到的路標。 經(jīng)過改進的Mean Shift算法根據(jù)為不同的場景產(chǎn)生合適的數(shù)量不等的路標, 可以很好地適應復雜環(huán)境。 本文提出的路標描述符可以有效提高路標匹配速度, 避免重復存儲相同路標。

      參考文獻:

      [1] Kortenkamp D, Bonasso R P, Murphy R. AI-based mobile robots: case studies of successful robot systems [M]. Cambridge: MIT Press, 1998.

      [2]黃慶成, 洪炳镕, 厲茂海, 等. 基于主動環(huán)形閉合約束的移動機器人分層同時定位和地圖創(chuàng)建[J]. 計算機研究與發(fā)展, 2007, 44(4): 636-642.

      [3] 馮肖維,方明倫,何永義,等. 移動機器人自然路標特征提取方法[J]. 機器人, 2010, 32(4): 540-546.

      [4] 錢堃,馬旭東,戴先中,等. 基于顯著場景Bayesian Surprise的移動機器人自然路標檢測[J]. 模式識別與人工智能, 2013, 26(6):571-576.

      [5] XU X D, LUO Y, HAO H G. Vision-based mobile robot localization using natural landmarks[C]// Systems and Informatics (ICSAI), 2012 International Conference on, Chicago, USA: IEEE, 2012: 2012 – 2015.

      [6] SE S, LOWE D G, et al. Vision-based global localization and mapping for mobile robots [J]. Robotics, IEEE Transactions on. 2005, 21(3): 364-375.

      [7]林睿.基于圖像特征點的移動機器人立體視覺SLAM研究[D]. 哈爾濱: 哈爾濱工業(yè)大學, 2012.

      [8] SHARMA K, MOON I, et al. Extraction of visual landmarks using improved feature matching technique for stereo vision applications [J]. IETE Technical Review. 2012, 29(6): 473-481.

      [9] MOZOS ? M, GIL A, et al. Interest Point Detectors for Visual SLAM[C]// 12th Conference of the Spanish Association for Artificial Intelligence, Springer Berlin Heidelberg. 2007: 170-179.

      [10] MONTIEL J M M, CIVERA J, DAVISON A J. Unified inverse depth parametrization for monocular SLAM[C]// Proceedings of Robotics:Science and Systems. Cambridge, Massachusetts :MIT Press, 2006.

      [11] 蔡自興,王勇,王璐.基于角點聚類的移動機器人自然路標檢測與識別[J].智能系統(tǒng)學報,2006,1(1): 52-56.

      [12] BAY H, ESS A, et al. Speeded-up robust features (SURF) [J]. Computer Vision and Image Understanding. 2008, 110(3): 346-359.

      猜你喜歡
      移動機器人
      移動機器人自主動態(tài)避障方法
      移動機器人VSLAM和VISLAM技術綜述
      基于改進強化學習的移動機器人路徑規(guī)劃方法
      基于ROS與深度學習的移動機器人目標識別系統(tǒng)
      電子測試(2018年15期)2018-09-26 06:01:34
      基于Twincat的移動機器人制孔系統(tǒng)
      室內環(huán)境下移動機器人三維視覺SLAM
      簡述輪式移動機器人控制系統(tǒng)中的傳感器
      未知環(huán)境中移動機器人的環(huán)境探索與地圖構建
      極坐標系下移動機器人的點鎮(zhèn)定
      基于引導角的非完整移動機器人軌跡跟蹤控制
      东城区| 麻栗坡县| 福海县| 吉林省| 历史| 濮阳县| 玛曲县| 特克斯县| 海伦市| 巍山| 邯郸县| 佛学| 银川市| 隆化县| 磴口县| 台中县| 高台县| 山丹县| 定远县| 嘉义县| 阿鲁科尔沁旗| 沙洋县| 阿荣旗| 遂溪县| 太谷县| 万州区| 新绛县| 抚州市| 西和县| 江西省| 青阳县| 修文县| 太原市| 荆州市| 博野县| 吉林市| 丹寨县| 巢湖市| 澜沧| 泗水县| 盐城市|