• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于多視角數(shù)字圖像的深基坑三維重構(gòu)研究

      2021-11-28 03:59:08黃身勇蔣國平
      河南科技 2021年16期
      關鍵詞:計算機視覺深基坑

      黃身勇 蔣國平

      摘 要:三維重構(gòu)是計算機視覺方法。本文采用數(shù)字圖像方法對深基坑進行了三維重構(gòu)研究,分析了三維重構(gòu)中SIFT和RANSAC等算法的參數(shù)對計算性能的影響,通過選取合適的參數(shù),使得RANSAC算法能夠在滿足精度要求的前提下速度更快。同時,將計算得到的參數(shù)應用于實際深基坑三維重構(gòu),既滿足了工程精度,又達到了計算速度的要求。

      關鍵詞:深基坑;三維重構(gòu);計算機視覺

      中圖分類號:TU753文獻標識碼:A文章編號:1003-5168(2021)16-0010-05

      Abstract: 3D reconstruction is a computer vision method. In this paper, the digital image method was used to study the three-dimensional reconstruction of deep foundation pit, and the influence of the parameters of sift and RANSAC algorithms on the calculation performance was analyzed. By selecting appropriate parameters, the RANSAC algorithm can be faster on the premise of meeting the accuracy requirements. At the same time, the calculated parameters are applied to the actual three-dimensional reconstruction of deep foundation pit, which not only meets the engineering accuracy, but also meets the requirements of calculation speed.

      Keywords: deep foundation pit;3D reconstruction;computer vision

      隨著計算機硬件的快速發(fā)展,三維物體重構(gòu)技術(shù)也得到了廣泛應用。三維重構(gòu)算法比較多,Newcombe等人在2011年提出的KinectFusion,可以在不需要RGB圖像而只用深度圖像的情況下建立三維模型[1]。Zhou等人通過對圖像序列進行劃分,實現(xiàn)了計算每一個小塊之間的位姿變換,然后再融合的算法[2-4]。Whelan等人通過Kintinuous和ElasticFusion算法實現(xiàn)了消費級RGB-D相機三維高質(zhì)量重構(gòu)[5-8]。2017年,斯坦福大學提出的BundleFusion算法[9],基于RGB-D進行稠密三維重建。三維重構(gòu)技術(shù)在計算機視覺領域得到了快速發(fā)展,其是深基坑施工過程中變形監(jiān)測一個重要的手段。但是,三維重構(gòu)技術(shù)涉及大量的算法和參數(shù)設置,在工程實時性要求較高的情況下,需要選擇合適的參數(shù),以便達到實時三維重構(gòu)的要求。

      1 工程概況

      本研究就某大型工程中的深基坑進行三維重構(gòu),為后續(xù)的實時檢測和監(jiān)測提供完善的數(shù)字化模型。工程現(xiàn)場場景非常大,采用數(shù)字化建??梢怨?jié)省大量的時間和人力。由于工程基本是屬于靜態(tài)的,因此,本文使用的相機的工作頻率是2 Hz,圖像分辨率為1 280×1 024。對工程現(xiàn)場進行圖像采集,采集要求是:相機與相機之間至少有60%的重疊度,同時要改變相機與被拍攝對象的距離來增加圖像數(shù)量,以實現(xiàn)同一個位置具有充分的數(shù)據(jù),能夠更加精準地重構(gòu)三維數(shù)據(jù)模型。圖1是拍攝的部分圖像。

      2 三維重構(gòu)理論

      2.1 相機成像模型與坐標系

      相機采用中心成像模型,具體的模型會涉及三種坐標系:世界坐標系、相機坐標系和圖像坐標系[10]。相機坐標系、世界坐標系與圖像坐標系之間的關系見圖2。相機在不同的位置進行拍攝,就會產(chǎn)生不同的坐標系。當相機兩次拍攝了同一個點時,可以建立如下方程:

      2.2 特征提取

      本文采用尺度不變特征變換(Scale-Invariant Feature Transform,SIFT)進行特征提取[11]。SIFT特征是基于物體的一些局部特征點,與影像大小和旋轉(zhuǎn)無關,對光線、噪聲、微視角改變的容忍度也相當高,魯棒性強,適合用來提取尺度變換和旋轉(zhuǎn)角度變換的各種圖像特征點,準確性高。本文所采用的圖像的分辨率為1 280×1 024,如果特征點計算太多,在后續(xù)的特征點匹配過程中丟棄的特征點也會增多,同時計算量會成倍增加。為了均衡性能與精度,這里每幅圖像提取100到1 000個特征點,則所得到的SIFT的特征點如圖2所示。從每幅圖的特征點密度來看,能很好地滿足工程需要。

      2.3 特征匹配

      采用一致性RANSAC(RANdom SAmple Consensus)八點算法進行特征點匹配。該方法是由Fischler和Bolles在1981年所引入的魯棒性方法[12]。RANSAC算法的輸入是一組觀測數(shù)據(jù),一個可以解釋或者適應于觀測數(shù)據(jù)的參數(shù)化模型,一些可信的參數(shù)。RANSAC通過反復選擇數(shù)據(jù)中的一組隨機子集來達成目標。將被選取的子集假設為局內(nèi)點,并用下述方法進行驗證:①有一個模型適應于數(shù)據(jù)子集,即所有的未知參數(shù)都能從假設的子集數(shù)據(jù)計算得出;②用①中得到的模型去測試其他數(shù)據(jù),如果某個點適用于估計的模型,認為它也是該子集內(nèi)的數(shù)據(jù)點;③如果有足夠多的點被歸類為假設的數(shù)據(jù)子集,那么估計的模型就足夠合理;④用所有假設的數(shù)據(jù)子集去重新估計模型(如使用最小二乘法),因為它僅僅被初始的假設數(shù)據(jù)子集估計過;⑤通過估計數(shù)據(jù)子集內(nèi)的點與模型的錯誤率來評估模型;⑥上述過程被重復執(zhí)行固定的次數(shù),每次產(chǎn)生的模型要么因為數(shù)據(jù)子集點太少而被舍棄,要么因為比現(xiàn)有的模型更好而被選用。

      根據(jù)式(1)和式(2)進行推導得到:

      式中:[F]是基礎矩陣。

      將其寫為式(5)的形式。

      方程(5)共有8個未知數(shù),因此只需要兩張圖像8個對應特征點來計算基礎矩陣[F]。

      實驗中圖像分辨率采用1 280×1 024,通過RANSAC八點算法得到特征點匹配結(jié)果。圖4(a)列出了圖像1和2的特征點匹配關系,圖4(b)列出了圖像2和3的特征點匹配關系。從兩幅圖可以看出,特征點匹配結(jié)果是一致的。

      2.4 光束法平差

      理想狀態(tài)下,對場景中任意三維點P,由從每個視圖所對應的的攝像機的光心發(fā)射出來并經(jīng)過圖像中P對應的像素后的光線,都將交于P這一點,對于所有三維點,則形成相當多的光束;實際過程中,由于噪聲等的存在,每條光線幾乎不可能匯聚于一點,因此,在求解過程中,需要不斷地對待求信息進行調(diào)整,以使最終光線能交于點P。對[m]幀,每幀含[N]個特征點的目標函數(shù)為:

      2.5 稠密點云匹配算法

      稠密點云通過兩兩圖像之間的同名特征點的時差來計算位置關系。通常有兩種算法[13-14],即局部窗匹配算法和全局優(yōu)化算法。局部窗匹配算法通過比較圖像之間相同窗口內(nèi)的像素灰度相似性來確定兩窗口的中心是否匹配。因此,選擇合適的窗口大小和清晰度對于計算是十分重要的。全局優(yōu)化算法通過優(yōu)化某一個視差函數(shù)來求解匹配問題,其計算結(jié)果會優(yōu)于局部窗匹配算法,數(shù)據(jù)量也會增大,導致計算速度下降。

      3 三維重構(gòu)實驗與分析

      根據(jù)上述三維重構(gòu)理論,對計算中主要耗時并且易于調(diào)整的兩部分進行數(shù)值實驗,即SIFT和RANSAC算法,對SIFT算法中涉及的組數(shù)、組內(nèi)層數(shù)進行了計算,同時對RANSAC算法中特征點的數(shù)量進行了匹配計算。通過這些參數(shù)的調(diào)整來分析計算圖像的時間以及重投影誤差,從而對比出一組適合工程需要的、性價比較高的參數(shù),將其作為實際工程測量需要的參數(shù),具體測試的參數(shù)如表1所示,其重投影誤差最大為0.671個像素。在實際計算過程中,特征點本身也會存在誤差,從大量的特征點中選擇最優(yōu)點依賴于特征點的數(shù)量,數(shù)量減小其精度也會下降,但是計算速度會明顯提升。根據(jù)本文對工程的需求,將其重投影精度設置在0.5個像素以內(nèi),因此,根據(jù)需要,選擇序號為5的一組參數(shù),其組數(shù)設置為2,組內(nèi)層數(shù)為4,特征點取前256個進行RANSAC算法。

      將測試得到的參數(shù)應用于實際工程進行處理分析,依次計算得到特征點、特征點匹配等。然后對圖像進行重構(gòu),其空間點重投影平均誤差為0.46,重構(gòu)后的圖像如圖5所示。

      4 結(jié)論

      本文通過多視角數(shù)字圖像對實際工程中的深基坑進行三維重構(gòu)。在精度允許的范圍內(nèi),為了提高三維重構(gòu)的速度,對SIFT算法的組數(shù)和組內(nèi)層數(shù),以及RANSAC算法的特征點數(shù)量進行測試分析,得到了在0.5個像素計算精度下的具體參數(shù)。同時,將該參數(shù)應用于實際深基坑三維重構(gòu),既滿足了工程精度,又達到了計算速度的要求。

      參考文獻:

      [1] CHOI S,ZHOU Q Y,KOLTUN V . Robust reconstruction of indoor scenes[C]// IEEE Conference on Computer Vision & Pattern Recognition. IEEE,2015.

      [2] ZHOU Q Y,KOLTUN V. Dense Scene Reconstruction with Points of Interest[J].ACM Transactions on Graphics (TOG),2013(4):1-8.

      [3]ZHOU Q Y,MILLER S ,KOLTUN V.Elastic Fragments for Dense Scene Reconstruction[C]// IEEE International Conference on Computer Vision. IEEE,2013.

      [4]ZHOU Q Y,KOLTUN V .Simultaneous Localization and Calibration: Self-Calibration of Consumer Depth Cameras[C]// Computer Vision & Pattern Recognition. IEEE, 2014.

      [5] WHELAN T ,KAESS M ,JOHANNSSON H ,et al. Real-time large-scale dense RGB-D SLAM with volumetric fusion[J]. The International Journal of Robotics Research,2015(4-5):598-626.

      [6] WHELAN T ,KAESS M ,LEONARD J J ,et al. Deformation-based loop closure for large scale dense RGB-D SLAM[C]//2013 IEEE/RSJ International Conference on Intelligent Robots and Systems. IEEE, 2014.

      [7] WHELAN T ,JOHANNSSON H ,KAESS M ,et al. Robust real-time visual odometry for dense RGB-D mapping[C]//2013 IEEE International Conference on Robotics and Automation. IEEE,2013.

      [8]WHELAN T,KAESS M,F(xiàn)ALLON M,et al. Kintinuous: Spatially Extended KinectFusion [C]//RSS Workshop on RGB-D: Advanced Reasoning with Depth Cameras. 2012.

      [9]DAI A ,MATTHIAS NIEβNER,ZOLLHOEFER M ,et al. BundleFusion: Real-time Globally Consistent 3D Reconstruction using On-the-fly Surface Re-integration[J]. ACM Transactions on Graphics,2017(3):76a.

      [10]馬宏德,張征友.計算機視覺:計算理論與算法基礎[M].北京:科學出版社,1998.

      [11]LOWE D G . Distinctive Image Features from Scale-Invariant Keypoints[J]. International Journal of Computer Vision, 2004,(2):91-110.

      [12]FISCHLER M A ,BOLLES R C . Random Sample Consensus: A Paradigm for Model Fitting with Applications To Image Analysis and Automated Cartography[J]. Communications of the ACM,1981 (6):381-395.

      [13]唐麗.由手提相機獲得的序列圖像進行三維重建[D].西安:西安電子科技大學,2003.

      [14]劉小莉.雙目立體視覺稠密視差算法研究[D].重慶:重慶大學,2008.

      猜你喜歡
      計算機視覺深基坑
      基于FLAC3D的深基坑開挖模擬分析
      建筑施工中深基坑支護技術(shù)的應用
      鄰近既有鐵路線深基坑支護止水施工探討
      建筑科技(2018年6期)2018-08-30 03:40:54
      建筑施工中深基坑支護技術(shù)的應用淺述
      江西建材(2018年1期)2018-04-04 05:26:48
      深基坑施工技術(shù)在高層建筑的應用
      中華建設(2017年1期)2017-06-07 02:56:13
      基于深度卷積神經(jīng)網(wǎng)絡的物體識別算法
      雙目攝像頭在識別物體大小方面的應用
      機器視覺技術(shù)發(fā)展及其工業(yè)應用
      危險氣體罐車液位計算機視覺監(jiān)控識別報警系統(tǒng)設計
      計算機視覺在交通領域的應用
      邓州市| 松原市| 黔东| 兰坪| 昌图县| 全州县| 枣强县| 从化市| 鄄城县| 陇西县| 阜平县| 稻城县| 西平县| 祁东县| 昌邑市| 定襄县| 新乐市| 元江| 大石桥市| 廊坊市| 河北区| 黄骅市| 古交市| 德令哈市| 遵义市| 全椒县| 临武县| 胶州市| 高尔夫| 德阳市| 庄河市| 皋兰县| 宁德市| 财经| 天门市| 乌拉特前旗| 安吉县| 平乡县| 汉寿县| 叶城县| 临江市|