王東敏,彭永勝,李永樂
(1.陸軍軍事交通學(xué)院 研究生管理大隊,天津 300161; 2.陸軍軍事交通學(xué)院 軍用車輛系,天津 300161)
● 基礎(chǔ)科學(xué)與技術(shù)BasicScience&Technology
視覺與激光點云融合的深度圖像獲取方法
王東敏1,彭永勝2,李永樂2
(1.陸軍軍事交通學(xué)院 研究生管理大隊,天津 300161; 2.陸軍軍事交通學(xué)院 軍用車輛系,天津 300161)
針對無人車駕駛車輛使用相機進(jìn)行環(huán)境感知時容易受到光照、陰影等影響,導(dǎo)致難以獲得有效的障礙物種類及位置信息等問題,使用64線激光雷達(dá)獲取前方6~60 m,左、右9 m范圍內(nèi)的點云數(shù)據(jù),使用k-d樹的方法將映射到圖像的三維激光點云進(jìn)行排列并插值,對激光雷達(dá)數(shù)據(jù)與圖像信息進(jìn)行融合。為解決映射后圖像深度信息稀疏的問題,采用二維圖像的紋理信息豐富雷達(dá)點云的方法對稀疏的深度圖像進(jìn)行擬合插值,得到分辨率為1 624×350的小粒度深度圖像,為無人車行駛提供準(zhǔn)確的環(huán)境場景信息。
無人車;視覺;激光點云;深度圖像
深度圖像利用場景中物體的深度信息來反映場景中物體之間的相互關(guān)系。一般的二維彩色圖像,容易受光照、環(huán)境陰影等影響,缺失原本的辨識特征,導(dǎo)致按顏色、紋理等特征進(jìn)行分割難以得到令人滿意的結(jié)果。深度圖像不但能夠反映出場景中物體的外部紋理信息,還能夠反映出場景中各點相對于無人車相機的距離,有效區(qū)別遮擋物體,更方便地表現(xiàn)出場景中物體表面的三維信息。通過深度圖像可直接求解出物體的三維幾何特征,方便無人車在感知過程中對場景中的物體進(jìn)行識別與定位[1]。
通常無人車系統(tǒng)通過對獲取的彩色圖像進(jìn)行處理獲得場景的深度圖像。根據(jù)其獲取深度圖像原理的不同,通常采用如下幾種方法[2]:利用圖像的投影原理,得到場景的幾何模型,根據(jù)幾何模型及特征點,獲取特定相機參數(shù)下深度圖像的三維重建視覺方法[3-5];利用平行設(shè)置的兩臺保持相同配置的相機,同時對同一場景進(jìn)行記錄,通過建立兩幅圖像點與點之間的對應(yīng)關(guān)系,計算出兩圖像像素點的視差,恢復(fù)出圖像的三維信息的雙目視覺方法[6-7];利用獨立于相機之外的深度傳感器,通過激光雷達(dá)深度成像及結(jié)構(gòu)光測距等方法,來獲取獨立于圖像之外的場景深度信息,通過融合相同時刻采集的彩色圖像及深度信息,來構(gòu)建場景深度圖像的三維重構(gòu)方法[8-11]。
然而,利用彩色圖像獲取深度圖像的三維重建視覺方法及雙目視覺方法,單純依靠攝像機獲取的圖像色彩及紋理信息,難以擺脫由于光照、環(huán)境陰影對圖像處理的干擾問題,造成生成深度數(shù)據(jù)的誤差[12]。使用三維重構(gòu)方法,如Kinect相機獲取的場景深度信息難以獲得較遠(yuǎn)距離的可靠數(shù)據(jù),無法滿足無人車獲取較遠(yuǎn)距離深度信息的場景感知要求。因此,針對無人車的感知需求,使用64線激光雷達(dá)及彩色相機采集場景數(shù)據(jù),融合后生成小粒度深度圖像,提升獲取深度圖像的范圍,降低光照對深度場景感知的影響。由于64線激光雷達(dá)獲取的點云數(shù)據(jù)在圖像平面內(nèi)是稀疏的,因此,利用彩色圖像的顏色紋理信息對激光雷達(dá)點進(jìn)行擬合插值,生成小粒度的深度圖像,可使深度圖像獲取到場景中的紋理信息。
本文結(jié)合無人車平臺傳感器特點,提出采用相機采集場景的顏色數(shù)據(jù),使用64線激光雷達(dá)獲取獨立的場景深度數(shù)據(jù),用顏色數(shù)據(jù)對場景深度數(shù)據(jù)進(jìn)行插值,形成小粒度深度圖像的方法[13-14],為無人車提供包含深度信息的高解析度場景圖像,提高無人車環(huán)境感知和理解的準(zhǔn)確性。
使用圖像及雷達(dá)點云來獲得高分辨率的深度圖像,分為4個部分進(jìn)行(如圖1所示):①使用已經(jīng)進(jìn)行64線激光雷達(dá)與相機聯(lián)合標(biāo)定的無人車,獲取同一時刻的圖像與64線三維激光點云數(shù)據(jù)。②使用標(biāo)定好的64線激光雷達(dá)三維坐標(biāo)與相機平面二維坐標(biāo)的轉(zhuǎn)化矩陣M,將激光點云投影到圖像相應(yīng)的獨立于圖像的顏色通道之外的深度通道。③將投影到相機數(shù)據(jù)點上已知深度的雷達(dá)數(shù)據(jù)構(gòu)建k-d樹。④使用圖像的顏色信息,對稀疏的64線激光雷達(dá)信息進(jìn)行插值重構(gòu),獲得小粒度的深度圖像。
圖1 基于二維圖像與激光點云融合的深度圖像獲取流程
在無人車系統(tǒng)中, 64線激光雷達(dá)和相機的相對位置與姿態(tài)固定不變, 64線激光雷達(dá)與相機所獲取數(shù)據(jù),在兩個傳感器都覆蓋的采集范圍內(nèi),存在著一一對應(yīng)關(guān)系[15]。根據(jù)激光雷達(dá)與相機的工作原理和成像模型,64線激光雷達(dá)數(shù)據(jù)點云坐標(biāo)與圖像像素坐標(biāo)之間存在如下關(guān)系:
(1)
式中:fx與fy為圖像坐標(biāo)系中一個像素點所代表實際x、y方向上的距離;(u,v)為圖像坐標(biāo)系坐標(biāo);s為圖像的深度距離與實際距離的比例因子;(u0,v0)為相機光軸與成像平面的交點坐標(biāo);R為3×3的正交旋轉(zhuǎn)矩陣;t為相機與64線激光雷達(dá)的外部平移向量;(Xw,Yw,Zw)為三維激光雷達(dá)數(shù)據(jù)點云坐標(biāo)。
通過相機與64線激光雷達(dá)的內(nèi)部參數(shù)與外部參數(shù),可求得64線激光雷達(dá)點到圖像平面的轉(zhuǎn)化矩陣M:
(2)
式(1)可以簡化為
(3)
經(jīng)過歸一化處理,圖像上任意點的位置,通過二維坐標(biāo)(u,v)進(jìn)行定位,將圖像擴展為4個像素通道R、G、B、D,分別對應(yīng)彩色圖像R、G、B顏色通道,以及深度通道。通過使用標(biāo)定好的64線激光雷達(dá)三維坐標(biāo)點與圖像二維坐標(biāo)點的轉(zhuǎn)化矩陣M,將64線獲得的激光雷達(dá)坐標(biāo)點轉(zhuǎn)化到圖像平面,將激光雷達(dá)點的深度值添加到相應(yīng)位置的深度通道,作為深度圖像生成的原始數(shù)據(jù)。
使用k-d樹對映射后的深度值點進(jìn)行排列,便于對像素點進(jìn)行處理,使得圖像中的各像素點都能夠查找到距離最近的雷達(dá)數(shù)據(jù)映射點。如圖2所示,k-d樹在構(gòu)建的過程中,按照二叉樹的方式對圖像平面中獲得深度值的二維坐標(biāo)點進(jìn)行排列,分別計算x、y兩個維度上的坐標(biāo)方差,按照維度方差較大的中位坐標(biāo)點進(jìn)行垂直劃分,將圖像平面的坐標(biāo)點劃分為左、右兩個點集,按各個數(shù)據(jù)點遞歸進(jìn)行左右子集空間劃分,同時記錄著每次劃分的節(jié)點,及各節(jié)點的父代節(jié)點,從而生成方便查找的k-d樹,直至生成包含空間中所需記錄的每一個像素點的k-d樹。將構(gòu)建的k-d樹中沒有子節(jié)點的節(jié)點作為“葉子節(jié)點”進(jìn)行記錄。將每一個節(jié)點進(jìn)行保存,從而完成構(gòu)建k-d樹。
圖2 算法流程
通過構(gòu)建好的k-d樹,查找到距離所需要計算的像素點最近的k-d樹節(jié)點(如圖3所示),再依據(jù)無人車場景中相似外表的區(qū)域具有相近的深度值的假設(shè),通過R、G、B三通道的顏色信息相關(guān)性得到的權(quán)值,對沒有雷達(dá)數(shù)據(jù)的像素點進(jìn)行插值,生成高分辨率的深度圖像。
圖3 算法流程
在對圖像的深度信息進(jìn)行插值的過程中,其使用的加權(quán)平均方式為
(4)
在求取深度信息的過程中,vj為鄰近像素點所代表的該點的深度值,p為基于相機顏色的描述符,函數(shù)f為
f(x)=e-|x|2/2σ2
(5)
通過對圖像像素點進(jìn)行插值重構(gòu)后,生成高分辨率的深度圖像,如圖4所示。16 309個激光點云投影在圖像平面內(nèi),通過對圖像第4個深度通道的數(shù)據(jù)進(jìn)行重構(gòu),圖像中564 589個像素點,得到其深度值,在寬1 624p、高350p的平面內(nèi)覆蓋了99%以上,從而獲得相應(yīng)高分辨率的深度圖像。
如圖4—6所示,圖像中的顏色隨著無人車場景深度的變化而變化。深度圖像的下半部分,距離無人車較近,生成深度圖像顏色較深。圖像6(c)下方已知深度的像素點多,因此能夠獲得較為準(zhǔn)確的圖像深度信息,如圖像中的黑色區(qū)域。由圖像的下方向上,隨著無人車場景距離的增加,使得深度圖像深度值隨之增加,從而使得圖像的顏色也隨之變淺。而在中間部分,雷達(dá)已知的深度值的像素點較為密集,且雷達(dá)坐標(biāo)系與相機坐標(biāo)系標(biāo)定良好,能夠獲得準(zhǔn)確的圖像深度信息值,如圖6(c)中的灰色區(qū)域。在距離圖像較遠(yuǎn)的場景中,激光點云稀疏,獲取的獨立于彩色圖像之外的圖像深度信息值較少,圖像遠(yuǎn)距離的像素分辨率低,因此難以獲得遠(yuǎn)距離的場景的準(zhǔn)確深度信息,如圖6(c)的白色區(qū)域。如圖5(c)圖像中上部的黑色區(qū)域,超出了采集的雷達(dá)數(shù)據(jù)范圍,而無法產(chǎn)生深度信息,造成生成深度圖像數(shù)據(jù)缺失。
而對于深度連續(xù)的地面,本文方法能夠避免樹木的陰影造成的不良影響,如圖6(c)。雖然地面上存在著復(fù)雜的陰影,但是在深度圖像中,地面上的深度值是連續(xù)的,沒有受到陰影的影響而產(chǎn)生圖像不連續(xù)的變化。通過產(chǎn)生深度圖像,降低了場景中光照、陰影對無人車感知周圍場景的影響。
圖4 無人車場景圖像Ⅰ
圖5 無人車場景圖像Ⅱ
圖6 無人車場景圖像Ⅲ
本文通過將二維彩色圖像與激光點云進(jìn)行融合,以及加權(quán)平均的方法,產(chǎn)生高分辨率的深度圖像。首先將無人駕駛實驗平臺安裝的64線激光雷達(dá)與彩色相機進(jìn)行聯(lián)合標(biāo)定,采集單幀的二維彩色圖片及前方6~60 m,左、右9 m的范圍內(nèi)單圈的激光雷達(dá)點云數(shù)據(jù),再通過對深度圖像的高分辨率重構(gòu),為無人車環(huán)境感知提供可靠的深度圖像。使用本方法,獲取深度值的圖像面積占整個圖像平面的99%以上,本方法通過獲取獨立于二維彩色圖像信息之外的場景深度信息,獲取高分辨率的場景深度圖像對周圍場景進(jìn)行感知,降低無人車由于使用相機進(jìn)行環(huán)境感知時光照及陰影造成的影響,方便無人車在感知過程中對場景中的物體進(jìn)行識別與定位。但是依然存在深度信息會隨物體距離的增加而使得誤差增長的不足, 在接下來的工作需在現(xiàn)有工作的基礎(chǔ)上,調(diào)整攝像機焦距,增強雷達(dá)獲取的三維激光雷達(dá)深度信息映射到圖像平面在遠(yuǎn)距離的準(zhǔn)確性,從而處理得到更大范圍的深度圖像。
[1] THOMAS D, SUGIMOTO A.A flexible scene representation for 3D reconstruction using an RGB-D camera[C].Sydney:IEEE International Conference on Computer Vision,2013: 2800-2807.
[2] 李可宏,姜靈敏,龔永義.2維至3維圖像/視頻轉(zhuǎn)換的深度圖提取方法綜述[J].中國圖象圖形學(xué)報,2014,19(10):1393-1406.
[3] 劉三毛,朱文球,孫文靜,等.基于RGB-D單目視覺的室內(nèi)場景三維重建[J].微型機與應(yīng)用,2017(1):44-47.
[4] LEE K R,NGUYEN T.Realistic surface geometry reconstruction using a hand-held RGB-D camera[J].Machine Vision &Applications,2016,27( 3) : 377-385.
[5] KERL C, STURM J, CREMERS D.Dense visual SLAM for RGB-D cameras[C].Chiago:IEEE /RSJ International Conference on Intelligent Robots and Systems,2013:2100-2106.
[6] 李海軍,王洪豐,沙煥濱.平行雙目視覺系統(tǒng)的三維重建研究[J].自動化技術(shù)與應(yīng)用,2007,26(6):56-58.
[7] 朱波,蔣剛毅,張云,等.面向虛擬視點圖像繪制的深度圖編碼算法[J].光電子·激光,2010(5):718-724.
[8] 張勤,賈慶軒.基于激光與單目視覺的室內(nèi)場景三維重建[J].系統(tǒng)仿真學(xué)報,2014(2):357-362.
[9] 鄒廣群,張維忠,卞思琳.上采樣深度圖像與RGB圖像的融合[J].青島大學(xué)學(xué)報(自然科學(xué)版),2016(1):71-74.
[10] 楊宇翔,曾毓,何志偉,等.基于自適應(yīng)權(quán)值濾波的深度圖像超分辨率重建[J].中國圖象圖形學(xué)報,2014,19(8):1210-1218.
[11] 彭誠,孫新柱.一種改進(jìn)的深度圖像修復(fù)算法研究[J].重慶工商大學(xué)學(xué)報(自然科學(xué)版),2016(1):65-69.
[12] 劉嬌麗,李素梅,李永達(dá),等. 基于TOF與立體匹配相融合的高分辨率深度獲取[J].信息技術(shù),2016(12):190-193.
[13] 江文婷,龔小謹(jǐn),劉濟林. 顏色指導(dǎo)的深度圖像升采樣算法的對比性研究[J].杭州電子科技大學(xué)學(xué)報,2014(1):21-24.
[14] KOPF J,COHEN MF,LISCHINSKI D,etal.Joint Bilateral Upsampling[J].Acm Trans Graph,2007,26(3):96.
[15] 邱茂林,馬頌德,李毅.計算機視覺中攝像機定標(biāo)綜述[J].自動化學(xué)報,2000, 26(1):43-55.
(編輯:史海英)
AcquisitionMethodforVisionandLaser-pointCloudIntegratedRangeImage
WANG Dongmin1, PENG Yongsheng2, LI Yongle2
(1.Postgraduate Training Brigade, Army Military Transportation University, Tianjin 300161, China; 2.Military Vehicle Department, Army Military Transportation University, Tianjin 300161, China)
Since the unmanned vehicle is easily influenced by illumination and shadow while perceiving environment with camera, and it is difficult to acquire effective obstacles variety and location, the paper firstly acquires point cloud data in the range of 6~30 m ahead and 9 m at left and right with HDL-64E. Then, it arranges and interpolates three-dimensional laser-point cloud which maps to image with k-d tree, and integrates LIDAR data with image information. Finally, in order to solve the sparse depth information of the image after mapping, it obtains the range image of 1 624×350 by making fitting and interpolation on the sparse range image with the method of enriching radar point cloud by the texture information of two-dimensional image, which can provide accurate information of environment scenario for unmanned vehicle.
unmanned vehicle; vision; laser point cloud; range image
10.16807/j.cnki.12-1372/e.2017.10.019
TP391
A
1674-2192(2017)10- 0080- 05
2017-05-03;
2017-08-21.
國家重大研發(fā)計劃“智能電動汽車路徑規(guī)劃及自主決策方法”(2016YFB0100903);國家自然科學(xué)基金重大項目“自主駕駛車輛關(guān)鍵技術(shù)與集成驗證平臺”(91220301).
王東敏(1992—),男,碩士研究生;彭永勝(1972—),男,博士,教授,碩士研究生導(dǎo)師.