劉子健 張軍 劉元盛 路銘 宋慶鵬
(北京聯(lián)合大學(xué),北京市信息服務(wù)工程重點(diǎn)實(shí)驗(yàn)室,北京 100101)
主題詞:自動(dòng)駕駛 視覺位置識(shí)別 回環(huán)檢測(cè) 坐標(biāo)注意力 局部聚合向量網(wǎng)絡(luò) 三元組損失
自動(dòng)駕駛汽車基于同步定位與建圖(Simultaneous Localization and Mapping,SLAM)[1]構(gòu)建自主導(dǎo)航系統(tǒng)。在長(zhǎng)期運(yùn)行中,定位系統(tǒng)會(huì)產(chǎn)生累積誤差,導(dǎo)致定位失效。實(shí)踐中,自動(dòng)駕駛汽車先存儲(chǔ)已訪問過場(chǎng)景的表征向量,再在汽車運(yùn)動(dòng)時(shí)匹配當(dāng)前環(huán)境的表征向量解決定位問題,即回環(huán)檢測(cè)與重定位。隨著自動(dòng)駕駛汽車的發(fā)展,以視覺位置識(shí)別(Visual Place Recognition,VPR)[2]技術(shù)為代表的回環(huán)檢測(cè)與重定位方法受到關(guān)注。VPR 以環(huán)境中的視覺特征為基礎(chǔ),計(jì)算形成環(huán)境表征向量[3]。目前應(yīng)用于VPR技術(shù)的視覺特征主要分為基于規(guī)則設(shè)計(jì)的手工特征和基于數(shù)據(jù)驅(qū)動(dòng)的學(xué)習(xí)特征。
基于規(guī)則設(shè)計(jì)的角點(diǎn)和描述子組合的ORB(Oriented FAST and Rotated BRIEF)[4]局部特征具有尺度和旋轉(zhuǎn)不變性,對(duì)圖像噪聲及透視變換具有魯棒性。因此,ORB特征能準(zhǔn)確地描述和檢索穩(wěn)定不變的環(huán)境信息。但此類方法可能受到視角轉(zhuǎn)換、光照和季節(jié)變換等因素影響,產(chǎn)生當(dāng)前觀測(cè)的環(huán)境信息與數(shù)據(jù)庫(kù)中已知的環(huán)境信息存在較大差異的現(xiàn)象,最終導(dǎo)致位置識(shí)別結(jié)果的準(zhǔn)確率降低等問題。
基于數(shù)據(jù)驅(qū)動(dòng)的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)[5]具有強(qiáng)大的圖像表示能力。為在現(xiàn)有VPR方法的識(shí)別精度下提高定位系統(tǒng)的魯棒性和實(shí)時(shí)性,本文針對(duì)環(huán)境中的視覺特征空間關(guān)系學(xué)習(xí)和高層特征學(xué)習(xí)兩方面進(jìn)行改進(jìn):在骨干網(wǎng)絡(luò)中融合坐標(biāo)注意力,獲得視覺特征的空間位置關(guān)系和顯著的空間位置信息;利用多重?cái)U(kuò)張卷積和局部聚合向量網(wǎng)絡(luò),構(gòu)造多尺度特征融合的特征編碼器,獲得單級(jí)特征圖在不同尺度下的視覺特征向量。最后,將該方法在公開數(shù)據(jù)集上進(jìn)行驗(yàn)證。
本文基于殘差網(wǎng)絡(luò)(Residual Networks,ResNet)[6]提出一種弱監(jiān)督訓(xùn)練的VPR 方法,實(shí)現(xiàn)高效的視覺位置識(shí)別:輸入圖像集或圖像序列,通過本文搭建的神經(jīng)網(wǎng)絡(luò)得到特征匹配結(jié)果,最終輸出檢索結(jié)果。系統(tǒng)流程如圖1所示。
圖1 系統(tǒng)流程
2.1.1 殘差網(wǎng)絡(luò)
深層CNN 存在參數(shù)爆炸、梯度消失等問題。ResNet 通過短路連接解決深層網(wǎng)絡(luò)梯度消失帶來的學(xué)習(xí)退化問題。當(dāng)理論殘差為零時(shí),殘差結(jié)構(gòu)只做恒等映射以確保實(shí)際殘差不會(huì)為零,同時(shí)保持當(dāng)前網(wǎng)絡(luò)性能,結(jié)構(gòu)如圖2所示。
圖2 殘差結(jié)構(gòu)
本文采用ResNet-50 作為提取圖像特征的骨干網(wǎng)絡(luò)。自動(dòng)駕駛汽車采集的視覺信息在ResNet中經(jīng)過卷積(Convolutional,Conv)層、批歸一化(Batch Normalization,BN)層、激活函數(shù)和池化層完成預(yù)處理,隨后再經(jīng)過4組瓶頸(Bottleneck)層提取特征信息。
2.1.2 坐標(biāo)注意力網(wǎng)絡(luò)
坐標(biāo)注意力(Coordinate Attention,CA)[7]網(wǎng)絡(luò)將輸入的二維全局池化轉(zhuǎn)化為單個(gè)特征向量的過程,分解為水平方向和垂直方向一維特征編碼過程,將聚合的方向信息嵌入特征圖中。通過級(jí)聯(lián)捕獲的2 個(gè)空間方向的依賴關(guān)系和位置信息,經(jīng)BN 層和非線性變換生成空間信息的特征圖。沿著水平和垂直方向切分特征圖得到注意力權(quán)重,使網(wǎng)絡(luò)捕獲到特征的位置關(guān)系。網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。
圖3 坐標(biāo)注意力網(wǎng)絡(luò)結(jié)構(gòu)
2.1.3 融合CA的ResNet特征提取網(wǎng)絡(luò)
視覺特征的相對(duì)位置關(guān)系對(duì)于位置識(shí)別結(jié)果至關(guān)重要。為了在開放環(huán)境中保持定位系統(tǒng)的魯棒性,需要網(wǎng)絡(luò)模型具備篩選重要的環(huán)境特征和獲取視覺特征坐標(biāo)的能力。為彌補(bǔ)ResNet 對(duì)圖像特征的空間關(guān)系不敏感的缺陷,本文在其殘差結(jié)構(gòu)中引入CA,構(gòu)建新的特征提取網(wǎng)絡(luò)。通過捕獲環(huán)境特征的空間位置關(guān)系,獲得特征間的依賴關(guān)系和精確的位置信息。
CNN 的淺層輸出邊緣和色彩等具體的圖像特征,隨著網(wǎng)絡(luò)層數(shù)的加深,輸出的特征圖尺寸逐漸減小,視覺信息逐漸抽象和語(yǔ)義化。ResNet 的Conv5 特征圖包含對(duì)圖像變化足夠魯棒的視覺特征,同時(shí)具有豐富的語(yǔ)義信息。因此,本文在Conv5的短路連接和瓶頸層之間引入CA,將生成的特征圖編碼為一組方向感知和位置敏感的注意力熱圖,促使網(wǎng)絡(luò)學(xué)習(xí)到特征間隱含的空間結(jié)構(gòu)關(guān)系,幫助模型準(zhǔn)確定位感興趣的目標(biāo),增強(qiáng)特征圖表達(dá)能力。改進(jìn)后的網(wǎng)絡(luò)利用CNN提取圖像的局部信息,發(fā)揮了CA對(duì)全局信息建模的能力,有效提高視覺特征的表達(dá)能力。改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。
圖4 改進(jìn)的坐標(biāo)-殘差結(jié)構(gòu)
對(duì)環(huán)境的局部視覺特征進(jìn)行建模,不足以區(qū)分局部特征相似的場(chǎng)景,需要聯(lián)系上下文信息和環(huán)境的整體信息對(duì)場(chǎng)景進(jìn)行同一性判斷。特征金字塔(Feature Pyramid Network,F(xiàn)PN)是獲取多尺度特征的經(jīng)典網(wǎng)絡(luò),但車載設(shè)備的算力普遍較低,導(dǎo)致基于FPN 的VPR 方法移植到車載設(shè)備存在實(shí)時(shí)性差的問題。擴(kuò)張卷積(Dilated Convolution,DC)[8]具有僅增加1 個(gè)參數(shù)即可獲取更廣視野范圍特征圖的特點(diǎn)。因此,本文基于DC 和局部聚合向量網(wǎng)絡(luò)(Vector of Locally Aggregated Descriptors Network,NetVLAD)構(gòu)造圖像編碼器,利用DC-NetVLAD 對(duì)Conv5 卷積層輸出的單級(jí)特征圖進(jìn)行視野擴(kuò)張,然后對(duì)不同視野下的圖像特征進(jìn)行聚合得到圖像的描述向量,在不失精度的前提下節(jié)約計(jì)算成本,提高系統(tǒng)的實(shí)時(shí)性。
2.2.1 局部聚合向量網(wǎng)絡(luò)
基于局部特征解決VPR 問題,需要對(duì)特征矩陣進(jìn)行聚類處理以壓縮數(shù)據(jù)維度。相比視覺詞袋(Bag of Word,BoW)編碼,局部聚合描述符向量(Vector of Locally Aggregated Descriptors,VLAD)不僅保存每個(gè)特征點(diǎn)到離它最近的聚類中心的距離,還記錄了特征點(diǎn)在不同維度的取值,避免了信息損失問題。VLAD 的計(jì)算公式為:
式中,Xi為輸入的數(shù)量為N的局部特征向量;V(J,K)為輸出的聚類后的特征向量;K為聚類中心的數(shù)量;J為第k個(gè)特征向量的維度;xi(j)為第i個(gè)局部特征的第j個(gè)特征值;ck(j)為第k個(gè)聚類中心的第j個(gè)特征值;ak(Xi)為二值的符號(hào)函數(shù),對(duì)每個(gè)屬于聚類中心ck的特征向量xi,ak的值取為1,否則為0。
原始的VLAD為不可導(dǎo)函數(shù),為得到端到端的特征聚類結(jié)果,Arandjelovic等[9]在VLAD算法的基礎(chǔ)上,用歸一化指數(shù)函數(shù)(Softmax)代替原始方法中的最近鄰二值函數(shù)ak,提出NetVLAD 算法。NetVLAD 設(shè)定的聚類的數(shù)量為K,計(jì)算局部特征在這些聚類的差值分布得到全局特征,使VLAD算法中需要手工聚類獲得的參數(shù)改為通過網(wǎng)絡(luò)訓(xùn)練獲取。系數(shù)(Xi)的計(jì)算公式為:
2.2.2 基于DC和NetVLAD構(gòu)造特征編碼器
首先去掉ResNet-50 網(wǎng)絡(luò)最后的全局平均池化和全連接層,利用1×1卷積對(duì)殘差網(wǎng)絡(luò)輸出的特征圖進(jìn)行通道壓縮減少計(jì)算量,然后經(jīng)過3個(gè)并聯(lián)的具有不同擴(kuò)張率參數(shù)的擴(kuò)張卷積,得到不同視野下的圖像特征。為避免擴(kuò)張卷積中心點(diǎn)不連續(xù),本文的擴(kuò)張率參數(shù)分別設(shè)定為6、12和18。在NetVLAD中,經(jīng)過激活函數(shù)Softmax和局部聚合層的池化獲得VLAD特征,通過類內(nèi)正則化對(duì)每個(gè)聚類中心的所有殘差分別進(jìn)行正則化,最后將所有VLAD 特征共同進(jìn)行歐式范數(shù)正則化得到圖像全局表示的特征向量。改進(jìn)后的DC-NetVLAD 編碼器結(jié)構(gòu)如圖5所示。
圖5 本文改進(jìn)的擴(kuò)張卷積-局部聚合向量網(wǎng)絡(luò)編碼器
NetVLAD 算法首先將圖像的局部特征聚類壓縮,得到以聚類中心表示的全局特征圖,然后將待查詢圖像的特征向量與數(shù)據(jù)庫(kù)中的圖像向量進(jìn)行相似度計(jì)算,以余弦相似度為度量,距離越小的圖像之間越相似。余弦距離的計(jì)算公式為:
式中,G、H分別為輸入的2個(gè)特征向量;n為向量維度;gi、hi分別為G、H第i個(gè)維度的特征值。
針對(duì)環(huán)境中普遍存在著視覺特征相似場(chǎng)景的情況,本文使用三元組損失(Triplet Loss,TL)[10]訓(xùn)練網(wǎng)絡(luò)來提高系統(tǒng)的查準(zhǔn)能力。TL的輸入是一組編碼后的圖像特征,包括正例、負(fù)例和基準(zhǔn)圖像?;赥L訓(xùn)練的網(wǎng)絡(luò)能夠優(yōu)化圖像與特征向量之間的映射關(guān)系,在新的特征空間中使負(fù)例到基準(zhǔn)圖像的距離盡可能大于正例到基準(zhǔn)圖像的距離,從而提升網(wǎng)絡(luò)識(shí)別正例的能力,效果如圖6所示。
圖6 三元組損失
根據(jù)模型訓(xùn)練的需要設(shè)定邊緣閾值β控制正、負(fù)樣本的距離。TL目標(biāo)函數(shù)的表達(dá)式為:
超參數(shù)β控制損失函數(shù)的結(jié)果:L>0 時(shí)取該值作為損失;L<0 時(shí),表示負(fù)例與基準(zhǔn)樣本的距離大于正例與基準(zhǔn)樣本的距離,因此損失函數(shù)的結(jié)果記為0。
本文的試驗(yàn)環(huán)境為Ubuntu 18.04 LTS 操作系統(tǒng),硬件平臺(tái)采用11代英特爾i7處理器、32 GB內(nèi)存和英偉達(dá)RTX 2080Ti顯卡。
采用Pitts30k 和Nordland[11]2 個(gè)公開數(shù)據(jù)集進(jìn)行測(cè)試。Pitts30k 是谷歌公司制作的城市街景數(shù)據(jù)集,該數(shù)據(jù)集基于地理位置進(jìn)行劃分,包括訓(xùn)練、驗(yàn)證和測(cè)試部分,分別含有約7 000 張查詢圖像和10 000 張參考圖像。Nordland 數(shù)據(jù)集采集自挪威北部地區(qū),包含4個(gè)幀率為25 幀/s 的視頻影像,展示長(zhǎng)約728 km 的環(huán)路場(chǎng)景在四季變化下不同的視覺外觀。
針對(duì)Nordland數(shù)據(jù)集,通過插值GPS數(shù)據(jù)實(shí)現(xiàn)時(shí)間同步,保證每個(gè)視頻中任意幀的車輛位置都能夠?qū)?yīng)到其他3個(gè)視頻中的同一幀。
以Pitts30k的訓(xùn)練集作為訓(xùn)練樣本,設(shè)定10 m以內(nèi)的圖像為正例,25 m 以外的圖像為負(fù)例。訓(xùn)練模型的輸入圖像組包括基準(zhǔn)圖像、1個(gè)正例和10個(gè)負(fù)例。
本文以召回率-查準(zhǔn)率作為評(píng)價(jià)指標(biāo),與典型的VPR方法進(jìn)行比較,包括手工聚類特征的算法DBoW2、本文工作的基線方法NetVLAD和同基線方法的先進(jìn)成果Patch-NetVLAD[12]。具體規(guī)則如下:
a.基于Pitts30k 數(shù)據(jù)集的驗(yàn)證,規(guī)定如果召回的前Q張圖像中,至少存在1張圖像距離用于測(cè)試的基準(zhǔn)圖像在地理范圍的10 m內(nèi),則認(rèn)為圖像已被正確檢索。
b.基于Nordland數(shù)據(jù)集的驗(yàn)證,規(guī)定如果召回的前Q張圖像中,至少存在1張圖像距離用于測(cè)試的基準(zhǔn)圖像在10幀內(nèi),則認(rèn)為圖像已被正確檢索。
c.試驗(yàn)的評(píng)價(jià)指標(biāo)為召回率(Recall)和查準(zhǔn)率(Precision):
式中,R為召回率;P為查準(zhǔn)率;TP為真正例數(shù)量;FP為假正例數(shù)量;FN為假負(fù)例數(shù)量。
3.3.1 特征降維試驗(yàn)
首先對(duì)本文方法在位置識(shí)別任務(wù)中的召回率進(jìn)行測(cè)試,Q的不同取值條件下試驗(yàn)結(jié)果如表1所示。
表1 本文方法的召回率
相比原始特征向量,經(jīng)過主成分分析(Principal Components Analysis,PCA)降維的特征向量在位置識(shí)別任務(wù)中的召回率表現(xiàn)更好。在Nordland 數(shù)據(jù)集上的平均召回率提高4.05 百分點(diǎn),在Pitts30k 數(shù)據(jù)集上的平均召回率提高3.28 百分點(diǎn)。提高平均召回率的主要原因是降維后的圖像特征忽略了沒有辨識(shí)度的特征區(qū)域,突出了圖像中具有區(qū)分度的部分,產(chǎn)生更好的召回結(jié)果。
3.3.2 位置識(shí)別試驗(yàn)
為驗(yàn)證本文改進(jìn)方法的有效性,將本文方法與近年來具有代表性的VPR 方法和同基線的方法進(jìn)行對(duì)比。對(duì)不同方法得到的特征向量均降維到512維,使用召回率-查準(zhǔn)率評(píng)價(jià)指標(biāo)進(jìn)行分析。本文方法和對(duì)比方法在Pitts30k數(shù)據(jù)集和Nordland數(shù)據(jù)集上的試驗(yàn)結(jié)果如圖7所示。
圖7 不同方法在2種數(shù)據(jù)集上位置識(shí)別任務(wù)中的召回率-查準(zhǔn)率曲線
在側(cè)重視角變化的Pitts30k 數(shù)據(jù)集上,NetVLAD 算法在召回率為30%時(shí)開始出現(xiàn)精度下降,DBoW2 和Patch-NetVLAD 算法在召回率為40%時(shí)開始出現(xiàn)精度的快速下降,本文方法在召回率為50%時(shí)才出現(xiàn)明顯的精度下降。與DBoW2 和NetVLAD 算法相比,本文方法更快地檢索到了所有正例圖像;僅在召回率達(dá)到80%后,本文方法的召回精度與Patch-NetVLAD算法相比略有不足。
在具有季節(jié)變化和光照變化的Nordland數(shù)據(jù)集上,本文方法始終優(yōu)于DBoW2 和NetVLAD 算法,與先進(jìn)的Patch-NetVLAD 算法相比,在召回率達(dá)到70%前,本文方法也保持著更好的召回精度。
可以看出,相比DBoW2 和NetVLAD 算法,本文方法在試驗(yàn)中始終保持著更好的召回精度。這是由于融合的坐標(biāo)注意力能夠記錄明顯的空間特征位置關(guān)系,在視角變化的情況下,特征間的相對(duì)位置關(guān)系保持穩(wěn)定,而不同視野特征圖的組合編碼能夠覆蓋不同視距下的觀測(cè)結(jié)果。同時(shí)也可以觀察到,本文方法在高召回率的場(chǎng)景中召回精度相比同基線的Patch-NetVLAD 算法略低。這是由于Patch-NetVLAD 算法采用基于區(qū)塊尺度的圖像特征和基于一致性評(píng)分的重新排序策略實(shí)現(xiàn)了召回精度的提升。相應(yīng)地,此策略降低了Patch-NetVLAD 算法的檢索速度,因此本文方法的檢索速度與Patch-NetVLAD算法相比有19%的提升。視覺SLAM的實(shí)際測(cè)試中,常常需要快速實(shí)現(xiàn)場(chǎng)景重識(shí)別和回環(huán)檢測(cè),很少產(chǎn)生需要全部召回的現(xiàn)象,因此本文方法的實(shí)用性更強(qiáng)。
經(jīng)上述試驗(yàn)驗(yàn)證,本文方法在召回率-查準(zhǔn)率的評(píng)價(jià)體系下明顯優(yōu)于DBoW2 和NetVLAD 算法,與先進(jìn)的Patch-NetVLAD相比,本文方法犧牲較少的召回精度獲得了檢索速度的大幅提升,證明本文改進(jìn)方法的有效性。
3.3.3 回環(huán)檢測(cè)試驗(yàn)
回環(huán)檢測(cè)是視覺定位中校正全局地圖累積誤差的重要手段。為驗(yàn)證本文方法在回環(huán)檢測(cè)任務(wù)中的表現(xiàn),設(shè)計(jì)一組基于旋風(fēng)智能車[13]試驗(yàn)平臺(tái)的應(yīng)用測(cè)試。試驗(yàn)平臺(tái)如圖8 所示,其處理器為Jetson TX2,包含6 核CPU、256核帕斯卡(Pascal)架構(gòu)GPU和8 GB內(nèi)存。
圖8 旋風(fēng)智能車試驗(yàn)平臺(tái)
利用ORB-SLAM2[14]算法在Nordland數(shù)據(jù)集的原始影像上提取用于建立回環(huán)地圖的關(guān)鍵幀序列,以關(guān)鍵幀序列為數(shù)據(jù)集進(jìn)行回環(huán)測(cè)試。將本文方法與DBoW2、NetVLAD 和Patch-NetVLAD 算法在回環(huán)檢測(cè)任務(wù)中的表現(xiàn)進(jìn)行對(duì)比,試驗(yàn)結(jié)果如圖9所示。
圖9 季節(jié)變化下的回環(huán)檢測(cè)
由圖9 可以看出,Nordland 數(shù)據(jù)集夏季序列和冬季序列之間存在較大的外觀差異。相比DBoW2 和NetVLAD算法,本文方法和Patch-NetVLAD算法用于回環(huán)檢測(cè)任務(wù)的結(jié)果更接近真實(shí)的回環(huán)位置,進(jìn)一步說明本文改進(jìn)方法的魯棒性。統(tǒng)計(jì)幾種方法在回環(huán)檢測(cè)任務(wù)中平均閉環(huán)準(zhǔn)確率和檢測(cè)時(shí)間,結(jié)果如表2所示。
表2 對(duì)比方法在回環(huán)檢測(cè)任務(wù)中的性能
由表2可知:相比DBoW2和NetVLAD算法,本文方法在回環(huán)檢測(cè)任務(wù)中的平均閉環(huán)準(zhǔn)確率有所提高;與Patch-NetVLAD 相比,本文方法的平均閉環(huán)準(zhǔn)確率略低,但是在時(shí)間性能上具有明顯優(yōu)勢(shì)。
為探究本文所提出的改進(jìn)點(diǎn)對(duì)試驗(yàn)結(jié)果的影響,在Pitts30k數(shù)據(jù)集上通過消融試驗(yàn)對(duì)兩方面的改進(jìn)進(jìn)行驗(yàn)證,如表3所示。
表3 消融試驗(yàn)結(jié)果
相比基線方法,本文改進(jìn)方法獲得了更好的平均精度,檢索時(shí)間僅延長(zhǎng)6.8 ms。其中,融合CA對(duì)網(wǎng)絡(luò)的精度提升3.87百分點(diǎn),使用DC-NetVLAD編碼器對(duì)網(wǎng)絡(luò)的精度提升3.34百分點(diǎn)。通過融合CA使特征間的位置關(guān)系得到利用,利用并聯(lián)的DC-NetVLAD編碼器發(fā)揮不同視野下特征圖信息的互補(bǔ)性。最終的試驗(yàn)結(jié)果表明,同時(shí)采用2個(gè)模塊對(duì)網(wǎng)絡(luò)進(jìn)行改進(jìn),平均精度提升6.04百分點(diǎn),進(jìn)一步提升了網(wǎng)絡(luò)的位置識(shí)別能力,證明本文的2個(gè)改進(jìn)點(diǎn)具有一定的互補(bǔ)性。
針對(duì)開放場(chǎng)景中的自動(dòng)駕駛汽車的視覺定位和位置識(shí)別問題,本文在現(xiàn)有方法的基礎(chǔ)上提出兩點(diǎn)改進(jìn):基于殘差網(wǎng)絡(luò)融合坐標(biāo)注意力提取圖像特征,提高原始網(wǎng)絡(luò)對(duì)圖像特征位置關(guān)系的捕獲能力;通過多重?cái)U(kuò)張卷積和NetVLAD 實(shí)現(xiàn)輕量的多尺度特征融合,編碼圖像的表征向量。試驗(yàn)結(jié)果表明:在季節(jié)、光照和視角等變化導(dǎo)致環(huán)境外觀發(fā)生改變的場(chǎng)景中,本文提出的方法取得了96.22%的召回精度,單幀檢索時(shí)間僅需37.5 ms,與同基線方法相比,顯著提高了檢索速度和召回精度。
針對(duì)視覺傳感器捕獲的信息模態(tài)較為單一,在視覺受限的場(chǎng)景容易產(chǎn)生系統(tǒng)失效的問題,后續(xù)將開展多源傳感器融合定位的研究以及通過云端計(jì)算的方式緩解邊緣設(shè)備的算力問題等相關(guān)工作,實(shí)現(xiàn)自動(dòng)駕駛車輛的高精度定位。