• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      無人車行駛環(huán)境圖像的幾何測距*

      2020-09-03 01:51:14代金坤羅玉濤梁偉強(qiáng)
      汽車工程 2020年8期
      關(guān)鍵詞:測距物體像素

      代金坤,羅玉濤,梁偉強(qiáng)

      (1.華南理工大學(xué)機(jī)械與汽車工程學(xué)院,廣州 510640; 2.廣汽集團(tuán)汽車工程研究院,廣州 510640)

      前言

      視覺傳感器具有提取信息量大、信息完整、價格便宜等優(yōu)點,故成為獲取周圍環(huán)境信息的重要手段之一。由于圖像存在深度缺失以及背景環(huán)境干擾等問題,通過單目攝像頭對物體進(jìn)行準(zhǔn)確測距的方法一直是視覺研究的難點之一,目前主流的檢測方法有:使用運(yùn)動圖像中的多個匹配點對物體深度進(jìn)行估測[1-5];通過尋找穩(wěn)定參照物的方法獲得距離信息[6-7];通過固定攝像頭位姿狀態(tài)下的物體距離檢測方法[8-10];通過卷積神經(jīng)網(wǎng)絡(luò)檢測物體在圖片中的大概尺寸,結(jié)合先驗信息進(jìn)行估測[11-13]。這些方法都有一定的可行性,但都存在精度低、適用性窄、容易受環(huán)境干擾以及步驟繁瑣等問題。利用卷積神經(jīng)網(wǎng)絡(luò)預(yù)先提取所測物體位置,再經(jīng)過圖像分割得到所測物體信息的方法,減少了由于外界環(huán)境的影響而帶來的誤差,具有更好的適用性、可靠性和抗干擾能力。

      針對單目物體測距中深度缺失、背景干擾與前景分割困難等問題,提出了一種基于幾何測距模型的物體測距方法。首先,使用卷積神經(jīng)網(wǎng)絡(luò)對物體進(jìn)行標(biāo)記并定位物體在圖片中的位置,為了提高訓(xùn)練效率與準(zhǔn)確率,在此利用遷移學(xué)習(xí)的方法,使用Tiny-YOLOv2網(wǎng)絡(luò)模型加載已訓(xùn)練完成的權(quán)重,對需識別的物體進(jìn)行訓(xùn)練與檢測,之后根據(jù)訓(xùn)練結(jié)果對網(wǎng)絡(luò)模型進(jìn)行改進(jìn),并對其參數(shù)進(jìn)行調(diào)整,獲得更為適合于當(dāng)前環(huán)境下的物體檢測卷積模型。然后,提出了一種通過物體分類、邊緣檢測和邊緣擬合技術(shù)獲得物體數(shù)值信息的方法,該方法能精確提取物體的圖像信息,并轉(zhuǎn)化為數(shù)值信息。最后,建立了一種基于空間幾何理論的測距模型,結(jié)合在圖像中提取的物體數(shù)據(jù)信息和物體尺寸的先驗信息實現(xiàn)了物體的距離測量。

      1 物體檢測與識別

      1.1 模型訓(xùn)練

      直接在原始圖像上進(jìn)行物體的分割與數(shù)值化,存在物體提取困難以及計算量過大等問題,故先使用卷積神經(jīng)網(wǎng)絡(luò)模型在壓縮尺寸后的圖像上對物體進(jìn)行檢測與定位,得到物體的位置后再從原始圖像中將物體裁剪出來進(jìn)一步處理。本文中使用遷移學(xué)習(xí)的方法,在已有的模型和通用數(shù)據(jù)庫訓(xùn)練得到的權(quán)重下,加入自己的數(shù)據(jù)集,可快速得到理想權(quán)重,極大地節(jié)約了時間與成本。

      目前基于深度學(xué)習(xí)的主流目標(biāo)檢測算法主要有以R-CNN[14-16]系列(R-CNN、Fast R-CNN、Faster RCNN)為代表的算法,和以SSD[17]、YOLO[18-20]系列(YOLOv1,YOLOv2,YOLOv3,Tiny-YOLO)為代表的算法。一般情況下,R-CNN系列算法精度比SSD、YOLO系列算法高,但SSD、YOLO系列算法速度更快。SSD、YOLO系列算法在經(jīng)過改進(jìn)后精度已有很大的提升,已接近甚至超越了R-CNN系列算法。本文中基于YOLOv2模型的簡化版本Tiny-YOLOv2進(jìn)行目標(biāo)檢測,提高了訓(xùn)練速度與處理效率。

      1.2 Tiny-YOLOv2網(wǎng)絡(luò)改進(jìn)

      本文中的數(shù)據(jù)集數(shù)據(jù)較少、物體種類不多,且識別目標(biāo)較小,基于通用物體識別的Tiny-YOLOv2網(wǎng)絡(luò)并不能表現(xiàn)出最優(yōu)的檢測效果,故在此對原網(wǎng)絡(luò)模型進(jìn)行改進(jìn)。由于Tiny-YOLOv2本身即為簡化版本,網(wǎng)絡(luò)結(jié)構(gòu)已達(dá)到效率最高,故在此保留原網(wǎng)絡(luò)層數(shù),而將第13層的卷積層由Conv3*1024改為Conv3*512,將最后一層卷積層由Conv1*425改為Conv1*50,具體情況如表1所示,以此來進(jìn)一步提高物體的檢測準(zhǔn)確率與檢測效率。

      表1 改進(jìn)前后網(wǎng)格對比

      利用265張訓(xùn)練集圖片數(shù)據(jù)進(jìn)行訓(xùn)練,60張測試集圖片進(jìn)行測試,共檢測識別了5種不同的物體,分別為門牌、逃生通道燈、車牌和兩種常見提示牌,在同一電腦配置下,通過原網(wǎng)絡(luò)和改進(jìn)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,在其余參數(shù)設(shè)置相同的情況下,原網(wǎng)絡(luò)在迭代次數(shù)為400次時損失函數(shù)不再下降,改進(jìn)網(wǎng)絡(luò)在迭代次數(shù)為1 100次時損失函數(shù)不再下降,改進(jìn)網(wǎng)絡(luò)訓(xùn)練情況部分識別結(jié)果如圖1所示,原網(wǎng)絡(luò)訓(xùn)練情況在這里不做描述,訓(xùn)練集損失函數(shù)對比如圖2所示。

      基于遷移學(xué)習(xí)優(yōu)勢,原網(wǎng)絡(luò)和改進(jìn)網(wǎng)絡(luò)的訓(xùn)練效率都有較大幅度提升,改進(jìn)網(wǎng)絡(luò)由于網(wǎng)絡(luò)模型發(fā)生改變導(dǎo)致部分權(quán)重需重組,所以訓(xùn)練時間更長,但是改進(jìn)網(wǎng)絡(luò)最終的平均損失率要低于原網(wǎng)絡(luò)。

      由表2可知,由于樣本總量較小,導(dǎo)致兩種網(wǎng)絡(luò)在測試集的識別率都較低,但相對來說改進(jìn)網(wǎng)絡(luò)的識別率仍有顯著的提升。同時,在訓(xùn)練集的識別率與檢測速度上改進(jìn)網(wǎng)絡(luò)皆優(yōu)于原網(wǎng)絡(luò)。

      圖1 部分識別結(jié)果

      圖2 損失函數(shù)對比

      表2 網(wǎng)絡(luò)對比

      2 物體分割與數(shù)值化

      此步驟的主要目的是從第1.2節(jié)中裁剪出來的圖片中獲取物體的數(shù)值信息,即不僅要將物體分割提取,并且要將提取到的物體邊界進(jìn)行數(shù)值化,物體由于射影定理,在圖片上的形狀為多邊形,而對于多邊形而言,只要得到邊緣頂點坐標(biāo)即確定了多邊形的全部數(shù)值信息。在此提出了一種通過物體分類、邊緣檢測和邊緣擬合獲得物體數(shù)值信息的方法。

      2.1 邊緣檢測

      因為不同的物體在紋路和顏色方面有些許差異,使用通用的檢測參數(shù)與檢測方法并不能獲得最優(yōu)的效果。故該方法首先通過上文中物體檢測獲得的物體標(biāo)簽信息將物體進(jìn)行分類,根據(jù)不同的物體種類設(shè)置不同的檢測參數(shù)與檢測流程,以此來獲得最優(yōu)檢測效果。主要變動的參數(shù)包括:邊緣檢測閾值、色彩空間提取的RGB顏色范圍、Hough直線檢測線段閾值。主要的檢測流程包括:中值濾波消去噪聲、使用Canny函數(shù)進(jìn)行邊緣檢測、使用色彩空間過濾顏色、使用OSTU算法進(jìn)行圖像二值化處理、使用Hough變換檢測直線,以此得到物體的邊緣信息,具體參數(shù)如表3所示。

      表3 主要方法與主要參數(shù)

      2.2 邊緣擬合

      通過滑動窗口的二次多項式擬合算法可有效提取與擬合多邊形邊緣,為提高擬合效果,在此對算法進(jìn)行改進(jìn),加入了k、l1、l2、r1、r2感興趣區(qū)域的參數(shù),具體過程如下。

      首先,統(tǒng)計圖片某部分的每列像素之和,以左右兩邊的感興趣區(qū)域為范圍搜尋像素值和的最大值作為滑動窗口的起始點。

      式中:Pij為圖像的像素矩陣P第i行、第j列的值;m、n為圖像的像素寬度與高度;hj為每列像素之和;Bl、Br為滑動窗口的左右初始點;k、l1、l2、r1、r2為感興趣區(qū)域的參數(shù)。

      根據(jù)式(1)獲得初始點之后,算法根據(jù)一個矩形面積向上生長,根據(jù)矩形中像素最大值確定生長方向以及下一個初始點,以此迭代,最后通過多項式擬合方法對每一個矩形的中心點進(jìn)行擬合,最終得到邊界信息,設(shè)矩陣4個頂點坐標(biāo)分別為(w1,h1)、(w1,h2)、(w2,h2)和(w2,h1),迭代過程如式(2)所示。

      式中:N為矩形內(nèi)像素之和;cj為矩形內(nèi)每列像素之和;Bc為滑動窗口的迭代后的初始點。

      由于多邊形邊界分布在圖像邊緣部分,以此為據(jù)對算法參數(shù)進(jìn)行設(shè)置,增加了滑動窗口在圖像邊緣部分的搜索力度,并在寬度和高度方向上各使用一次。在已知圖像尺寸m、n的情況下,通過對算法參數(shù)的反復(fù)調(diào)整,得到最優(yōu)的擬合方法,參數(shù)設(shè)置如表4所示,最終效果如圖3所示。

      表4 參數(shù)設(shè)置

      圖3 檢測示例

      根據(jù)擬合結(jié)果可得數(shù)條直線,求解相鄰直線的交點,即可得到多邊形的頂點坐標(biāo)信息(u,v)。

      如圖3所示,通過該方法能準(zhǔn)確地提取各類物體的邊緣信息并進(jìn)行數(shù)值擬合,得到物體的頂點坐標(biāo)信息,整體上則取得了較好的效果。

      3 通過幾何測距模型進(jìn)行測距

      在此提出了一種結(jié)合物體尺寸的先驗信息進(jìn)行測距的幾何測距模型,通過建立攝像機(jī)小孔成像模型來確定空間目標(biāo)三維立體信息與圖像二維成像點面之間的對應(yīng)關(guān)系[21-22],并通過第2章中獲得的物體數(shù)值信息與先驗信息,得到物體的距離。小孔成像模型示意圖如圖4所示。

      式中:K為相機(jī)的內(nèi)參數(shù)矩陣;fx、fy分別為x、y軸方向的放大系數(shù);cx、cy為物理成像坐標(biāo)系和像素坐標(biāo)系之間的位移量。

      通過第2章中物體提取與數(shù)值化的方法,得到

      圖4 小孔成像模型

      物體在像素平面內(nèi)的多點坐標(biāo)(ui,vi)。通過式 (4),得到含有未知數(shù)Z的物體在相機(jī)坐標(biāo)系下的三維坐標(biāo)。

      根據(jù)立體幾何學(xué),在空間中任意不共線的3點構(gòu)成一個平面,在此已知相機(jī)坐標(biāo)系下4點之間的相互關(guān)系,則可構(gòu)建以下關(guān)系:

      觀察式(11)左邊第3項,在實際應(yīng)用中由于物體在空間中的位姿對Z值的影響較小,可認(rèn)為Zi≈Zj成立,故在此做近似處理,由基本不等式a+b≥可將式(11)化簡:

      由于物體始終在相機(jī)前方,故在此Zi≥0恒成立。令xi=,在此以矩形的求解過程舉例,將其分割為兩個三角形進(jìn)行求解。

      觀察得知,該方程組為超定方程組,在存在測量誤差的情況下,該方程組一般而言沒有解,所以使用最小二乘法求其近似解,通過最小二乘原理,將式(14)轉(zhuǎn)化為如下矩陣進(jìn)行求解。

      對矩陣方程進(jìn)行求解,即可得到各個頂點的Z軸信息再通過式(16)求距離信息。將各點距離信息求均值,得到物體中心點的距離信息,至此測距完成。

      4 測試結(jié)果

      為驗證所采用方法在實際應(yīng)用中的準(zhǔn)確度與抗干擾能力,通過采集多組實際場景信息對方法進(jìn)行驗證。本文中使用darkflow模塊對卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行修改和調(diào)用,使用numpy庫對幾何模型中的矩陣運(yùn)算進(jìn)行優(yōu)化。

      攝像頭使用的物理感光元件為索尼公司的IMX498傳感器,傳感器尺寸為1/2.8英寸,長寬比例4∶3,攝像頭實際焦距為3.5 mm。分析該方法的過程發(fā)現(xiàn),檢測的精度主要與物體在圖片中的像素尺寸和位姿有關(guān),與物體實際距離的遠(yuǎn)近無關(guān),即只要物體在圖像中存在合理的尺寸與位姿,物體的實際距離并不會影響該方法的測量精度,故在此采集了1~4 m范圍內(nèi)的圖像數(shù)據(jù)作方法的驗證。通過該攝像頭檢測3類大小不同的物體,分別在1、2、3、4 m處各個不同的位置進(jìn)行圖片采集與檢測,經(jīng)過篩選后得到總計42張不同距離和角度的圖像,部分圖像如圖5所示。

      對每組圖像中的物體進(jìn)行距離測量,測量結(jié)果如圖6所示。

      測量結(jié)果表明,該測量方法的精確度較高,在4 m以內(nèi)88%以上的測量值誤差不超過0.2 m。測量誤差并沒有隨著距離的增加而有較大變化,而是穩(wěn)定在一個固定的區(qū)間范圍內(nèi)。

      5 結(jié)論

      圖5 部分圖像

      圖6 測量結(jié)果

      基于遷移學(xué)習(xí)的方法改進(jìn)了Tiny-YOLOv2網(wǎng)絡(luò)模型,將原網(wǎng)絡(luò)的檢測效率與測試集準(zhǔn)確率提高了1.5幀與11%。通過該檢測網(wǎng)絡(luò)得到了被測物體的標(biāo)簽信息與在圖像中的位置信息,將物體從原圖像中進(jìn)行裁剪用于下一步處理。

      提出了一種檢測物體邊界數(shù)值信息的方法,該方法通過檢測到的標(biāo)簽信息對物體進(jìn)行分類,對不同種類的物體通過不同的閾值參數(shù)信息與不同的圖像處理組合方法進(jìn)行邊緣檢測及邊緣擬合,獲得準(zhǔn)確的物體數(shù)值信息。

      建立了一種檢測物體距離的幾何測量模型,該模型結(jié)合物體尺寸的先驗信息與得到的物體在圖像中的數(shù)值信息,對物體進(jìn)行準(zhǔn)確的測距。通過試驗證明,該測量方法的精確度較高,在4 m以內(nèi)88%以上的測量值誤差不超過0.2 m,同時測量誤差并沒有隨著距離的增加而有較大變化,而是穩(wěn)定在一個固定的區(qū)間范圍內(nèi)。

      猜你喜歡
      測距物體像素
      趙運(yùn)哲作品
      藝術(shù)家(2023年8期)2023-11-02 02:05:28
      像素前線之“幻影”2000
      深刻理解物體的平衡
      類星體的精準(zhǔn)測距
      科學(xué)(2020年3期)2020-01-06 04:02:51
      “像素”仙人掌
      我們是怎樣看到物體的
      淺談超聲波測距
      電子制作(2017年7期)2017-06-05 09:36:13
      高像素不是全部
      CHIP新電腦(2016年3期)2016-03-10 14:22:03
      為什么同一物體在世界各地重量不一樣?
      基于PSOC超聲測距系統(tǒng)設(shè)計
      稷山县| 伽师县| 兴山县| 九龙县| 乌拉特前旗| 乌恰县| 乐平市| 万荣县| 泊头市| 平江县| 民勤县| 汕头市| 巴青县| 三江| 桦川县| 田东县| 石柱| 南涧| 若羌县| SHOW| 天镇县| 定远县| 延吉市| 呼伦贝尔市| 云梦县| 新泰市| 集贤县| 乾安县| 嘉定区| 柘城县| 合阳县| 肇州县| 新巴尔虎左旗| 达州市| 开阳县| 青田县| 临西县| 满城县| 安新县| 紫阳县| 福泉市|