• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于AdaBoost和壓縮跟蹤的前方車輛檢測方法*

      2019-03-04 03:26:20譚力凡吳俊曹立波廖家才
      汽車技術(shù) 2019年2期
      關(guān)鍵詞:分類器像素尺寸

      譚力凡 吳俊,2 曹立波 廖家才

      (1.湖南大學(xué),汽車車身先進(jìn)設(shè)計制造國家重點實驗室,長沙 410082;2.湖南師范大學(xué),長沙 410082)

      主題詞:前方車輛檢測 AdaBoost算法 道路縱向測距模型 壓縮跟蹤

      1 前言

      汽車被動安全技術(shù)飛速發(fā)展的同時,智能駕駛和輔助駕駛技術(shù)也逐漸成為研究熱點[1]。車輛檢測技術(shù)是智能網(wǎng)聯(lián)汽車及高級駕駛輔助系統(tǒng)的關(guān)鍵技術(shù)之一,準(zhǔn)確、實時的前方車輛檢測技術(shù)可為具有避撞功能的駕駛輔助系統(tǒng)提供有效決策依據(jù),提高安全性和駕駛舒適性。

      近年來,國內(nèi)外學(xué)者對基于視覺的車輛檢測算法開展了大量研究工作,其中,利用特征與模板結(jié)合的檢測方法較為有效[2]。朱志明等[3]、金立生等[4]將Haar-like特征與AdaBoost算法相結(jié)合,實現(xiàn)了較為準(zhǔn)確的車輛檢測效果。Sun等[5]利用AdaBoost分類器實現(xiàn)本車道前方車輛檢測,但檢測效果受光照變化影響較大。文學(xué)志等[6]通過改進(jìn)AdaBoost算法中弱分類器的生成方法降低了訓(xùn)練所需時間,但車輛被遮擋時的檢測效果不理想。Jong-Min Park等[7]利用AdaBoost算法進(jìn)行車輛檢測,并通過水平與垂直邊緣進(jìn)行信息驗證,但未使用跟蹤算法。李云翀等[8]通過車底陰影特征檢測車輛,利用梯度特征的AdaBoost方法進(jìn)行驗證,并用卡爾曼濾波進(jìn)行跟蹤,但車底陰影特征易受光照和天氣影響。

      以上研究結(jié)合Haar-like特征與AdaBoost算法實現(xiàn)了前方車輛檢測,但傳統(tǒng)AdaBoost分類器采用滑窗檢測方式,效率不高,不易滿足車輛檢測實時性要求,且受制于AdaBoost算法原理,在環(huán)境變化或遮擋時易出現(xiàn)漏檢測,降低檢測準(zhǔn)確性。針對以上問題,本文提出一種基于AdaBoost和壓縮跟蹤的前方車輛檢測方法,通過Haar-like特征及AdaBoost算法訓(xùn)練分類器,利用道路縱向測距模型分割感興趣區(qū)域并優(yōu)化檢測窗口,通過壓縮跟蹤算法的在線更新特性抵抗環(huán)境變化的干擾,最后分析了不同天氣條件下的檢測效果。

      2 車輛檢測算法

      2.1 道路縱向測距模型

      待檢測的目標(biāo)車輛位于本車前方,因此將采集道路圖像所用的相機安裝在本車前風(fēng)窗玻璃處,如圖1所示。

      圖1 相機安裝位置

      為估算前方道路物體與本車之間的距離,需要利用道路縱向測距模型,以獲得圖像坐標(biāo)系與世界坐標(biāo)系的轉(zhuǎn)換關(guān)系?;谛】壮上竦牡缆菲矫婵v向測距模型如圖2所示,其中O-XYZ為世界坐標(biāo)系,Oc-XcYcZc為相機坐標(biāo)系,uOov為圖像坐標(biāo)系,其主點坐標(biāo)為(uo,vo),相機安裝高度為h,相機俯仰角(即光軸與水平面夾角)為α,相機焦距為f=|OoOc|,假設(shè)路面水平,Z軸上有一點P,坐標(biāo)為(0,0,ZP),其在圖像坐標(biāo)系中的投影點為P′,坐標(biāo)為(uo,vP′),PP′連線與光軸夾角為β,與路面垂線夾角為γ。

      圖2 道路縱向測距模型(側(cè)視圖)

      由圖2幾何關(guān)系可得

      結(jié)合式(1)、式(2)和式(3)可得

      其中,主點坐標(biāo)(uo,vo)和焦距f為相機內(nèi)參數(shù),可通過張正友相機標(biāo)定法[9]獲得,相機高度h和俯仰角α可由測量得到,因此,當(dāng)相機型號和位置確定,便可利用確定的測距模型計算出圖像中物體與相機的實際距離。

      2.2 AdaBoost樣本訓(xùn)練

      AdaBoost是一種迭代算法,其核心思想是通過對同一樣本集訓(xùn)練得到多個弱分類器,同時在訓(xùn)練過程中不斷調(diào)整訓(xùn)練樣本的權(quán)重,以提升弱分類器的性能,再將這些弱分類器加權(quán)組合形成一個強分類器,在實際檢測時,將一定數(shù)量的強分類器串聯(lián),構(gòu)成級聯(lián)分類器,當(dāng)待測圖片通過所有強分類器時,才輸出為最終的檢測目標(biāo)[10]。

      理論上,訓(xùn)練樣本數(shù)量越多,得到的分類器性能越好,且由于實際道路場景中非車圖像多于車輛圖像,因此負(fù)樣本的數(shù)量應(yīng)多于正樣本數(shù)量[11]。本文選取9 285張正樣本與55 700張負(fù)樣本進(jìn)行訓(xùn)練。其中,正樣本為車輛尾部圖片,包括中國道路常見的轎車、跑車、SUV、載貨汽車、公交車等,并將所有正樣本歸一化為24像素×24像素的灰度圖加入訓(xùn)練,如圖3a所示。負(fù)樣本為道路場景中的非車目標(biāo),包括路面、樹木、房屋、護欄和指示牌等,同時,為提高檢測準(zhǔn)確性,負(fù)樣本中添加了一圖多車和包含不完整車體圖片,以防止分類器將多輛相鄰的車或車體的一小部分誤識別為目標(biāo)車輛,如圖3b所示。

      圖3 用于AdaBoost訓(xùn)練的部分樣本

      Haar-like特征是一種快速、有效的圖像特征提取方法,最早由Papageorgiou C.等[12]提出,Paul Viola等[13]利用積分圖法快速計算Haar-like特征,并將其應(yīng)用于人臉檢測。Haar-like特征利用相鄰的黑色和白色矩形框表示某一區(qū)域灰度變化情況,并通過計算得到的特征值區(qū)分不同圖像區(qū)域。本文使用邊緣特征、線性特征、中心環(huán)繞特征[12]進(jìn)行分類器訓(xùn)練,如圖4a~圖4c所示。類似于人臉,車輛尾部及其相對于周圍環(huán)境均具有明顯的灰度變化,如車燈與后保險杠、車頂與天空等,利用Haar-like可對其特征進(jìn)行有效表達(dá),如圖4d所示。

      圖4 3類Haar-like特征及其對車輛尾部特征的描述示意

      最終訓(xùn)練得到的級聯(lián)分類器共包含24個強分類器和1 516個弱分類器。

      2.3 感興趣區(qū)域分割與檢測窗口多尺度優(yōu)化

      傳統(tǒng)AdaBoost分類器在線檢測通過滑動檢測窗口的方式實現(xiàn),檢測窗口以自左向右、自上向下的順序,以每次移動1個像素的幅度對整幅圖像進(jìn)行遍歷檢測。當(dāng)較小尺寸的檢測窗口完成遍歷后,便以一定比例(默認(rèn)為1.1)擴大,再次進(jìn)行遍歷,窗口尺寸變化范圍在24×24(正樣本歸一化尺寸)至待測圖像尺寸之間,該范圍可自定義設(shè)置。通常,車輛圖像位于整幅待測圖像的下半部分,且所占面積較小,若采用默認(rèn)的滑窗檢測方式,將有大量檢測窗口在車輛出現(xiàn)概率極低的無效區(qū)域中遍歷搜索,消耗檢測時間,不易滿足實時性的要求。

      根據(jù)GB 1589—2016的規(guī)定[14],我國車輛寬度限值為1 600~3 000 mm,因此,對于相同距離的不同車輛,其圖像尺寸也有相應(yīng)的限值。由于正樣本歸一化尺寸為24像素×24像素,即分類器可檢測的車輛最小圖像尺寸為24像素×24像素,由小孔成像模型可知,物體實際尺寸與實際距離的比值等于圖像尺寸與相機焦距的比值,由此計算得到,本文所用相機可檢測到最遠(yuǎn)車輛距離為72 m,因此,將0~72 m設(shè)定為車輛檢測的感興趣區(qū)域,結(jié)合道路縱向測距模型和車輛高度,可以得到相對應(yīng)的圖像感興趣區(qū)域,對該區(qū)域分割提取,以過濾掉不存在車輛的天空區(qū)域,縮小檢測窗口的搜索范圍,降低檢測耗時。

      另一方面,在檢測窗口尺寸逐漸擴大過程中,只有當(dāng)其與車輛圖像尺寸接近時,才能對目標(biāo)進(jìn)行有效檢測。因此,對于距離遠(yuǎn)、圖像尺寸小的車輛,使用大尺寸檢測窗口無法有效識別,對于距離近、圖像尺寸大的車輛也是如此。為減少無效檢測窗口帶來的計算消耗,本文將檢測區(qū)域由遠(yuǎn)及近劃分為若干個子區(qū)域,采用多尺度的檢測窗口并行搜索,每個子區(qū)域?qū)?yīng)的檢測窗口尺寸范圍由道路縱向測距模型和車輛寬度限值計算得到。理論上,子區(qū)域劃分越細(xì),檢測速度越快,但由于路況復(fù)雜多變,劃分過細(xì)會導(dǎo)致檢測準(zhǔn)確性下降,因此,本文采用3個子區(qū)域進(jìn)行劃分,3種不同尺度的檢測窗口在各自區(qū)域內(nèi)同時遍歷檢測,每個子區(qū)域內(nèi)的檢測窗口也在一定的小范圍尺寸內(nèi)變化。如圖5所示,以A區(qū)域為例,其位于待測圖像最上方,用于檢測距離遠(yuǎn)、圖像尺寸小的車輛目標(biāo),因此采用小尺度檢測窗口進(jìn)行搜索,窗口變化范圍在24像素×24像素與50像素×50像素之間,而位于B、C區(qū)域的車輛圖像尺寸較大,因此選用較大尺度的窗口進(jìn)行檢測,以此避免小尺度窗口搜索而造成時間消耗,從而提高檢測效率。

      圖5 使用多尺度窗口進(jìn)行檢測

      3 車輛跟蹤算法

      3.1 壓縮跟蹤原理

      遮擋、環(huán)境變化、目標(biāo)姿態(tài)變化等原因會導(dǎo)致檢測過程中目標(biāo)丟失,因此需要跟蹤算法對目標(biāo)進(jìn)行持續(xù)定位。壓縮跟蹤是一種基于壓縮感知的簡單高效跟蹤算法[15],其流程如圖6所示。第t幀時,采集檢測到的若干張目標(biāo)圖片(正樣本)和目標(biāo)周圍的背景圖片(負(fù)樣本),并進(jìn)行多尺度變換,以更好地表達(dá)圖像特征,然后將變換后的圖像通過稀疏測量矩陣進(jìn)行特征降維,通過樸素貝葉斯分類器對降維后的特征進(jìn)行訓(xùn)練,得到一個二分類器。第(t+1)幀時,在上一幀跟蹤到的目標(biāo)位置附近采樣若干個尺寸相同的圖像,同樣通過稀疏測量矩陣對其降維、提取特征,然后利用第t幀訓(xùn)練得到的樸素貝葉斯分類器進(jìn)行分類,分類得分最高的圖像確定為跟蹤目標(biāo)。因為對圖像特征進(jìn)行了降維處理,算法運行速度極快,同時由于對樸素貝葉斯分類器進(jìn)行了在線訓(xùn)練和更新,從而可以有效抵抗遮擋和環(huán)境變化帶來的干擾。

      圖6 壓縮跟蹤算法原理

      3.2 跟蹤算法流程

      為提高檢測準(zhǔn)確率,本文采取跟蹤與檢測同時進(jìn)行,利用跟蹤結(jié)果彌補檢測失效的策略,具體流程為:

      a.當(dāng)同一目標(biāo)被檢測算法連續(xù)檢測到n次(本文取n=3)時,即判定該目標(biāo)為車輛目標(biāo),在圖像中標(biāo)記出其位置,同時調(diào)用跟蹤算法對其持續(xù)跟蹤;

      b.當(dāng)被連續(xù)檢測到的目標(biāo)在某幀消失時,判定該目標(biāo)檢測臨時失效,利用跟蹤結(jié)果標(biāo)記目標(biāo)位置;

      c. 當(dāng)被跟蹤目標(biāo)連續(xù)消失m幀(本文取m=5)時,判定該目標(biāo)已離開圖像范圍,不再對其跟蹤,直至新目標(biāo)出現(xiàn)并被連續(xù)檢測到n次;

      d.當(dāng)被跟蹤目標(biāo)在m幀內(nèi)被重新檢測到(本文以檢測窗口與跟蹤窗口的面積重疊率大于50%作為同一目標(biāo)的判定依據(jù))時,使用檢測目標(biāo)對跟蹤算法進(jìn)行更新,繼續(xù)對目標(biāo)進(jìn)行跟蹤。

      由跟蹤流程可知:對于誤檢目標(biāo),因其持續(xù)時間短暫,不易滿足連續(xù)檢測次數(shù)條件,不作為車輛目標(biāo)輸出;而對于漏檢目標(biāo),則通過跟蹤算法進(jìn)行持續(xù)定位。

      4 試驗結(jié)果及分析

      本文使用搭載1.6 GHz Intel?CoreTMi5 CPU和4 GB RAM的便捷式計算機進(jìn)行實車試驗,軟件平臺為Visual Studio 2013搭載OpenCV 3.0.0函數(shù)庫。利用安裝在前風(fēng)窗玻璃上的相機采集晴天、陰天、雨天、夜晚等不同工作條件下共3 680幀視頻圖像進(jìn)行實時車輛檢測,本文算法在試驗環(huán)境中每幀的平均檢測時間為26.5 ms。

      在實際駕駛環(huán)境中,碰撞事故往往發(fā)生在本車及相鄰車道之間,因此,本文記錄在試驗過程中位于本車及相鄰車道上的車輛,并采用車輛檢測率(True Position Rate,TPR)和誤檢率(False Detection Rate,F(xiàn)DR)對算法的有效性進(jìn)行評價[16],其表達(dá)式為:

      式中,TP為分類器檢測出的車輛數(shù);AP為實際道路中的車輛總數(shù);FP為被分類器誤檢為車輛的數(shù)目。

      不同工作條件下的車輛檢測結(jié)果如表1所示。

      表1 不同工作條件下的車輛檢測結(jié)果

      由表1可知,本文算法在晴天、陰天等光照良好、視野清晰的天氣條件下,表現(xiàn)出較高的檢測準(zhǔn)確性,除雨天外的平均檢測率達(dá)到93.0%,誤檢率為0.4%,與傳統(tǒng)的Haar-like特征與AdaBoost結(jié)合的檢測方法[3-4]相比,檢測率有所提高,誤檢率明顯降低,且經(jīng)感興趣區(qū)域分割與檢測窗口多尺度優(yōu)化,將每幀檢測時間縮短至26.5 ms,使算法在準(zhǔn)確檢測的同時,保持了較高的實時性,圖7展示了本文算法在不同工作條件下的檢測結(jié)果。由于壓縮跟蹤算法的加入,使車輛在被短暫遮擋、光照變化等情況下仍能被檢測出,如圖8所示,當(dāng)右側(cè)車道車輛進(jìn)入樹陰時,仍能通過跟蹤算法識別出,體現(xiàn)了算法在環(huán)境變化中的適應(yīng)性,有效提高了車輛檢測率。

      圖7 不同天氣條件下的檢測結(jié)果

      圖8 壓縮跟蹤算法對車輛的識別效果

      試驗過程中,由于雨水被車輪卷起形成水霧,聚集在車輛尾部,使車尾特征變模糊,尤其是距離較遠(yuǎn)、圖像尺寸較小的車輛,如圖7c所示,導(dǎo)致雨天的車輛檢測率下降。另一方面,漏檢主要集中在相鄰車道且距離很近的車輛,這些車輛位于圖像邊緣,其尾部特征與位于圖像中間位置的車輛稍有不同,不易被分類器識別,因此后期需要在正樣本集中添加該類車尾圖片進(jìn)行訓(xùn)練。

      5 結(jié)束語

      本文提出了一種基于AdaBoost和壓縮跟蹤算法的前方車輛檢測方法,該方法結(jié)合AdaBoost算法和Haarlike特征進(jìn)行正、負(fù)樣本訓(xùn)練,得到車輛檢測分類器,并通過感興趣區(qū)域分割與檢測窗口多尺度優(yōu)化方法縮短檢測時間、提高檢測效率,最后利用壓縮跟蹤算法對檢測到的車輛進(jìn)行實時跟蹤,以抵抗遮擋和環(huán)境變化的干擾,增強算法的適應(yīng)性,有效提高了檢測準(zhǔn)確率。試驗結(jié)果表明,該方法在光照良好、視野清晰的天氣條件下,能夠準(zhǔn)確識別出前方車輛位置,并具備較高的實時性,能夠為具有避撞功能的車輛智能駕駛系統(tǒng)提供有效決策依據(jù)。

      猜你喜歡
      分類器像素尺寸
      趙運哲作品
      藝術(shù)家(2023年8期)2023-11-02 02:05:28
      尺寸
      智族GQ(2022年12期)2022-12-20 07:01:18
      像素前線之“幻影”2000
      CIIE Shows Positive Energy of Chinese Economy
      “像素”仙人掌
      BP-GA光照分類器在車道線識別中的應(yīng)用
      電子測試(2018年1期)2018-04-18 11:52:35
      D90:全尺寸硬派SUV
      加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
      結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機的TSK分類器
      高像素不是全部
      CHIP新電腦(2016年3期)2016-03-10 14:22:03
      阳江市| 聊城市| 平遥县| 五莲县| 遂川县| 嘉黎县| 嘉禾县| 宾阳县| 新津县| 会东县| 屯昌县| 英德市| 上高县| 平和县| 平潭县| 满洲里市| 彰化县| 岐山县| 黑龙江省| 江城| 伊春市| 腾冲县| 日照市| 灵山县| 苗栗市| 奇台县| 合肥市| 禄丰县| 任丘市| 岳西县| 韶山市| 吴堡县| 嫩江县| 湘阴县| 襄樊市| 台前县| 沂南县| 福鼎市| 罗田县| 海宁市| 静海县|