• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于YOLO_V3的側(cè)視視頻交通流量統(tǒng)計(jì)方法與驗(yàn)證

      2021-01-27 09:23:50賴見輝羅甜甜陳艷艷
      公路交通科技 2021年1期
      關(guān)鍵詞:交通流量角度精度

      賴見輝,王 揚(yáng),羅甜甜,陳艷艷,劉 帥

      (1. 北京工業(yè)大學(xué) 城市交通學(xué)院,北京 100124;2. 北京交通運(yùn)輸職業(yè)學(xué)院,北京 102618)

      0 引言

      隨著社會(huì)經(jīng)濟(jì)快速的發(fā)展,我國(guó)機(jī)動(dòng)車保有量急劇增長(zhǎng),截止2020年6月,全國(guó)機(jī)動(dòng)車保有量達(dá)3.6億,隨之也造成很多問(wèn)題,如交通擁堵、空氣污染。交通流量可準(zhǔn)確反映道路交通運(yùn)行狀態(tài),為科學(xué)的交通管理、政策制定提供依據(jù),例如長(zhǎng)期固定的流量觀測(cè)數(shù)據(jù)可用于道路規(guī)劃、經(jīng)濟(jì)效益評(píng)估等;而且短期臨時(shí)(若干小時(shí)、天)的流量觀測(cè)數(shù)據(jù)可用于靈活的交通管理、優(yōu)化,交通影響評(píng)價(jià)等。目前,交通流量的獲取方法包括感應(yīng)線圈[1]、紅外[2]、超聲波[3]、視頻[4]等,這些方法精度高,在固定式流量觀測(cè)方面取得較好效果,而針對(duì)臨時(shí)性交通流量觀測(cè)需求,以上方法在使用便利性和經(jīng)濟(jì)性方面不具有優(yōu)勢(shì),目前用得最多的方法仍然是人工現(xiàn)場(chǎng)統(tǒng)計(jì)觀測(cè)或者現(xiàn)場(chǎng)采集視頻回內(nèi)業(yè)觀測(cè)統(tǒng)計(jì)。

      短期臨時(shí)交通流量觀測(cè)通常需求靈活多變,如某個(gè)交叉口、路段在早、晚高峰時(shí)段分車型的交通流量,不可能為這一臨時(shí)需求安裝龍門架,布設(shè)感應(yīng)線圈、激光雷達(dá)等,相比較而言,人工現(xiàn)場(chǎng)觀測(cè)統(tǒng)計(jì)可能更“經(jīng)濟(jì)”。但隨著人工成本的逐年提升,短期臨時(shí)交通流量觀測(cè)需求越來(lái)越難以滿足應(yīng)用要求。

      本研究利用視頻識(shí)別技術(shù),從視頻源采集便利性角度,考慮攝相頭布置在路側(cè),視角方向與道路存在一定夾角時(shí)的場(chǎng)景采集,如圖1所示,調(diào)查員可利用三腳架等支撐物將攝相頭臨時(shí)固定于一定高度,三腳架放置于人行道上。該方式采集視頻源靈活便利,缺點(diǎn)是視頻源中的車輛可能存在不同程度的相互遮擋,不利于車輛檢測(cè)和跟蹤。本研究以此為突破口,利用基于深度學(xué)習(xí)技術(shù)的YOLO檢測(cè)方法,實(shí)現(xiàn)不同車型目標(biāo)物的采集;利用卡爾曼濾波+匈牙利分配法+透視投影變換法,實(shí)現(xiàn)高精度的車輛跟蹤,以攝相頭在不同角度、高度和車流密度條件下,對(duì)方法的有效性開展測(cè)試。

      圖1 側(cè)視視頻采集示意圖Fig.1 Schematic diagram of road-side video collection

      1 相關(guān)工作

      利用視頻識(shí)別交通流量主要包括兩個(gè)過(guò)程,一是車輛目標(biāo)物檢測(cè),二是車輛連續(xù)跟蹤。車輛目標(biāo)物檢測(cè)方法通常包括幀間差分法、光流法、背景差分法和近幾年新提出的深度學(xué)習(xí)法。車輛連續(xù)跟蹤包括輪廓追蹤、特征追蹤、貝葉斯濾波等。

      1.1 視頻檢測(cè)方法

      幀間差分法(Temporal Difference)通過(guò)對(duì)視頻圖像序列中相鄰兩幀作差分運(yùn)算來(lái)獲得運(yùn)動(dòng)目標(biāo)輪廓的方法,對(duì)光線等場(chǎng)景變化不太敏感,能夠適應(yīng)各種動(dòng)態(tài)環(huán)境,穩(wěn)定性較好,缺點(diǎn)是當(dāng)物體運(yùn)動(dòng)速度存在較大差異時(shí),前后兩幀中容易沒(méi)有重疊或者完全重疊,此外,也不能夠檢測(cè)出靜止的物體[5]。

      光流法(Optical Flow Method)根據(jù)圖像序列中像素強(qiáng)度變化值來(lái)判定各自像素位置的“運(yùn)動(dòng)”,即是時(shí)間上的變化與場(chǎng)景物體來(lái)描述共同運(yùn)動(dòng)物體,對(duì)于靜止目標(biāo)的識(shí)別效果較差。如張潤(rùn)初[6]利用光流運(yùn)動(dòng)點(diǎn)的分布和車輛在路面的占有情況之間的聯(lián)系,提出基于交通流理論的車流量統(tǒng)計(jì)方法,在正視角度下測(cè)試了約40輛車,精度為97.56%。

      背景差分法(Background Difference Method)易受光線變化影響,背景更新是關(guān)鍵,不適用于靈活多變的路側(cè)場(chǎng)景。如李東[7]利用單高斯背景模型算法識(shí)別車輛,提高了檢測(cè)車輛前景區(qū)域的完整性;劉暢[8]采用統(tǒng)計(jì)平均法進(jìn)行背景建模,通過(guò)將視頻當(dāng)前幀與背景幀作差來(lái)獲取前景目標(biāo),在正視角度下的測(cè)試精度為96.3%;胡云鷺[9]將背景差分法與幀間差分法相結(jié)合,在不同天氣下不同車道的車速檢測(cè)精度的均值都可達(dá)到 95%以上。

      以上3類作為傳統(tǒng)視頻識(shí)別的主要方法,在不同方面應(yīng)用取得較好效果,但仍然存在以下問(wèn)題:

      (1)視頻場(chǎng)景要求高,如光線、陰影均易影響交通流量計(jì)數(shù)的精度,而復(fù)雜的路側(cè)交通視頻往往難以完全達(dá)到要求;

      (2)算法在交通流量較小的場(chǎng)景下能取得較高精度,但高密度車流時(shí)精度急劇下降;

      (3)算法主要針對(duì)道路正上方角度拍攝視頻,車輛間的遮擋小,而側(cè)視角度視頻往往存在相互遮擋。

      因此,傳統(tǒng)視頻識(shí)別方法無(wú)法滿足側(cè)視視角的交通流量視頻識(shí)別要求。近年,深度學(xué)習(xí)法(Deep Learning Method)方法在不同領(lǐng)域應(yīng)用取得長(zhǎng)足進(jìn)步[10-12]。它通過(guò)建立具有階層結(jié)構(gòu)的人工神經(jīng)網(wǎng)絡(luò)進(jìn)行目標(biāo)物檢測(cè),基于目標(biāo)物的位置和類別進(jìn)行跟蹤計(jì)數(shù)。常見的目標(biāo)物檢測(cè)方法有R-CNN (Regions with Convolutional Neural Network)、Fast R-CNN (Fast Regions with Convolutional Neural Network feature)、SSD (Single Shot Detection)、YOLO (You Only Look Once)。R-CNN選用Selective search(選擇性搜索)方法來(lái)生成候選區(qū)域,然后每個(gè)候選區(qū)域送入一個(gè)CNN模型,預(yù)測(cè)出候選區(qū)域中所含物體的屬于每個(gè)類的概率值,該方法檢測(cè)精度高,但計(jì)算效率低。Fast R-CNN[13]主要是為了減少候選區(qū)域使用CNN模型提取特征向量所消耗的時(shí)間,借鑒SPP-net思想,在計(jì)算效率上較RCNN有所提升。SSD采用了回歸方法進(jìn)行目標(biāo)檢測(cè)使得目標(biāo)檢測(cè)速度大大加快,采用archor機(jī)制使得目標(biāo)定位和分類精度有了大幅度提高,如牛嘉郡[14]利用SSD網(wǎng)絡(luò)模型對(duì)視頻中的車輛進(jìn)行檢測(cè),提出基于重疊率匹配和 SURF 特征提取的運(yùn)動(dòng)車輛目標(biāo)跟蹤與計(jì)數(shù)方法,結(jié)合虛擬線圈技術(shù),分車道對(duì)跟蹤車輛進(jìn)行計(jì)數(shù),在擁堵道路上正視角度視頻的測(cè)試結(jié)果表明,該方法精度約85%。

      YOLO[15]在識(shí)別精度和效率之間取得平衡,其核心思想是利用整張圖作為網(wǎng)絡(luò)的輸入,直接在輸出層回歸邊界框的位置及其所屬的類別。YOLO代表的深度學(xué)習(xí)技術(shù)在圖像檢測(cè)中的最高水平之一,到目前為止,已經(jīng)發(fā)展到第3代YOLO_V3,它很好地解決了小目標(biāo)、遮擋目標(biāo)識(shí)別精度不高的問(wèn)題,總體而言,它比R-CNN快1 000倍,比Fast R-CNN快100倍。關(guān)于YOLO應(yīng)用,目前有很多學(xué)者在不同領(lǐng)域開展了大量研究,包括用于安全帽佩戴檢測(cè)[16](精度92.13%)、交通標(biāo)識(shí)檢測(cè)[17](精度80.1%)、機(jī)場(chǎng)場(chǎng)面飛機(jī)檢測(cè)[18](精度83.7%)、車輛信息檢測(cè)[19-20]、道路擁堵分析[21](精度80%)等。

      本研究在YOLO_V3的基礎(chǔ)上開展側(cè)視頻角度的交通流量計(jì)數(shù)方法研究。

      1.2 目標(biāo)跟蹤方法

      基于分類的目標(biāo)檢測(cè)之后,在圖像序列中持續(xù)地估計(jì)出車輛運(yùn)動(dòng)所在位置,形成車輛軌跡。目標(biāo)跟蹤分為單目標(biāo)跟蹤和多目標(biāo)跟蹤,單目標(biāo)跟蹤算法而言,存在一個(gè)先驗(yàn)假設(shè)是目標(biāo)總是在視頻范圍內(nèi);多目標(biāo)跟蹤問(wèn)題跟蹤的對(duì)象位置變化很大,跟蹤對(duì)象從場(chǎng)景進(jìn)入、離開,跟蹤目標(biāo)個(gè)數(shù)不固定。

      目標(biāo)跟蹤算法包括基于輪廓的追蹤法、基于區(qū)域的追蹤法、基于模型的追蹤法、基于特征的追蹤法和基于貝葉斯濾波特征的追蹤法[22]。

      (1)基于輪廓的追蹤法[23]

      以目標(biāo)物的輪廓曲線為對(duì)象,進(jìn)行匹配追蹤,優(yōu)點(diǎn)是匹配速度快,準(zhǔn)確性較高,但存在遮擋時(shí)精度較差。

      (2)基于區(qū)域的追蹤法

      在事先獲得跟蹤目標(biāo)的區(qū)域,利用跟蹤算法進(jìn)行追蹤,該方法場(chǎng)景固定的視頻具備一定優(yōu)勢(shì),但無(wú)法適用于靈活多變的視頻。

      (3)基于模型的追蹤法[24]

      利用目標(biāo)的先驗(yàn)知識(shí)進(jìn)行建模,通過(guò)模式匹配方法進(jìn)行跟蹤,該方法同樣在發(fā)生較大形變、存在遮擋的情況則跟蹤效果不佳。

      (4)基于特征的追蹤法[25]

      該方法不考慮跟蹤目標(biāo)整體情況,將目標(biāo)物體的特征點(diǎn)作為跟蹤目標(biāo)的方法,只對(duì)從目標(biāo)物體上提取出來(lái)的顯著特征進(jìn)行跟蹤。優(yōu)點(diǎn)是物體的尺度、形狀和光照的變換不敏感,即使存在遮擋,只要有部分特征點(diǎn)可見,也可完成對(duì)目標(biāo)的跟蹤。

      (5)基于貝葉斯濾波特征的追蹤法

      用系統(tǒng)模型預(yù)測(cè)狀態(tài)的先驗(yàn)概率密度,再使用最近的測(cè)量值進(jìn)行修正,得到后驗(yàn)概率密度。典型的算法包括卡爾曼濾波[26](KalmanFilter)和粒子濾波[27](Partical Filter)。該方法對(duì)線性高斯系統(tǒng)和非線性高斯系統(tǒng)都有對(duì)應(yīng)算法,而粒子濾波需大量樣本才可較好估計(jì)后驗(yàn)概率密,卡爾曼濾波對(duì)遮擋敏感。

      傳統(tǒng)上利用圖像識(shí)別方法開展交通流量計(jì)數(shù),主要考慮目標(biāo)物的特征和運(yùn)動(dòng)過(guò)程中產(chǎn)生的像素變化來(lái)識(shí)別車輛,這些方法對(duì)拍攝視頻的角度和視頻質(zhì)量均有較高要求,如車輛間的遮擋,光照的變化,均可能較大地影響結(jié)果精度。而作為臨時(shí)采集交通流量數(shù)據(jù),通過(guò)將相機(jī)布置于路側(cè),難以滿足以上條件。針對(duì)這些問(wèn)題,本研究利用深度學(xué)習(xí)技術(shù),提出了一種適用于側(cè)視角度拍攝視頻用于交通流量統(tǒng)計(jì)的方法。

      2 模型建立

      模型的基本假設(shè):YOLO_V3識(shí)別的車輛在視頻幀中的變化是連續(xù)的,不存在大幅度跳幀現(xiàn)象;不同車輛在圖片中的中心點(diǎn)距離小于相同車輛在相鄰兩幀之間的移動(dòng)距離。

      首先利用YOLO_V3對(duì)視頻連續(xù)幀中的目標(biāo)檢測(cè)區(qū)域進(jìn)行目標(biāo)物識(shí)別,識(shí)別信息包括目標(biāo)物的類別、概率值和邊框坐標(biāo);然后在幀圖片中選擇至少4個(gè)點(diǎn),將這些點(diǎn)在圖片中的像素坐標(biāo)與現(xiàn)實(shí)環(huán)境中的真實(shí)坐標(biāo)建立對(duì)應(yīng)關(guān)系,建立透視轉(zhuǎn)換模型,將檢測(cè)目標(biāo)物的像素坐標(biāo)以此模型轉(zhuǎn)換為真實(shí)坐標(biāo);計(jì)算相鄰幀所有檢測(cè)物的歐幾里得距離,用匈牙利匹配算法求解最小費(fèi)用,實(shí)現(xiàn)連續(xù)幀之間車輛的追蹤;最后利用卡爾曼濾波算法實(shí)現(xiàn)車輛連續(xù)軌跡的修正預(yù)測(cè),統(tǒng)計(jì)某車輛在流量檢測(cè)區(qū)域出行的幀次數(shù),超過(guò)指定閾值時(shí),認(rèn)定為一個(gè)有效流量。詳細(xì)流程見圖2。

      圖2 算法流程圖Fig.2 Flowchart of algorithm

      2.1 目標(biāo)跟蹤

      (1)透視轉(zhuǎn)換模型

      透視轉(zhuǎn)換的目標(biāo)是將圖像投影到一個(gè)新的視平面,在本應(yīng)用中是將相機(jī)拍攝存在透視角度圖的坐標(biāo)轉(zhuǎn)換成真實(shí)環(huán)境中的坐標(biāo)。其實(shí)現(xiàn)原理見公式(1),其中[x′y′w′]是真實(shí)環(huán)境的坐標(biāo),[uvw]是圖片中的像素坐標(biāo),a矩陣是變換矩陣,本例中僅將路面作為檢測(cè)區(qū)域,僅需要二維空間上的坐標(biāo)轉(zhuǎn)換。

      (1)

      透視轉(zhuǎn)換效果見圖3,圖3(a)為相機(jī)拍攝視頻原圖,畫對(duì)角線的多邊形框體為車輛檢測(cè)區(qū)域,因相機(jī)架設(shè)于路側(cè),圖像存在顯著變形,圖3(b)是經(jīng)透視轉(zhuǎn)換模型校正后的效果,道路的橫縱比例關(guān)系與真實(shí)環(huán)境基本完全吻合,因此該校正方法適用。

      圖3 透視投影變換效果Fig.3 Perspective projection transformation effect

      (2)匈牙利匹配法

      前后幀的車輛追蹤問(wèn)題,本研究將其描述為數(shù)學(xué)中的指派問(wèn)題,即上一幀檢測(cè)到n輛車,當(dāng)前幀檢測(cè)到m輛車,將m輛車中的車輛與上一幀的n輛車建立一一對(duì)應(yīng)關(guān)系,目標(biāo)是之間的總費(fèi)用最低。前n與m不相等時(shí),取最大值,并將不足的行列補(bǔ)0,形成方陣。通用數(shù)學(xué)模型見公式(2),其中:ci1為前后兩幀間所有檢測(cè)物的歐幾里得距離矩陣,xi1為匹配結(jié)果矩陣,值為0時(shí)表示二者不匹配,為1時(shí)表示二者匹配。

      (2)

      (3)卡爾曼濾波預(yù)測(cè)法

      卡爾曼濾波預(yù)測(cè)法提供了一種高效可計(jì)算的方法來(lái)估計(jì)過(guò)程的狀態(tài),并使估計(jì)均方誤差最小。其基本思想是:以最小均方誤差為最佳估計(jì)準(zhǔn)則,利用前一時(shí)刻的估計(jì)值和當(dāng)前時(shí)刻的觀測(cè)值來(lái)更新對(duì)狀態(tài)變量的估計(jì),求出當(dāng)前時(shí)刻的估計(jì)值,算法根據(jù)建立的系統(tǒng)方程和觀測(cè)方程對(duì)需要處理的數(shù)據(jù)做出滿足最小均方誤差的估計(jì)。卡爾曼濾波預(yù)測(cè)法使用時(shí)包括預(yù)測(cè)和校正兩個(gè)過(guò)程。

      預(yù)測(cè)過(guò)程如下:

      (3)

      式中,u為幀坐標(biāo)向量;P為協(xié)方差矩陣;F為狀態(tài)轉(zhuǎn)移矩陣;Q為過(guò)程噪聲矩陣。校正過(guò)程如下:

      (4)

      式中,u為幀坐標(biāo)向量;A為狀態(tài)轉(zhuǎn)移矩陣;b為當(dāng)前幀坐標(biāo);P為協(xié)方差矩陣;Q為過(guò)程噪聲矩陣;R為觀測(cè)噪聲矩陣;C為狀態(tài)變量到觀測(cè)量的轉(zhuǎn)換矩陣;K為濾波增益矩陣。

      利用卡爾曼濾波預(yù)測(cè)法可以有效減少噪聲干擾數(shù)據(jù)對(duì)軌跡追蹤精度的影響。

      2.2 流量統(tǒng)計(jì)

      考慮到卡爾曼濾波預(yù)測(cè)穩(wěn)定性收斂需要一定的歷史數(shù)據(jù),本研究通過(guò)建立車輛檢測(cè)區(qū)域和流量計(jì)數(shù)區(qū)域的二級(jí)檢測(cè)框架提高流量計(jì)數(shù)的精度。如圖4所示,沿車流方向在行車道范圍內(nèi)建立一個(gè)長(zhǎng)約100 m的車輛檢測(cè)區(qū)域(圖中淺灰色區(qū)域),僅在該區(qū)域出現(xiàn)的車輛作為追蹤對(duì)象,減少無(wú)效干擾車輛影響;在車輛檢測(cè)區(qū)域中的下游處,建立長(zhǎng)度約為25 m的流量計(jì)數(shù)區(qū)域(圖中深灰色區(qū)域)。當(dāng)追蹤車輛經(jīng)過(guò)流量檢測(cè)區(qū)域時(shí),記錄其出現(xiàn)的幀次數(shù)量,當(dāng)幀次數(shù)量達(dá)到一定閾值時(shí),認(rèn)為是一次有效的交通計(jì)數(shù)。閾值選擇與流量檢測(cè)區(qū)域大小、車輛平均行駛速度均有關(guān),流量檢測(cè)區(qū)域越大,車輛通過(guò)需要越長(zhǎng)時(shí)間,可檢測(cè)到的幀數(shù)越多;車輛平均行駛速度越快,通過(guò)流量檢測(cè)區(qū)域時(shí)間越短,可檢測(cè)到的幀數(shù)越少。

      圖4 交通流量檢測(cè)示意圖Fig.4 Schematic diagram of traffic volume detection

      考慮到不同車型速度差異較大時(shí),幀次數(shù)量閾值按車輛類型設(shè)置不同的值,如城市道路中,非機(jī)動(dòng)車的速度通常只有機(jī)動(dòng)的1/3~1/2,閾值可稍大于機(jī)動(dòng)車。

      依據(jù)實(shí)際數(shù)據(jù)的測(cè)試經(jīng)驗(yàn)表明,各類型的車輛幀次數(shù)量閾值約為其最大可通過(guò)幀次的60%左右時(shí),流量統(tǒng)計(jì)結(jié)果具有較高的精度。

      該方法存在以下優(yōu)點(diǎn):

      (1)采用二級(jí)檢測(cè)框架,僅利用卡爾曼濾波預(yù)測(cè)收斂后的數(shù)據(jù)作為流量計(jì)數(shù)的依據(jù),有利于提高追蹤的精度。

      (2)可以有效避免因車輛檢測(cè)誤差導(dǎo)致的流量誤判,如車輛在連續(xù)幀中出現(xiàn)某幀識(shí)別錯(cuò)誤,導(dǎo)致車輛追蹤時(shí)誤認(rèn)為另一輛新車出現(xiàn),但該誤檢車輛無(wú)法在流量檢測(cè)區(qū)域達(dá)到閾值時(shí),誤計(jì)車輛將被舍棄。

      3 驗(yàn)證與分析

      3.1 試驗(yàn)條件

      為保證試驗(yàn)結(jié)果的客觀性,采用YOLO_V3官方提供已訓(xùn)練好的權(quán)重文件。

      考慮到側(cè)視角度采集的視頻,流量計(jì)數(shù)結(jié)果精度的高低,不僅與算法設(shè)計(jì)相關(guān),還與視頻采集的角度、高度以及道路上的車流密度密切相關(guān)。為了驗(yàn)證方法的有效性,選擇不同環(huán)境條件開展測(cè)試,包括3個(gè)主要指標(biāo):

      (1)拍攝相機(jī)與道路相交角度

      考慮相機(jī)的廣角形變效果,相機(jī)與道路相交角度會(huì)影響透視變換效果,角度過(guò)大或過(guò)小均不利于視頻識(shí)別,本研究選擇測(cè)試角度分別為30°,45°和60°,記為A_30,A_45,A_60。

      (2)拍攝相機(jī)架設(shè)高度

      小型車輛一般高1.8 m,大型公交車高一般為3 m,考慮視頻在路側(cè)采集時(shí)布置相機(jī)的可行性,過(guò)低時(shí)存在大量車輛相互遮擋,過(guò)高時(shí)相機(jī)穩(wěn)定性差,因此選擇高度為2 m和3 m進(jìn)行測(cè)試,記為HT_2,HT_3。

      (3)道路車流密度

      車流密度大小會(huì)影響跟蹤的精度,當(dāng)車流密度高時(shí),車間距小,容易相互遮擋,極易在跟蹤時(shí)產(chǎn)生誤判。本研究選用交通流量(Veh/h)代表交通流密度,單向3車道,分別測(cè)試低、中、高3類(記為F_L,F(xiàn)_M,F(xiàn)_H)不同條件下的精度,不同類別對(duì)應(yīng)的交通流量見表1。

      表1 車流密度分類Tab.1 Classification of traffic densities

      3.2 評(píng)估指標(biāo)

      統(tǒng)計(jì)不同周期內(nèi)的檢測(cè)的車輛數(shù)量Fi,同時(shí)人工統(tǒng)計(jì)對(duì)應(yīng)的車輛數(shù)Ai,n為樣本數(shù)量,以MAPE和RMSE對(duì)結(jié)果精度分別進(jìn)行評(píng)價(jià)。

      (1)平均絕對(duì)百分比誤差MAPE

      (5)

      (2)均方根誤差RMSE

      (6)

      (3)運(yùn)行效率

      用每秒傳輸幀數(shù)(Frames Per Second,F(xiàn)PS)表示。

      3.3 結(jié)果分析

      測(cè)試結(jié)果顯示見表2,最小MAPE為2.74%,最大為10.37%,總體而言,隨著夾角增大,MAPE逐漸增大,其主要原因是過(guò)大的夾角下視頻拍攝道路范圍減小,導(dǎo)致算法無(wú)法有效追蹤車輛;相交角度相同時(shí),相機(jī)架設(shè)越高,MAPE值越低,當(dāng)達(dá)到3 m,夾角為30°時(shí),MAPE值為2.74%,具有較高的辨識(shí)精度;此外,相交角度相同時(shí),視頻流量越低,MAPE值越低,精度越高。需要指出的是,在高度為2 m的,角度為30的測(cè)試視頻中,連續(xù)出現(xiàn)大型公交車輛遮擋視野,導(dǎo)致MAPE提高到10.45%。均方根誤差RMSE呈現(xiàn)的趨勢(shì)特征與MAPE基本一致且數(shù)值較低,表明算法具有較高的穩(wěn)定性。

      表2 角度與高度對(duì)識(shí)別精度的影響Tab.2 Influence of angle and height on recognition accuracy

      當(dāng)相機(jī)與道路夾角相同時(shí),隨著相機(jī)架設(shè)高度的增加,MAPE呈減小趨勢(shì),如在角度為30°,高度為2 m時(shí),MAPE值為10.45%,而高度為3 m時(shí),降為2.74%,精度大幅提升;如表3所示,在同等高度條件下,交通流量越大MAPE越小,測(cè)試的6組數(shù)據(jù)中,除一組數(shù)據(jù)因公交遮擋在16.5%,其余組主要分布在4%~6%之間,甚至有一組結(jié)果MAPE值為1.3%,RMSE也主要分布在10~20之間,表明具有較高穩(wěn)定性,相機(jī)與道路角度相同時(shí),交通流量的大小對(duì)精度影響不大,見表4。

      表3 車流密度與高度對(duì)識(shí)別精度的影響Tab.3 Influence of traffic density and height on recognition accuracy

      表4 角度與車流密度對(duì)識(shí)別精度的影響Tab.4 Influence of angel and traffic density on recognition accuracy

      3.4 計(jì)算效率分析

      程序運(yùn)行環(huán)境為:windows10 x64操作系統(tǒng),2080Ti顯卡,64G內(nèi)存,i7-7820XCPU,程序每次運(yùn)行過(guò)程中均無(wú)其他程序運(yùn)行,測(cè)試視頻大小均為1080P,30FPS。

      結(jié)果表明相機(jī)架設(shè)角度和高度均對(duì)程序運(yùn)行效率無(wú)顯著影響,而車流密度則影響較大,結(jié)果顯示見表5,在低密度車流下,F(xiàn)PS值約為44,而高密度車流下,F(xiàn)PS值降為33左右,高密度客流下車輛數(shù)增多,卡爾曼濾波和匈牙利分配算法所消耗的時(shí)間均會(huì)顯著增加,但仍然高于常用的視頻流30FPS。表明該方法運(yùn)行效率較高,可用于實(shí)時(shí)視頻流的數(shù)據(jù)采集。

      表5 車流密度對(duì)運(yùn)行效率的影響Tab.5 Influence of traffic density and efficiency on recognition accuracy

      4 結(jié)論

      (1)以YOLO_V3為基礎(chǔ),對(duì)側(cè)視視角的視頻開展車輛目標(biāo)物檢測(cè),建立車輛檢測(cè)區(qū)域和流量計(jì)數(shù)區(qū)域的二級(jí)檢測(cè)框架,提出基于卡爾曼濾波+匈牙利分配法+透視投影變換法的車輛追蹤計(jì)數(shù)方法,實(shí)測(cè)結(jié)果顯示,MAPE平均在5%左右,RMSE平均在15左右,表明該方法具有較高的試驗(yàn)精度和穩(wěn)定性。

      (2)基于YOLO_V3,利用本研究提出的交通流量統(tǒng)計(jì)方法,在相機(jī)高度為3 m,與路側(cè)夾角為30°的視頻環(huán)境中,流量計(jì)數(shù)的精度在95%,滿足臨時(shí)交通調(diào)查的需求。

      (3)依然受大型公交、貨車影響嚴(yán)重,當(dāng)存在大型車輛通過(guò)時(shí),其他車輛幾乎完全被遮擋,導(dǎo)致流量計(jì)數(shù)出現(xiàn)偏差,盡管如此,精度仍然在90%左右。

      (4)測(cè)試采用的18組視頻在識(shí)別結(jié)果上均表現(xiàn)出較高的精度,表明本方法具備較高的魯棒性,適合靈活多變的路側(cè)采集方式。

      (5)對(duì)深度學(xué)習(xí)方法YOLO_V3的識(shí)別結(jié)果依賴較強(qiáng),測(cè)試采用的是官方已訓(xùn)練好的權(quán)重文件,國(guó)內(nèi)車型與國(guó)外車型存在一定差異會(huì)影響精度,如面包車經(jīng)常被識(shí)別成小貨車,而國(guó)內(nèi)通常認(rèn)為面包車小客車。

      (6)本方法對(duì)雨雪等惡劣天氣條件下的適用性還需進(jìn)一步驗(yàn)證。

      猜你喜歡
      交通流量角度精度
      神奇的角度
      基于XGBOOST算法的擁堵路段短時(shí)交通流量預(yù)測(cè)
      一個(gè)涉及角度和的幾何不等式鏈的改進(jìn)
      基于GA-BP神經(jīng)網(wǎng)絡(luò)的衡大高速公路日交通流量預(yù)測(cè)
      基于DSPIC33F微處理器的采集精度的提高
      電子制作(2018年11期)2018-08-04 03:25:38
      角度不同
      37°女人(2017年8期)2017-08-12 11:20:48
      人啊
      滇池(2017年7期)2017-07-18 19:32:42
      GPS/GLONASS/BDS組合PPP精度分析
      改進(jìn)的Goldschmidt雙精度浮點(diǎn)除法器
      基于復(fù)合卡和ETC的交通流量采集研究
      武鸣县| 佛教| 汝阳县| 昆山市| 沂源县| 聂荣县| 南乐县| 芜湖市| 井冈山市| 望城县| 蓝田县| 监利县| 章丘市| 同仁县| 宁津县| 灵丘县| 合江县| 湘潭县| 汉源县| 三明市| 且末县| 东阿县| 顺平县| 菏泽市| 长兴县| 赣榆县| 博罗县| 剑川县| 正镶白旗| 沁阳市| 泸溪县| 太白县| 宣化县| 台江县| 同江市| 翁牛特旗| 乐安县| 济源市| 图木舒克市| 汕尾市| 五华县|