王洪昌 王鵬 焦博文 于奕軒 王玉林
文章編號(hào):10069798(2022)02005506;DOI:10.13306/j.10069798.2022.02.009
摘要:針對(duì)夜晚環(huán)境中傳統(tǒng)交通流量統(tǒng)計(jì)出現(xiàn)的實(shí)時(shí)性、魯棒性及準(zhǔn)確性不高的問題,提出了一種基于改進(jìn)的YOLOv5s交通流量統(tǒng)計(jì)算法。采用殘差網(wǎng)絡(luò)的連接結(jié)構(gòu)對(duì)YOLOv5s算法中的Focus層進(jìn)行改進(jìn)。將改進(jìn)后的YOLOv5s算法與DeepSORT跟蹤算法、統(tǒng)計(jì)模塊搭建高效的交通流量統(tǒng)計(jì)框架。采集實(shí)際路況的夜間場(chǎng)景視頻來對(duì)該框架的準(zhǔn)確性進(jìn)行驗(yàn)證。實(shí)驗(yàn)結(jié)果表明,該算法平均準(zhǔn)確率達(dá)到92.9%,較改進(jìn)前提升3.0%,平均檢測(cè)速度可以達(dá)到33.4Hz,準(zhǔn)確率及實(shí)時(shí)性都能滿足交通流量統(tǒng)計(jì)要求。該算法框架可有效地提供夜間交通流量數(shù)據(jù),為智能交通發(fā)展提供一定的技術(shù)支持。
關(guān)鍵詞:計(jì)算機(jī)視覺;交通流量統(tǒng)計(jì);YOLOv5s;DeepSORT;智能交通
中圖分類號(hào):TP391.41;TP393.021文獻(xiàn)標(biāo)識(shí)碼:A
智能交通技術(shù)是融合多學(xué)科內(nèi)容的前沿學(xué)科[1],交通流量統(tǒng)計(jì)[2]是智能交通技術(shù)的重要環(huán)節(jié)和數(shù)據(jù)來源,開展這方面的研究具有重要意義。目前,交通流量統(tǒng)計(jì)算法分為目標(biāo)檢測(cè)、目標(biāo)跟蹤和目標(biāo)統(tǒng)計(jì)三個(gè)模塊。目標(biāo)檢測(cè)[3]是獲取交通流信息的第一步,準(zhǔn)確的目標(biāo)檢測(cè)算法可以大大提高跟蹤模塊的性能。傳統(tǒng)的目標(biāo)檢測(cè)方法易受到天氣和光線等外界因素的影響,進(jìn)而對(duì)目標(biāo)跟蹤的準(zhǔn)確性造成影響。采用基于深度學(xué)習(xí)[4]的目標(biāo)檢測(cè)方法,可以對(duì)道路中的車輛進(jìn)行精準(zhǔn)識(shí)別,利用獲取的車輛種類和位置信息進(jìn)一步跟蹤和計(jì)數(shù)。J.REDMON等人[5]提出以卷積神經(jīng)網(wǎng)絡(luò)為基礎(chǔ)的YOLO目標(biāo)檢測(cè)算法,實(shí)現(xiàn)了對(duì)圖像目標(biāo)的檢測(cè)和分類,目前已經(jīng)由YOLOv1發(fā)展到Y(jié)OLOv5[69];張文龍等人[10]在JDE跟蹤算法的基礎(chǔ)上添加AFN模塊,使用EfficientNetv2替換YOLOv5的特征提取網(wǎng)絡(luò),提高了算法實(shí)時(shí)跟蹤速度和檢測(cè)能力;賴見輝等人[11]采用基于深度學(xué)習(xí)的YOLOv3方法,建立卡爾曼濾波、匈牙利分配和透視投影變換的交通流量計(jì)數(shù)模式,車流量計(jì)數(shù)精度在95%左右;劉磊等人[12]采用YOLO網(wǎng)絡(luò)與MeanShift跟蹤算法結(jié)合的車流量統(tǒng)計(jì)方法,此方法具有較強(qiáng)的魯棒性。雖然科研工作者對(duì)交通流量統(tǒng)計(jì)方法做了一定研究,但缺少在夜晚交通環(huán)境下的算法和性能測(cè)試,夜間場(chǎng)景中目標(biāo)識(shí)別準(zhǔn)確率低一直是交通流量統(tǒng)計(jì)的一個(gè)難點(diǎn)。針對(duì)夜晚交通工況,本文提出了一種新的交通流量統(tǒng)計(jì)算法框架(res-YOLOv5strafficflowstatisticalframework,RY-TFSF)。該算法借鑒殘差網(wǎng)絡(luò)[13]的思想,改進(jìn)了YOLOv5s[14]中的Focus模塊,將改進(jìn)后的YOLOv5s檢測(cè)算法與DeepSORT跟蹤算法、統(tǒng)計(jì)模塊融合,搭建成新的交通流量統(tǒng)計(jì)算法框架。與傳統(tǒng)的交通流量統(tǒng)計(jì)框架相比,該框架在保證實(shí)時(shí)性的同時(shí),提高了準(zhǔn)確率。該研究在交通流量統(tǒng)計(jì)領(lǐng)域應(yīng)用前景廣闊。
1目標(biāo)檢測(cè)
1.1YOLOv5s網(wǎng)絡(luò)結(jié)構(gòu)
深度學(xué)習(xí)中以YOLO為代表的基于回歸檢測(cè)方法表現(xiàn)出了更好的性能。其中,最新的YOLOv5算法較前幾代YOLO算法在靈活性和速度上得到了極大的改進(jìn),可滿足交通流量統(tǒng)計(jì)領(lǐng)域?qū)?shí)時(shí)性的要求。YOLOv5目標(biāo)檢測(cè)網(wǎng)絡(luò)結(jié)構(gòu)共有四種,按照網(wǎng)絡(luò)結(jié)構(gòu)規(guī)模排序小到大依次為YOLOv5s、YOLOv5m、YOLOv5l和YOLOv5x,四種網(wǎng)絡(luò)結(jié)構(gòu)的殘差組件和卷積核的個(gè)數(shù)依次增加[15]。YOLOv5s網(wǎng)絡(luò)是YOLOv5系列中深度和特征圖寬度最小的網(wǎng)絡(luò)結(jié)構(gòu),YOLOv5s網(wǎng)絡(luò)架構(gòu)如圖1所示。
該網(wǎng)絡(luò)包括Input、Backbone、Neck和Prediction四個(gè)部分,其中,Input為圖片輸入模塊,要求輸入圖像大小為640×640,對(duì)于不滿足該尺寸的輸入圖片,可將圖片自適應(yīng)的縮放到640×640像素大小。Backbone的作用是對(duì)圖像進(jìn)行降采樣,減小圖片的寬和高,而通道數(shù)增加,可提取不同層次的語義信息。YOLOv5s中使用CSPDarknet53結(jié)構(gòu),使用Focus結(jié)構(gòu)作為基準(zhǔn)網(wǎng)。Neck位于主干網(wǎng)絡(luò)和網(wǎng)絡(luò)頭部的中間位置,它可以對(duì)特征提取的多樣性及魯棒性進(jìn)行優(yōu)化。Prediction包含分類和回歸兩個(gè)分支,用來完成目標(biāo)檢測(cè)結(jié)果的輸出。
1.2Res-YOLOv5sFocus層的改進(jìn)
在主干網(wǎng)絡(luò)的卷積層前有一個(gè)Focus層[16]用來豐富輸入圖像信息,YOLOv5s中的Focus層如圖2所示。
在YOLOv5s的Focus層中,將輸入圖像在行與列上分別取奇數(shù)像素與偶數(shù)像素,在3個(gè)通道上產(chǎn)生4個(gè)圖像塊,并將所有圖像塊沿通道方向進(jìn)行拼接,使原本3通道的圖像變?yōu)?2通道,并且圖像尺寸變?yōu)樵瓉淼囊话?。這種Focus結(jié)構(gòu)在下采樣的過程中,將寬與高上的信息變換到了通道方向,為后續(xù)的特征提取保存了較完整的圖片下采樣信息。-
為更好提取目標(biāo)的圖像特征,增強(qiáng)目標(biāo)檢測(cè)算法對(duì)目標(biāo)的識(shí)別能力,本文對(duì)YOLOv5s模型中的Focus層做出了結(jié)構(gòu)上的改進(jìn),改進(jìn)后的Focus層如圖3所示?;贔ocus結(jié)構(gòu)上增加了一條通路,該通路直接輸入圖像進(jìn)行卷積,再將兩條通路進(jìn)行拼接后,經(jīng)過一次32通道3×3的卷積,即可得到改進(jìn)Focus模塊的輸出。此結(jié)構(gòu)能在YOLOv5s/Focus層優(yōu)勢(shì)的基礎(chǔ)上,更多的保留原始圖像信息,并且將兩條通路結(jié)合,豐富輸入圖像信息,使后續(xù)卷積層可以獲得更好的特征提取效果。-
1.3激活函數(shù)
本文采用LeakyReLU激活函數(shù)對(duì)卷積層得到的運(yùn)算結(jié)果進(jìn)行非線性激活[1718],傳統(tǒng)的ReLU激活函數(shù)雖然具有較快的計(jì)算速度與收斂速度。但當(dāng)輸入值為負(fù)時(shí),會(huì)因?yàn)槠?輸出導(dǎo)致神經(jīng)元無法更新參數(shù)。
而相較于傳統(tǒng)的ReLU函數(shù),LeakyReLU函數(shù)在輸入的負(fù)半?yún)^(qū)間引入了Leaky值,避免了輸入為負(fù)值時(shí),0的導(dǎo)數(shù)引發(fā)神經(jīng)元無法更新參數(shù)的問題。ReLU和LeakyReLU激活函數(shù)如圖4所示。
圖4中,LeakyReLU激活函數(shù)負(fù)半軸是一個(gè)較小斜率的函數(shù),可以初始化神經(jīng)元,避免神經(jīng)元死亡并可增加負(fù)值特征信息的提取。當(dāng)LeakyReLU激活函數(shù)中a=5.5時(shí),LeakyReLU激活函數(shù)的分類能力高于ReLU激活函數(shù)。
2目標(biāo)跟蹤
目標(biāo)跟蹤的主要任務(wù)是關(guān)聯(lián)兩幀之間的檢測(cè)目標(biāo),對(duì)目標(biāo)進(jìn)行編號(hào),獲得目標(biāo)運(yùn)動(dòng)軌跡,為流量統(tǒng)計(jì)框架提供數(shù)據(jù)基礎(chǔ)。DeepSORT算法是跟蹤檢測(cè)算法中的一個(gè)經(jīng)典代表,其具有魯棒性和實(shí)時(shí)性較高的優(yōu)點(diǎn),DeepSORT算法流程如圖5所示。
圖5中IOU匹配為檢測(cè)目標(biāo)框交并比,是衡量真實(shí)目標(biāo)框與檢測(cè)目標(biāo)框差異的一種參數(shù)。該算法在SORT算法的基礎(chǔ)上加入了深度特征,通過目標(biāo)的外觀特征匹配來增加在遮擋等特殊情況下目標(biāo)跟蹤的準(zhǔn)確率,并減少了ID跳變的次數(shù)。
對(duì)所有初始幀進(jìn)行檢測(cè)和ID編號(hào)初始化,使用卡爾曼濾波預(yù)測(cè)下一幀的狀態(tài)參數(shù),根據(jù)預(yù)測(cè)框和下一幀檢測(cè)框的CNN和IOU進(jìn)行匈牙利匹配[19]。預(yù)先設(shè)置合適的閾值,判斷特征距離與所設(shè)閾值的大小關(guān)系,要求三者中有一處匹配成功,則會(huì)進(jìn)入卡爾曼濾波更新階段。若經(jīng)過T次匹配仍未成功,目標(biāo)跟蹤Tracks會(huì)被認(rèn)為已經(jīng)離開視頻,其將被刪除,未匹配成功的目標(biāo)檢測(cè)框Detections將給予新的ID編號(hào),所有Detections和Tracks處理完成后,則進(jìn)入下一幀的匹配更新環(huán)節(jié)。-
3流量統(tǒng)計(jì)框架
本文針對(duì)夜間交通場(chǎng)景,搭建了交通流量統(tǒng)計(jì)框架RY-TFSF,RY-TFSF交通流量統(tǒng)計(jì)框架如圖6所示。由于交通場(chǎng)景的復(fù)雜性以及智能交通系統(tǒng)對(duì)信息實(shí)時(shí)性的要求,統(tǒng)計(jì)流量時(shí),剔除冗余的信息,避免其對(duì)智能交通系統(tǒng)各性能的影響[20]。-當(dāng)一個(gè)車輛ID首次在視頻區(qū)域出現(xiàn)時(shí),記錄框中心點(diǎn)位置(x,y)first,當(dāng)該ID通過檢測(cè)線時(shí)會(huì)再次記錄框中心點(diǎn)(x,y)end,根據(jù)兩次記錄的中心點(diǎn),可計(jì)算得到一個(gè)矢量方向,進(jìn)而判斷該ID的運(yùn)動(dòng)方向。
判讀該ID是否被記錄于ID集中,如選項(xiàng)為否,則根據(jù)跟蹤檢測(cè)框的類別和行駛方向進(jìn)行計(jì)數(shù),如已經(jīng)計(jì)數(shù)則不進(jìn)行操作。當(dāng)某車輛駛出視頻區(qū)域時(shí),將此ID從Recorded_ID中刪除,以此縮小RY-TFSF框架的規(guī)模,減少對(duì)算力的需求,保證流量統(tǒng)計(jì)的速度和實(shí)時(shí)性。
4實(shí)驗(yàn)結(jié)果及分析
軟件配置為編程語言采用python3.7,深度學(xué)習(xí)框架及相應(yīng)庫分別采用pytorch1.7.0,Cuda10.1和Cudnn7.4.1,操作系統(tǒng)為Ubuntu18.04。硬件配置為i710700kCPU@3.00GHz,NVIDIAGeForceRTX2080Ti,12G顯存,CUDA核心數(shù)為4352和運(yùn)行內(nèi)存為32G。實(shí)驗(yàn)參數(shù)為置信度設(shè)為0.4,IOU匹配閾值設(shè)為0.5,HOG特征匹配閾值設(shè)為0.5。
本文測(cè)試過程分為兩個(gè)步驟:一是對(duì)改進(jìn)的YOLOv5s神經(jīng)元網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到適用于夜間環(huán)境的車輛識(shí)別器;二是將訓(xùn)練好的識(shí)別器與跟蹤模塊和統(tǒng)計(jì)模塊結(jié)合,得到適用于夜間環(huán)境的交通流量統(tǒng)計(jì)集成系統(tǒng),并應(yīng)用該系統(tǒng)對(duì)標(biāo)注數(shù)據(jù)集進(jìn)行檢測(cè)。-
4.1深度神經(jīng)元網(wǎng)絡(luò)訓(xùn)練
YOLOv5s網(wǎng)絡(luò)的訓(xùn)練階段使用了Mosaic數(shù)據(jù)增強(qiáng)操作和自適應(yīng)錨框計(jì)算,Mosaic數(shù)據(jù)增強(qiáng)操作可以提升模型的訓(xùn)練速度和整個(gè)網(wǎng)絡(luò)的精度[21]。在YOLOv5s模型訓(xùn)練過程中,損失函數(shù)隨迭代次數(shù)變化曲線如圖7所示。
YOLOv5s模型訓(xùn)練過程圖橫坐標(biāo)為迭代次數(shù),縱坐標(biāo)為損失函數(shù)值Loss。由圖7可以看出,在迭代800次左右,3種Loss的值均趨向于穩(wěn)定,此時(shí)得到相對(duì)較優(yōu)的權(quán)重。
4.2交通流量統(tǒng)計(jì)測(cè)試及結(jié)果分析
流量統(tǒng)計(jì)框架的車輛類別分為轎車、公交車和卡車3種車型,使用這3種類型對(duì)測(cè)試視頻進(jìn)行流量統(tǒng)計(jì)檢測(cè),利用opencv在視頻的左上角搭建虛擬計(jì)數(shù)器。流量統(tǒng)計(jì)框架部分效果圖如圖8所示。
通過采集實(shí)際道路的夜間交通視頻,對(duì)本文所搭框架的準(zhǔn)確率進(jìn)行驗(yàn)證分析,計(jì)算框架平均準(zhǔn)確率和平均速率分別為
Fave=FtotalTtotal-式中,Ni,j為框架測(cè)試得到的第i個(gè)視頻中的第j種類的目標(biāo)數(shù)量;Ri,j為真實(shí)的第i個(gè)視頻中的第j種類的目標(biāo)數(shù)量;Ftotal為測(cè)試視頻的總幀數(shù);Ttotal為框架測(cè)試完視頻所用的總時(shí)間。經(jīng)過計(jì)算,得到改進(jìn)前后夜間交通視頻流量統(tǒng)計(jì)測(cè)試結(jié)果,夜間交通視頻流量統(tǒng)計(jì)測(cè)試結(jié)果如表1所示。
由表1統(tǒng)計(jì)測(cè)試結(jié)果分析可知,該框架對(duì)夜間場(chǎng)景視頻的交通目標(biāo)具有良好的計(jì)數(shù)準(zhǔn)確率和檢測(cè)速度,在單張顯卡的設(shè)備上,可滿足智能交通對(duì)實(shí)時(shí)性的要求。
5結(jié)束語
本文搭建了一個(gè)適用于夜間場(chǎng)景的交通流量統(tǒng)計(jì)框架,該框架分為檢測(cè)、跟蹤和統(tǒng)計(jì)模塊。分析研究目標(biāo)檢測(cè)算法的網(wǎng)絡(luò)結(jié)構(gòu),選用YOLOv5s算法,針對(duì)夜間場(chǎng)景交通問題的特點(diǎn),改進(jìn)Focus模塊來提高算法的特征提取能力。改進(jìn)后的YOLOv5s算法與DeepSORT跟蹤算法構(gòu)建了跟蹤框架,在此跟蹤框架的基礎(chǔ)上搭建流量統(tǒng)計(jì)框架,并拍攝了夜間交通視頻。對(duì)夜間交通視頻測(cè)試,其結(jié)果說明該框架具有不錯(cuò)的魯棒性、實(shí)時(shí)性和較強(qiáng)的開放性,并且可較容易地集成其它功能。本實(shí)驗(yàn)的不足之處是統(tǒng)計(jì)算法檢測(cè)速度較慢,后期研究中將增加對(duì)夜間極端天氣視頻的測(cè)試,繼續(xù)修改統(tǒng)計(jì)算法框架,提高對(duì)極端工況的實(shí)驗(yàn)統(tǒng)計(jì)速度和準(zhǔn)確率,這也是本實(shí)驗(yàn)今后深入研究的主要方向。-參考文獻(xiàn):
[1]張毅,姚丹亞,李力,等.智能車路協(xié)同系統(tǒng)關(guān)鍵技術(shù)與應(yīng)用[J].交通運(yùn)輸系統(tǒng)工程與信息,2021,21(5):4051.
[2]范雪梅.基于卷積神經(jīng)網(wǎng)絡(luò)圖像識(shí)別的交通流量信息采集終端的設(shè)計(jì)與實(shí)現(xiàn)[D].南京:東南大學(xué),2018.
[3]張婷婷,章堅(jiān)武,郭春生,等.基于深度學(xué)習(xí)的圖像目標(biāo)檢測(cè)算法綜述[J].電信科學(xué),2020(7):92106.
[4]BHATTJ,HASHMIKA,AFZALMZ,etal.Asurveyofgraphicalpageobjectdetectionwithdeepneuralnetworks[J].AppliedSciences,2021,11(12):53445365.
[5]YET,ZHAOZY,ZHANGJ,etal.Low-altitudesmall-sizedobjectdetectionusinglightweightfeature-enhancedconvolutionalneuralnetwork[J].JournalofSystemsEngineeringandElectronics,2021,32(4):841853.
[6]KRIZHEVSKYA,SUTSKEVERI,HINTONG.ImageNetclassificationwithdeepconvolutionalneuralnetworks[J].AdvancesinNeuralInformationProcessingSystems,2012,25(2):10971105.
[7]LIUR,LENGXF,LIUY.AfastimagematchingalgorithmbasedonYolov3[J].TransactionsofNanjingUniversityofAeronauticsandAstronautics,2021,38(5):807815.
[8]盧迪,馬文強(qiáng).基于改進(jìn)YOLOv4tiny算法的手勢(shì)識(shí)別[J].電子與信息學(xué)報(bào),2021,43(11):32573265.
[9]張仲楠,霍煒,廉明,等.基于Yolov5的快速雙目立體視覺測(cè)距研究[J].青島大學(xué)學(xué)報(bào)(工程技術(shù)版),2021,36(2):2027.
[10]林森,劉美怡,陶志勇.采用注意力機(jī)制與改進(jìn)YOLOv5的水下珍品檢測(cè)[J].農(nóng)業(yè)工程學(xué)報(bào),2021,37(18):307314.
[11]賴見輝,王揚(yáng),羅甜甜,等.基于YOLO_v3的側(cè)視視頻交通流量統(tǒng)計(jì)方法與驗(yàn)證[J].公路交通科技,2021,38(1):135142.
[12]劉磊,趙栓峰,郭衛(wèi).一種YOLO識(shí)別與Meanshift跟蹤的車流量統(tǒng)計(jì)方法[J].制造業(yè)自動(dòng)化,2020,42(2):1620.
[13]郝旭政,柴爭(zhēng)義.一種改進(jìn)的深度殘差網(wǎng)絡(luò)行人檢測(cè)方法[J].計(jì)算機(jī)應(yīng)用研究,2019,36(5):15691572,1584.
[14]ZHOUJ,JIANGP,ZOUAR,etal.ShiptargetdetectionalgorithmbasedonimprovedYOLOv5[J].JournalofMarineScienceandEngineering,2021,9(8):162166.
[15]許宏吉,王玨,李夢(mèng)荷,等.基于多卷積核殘差網(wǎng)絡(luò)的行為識(shí)別系統(tǒng)、方法、介質(zhì)及設(shè)備[P].CN111027487A,20200417.
[16]ALDAHOULN,KARIMHA,ABDULLAHM,etal.TransferdetectionofYOLOtofocusCNN'sattentiononnuderegionsforadultcontentdetection[J].Symmetry,2020,13(1):2651.
[17]LIUYS,WANGXJ,WANGL,etal.AmodifiedleakyReLUscheme(MLRS)fortopologyoptimizationwithmultiplematerials[J].AppliedMathematicsandComputation,2019,352:188204.
[18]蔣昂波,王維維.ReLU激活函數(shù)優(yōu)化研究[J].傳感器與微系統(tǒng),2018,37(2):5052.
[19]魏恩偉,李偉華,張之涵,等.基于改進(jìn)匈牙利算法的非侵入式負(fù)荷匹配方法[J].電測(cè)與儀表,2019(22):5664.
[20]郭歡,朱莉,郭曉剛.基于圖像處理技術(shù)的交通流量統(tǒng)計(jì)算法的實(shí)現(xiàn)[J].自動(dòng)化技術(shù)與應(yīng)用,2013(2):4952.
[21]李阿娟.YOLOv5算法改進(jìn)及其現(xiàn)實(shí)應(yīng)用[D].太原:中北大學(xué),2021.-ResearchonNighttimeTrafficFlowStatisticsAlgorithmBasedonComputerVision
WANGHongchang,WANGPeng,JIAOBowen,YUYixuan,WANGYulin
(CollegeofMechanicalandElectricalEngineering,QingdaoUniversity,Qingdao266071,China)-Abstract:
AnimprovedYOLOv5strafficflowstatisticsalgorithmisproposedtoaddressthelowreal-time,robustness,andaccuracyproblemsoftraditionaltrafficcountinginthenighttimeenvironment.ThisarticleimprovestheFocuslayerintheYOLOv5salgorithmbyusingtheresidualnetwork'sconnectionstructure.TheimprovedYOLOv5salgorithmiscombinedwiththeDeepSORTmonitoringalgorithmandstatisticsmoduletoconstructanefficienttrafficflowstatisticsframework.Ultimately,theframework'saccuracyisverifiedbycollectingvideosofnighttimescenesofactualroadconditions.Theexperimentalresultsdemonstratethatthealgorithmachievedanaverageaccuracyof92.9%,implying3.0%improvementoverthepre-improvementperiod.Simultaneously,theaveragedetectionspeedcanreach33.4Hz,whichcanmeettherequirementsoftrafficflowstatisticsinbothaccuracyandreal-time.Thealgorithmframeworkcaneffectivelyprovidenighttimetrafficflowdataandprovidesometechnicalsupportforthedevelopmentofintelligenttransportation.Keywords:
computervision;trafficflowstatistics;YOLOv5stargetdetectionalgorithm;DeepSORTtrackingalgorithm;intelligenttraffic
收稿日期:20211104;修回日期:20220113
作者簡(jiǎn)介:王洪昌(1994),男,碩士研究生,主要研究方向?yàn)樽詣?dòng)駕駛技術(shù)。
通信作者:王玉林(1964),男,博士,教授,主要研究方向?yàn)殡娮涌刂萍夹g(shù)。Email:wangyuln@163.com