• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于多源參數(shù)的高速工況駕駛行為模式識別方法

      2023-11-16 12:26:08張學連彭金栓
      關鍵詞:注視點模式識別決策樹

      劉 通,徐 磊,張學連,彭金栓

      (重慶交通大學 交通運輸學院,重慶 400074)

      0 引 言

      駕駛人是人-車-路(環(huán)境)系統(tǒng)中的重要角色,也是導致道路交通事故的主要致因,車輛智能化則是提高道路通行效率、減少道路交通事故的一種重要途徑。智能車輛自動駕駛過程可理解為自由行駛、跟車、換道等典型駕駛行為模式的特定次序組合。駕駛行為模式是指駕駛人依據所處道路環(huán)境及行駛工況,為使車輛達到預期運動狀態(tài)而采取的連續(xù)操縱變化[1]。常見駕駛行為模式包括縱向駕駛行為模式和橫向駕駛行為模式?;隈{駛行為分解模型[2],梳理行為辨識指標,縱向駕駛行為模式可分解為自由行駛及跟車,橫向駕駛行為模式可分解為向左換道和向右換道。

      從模式識別的角度出發(fā),建立駕駛行為模式識別模型,能夠為自動駕駛系統(tǒng)學習提供理論基礎,使得自動駕駛系統(tǒng)準確識別車輛當前駕駛行為模式。與跟車及自由行駛模式相比,換道對駕駛人的判斷決策和操控車輛的綜合能力要求更高,駕駛人需時刻關注當前車道及目標車道的交通環(huán)境信息,操作負荷和心理壓力相對較大,更易引發(fā)交通沖突。若能快速分析并判斷出車輛當前所在駕駛行為模式,可為精準識別不同類型駕駛行為模式提供參考,有助于提高智能車輛主動安全系統(tǒng)性能。

      智能駕駛技術的發(fā)展不僅依賴相關傳感器技術的進步,還需要準確理解識別駕駛人的駕駛模式和行為特征,而后者對于自動駕駛決策策略的制定至關重要。人工智能算法因其能自我學習和獲取知識,通??捎糜诮鉀Q駕駛行為模式理解和識別的問題,如基于信息融合理論、隱馬爾可夫等方法構建識別模型[3-4]。學者們圍繞駕駛行為模式識別方法及表征指標選取開展了相應研究。蔡英鳳等[5]基于長短時記憶網絡構建駕駛行為模式識別模型,可有效識別相鄰車輛的車道保持及換道行為;祝儷菱等[6]基于支持向量機構建針對跟車及換道準備/執(zhí)行的駕駛行為模式識別模型;郭艷君等[7]基于相對速度、相對距離及自車速度等特征參數(shù),建立了基于雙隱含層的遺傳算法-神經網絡跟車識別模型;宋定波[8]基于方向盤轉角、左/右車道線距離、相對距離及相對速度,建立了基于決策樹和隨機森林的換道識別模型;N.MOTAMEDIDEHKORDI等[9]通過分析比較樸素貝葉斯、支持向量機、隨機森林等模型對NGSIM換道數(shù)據的識別效果,結果表明,決策樹、極限隨機樹及隨機森林可準確識別換道行為;冀秉魁[10]對駕駛人在跟車、換道、超車3種駕駛操作過程中視覺特性參數(shù)的變化規(guī)律進行分析,選取典型參數(shù)指標對駕駛行為模式進行識別,并構建基于駕駛人視覺特性的隱馬爾可夫駕駛模式識別模型。然而,上述研究僅通過車輛運動狀態(tài)數(shù)據或視覺特性數(shù)據提取相關表征指標,并對單一駕駛行為模式構建識別模型,較少有結合駕駛行為及視覺特性數(shù)據表征指標且考慮不同類型駕駛行為模式綜合識別的研究。

      此外,考慮到城市道路及高速工況(快速路及高速公路)環(huán)境下的車輛運行規(guī)律存在差異,如速度、相對距離及橫向運動學指標等。城市道路由于可能存在車輛違規(guī)掉頭、強行加塞等,駕駛行為模式構成相對復雜。因此,筆者重點研究高速工況下的典型駕駛行為模式特征,提出一種基于車輛運行數(shù)據和視覺特性數(shù)據的多源耦合參數(shù),使用人工智能算法進行駕駛模式提取與識別的研究框架;通過特征優(yōu)選降低模型訓練難度,提高模型識別精度和有效性,進而比較隨機森林決策樹、支持向量機算法的學習效果并優(yōu)化,以完成對高速工況下不同駕駛行為模式的綜合辨識。作為智能車輛預警重要環(huán)節(jié),通過分析人類駕駛過程獲取知識和經驗,學習、訓練形成駕駛模式識別方法,可為自動駕駛路徑選擇及優(yōu)化提供判別依據,有利于提高預警針對性,降低誤警率,為自動駕駛汽車決策模塊的設計提供理論參考。

      1 方 法

      筆者主要分析直線行駛時高速工況下的車輛換道、跟車及自由行駛行為特性,研究左換道、右換道、跟車和自由行駛行為模式識別方法。為準確辨識車輛行駛過程中的駕駛行為模式,采取實車試驗采集所需樣本數(shù)據,設計試驗場景,搭建實車試驗平臺。利用視頻采集等方法,使用MATLAB、SPSS、Excel等軟件對采集的樣本數(shù)據進行統(tǒng)計和預處理,分析駕駛人不同駕駛行為模式下的特征參數(shù)及其特性,并基于多源特征參數(shù)提出可綜合考慮不同駕駛行為模式的識別方法。

      1.1 試驗人員

      試驗共招募20名駕齡為5 a以上的駕駛人(7名為女性),20名被試駕駛人平均年齡為34歲(標準差為5.8歲),平均駕齡為8 a(標準差為4.1 a)。被試無過往重大事故史,裸眼矯正視力1.0以上。試驗時,駕駛人只需按習慣正常駕駛即可。

      1.2 試驗儀器

      試驗設備包括視頻監(jiān)控設備、VBOX傳感器、陀螺儀、眼動儀、車道識別系統(tǒng)等。其中,6個攝像頭分別位于車輛前/后向位置、左/右側位置、駕駛人面部及踏板區(qū)域。VBOX傳感器可通過CAN總線獲得車輛速度、距離、航向角等數(shù)據。陀螺儀負責采集車輛橫/縱向加速度信息等。眼動儀由被試駕駛人全程佩戴,采集視覺特性相關參數(shù)。Mobileye系統(tǒng)可獲取車輛距離左右車道線邊緣的距離及速度等信息。踏板開度傳感器可得到加速與制動踏板開度情況。行車記錄儀采集的視頻信息可為駕駛人操縱及車輛運動等數(shù)據篩選提供輔助驗證。

      1.3 試驗路段

      選取重慶周邊道路條件良好、交通流量適中、彎道較少且曲率較小的路段。試驗路線由城際快速路和高速公路兩種道路類型構成。其中,城際快速路全長21 km(雙向四車道),限速70~90 km/h;高速公路G75(巴南-綦江段)全程37 km,限速100~110 km/h。

      1.4 駕駛行為模式

      基于實車運行數(shù)據,選取合適的駕駛行為表征指標,對高速工況下的駕駛行為模式進行綜合辨識,并將行為模式分解為左換道、右換道、跟車、自由行駛4種類型。

      1.4.1 換 道

      換道一般可分為強制換道和自由換道。筆者主要分析自由換道過程,并將自車首次出現(xiàn)明顯橫向位移的時刻確定為換道起始點,將自車在目標車道內橫向位置趨于穩(wěn)定的時刻確定為換道截止點。為保證換道分析的可靠性,文中所有的換道事件均為人工挑選,并通過視頻驗證。經統(tǒng)計,高速工況下右換道及左換道次數(shù)分別為201、211次,換道時長范圍分別為2.7~22.2、2.8~29.8 s,換道總時長為1 648、1 514 s。

      1.4.2 跟 車

      跟車直接影響道路通行能力及交通流狀態(tài),也與道路交通安全密切相關[11]。筆者將跟車行為定義為自車對本車道前車運行狀態(tài)變化的規(guī)律性反應,并跟隨前車超過10 s的行駛過程[12]。經統(tǒng)計,試驗共篩選出有效跟車數(shù)據397組,跟車總時長63 128 s。

      1.4.3 自由行駛

      有學者提出同一車道內自車與前車間隔大于120 m或時距大于6 s時,自車即可按照期望速度行駛[11]。不過上述研究主要對城市道路環(huán)境下的自由行駛行為開展分析,并未考慮高速工況下的自由駕駛行為模式。筆者將其定義為同車道內前后兩車距離大于200 m,且連續(xù)行駛時長超過10 s的數(shù)據[12]。經統(tǒng)計,試驗共篩選出自由行駛樣本409組,樣本總時長為70 211 s。

      2 駕駛行為模式特征參數(shù)

      精準快速識別當前駕駛行為模式有助于車輛自主完成判斷決策和路徑選擇,以安全高效地完成駕駛任務。文中駕駛行為模式特征參數(shù)主要包括車輛運行參數(shù)、視覺特性參數(shù)等。為從初始參數(shù)中提取低維度輸入參數(shù),并作為識別模型表征指標,采用主成分分析法對駕駛行為特征參數(shù)組合進行降維分析。

      2.1 車輛運行參數(shù)

      通過實車試驗共采集10項車輛運行參數(shù)數(shù)據,不同運行參數(shù)表征駕駛行為模式的重要性不同。主成分分析法可利用變量間的相關性,通過選取少數(shù)變量的線性組合最大限度解釋原有變量。為準確識別駕駛行為模式,基于主成分方法提取特征值較大的成分,忽略方差貢獻較小的成分得到原始參數(shù)的低維度線性變換輸出。根據KMO及Bata球形檢驗結果(表1)可知,4類駕駛行為模式樣本均可做主成分分析(KMO>0.5,p<0.05)。依據特征值高于1的提取原則,分別提取出4類駕駛行為模式的主成分。

      2.1.1 左換道

      以左換道為例,按照上述提取原則提取出5個權重因子較大的左換道表征參數(shù),分別為左/右車道線距離、速度、方向盤轉角、轉向角速度(表2)。左換道表征參數(shù)載荷矩陣如表3。根據不同變量在5個主成分下的聚集結果,可知主成分CP1為車道線距離,CP2為橫向偏移信息,CP3為速度相關信息,CP4為縱向間距,CP5為轉向角。

      表2 左換道主成分初始特征值Table 2 Principal component eigenvalues of left lane change

      表3 左換道表征參數(shù)載荷Table 3 Characterization parameter load of left lane change

      2.1.2 右換道

      同理,提取出5個權重因子較大的右換道表征參數(shù),分別為左車道線距離、右車道線距離、速度、縱向間距、橫擺角速度。其中,主成分CP1為車道線距離,CP2為橫向偏移信息,CP3為速度相關信息,CP4為縱向間距,CP5為轉向角速度,如表4。

      表4 右換道表征參數(shù)載荷Table 4 Characterization parameter load of right lane change

      2.1.3 跟 車

      類似地,提取出5個權重因子較大的跟車表征參數(shù),分別為左/右車道線距離、速度、方向盤轉角、轉向角速度。且主成分CP1為速度相關信息,CP2為車道線距離,CP3為橫向偏移信息,CP3為轉向角,CP5為相對速度,如表5。

      表5 跟車表征參數(shù)載荷Table 5 Characterization parameter load of car following

      2.1.4 自由行駛

      同理,提取出4個權重因子較大的自由行駛表征參數(shù),分別為左/右車道線距離、速度及方向盤轉角。主成分CP1為轉向角,CP2為橫向偏移信息,CP3為車道線距離,CP4為相對速度,如表6。

      基于不同駕駛行為模式所選特征參數(shù),進一步分析不同模式單因素方差檢驗結果可知,車道線距離、縱向間距、速度、橫向加速度及轉向角速度均具有顯著性差異(p<0.001),故將其作為駕駛行為模式識別模型車輛運行特征參數(shù)。

      表6 自由行駛表征參數(shù)載荷Table 6 Characterization parameter load of free driving

      2.2 視覺特性參數(shù)

      視覺特性分析有助于理解駕駛意圖及解釋行為特性,常見視覺特性表征參數(shù)有注視點位置、注視角度、眨眼頻率、掃視幅度等[13]。

      2.2.1 注視點位置

      車輛行駛過程中的注視點位置分布情況如圖1。由圖1可知,駕駛人在換道時的注視點總體偏離前方中心位置,左換道時重點分布于左側近距離區(qū)域,右換道時重點分布于右側近距離區(qū)域。車道保持時集中分布于前方中間位置,表現(xiàn)為駕駛人在自由行駛和跟車時重點關注車道內的交通狀態(tài),對道路兩側區(qū)域的關注相對較少。

      圖1 駕駛人注視點位置分布Fig. 1 Distribution of driver’s gaze point

      由駕駛人三維注視點分布箱線圖(圖2)可知,X、Y軸上駕駛人注視點分布范圍較大,但數(shù)值相對Z軸較小,Z軸注視點分布位置較高(Z=0.8附近)。換道時駕駛人在X、Y軸注視區(qū)域大于車道保持注視范圍,與駕駛人實際執(zhí)行不同駕駛任務時的眼動規(guī)律基本一致。由單因素方差檢驗結果可知,不同駕駛行為模式注視點位置分布具有顯著性差異(p<0.001)。

      圖2 不同模式下的駕駛人注視點分布箱線圖Fig. 2 Boxplot of driver’s gaze distribution in different modes

      2.2.2 注視角度

      通過眼動儀可獲取不同駕駛模式過程中的注視角度,包括水平視角θ(駕駛人視線偏離X軸的角度);垂直視角λ(視線偏離Y軸的角度),如圖3。P點為眼睛所處位置,Q為駕駛人的注視點。Z軸作為基準線,若注視左側區(qū)域時θ為負,右側則為正;同樣地,X軸作為基準線,關注上方區(qū)域時λ為正,下方區(qū)域顯示為負。

      圖3 注視角圖解Fig. 3 Schematic diagram of driver’s gaze angle

      駕駛人在不同模式下的水平視角分布如圖4。由圖4可知:向左及向右換道的水平視角均值分別為0.09、-0.11 rad,駕駛人重點關注左、右側車道及左、右側外后視鏡;車道保持的水平視角變化相對較小,駕駛人重點關注道路前方,自由行駛及跟車的水平視角均值分別為-0.07、-0.01 rad,不同模式水平視角皆滿足正態(tài)分布規(guī)律特征。

      類似地,不同模式下駕駛人垂直視角分布如圖5。由圖5可知,左換道、右換道駕駛人垂直視角均值分別為0.03、0.01 rad;車道保持時的垂直視角相對集中,主要注視道路前方,自由行駛及跟車的駕駛人垂直視角均值分別為0.08、-0.11 rad,自由行駛時重點關注前方較遠區(qū)域,跟車時重點觀察前方近距離區(qū)域,如關注前車運動狀態(tài)變化等。由單因素方差檢驗結果可知,不同模式的水平及垂直視角分布具有顯著性差異(p<0.001)。

      圖4 不同模式下的水平視角分布Fig. 4 Horizontal viewing angle distribution in different modes

      圖5 不同模式下的垂直視角分布Fig. 5 Vertical viewing angle distribution in different modes

      2.2.3 掃視幅度

      掃視幅度是眼睛從當前注視點移至下個注視點所轉過的角度,如從第1個注視點轉移到第2個注視點的掃視幅度記為ρ,可通過水平及垂直視角計算得到。依據最小角定理,計算如式(1):

      cosρ=cos|θ2-θ1|cos|λ2-λ1|

      (1)

      式中:λ1、θ1分別為第1個注視點的垂直及水平視角;λ2、θ2分別為第2個注視點的垂直及水平視角。

      駕駛人在不同駕駛模式下的掃視幅度如圖6。由圖6可知,換道時的掃視范圍相對較大,左換道、右換道掃視幅度均值分別為44.1°、40.8°,自由行駛及跟車的掃視幅度均值分別為19.7°、21.8°。自由行駛及跟車掃視幅度低于30°的比例分別為78%及76%,左換道、右換道時掃視幅度低于30°的比例分別為36%及39%。此外,由單因素方差檢驗結果可知,不同模式掃視幅度分布具有顯著性差異(p<0.001)。

      圖6 不同模式下的掃視幅度分布Fig. 6 Saccade amplitude distribution in different modes

      2.2.4 眨眼頻率

      駕駛人可通過眨眼的方式來緩解駕駛過程中的視疲勞,眨眼是眼瞼完全睜開-閉合-睜開的快速開閉過程,眨眼過程大概有4%的時間眼睛獲取不到任何信息[14]。眨眼頻率可反映信息獲取能力,是指單位時間的眨眼頻次。該值越高,獲取周邊環(huán)境信息越少,進而影響駕駛人的決策能力和判斷水平。

      駕駛人在不同駕駛模式下的眨眼頻率分布如圖7。由圖7可知,駕駛人跟車及自由行駛時的眨眼頻率均值分別為0.69、0.68次/s;左換道、右換道時眨眼頻率均值分別為0.56、0.44次/s,滿足該模式需獲取更多環(huán)境信息的需求。此外,由單因素方差檢驗結果可知,不同模式的眨眼頻率分布具有顯著性差異(p<0.001)。

      圖7 不同模式下的駕駛人眨眼頻率分布Fig. 7 Frequency distribution of driver blinking in different modes

      3 多源參數(shù)駕駛行為模式識別

      基于前述4類模式特征參數(shù),選用隨機森林決策樹(CART+RF)、支持向量機(SVM)建立模式識別模型,通過分析比較模型識別效果,進一步優(yōu)化現(xiàn)有模型。

      3.1 隨機森林決策樹識別模型

      決策樹分類器是一種需要學習訓練且不斷修正的分類模型,對每個選出的特征變量做一次分類,通過學習尋找非線性分割。然而,決策樹模型較為單一,易形成局部最優(yōu)及過度擬合,影響決策分類準確性。隨機森林算法作為一種集成學習算法,結合自舉匯聚法和隨機子空間法構建決策樹集合,可克服決策樹泛化能力弱的缺點。隨機森林可將多個個體學習器通過一定規(guī)則結合起來構成強學習器,當個體學習器為決策樹分類器時,則集成后得到隨機森林決策樹分類器,個體學習器間無強依賴關系,可并行生成。

      基于集成學習理論建立隨機森林決策樹模型,通過學習訓練樣本集,輸出駕駛行為模式類別。將可用于識別4類駕駛行為模式的車輛運行參數(shù)及視覺特性參數(shù)作為隨機森林決策樹模型的輸入,如式(2):

      D={x1,x2,x3,…,x11,x12,x13}

      (2)

      式中:x1、x2分別為左、右車道線距離,cm;x3為車速,m/s;x4為相對距離,m;x5為橫擺角速度,(°)/s;x6為橫向加速度,m/s2;x7、x8、x9分別為眼睛注視點的X、Y、Z坐標,cm;x10為眨眼頻率,次/s;x11、x12分別為垂直及水平視角,rad;x13為掃視幅度,deg。

      設置模型訓練學習最大深度為10,最大標準誤差為0.5,當訓練精度小于0.001時中止學習?;谟柧毢玫哪P?結合測試樣本集,繼續(xù)進行模型驗證,得到模型對駕駛行為模式的總體識別精度。

      筆者采用3種參數(shù)組合方案分別開展模型識別:組Ⅰ為速度、橫向距離、縱向間距、橫向加速度及角速度等車輛運行參數(shù);組Ⅱ為車輛運行及視覺參數(shù),即速度、橫向距離、縱向間距、橫向加速度及橫擺角速度、水平/垂直視角、眨眼頻率及掃視范圍;組Ⅲ為組Ⅱ所用參數(shù)加上注視點位置,3種參數(shù)組合對不同模式的識別結果如圖8。由圖8可知,組Ⅲ總體識別精度最大(90.5%),對自由行駛及跟車的識別精度分別為95.8%、94.7%,左換道、右換道總體識別精度為79.7%、75.1%。組Ⅱ總體識別精度為86.7%,組Ⅰ總體識別精度最低(65.0%)。由此可知,結合使用車輛運行及視覺參數(shù)可提高總體識別效果。

      圖8 不同模式及參數(shù)組合模型識別結果Fig. 8 Recognition results of different modes and parameter combination models

      CART+RF模型ROC受試者工作特征曲線評價結果如圖9。由圖9可知,曲線偏離對角線越遠,AUC值越大,識別精度越高。由此可知,右換道時AUC值為0.904,表明模型對右換道識別效果較好,其次是自由行駛(AUC值為0.779)和左換道(AUC值為0.757),跟車模式識別效果較差(AUC值為0.596)。

      圖9 CART+RF模型ROC曲線評價結果Fig. 9 ROC curve evaluation results of CART+RF model

      3.2 支持向量機識別模型

      支持向量機作為一種機器學習算法,可有效解決模型訓練時的泛化問題,提升樣本訓練的準確性。類似地,基于徑向基函數(shù)(RBF)建立支持向量機模型,對4類駕駛行為模式進行識別。模型輸入參數(shù)與CART+RF模型相同,為車道線距離、車速、相對距離、橫擺角速度、橫向加速度及視覺參數(shù)等13個特征指標,輸出駕駛行為模式類別。通過對樣本集進行訓練和測試,設置模型訓練學習最大深度為10,最大標準誤差為0.5,當訓練精度小于0.001時,中止學習。基于學習好的模型,結合測試樣本集,繼續(xù)進行模型驗證,得到該模型對駕駛行為模式的總體識別精度。

      根據3種參數(shù)組合方案進行駕駛行為模式識別:組Ⅰ、組Ⅱ、組Ⅲ輸入參數(shù)同CART+RF模型一致,識別結果如圖10。由圖10可知,組Ⅲ識別精度最高(89.4%),自由行駛及跟車的識別精度分別為94.4%、95.7%,左換道、右換道識別精度分別為79.7%、75.1%。組Ⅱ整體識別精度為84.7%,組Ⅰ總體識別效果較差(62.6%)。由此可知,結合車輛運行參數(shù)及視覺特性參數(shù)可提高駕駛行為模式識別精度。

      圖10 不同模式及參數(shù)組合模型識別結果Fig. 10 Recognition results of different modes and parameter combination models

      SVM模型ROC受試者工作特征曲線評價結果如圖11。由圖11可知,跟車模式AUC值為0.882,可見模型對跟車識別效果較佳;自由行駛AUC值為0.852;左換道、右換道識別效果一般,其AUC值分別為0.588及0.73。

      圖11 SVM模型ROC曲線評價結果Fig. 11 ROC curve evaluation results of SVM model

      3.3 駕駛行為模式識別模型評價

      通過分析比較兩種模型對4類模式的識別結果可知,CART+RF模型識別精度相對較高,總體識別精度為90.5%,SVM模型總體識別精度為 89.4%,CART+RF模型對自由行駛及左換道的識別精度高于SVM,而SVM對跟車識別精度較高,達95.7%。

      支持向量機是對梯度下降法模型的改進,可有效解決模型訓練時的泛化問題,提升樣本訓練準確性及識別模型可靠性。隨機森林模型則是以決策樹為隨機森林弱分類器建立識別模型,識別精度較高,在此數(shù)據集上表現(xiàn)良好,且可處理較高維度的數(shù)據集而無需做特征參數(shù)的選擇。但其局限性在于模型總體識別可靠性受個體分類器準確性的影響,當個體分類器識別精度低于平均水平時,會降低模型總體識別精度。

      隨機森林決策樹模型性能提升可從兩方面進行改進:一是針對不同個體分類器,提升弱分類器本身性能;二是針對同類分類器,改變輸入特征參數(shù)或尋找最優(yōu)訓練集?;诖?圍繞個體分類器性能提升或模型參數(shù)尋優(yōu)進一步對CART+RF模型優(yōu)化改進,以提高模型識別可靠性。

      3.4 多層感知器神經網絡隨機森林優(yōu)化模型

      考慮到車輛運行狀態(tài)會隨時間序列發(fā)生變化,且車輛運行及視覺參數(shù)等均具有時序性,支持向量機及決策樹作為分類模型,未能充分體現(xiàn)原始數(shù)據的時序性特征,導致數(shù)據挖掘深度不夠,而深度學習模型可保留數(shù)據間的時間序列關系。為此,筆者基于多層感知器神經網絡構建隨機森林模型(MLP+RF),進一步對CART+RF模型進行優(yōu)化,以提高模型可靠性和識別精度。

      多層感知器(MLP)是一種趨向結構的人工神經網絡,由多個節(jié)點層組成,除輸入節(jié)點外,每個節(jié)點都是帶有非線性激活函數(shù)的神經元,可克服感知器無法識別線性不可分數(shù)據的缺點。其學習算法中隱含層節(jié)點數(shù)n1確定公式如式(3):

      (3)

      式中:n為輸入層節(jié)點數(shù);m為輸出層節(jié)點數(shù);a為隱含層數(shù),一般為1~10的常數(shù),文中取a=10。

      選取多層感知器神經網絡作為個體分類器,建立隨機森林模型優(yōu)化模型,使用前述3種參數(shù)組合及相同的輸入參數(shù)進行模式識別,輸入層包含13個節(jié)點,隱含層數(shù)為10,輸出駕駛行為模式類型。樣本集訓練精度小于0.001時中止學習?;趯W習好的模型,結合測試樣本集進行模型驗證,得到該模型對駕駛行為模式的總體識別精度,識別結果如圖12。由圖12可知,組Ⅲ總體識別精度為91.9%,組Ⅱ總體識別精度為87.0%,組Ⅰ總體識別精度為65.6%。

      MLP+RF模型ROC受試者工作特征曲線評價結果如圖13。由圖13可知,跟車模式AUC值為0.943,表明該模型對跟車識別效果最佳,自由行駛AUC值為0.94,左換道、右換道AUC值分別為0.934、0.933。根據識別結果可知,MLP+RF模型對不同行為模式識別效果均較好。

      圖12 不同模式及參數(shù)組合模型識別結果Fig. 12 Recognition results of different modes and parameter combination models

      通過比較不同模型受試者工作曲線結果可知,CART+RF模型換道識別精度比SVM模型高,而對自由行駛及跟車的識別效果一般。MLP+RF模型對應不同駕駛行為模式的AUC值均大于0.93,模型對當前駕駛行為模式識別效果良好。

      圖13 MLP+RF模型ROC曲線評價結果Fig. 13 ROC curve evaluation results of the MLP+RF model

      此外,考慮車輛運行狀態(tài)隨時間發(fā)生變化,為呈現(xiàn)時序性識別效果,進一步分析MLP+RF模型對不同類型駕駛行為模式的識別精度隨時間序列的變化情況,結果如圖14。由圖14可知,同一識別時段內,不同駕駛行為模式的識別時效性亦不同,表現(xiàn)為模型對同一時刻的跟車及自由行駛模式識別精度均高于左換道、向右換道模式識別精度。4類模式的識別精度均隨時間推移,呈現(xiàn)先增長后趨于穩(wěn)定的變化態(tài)勢。因此,為準確識別車輛當前駕駛行為模式及了解不同模式識別精度隨時序變化特點,采用多層感知器神經網絡作為隨機森林模型的個體分類器進行組合,并基于集成學習建立MLP+RF駕駛行為模式識別模型,可為自動駕駛實時識別車輛動態(tài)變化提供參考。

      圖14 MLP+RF模型模式識別精度時間序列變化Fig. 14 Time series variation of MLP+RF model pattern recognition accuracy

      4 結 論

      基于實車試驗數(shù)據分析了高速工況下4類駕駛行為特性,確定了可有效表征不同駕駛行為模式的車輛運行及視覺參數(shù)耦合指標集,分別使用支持向量機及隨機森林決策樹建立識別模型,并根據模型識別結果對識別效果較好的模型進一步優(yōu)化,以提高識別模型可靠性。主要結論如下:

      1)基于主成分分析法對多源參數(shù)進行降維,選取權重較大的主成分作為特征參數(shù)。由方差檢驗結果可知,左車道線距離、右車道線距離、速度、縱向間距、橫向加速度及橫擺角速度、眨眼頻率、注視角度、掃視幅度等參數(shù)在不同模式下具有顯著差異,可作為有效表征不同駕駛行為模式耦合指標。

      2)通過人工智能算法構建高速工況下的駕駛行為模式識別模型,學習訓練并測試模型識別效果。結果表明:SVM模型總體識別精度為89.4%;CART+RF模型總體識別精度為90.5%;MLP+RF模型總體識別精度為91.9%,且對不同模式的AUC值均大于0.93,該模型模式識別效果最好。

      3)進一步分析MLP+RF優(yōu)化模型對不同模式識別精度的時序性變化規(guī)律可知,不同模式識別精度呈現(xiàn)先增長后趨于穩(wěn)定的時序變化特征,且同一時刻的跟車及自由行駛模式識別精度高于左換道、右換道模式,為實時快速識別車輛當前駕駛行為模式提供參考。

      猜你喜歡
      注視點模式識別決策樹
      眼動儀技術在里院建筑特色分析中的應用
      基于超復數(shù)小波和圖像空域的卷積網絡融合注視點預測算法
      一種針對不均衡數(shù)據集的SVM決策樹算法
      決策樹和隨機森林方法在管理決策中的應用
      電子制作(2018年16期)2018-09-26 03:27:06
      射擊運動員的反向眼跳研究
      體育時空(2017年6期)2017-07-14 09:24:48
      淺談模式識別在圖像識別中的應用
      電子測試(2017年23期)2017-04-04 05:06:50
      第四屆亞洲模式識別會議
      基于中央凹圖像顯著性和掃視傾向的注視點轉移預測模型
      基于決策樹的出租車乘客出行目的識別
      基于肺癌CT的決策樹模型在肺癌診斷中的應用
      上虞市| 马公市| 枣强县| 米林县| 读书| 山丹县| 花莲市| 墨竹工卡县| 郧西县| 武鸣县| 新邵县| 商都县| 临夏市| 瑞昌市| 苏尼特左旗| 廊坊市| 新津县| 武清区| 馆陶县| 伽师县| 临高县| 鹿邑县| 长宁区| 韩城市| 梁山县| 疏附县| 南充市| 临西县| 淅川县| 海原县| 杭州市| 徐闻县| 定边县| 鸡西市| 鹿邑县| 高雄市| 吴桥县| 那曲县| 玉门市| 观塘区| 伊春市|