• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      交叉口多時(shí)段控制輸入源優(yōu)化研究

      2021-09-07 00:48:38董德存歐冬秀
      關(guān)鍵詞:網(wǎng)絡(luò)層時(shí)間段交叉口

      徐 琛,董德存,歐冬秀

      同濟(jì)大學(xué) 道路與交通工程教育部重點(diǎn)實(shí)驗(yàn)室,上海市軌道交通結(jié)構(gòu)耐久與系統(tǒng)安全重點(diǎn)實(shí)驗(yàn)室,上海201804

      傳感網(wǎng)是傳感器網(wǎng)絡(luò)的簡(jiǎn)稱,傳感網(wǎng)絡(luò)是集計(jì)算機(jī)、通信、網(wǎng)絡(luò)、智能計(jì)算、傳感器、嵌入式系統(tǒng)、微電子等多個(gè)領(lǐng)域交叉綜合的新興學(xué)科,它將大量的多種類傳感器節(jié)點(diǎn)(集傳感、采集、處理收發(fā)于一體)組成自治網(wǎng)絡(luò),實(shí)現(xiàn)對(duì)物理世界的動(dòng)態(tài)智能協(xié)同感知[1-2]。隨著傳感網(wǎng)技術(shù)的迅猛發(fā)展,交叉口周圍越來越多的交通要素都可納入傳感網(wǎng)大數(shù)據(jù)感知體系,數(shù)據(jù)種類越來越豐富。當(dāng)數(shù)據(jù)量以及數(shù)據(jù)采集處理技術(shù)積累到一定程度,人工智能神經(jīng)網(wǎng)絡(luò)中很多復(fù)雜的經(jīng)典理論模型開始在交通控制中發(fā)揮作用。

      根據(jù)《中國智能交通行業(yè)發(fā)展年鑒(2019)》[3]《2019—2025年中國智能交通行業(yè)市場(chǎng)深度評(píng)估及市場(chǎng)前景預(yù)測(cè)報(bào)告》[4]《2020年中國道路交通信號(hào)機(jī)市場(chǎng)研究報(bào)告》[5]提供的數(shù)據(jù),以及結(jié)合本文作者參與多個(gè)城市智能交通控制系統(tǒng)工程建設(shè)的項(xiàng)目經(jīng)驗(yàn)。無論新一代的控制理論發(fā)展得如何,從目前的工程實(shí)施效果的穩(wěn)定性角度,多時(shí)段控制(Time-of-Day,TOD)仍是大多數(shù)城市采用的最主流的交通信號(hào)控制方式,它代表中國國內(nèi)智慧交通控制最廣泛的應(yīng)用模式,是智慧交通信號(hào)控制體系中最基礎(chǔ)也是最重要的控制單元。結(jié)合先進(jìn)的物聯(lián)網(wǎng)及人工智能數(shù)據(jù)挖掘技術(shù)對(duì)其理論體系進(jìn)行重構(gòu)優(yōu)化,對(duì)中國智慧交通控制應(yīng)用的真正落地有著非常重要的現(xiàn)實(shí)意義。

      多時(shí)段控制是根據(jù)交叉口流量的變化把一天24小時(shí)劃分為若干個(gè)時(shí)間段,針對(duì)不同的交通時(shí)段采用不同的信號(hào)控制方案,交通信號(hào)機(jī)根據(jù)預(yù)定設(shè)置的時(shí)段劃分方案自動(dòng)進(jìn)行控制方案的切換。多時(shí)段控制對(duì)交通信息采集的依賴程度很低,并且可靠性好。

      本文作者在文獻(xiàn)[6]中根據(jù)不同交叉口的交通流分布特點(diǎn)利用K中心點(diǎn)聚類算法將常見交叉口分為四大類,具體如下:(1)駝峰型??偭髁看嬖诿黠@的早晚高峰與低峰,高峰與低峰震蕩幅度較大。曲線類似駱駝的駝峰形狀一樣。同時(shí)內(nèi)部沖突點(diǎn)的分布比較均勻。(2)常峰型??偭髁勘容^大,大多數(shù)時(shí)間都在高峰附近震蕩,常態(tài)化高峰流量。低峰幾乎不存在或者時(shí)間極短。在這種類型交叉口中,內(nèi)部沖突點(diǎn)幾乎存在于整個(gè)平穩(wěn)期內(nèi),期間發(fā)生多起沖突點(diǎn)躍遷現(xiàn)象。(3)多峰型。在早晚高峰之間存在多個(gè)偽高峰,偽高峰之間距離比較分散,同時(shí)它的總流量變化與沖突點(diǎn)波動(dòng)十分同步,此型非常好判定時(shí)段劃分分段點(diǎn)。(4)其他型。高峰低峰沒有明顯規(guī)律,內(nèi)部沖突點(diǎn)多且雜亂無章。

      隨著傳感網(wǎng)實(shí)時(shí)采集的數(shù)據(jù)特征越來越豐富,充分考慮到模型構(gòu)建的專有性以及精細(xì)化,本文僅針對(duì)上述駝峰型交叉口多時(shí)段控制方案進(jìn)行深度研究。目前傳統(tǒng)的駝峰型交叉口多時(shí)段控制配時(shí)方案標(biāo)準(zhǔn)處理流程如下。(1)利用交叉口全天的交通流分布的特點(diǎn)以及充分結(jié)合歷史數(shù)據(jù),將常峰型交叉口一天的控制方案分為若干的時(shí)間段。(2)基于Synchro交通控制仿真軟件以該時(shí)間段內(nèi)50%或80%位離散化斷面交通量作為模型輸入,Synchro優(yōu)化出的方案作為每個(gè)時(shí)間段最終的信號(hào)控制配時(shí)方案(50%位離散化斷面交通量,它表示在該時(shí)間段內(nèi)所有離散化斷面交通量按照大小順序排列,該流量以下的數(shù)據(jù)采集時(shí)間序號(hào)總數(shù)等于該流量以上的數(shù)據(jù)采集時(shí)間序號(hào)總數(shù)。80%位離散化斷面交通量,它表示在該時(shí)間段內(nèi)所有離散化斷面交通量按照大小順序排列,該流量以下的數(shù)據(jù)采集時(shí)間序號(hào)總數(shù)占該時(shí)間段內(nèi)的數(shù)據(jù)采集時(shí)間序號(hào)總數(shù)的80%)。

      綜上所述,傳統(tǒng)方法忽略了兩方面的問題。(1)單純憑經(jīng)驗(yàn)和簡(jiǎn)單統(tǒng)計(jì)學(xué)以50%或80%位期間交通量作為Synchro常峰型交叉口多時(shí)段控制方案的模型輸入是否能滿足整個(gè)時(shí)間段的交通精細(xì)化管控需求。(2)隨著傳感網(wǎng)技術(shù)與人工智能理論的逐漸成熟,能否構(gòu)建深度學(xué)習(xí)模型來更加精準(zhǔn)化地選取模型數(shù)據(jù)輸入源。

      1 預(yù)備知識(shí)

      數(shù)據(jù)集的特征按照其取值可以分為連續(xù)特征和離散特征。連續(xù)特征也稱為定量特征,通常用間隔尺度和比例尺度來衡量,有較多甚至無窮的數(shù)值表達(dá),其值取自某個(gè)連續(xù)的區(qū)間,表示了對(duì)象的某種可測(cè)性質(zhì)。離散特征也稱定性特征,一般以名義尺度或有序尺度定義,是指以文本型數(shù)據(jù)表達(dá)的對(duì)象特征,此類特征的值域只限定于較少的取值[7-8]。連續(xù)特征的取值允許被排序,可進(jìn)行算術(shù)運(yùn)算;離散特征的取值有時(shí)允許被排序,但是其不能進(jìn)行算術(shù)運(yùn)算[9]。

      將連續(xù)特征離散化,再將離散化的結(jié)果應(yīng)用于算法有很多好處:(1)離散化結(jié)果將會(huì)減少給定連續(xù)特征值的個(gè)數(shù),減小系統(tǒng)對(duì)存儲(chǔ)空間的實(shí)際需求。(2)離散特征相對(duì)于連續(xù)特征來說更接近于知識(shí)層面的表示。(3)通過離散化,數(shù)據(jù)被規(guī)約和簡(jiǎn)化,對(duì)于使用者和專家來說,離散化的數(shù)據(jù)都更易于理解,使用和解釋。(4)離散化處理使得算法的學(xué)習(xí)更為準(zhǔn)確和迅速[10]。(5)一系列算法只能應(yīng)用于離散型數(shù)據(jù),使得離散化處理成為必要,而離散化又使很多算法的應(yīng)用范圍擴(kuò)展了[11-13]。但最優(yōu)離散化問題已經(jīng)被證明是一個(gè)NP-hard問題。

      根據(jù)離散化方法是否使用數(shù)據(jù)集的類信息,離散化方法可以分為有監(jiān)督的和無監(jiān)督的。有監(jiān)督的離散化方法使用類信息,而無監(jiān)督的離散化方法不使用類信息。有監(jiān)督的離散化方法又分為建立在錯(cuò)誤率基礎(chǔ)上的、建立在熵值基礎(chǔ)上的或者建立在統(tǒng)計(jì)信息基礎(chǔ)上的。無監(jiān)督的方法的缺陷在于它對(duì)分布不均勻的數(shù)據(jù)不適用,對(duì)異常點(diǎn)比較敏感[14-18]。為了克服無監(jiān)督的離散化方法的這些缺陷,使用類信息來進(jìn)行離散化的有監(jiān)督的離散化方法逐漸發(fā)展起來。其中無監(jiān)督的方法有分箱法、根據(jù)直觀劃分離散化、基于聚類分析的離散化。有監(jiān)督的方法有1R方法、基于熵的離散化方法、基于卡方的離散化方法。

      近些年,隨著深度學(xué)習(xí)理論的逐步成熟,深度學(xué)習(xí)在眾多領(lǐng)域獲得了顯著的成功,包括自然語言處理領(lǐng)域中的文本分類、命名實(shí)體識(shí)別等。圖像處理領(lǐng)域中的圖像識(shí)別、圖像分割等。針對(duì)本文中要處理的連續(xù)型交通流數(shù)據(jù)離散化選擇問題,也可以使用深度學(xué)習(xí)方法進(jìn)行研究。本章中,將主要回顧本文涉及到的深度學(xué)習(xí)的主要模型,包括循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)、卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)、注意力機(jī)制Attention、自注意力機(jī)制Self-Attention,簡(jiǎn)要介紹其結(jié)構(gòu)和特點(diǎn),以及如何解決本課題中的疑難問題。

      RNN的目的是處理序列數(shù)據(jù)。在傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)模型中,從輸入層到隱層再到輸出層,各層之間是完全連通的,各層之間的節(jié)點(diǎn)是不相連的。而典型的RNN結(jié)構(gòu)模型圖,也有三層:輸入層、隱藏層和輸出層。在隱藏層當(dāng)中,節(jié)點(diǎn)與節(jié)點(diǎn)之間是相互聯(lián)系,而不是沒有任何關(guān)系,這樣可以學(xué)到層內(nèi)的特征。

      CNN是一類包含卷積計(jì)算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò),是深度學(xué)習(xí)的代表算法之一。卷積神經(jīng)網(wǎng)絡(luò)具有表征學(xué)習(xí)能力,能夠按其階層結(jié)構(gòu)對(duì)輸入信息進(jìn)行平移不變分類。其可以進(jìn)行監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí),其隱含層內(nèi)的卷積核參數(shù)共享和層間連接的稀疏性使得卷積神經(jīng)網(wǎng)絡(luò)能夠以較小的計(jì)算量對(duì)格點(diǎn)化特征。

      注意力機(jī)制這種方法的靈感來自人類,當(dāng)視覺感知到眼前的場(chǎng)景時(shí),它不會(huì)每次都看一個(gè)場(chǎng)景中的所有東西,而是只看想看的東西。當(dāng)?shù)谝淮螌W(xué)習(xí)的時(shí)候,在這個(gè)場(chǎng)景里,最想看的東西總是出現(xiàn)在某個(gè)部位,以后學(xué)的時(shí)候(在類似場(chǎng)景中學(xué)習(xí)的時(shí)候),會(huì)自動(dòng)把注意力集中在這個(gè)部位上,盡量不看其他部位來提高效率。其核心操作是一系列權(quán)重參數(shù)。需要從序列中了解每個(gè)元素的重要性,然后根據(jù)重要性對(duì)元素進(jìn)行合并。權(quán)重參數(shù)是注意力分配系數(shù),以及將多少注意力分配給哪個(gè)元素。大多數(shù)方法使用編解碼器框架作為介紹來引入注意模型。

      自注意力機(jī)制與傳統(tǒng)的注意機(jī)制有很大的不同:傳統(tǒng)的注意力機(jī)制基本是基于源和目標(biāo)的隱藏狀態(tài)來計(jì)算注意力,統(tǒng)計(jì)每個(gè)源與目標(biāo)之間的差異。但是自注意力是不同的,它分別在源端和目標(biāo)端執(zhí)行。它只涉及源輸入或目標(biāo)輸入本身的自我注意,捕獲源側(cè)或目標(biāo)側(cè)之間的依賴關(guān)系;將源側(cè)獲取的自我注意與目標(biāo)側(cè)獲取的注意相加,用來捕捉源側(cè)單詞與目標(biāo)側(cè)數(shù)據(jù)之間的依賴關(guān)系。

      上述研究中多時(shí)段控制數(shù)據(jù)輸入源選取主要人工經(jīng)驗(yàn)與簡(jiǎn)單的概率統(tǒng)計(jì)為主,即便是部分研究引入了神經(jīng)網(wǎng)絡(luò)模型,也是標(biāo)準(zhǔn)計(jì)算框架,其網(wǎng)絡(luò)層數(shù)的構(gòu)建以及核心節(jié)點(diǎn)參數(shù)的具體設(shè)定還是主要以經(jīng)驗(yàn)為準(zhǔn),缺少注意力機(jī)制對(duì)其進(jìn)行各層之間權(quán)重進(jìn)行動(dòng)態(tài)調(diào)整。故本文將重點(diǎn)研究“駝峰型”交叉口多時(shí)段控制數(shù)據(jù)輸入源連續(xù)型數(shù)據(jù)離散化選取問題,引入自注意力機(jī)制創(chuàng)新構(gòu)建交叉口多時(shí)段控制深度注意力遞歸網(wǎng)絡(luò)輸入源選取優(yōu)化模型,同時(shí)利用隨機(jī)梯度下降法(Stochastic Gradient Descent,SGD)對(duì)其進(jìn)行求解。

      2 模型構(gòu)建

      2.1 模型變量定義

      根據(jù)交叉口交通流進(jìn)出流量平衡原理,將交叉口總流量分為交叉口四個(gè)方向的進(jìn)口交通流量,定義變量xe、xw、xs、xn表示交叉口東、西、南、北四個(gè)進(jìn)口方向的分流量,其中xe、xw、xs、xn均為正值。數(shù)據(jù)每15 min采集一次,故單交叉口全天交通流量數(shù)據(jù)為96條。

      Ti表示該控制方案從第i個(gè)時(shí)間點(diǎn)開始,i=1,2,…,96;

      Tj表示該控制方案至第j個(gè)時(shí)間點(diǎn)結(jié)束,j=1,2,…,96;

      xni表示該時(shí)間點(diǎn)Ti內(nèi)的北進(jìn)口交通流向量;

      xsi表示該時(shí)間點(diǎn)Ti內(nèi)的南進(jìn)口交通流向量;

      xei表示該時(shí)間點(diǎn)Ti內(nèi)的東進(jìn)口交通流向量;

      xwi表示該時(shí)間點(diǎn)Ti內(nèi)的西進(jìn)口交通流向量。

      2.2 交通流總量最大值與最小值

      Xi表示該時(shí)間點(diǎn)Ti內(nèi)四個(gè)進(jìn)口方向的流量之和。

      Xmaxij表示該時(shí)間段ij總流量的最大值。

      Xminij表示該時(shí)間段ij總流量的最小值。

      2.3 交通流累積總流量

      Xij表示該時(shí)間段Tij間四個(gè)進(jìn)口方向交通流量累積之和。

      2.4 沖突點(diǎn)平均時(shí)間距離計(jì)算

      Tk:表示第k個(gè)時(shí)間點(diǎn),k=2,3,…,95;

      滿足公式(5)中的兩種條件下的一種,那么判定Tk為下游沖突點(diǎn)時(shí)間。同理,則定義Ti為當(dāng)前時(shí)間段,Tj為當(dāng)前時(shí)間段Ti前一個(gè)沖突點(diǎn)時(shí)間。那么當(dāng)前時(shí)間段Ti與上下游沖突點(diǎn)的平均時(shí)間距離計(jì)算Si:

      2.5 深度注意力遞歸網(wǎng)絡(luò)數(shù)據(jù)輸入源選取模型構(gòu)建

      在深度注意力遞歸網(wǎng)絡(luò)中,各神經(jīng)元分別屬于不同的層。每一層的神經(jīng)元可以接收前一層神經(jīng)元的信號(hào),并產(chǎn)生信號(hào)輸出到下一層。第0層稱為輸入層,最后一層稱為輸出層,其他中間層稱為隱藏層,中間層用來提取輸入層數(shù)據(jù)的隱藏特征。因?yàn)檩斎霐?shù)據(jù)是時(shí)序數(shù)據(jù),前后數(shù)據(jù)之間是有關(guān)聯(lián)性的,這種類型的數(shù)據(jù)很適合用深度神經(jīng)網(wǎng)絡(luò)來處理。使用深度注意力遞歸網(wǎng)絡(luò)處理這些時(shí)序數(shù)據(jù)時(shí),這種網(wǎng)絡(luò)具有長(zhǎng)時(shí)記憶功能,能夠更好地提取出數(shù)據(jù)的深層表征,并且便于工程實(shí)現(xiàn),在生產(chǎn)系統(tǒng)中具有很好的應(yīng)用性。此外這種網(wǎng)絡(luò)還解決了長(zhǎng)序列訓(xùn)練過程中存在的梯度消失和梯度爆炸的問題。

      整個(gè)模型架構(gòu)分為三層:輸入層、中間層和輸出層。輸入層主要用來對(duì)輸入數(shù)據(jù)進(jìn)行數(shù)據(jù)預(yù)處理,之后放入到后面的中間層進(jìn)行處理。中間層包括多個(gè)網(wǎng)絡(luò)層和一個(gè)全連接層。網(wǎng)絡(luò)層中由兩部分組成:一個(gè)是LSTM網(wǎng)絡(luò)層,另一個(gè)是注意力層;還有一個(gè)是全連接層,全連接層里是全連接網(wǎng)絡(luò)。在模型的輸出層中輸出預(yù)測(cè)的結(jié)果,并降低真實(shí)值和預(yù)測(cè)值之間的誤差。模型結(jié)構(gòu)如圖1所示。

      圖1 模型整體架構(gòu)圖Fig.1 Model overall architecture diagram

      本文整個(gè)模型可以分成輸入層的設(shè)計(jì)、中間層的設(shè)計(jì)和輸出層和優(yōu)化方法這三部分。

      (1)輸入層設(shè)計(jì)

      深度學(xué)習(xí)網(wǎng)絡(luò)數(shù)據(jù)輸入為含有10個(gè)數(shù)據(jù)特征的10維向量Hij,具體10個(gè)數(shù)據(jù)特征可由2.1至2.4節(jié)的公式計(jì)算得出。

      (2)中間層設(shè)計(jì)

      中間層中包括兩大部分,多個(gè)網(wǎng)絡(luò)層和一個(gè)全連接層。其中網(wǎng)絡(luò)層中由兩部分組成:一個(gè)是非線性子層,另一個(gè)是注意力層。非線性子層以RNN為基本框架,具體如下。RNN使用雙向長(zhǎng)短期記憶網(wǎng)絡(luò)(Long Short-Term Memory,LSTM)來構(gòu)建本文的的循環(huán)子層。給定一系列輸入向量Hij,兩個(gè)LSTM以相反的方向處理輸入。為了在輸入和輸出之間保持相同的維度,使用求和運(yùn)算來組合兩個(gè)表示,公式如下:

      注意力子層的輸入是三個(gè)相同的非線性子層的輸出Q、K、V,然后將這三個(gè)矩陣經(jīng)過線性變換,之后再進(jìn)行分裂操作,共分為h個(gè)段,并且對(duì)不同的片段進(jìn)行目標(biāo)源構(gòu)建操作,最后將點(diǎn)積之后的結(jié)果進(jìn)行拼接,最后經(jīng)過一次線性變換作為自注意力子層的輸出,公式如下所示:

      (3)輸出層設(shè)計(jì)

      在本文中,輸出層損失函數(shù)采用了均方誤差(Mean-Square Error,MSE),是實(shí)驗(yàn)多次中預(yù)測(cè)數(shù)據(jù)和原始數(shù)據(jù)對(duì)應(yīng)點(diǎn)誤差的平方和的均值,公式如下:

      其中,Y為輸入數(shù)據(jù)的真實(shí)輸出,為本次多時(shí)段控制方案起止時(shí)間段i、j之間數(shù)據(jù)輸入源最優(yōu)選取點(diǎn),f(H)為經(jīng)過前面各網(wǎng)絡(luò)層的數(shù)據(jù)輸出。在輸出層中,將中間層的結(jié)果和真實(shí)值之間計(jì)算均方誤差MSE,使用多次實(shí)驗(yàn)計(jì)算這個(gè)方差的均值。計(jì)算多詞,當(dāng)均方誤差小于一定值或者在一定范圍內(nèi)保持不變,則停止訓(xùn)練,此時(shí)這個(gè)模型是最優(yōu)的。

      2.6 SGD算法實(shí)現(xiàn)

      SGD,全稱為Stochastic Gradient Descent,隨機(jī)梯度下降法。隨機(jī)梯度下降算法每次從訓(xùn)練集中隨機(jī)選擇一個(gè)樣本來進(jìn)行學(xué)習(xí),相比于批量梯度下降算法每次都會(huì)使用全部訓(xùn)練樣本,每次都使用完全相同的樣本集,產(chǎn)生大量冗余計(jì)算。而隨機(jī)梯度下降算法每次只隨機(jī)選擇一個(gè)樣本來更新模型參數(shù),因此每次的學(xué)習(xí)是非??焖俚?,并且可以進(jìn)行在線更新。本次算法實(shí)現(xiàn)利用Tensorflow計(jì)算框架中的SGD算法包。

      3 體系評(píng)估

      3.1 測(cè)試數(shù)據(jù)分析

      為了保證算法評(píng)價(jià)的客觀與連續(xù)性,本次測(cè)試數(shù)據(jù)集繼續(xù)沿用本文作者在參考文獻(xiàn)[6]中駝峰型代表交叉口2016年全年全天交通流量。數(shù)據(jù)采集格式如下:

      (1)數(shù)據(jù)采集時(shí)間:2016全年366天。

      (2)數(shù)據(jù)量:35 136條(96條/天/個(gè)×1個(gè)×366天)。

      (3)單條數(shù)據(jù)格式:15 min內(nèi)單個(gè)交叉口交通流總量(單位:pcu/h)(單個(gè)交叉口一天共96條數(shù)據(jù))。

      3.2 測(cè)試環(huán)境

      在整個(gè)實(shí)驗(yàn)測(cè)試環(huán)境中,運(yùn)行環(huán)境部署在Linux系統(tǒng),Python版本使用3.6.5,訓(xùn)練模型時(shí)使用Keras框架,該框架的版本是2.4.3,使用的Tensorflow版本為1.12.0版本,運(yùn)行內(nèi)存是12 GB,CPU的個(gè)數(shù)是12個(gè),GPU使用RTX2080Ti。

      3.3 實(shí)驗(yàn)參數(shù)

      在整個(gè)實(shí)驗(yàn)中進(jìn)行模型的訓(xùn)練時(shí),使用其中60%的數(shù)據(jù)進(jìn)行訓(xùn)練,剩下40%的數(shù)據(jù)進(jìn)行測(cè)試,在模型中,網(wǎng)絡(luò)層的個(gè)數(shù)是5個(gè),RNN網(wǎng)絡(luò)層神經(jīng)元的個(gè)數(shù)是64、128或者256個(gè),Attention網(wǎng)絡(luò)層神經(jīng)元個(gè)數(shù)是64、128或者256個(gè),損失函數(shù)使用MSE,學(xué)習(xí)率在0.01和0.1之間變動(dòng),優(yōu)化方法使用了SGD方法,全連接層中神經(jīng)元的個(gè)數(shù)也是64、128或者256個(gè),訓(xùn)練模型時(shí),訓(xùn)練次數(shù)是1 000次。其中64、128和256是可選的參數(shù),當(dāng)訓(xùn)練完成后,選擇結(jié)果最好的一組參數(shù)作為模型最終的參數(shù)。

      3.4 數(shù)據(jù)標(biāo)記

      步驟1從測(cè)試數(shù)據(jù)集中抽取標(biāo)記數(shù)據(jù)集。本次標(biāo)記數(shù)據(jù)集為2016年6月23日測(cè)試交叉口6點(diǎn)至10點(diǎn)交通流量。此時(shí)間段劃分為一個(gè)控制時(shí)段。數(shù)據(jù)格式為數(shù)據(jù)采集時(shí)間序號(hào)、東進(jìn)口道左轉(zhuǎn)流量、東進(jìn)口道直行流量、東進(jìn)口道右轉(zhuǎn)流量、西進(jìn)口道左轉(zhuǎn)流量、西進(jìn)口道直行流量、西進(jìn)口道右轉(zhuǎn)流量、南進(jìn)口道左轉(zhuǎn)流量、南進(jìn)口道直行流量、南進(jìn)口道右轉(zhuǎn)流量、北進(jìn)口道左轉(zhuǎn)流量、北進(jìn)口道直行流量、北進(jìn)口道右轉(zhuǎn)流量以及總流量。

      步驟2以交叉口數(shù)據(jù)采集點(diǎn)各進(jìn)口道交通流量為輸入源,利用Synchro配時(shí)方案優(yōu)化模塊計(jì)算出每個(gè)采集點(diǎn)的交通控制方案(以交叉口采集序號(hào)24數(shù)據(jù)為例),如圖2所示。

      圖2 測(cè)試交叉口采集序號(hào)24的交通控制配時(shí)方案Fig.2 Traffic control timing scheme for collection of serial number 24 at test intersection

      步驟3以上述信號(hào)周期56 s配時(shí)方案為基礎(chǔ)控制策略,分別以采集序號(hào)24至40號(hào)交通流數(shù)據(jù)作為數(shù)據(jù)輸入,利用Sumo交叉口評(píng)價(jià)功能模塊分別計(jì)算各個(gè)采集序號(hào)的交叉口車輛平均延誤(以交叉口采集序號(hào)24數(shù)據(jù)為例),如圖3所示。

      圖3 測(cè)試交叉口采集序號(hào)24的交通控制評(píng)價(jià)方案Fig.3 Traffic control evaluation plan for collection of serial number 24 at test intersection

      步驟4利用Synchro控制優(yōu)化模塊,分別以采集序號(hào)24至40號(hào)交通流量作為數(shù)據(jù)輸入,計(jì)算出各自采集序號(hào)的交通控制方案。結(jié)合Synchro評(píng)價(jià)模塊分別以各自序號(hào)的控制方案對(duì)采集序號(hào)24至40號(hào)交叉口交通流進(jìn)行評(píng)價(jià),計(jì)算出各自采集序號(hào)方案的總體延誤,選取總體延誤最小的時(shí)間序號(hào)點(diǎn)標(biāo)記為本輪多時(shí)段控制方案最佳輸入源選取點(diǎn)。標(biāo)記數(shù)據(jù)格式共為11個(gè)特征,其中前10個(gè)(方案開始時(shí)間、結(jié)束時(shí)間、期間流量最大值、期間流量最小值、最大值與內(nèi)部沖突點(diǎn)平均時(shí)間距離、該時(shí)間段累積總流量、該時(shí)間段東進(jìn)口累積流量、該時(shí)間段西進(jìn)口累積流量、該時(shí)間段南進(jìn)口累積流量、該時(shí)間段北進(jìn)口累積流量)為數(shù)據(jù)輸入、最后一個(gè)(本輪方案數(shù)據(jù)輸入源最佳選取點(diǎn))為數(shù)據(jù)輸出。

      3.5 評(píng)估算法分析

      (1)不同算法的網(wǎng)絡(luò)層數(shù)效果對(duì)比

      首先改變模型中網(wǎng)絡(luò)層個(gè)數(shù)這個(gè)參數(shù),設(shè)這個(gè)參數(shù)為1、3、5、7和9,其他參數(shù)保持不動(dòng),本文創(chuàng)新構(gòu)建自注意力模型與傳統(tǒng)RNN、CNN進(jìn)行評(píng)價(jià)對(duì)比。實(shí)驗(yàn)的結(jié)果如表1所示??傮w來看,所有自注意力模型的預(yù)測(cè)結(jié)果好于RNN的預(yù)測(cè)結(jié)果,所有RNN的預(yù)測(cè)結(jié)果好于CNN的預(yù)測(cè)結(jié)果,可能原因是自注意力模型網(wǎng)絡(luò)里面提取的特征要比RNN和CNN更加豐富一些;在每個(gè)級(jí)別中,當(dāng)參數(shù)為5時(shí)效果是最好的,參數(shù)大于5或者參數(shù)小于5結(jié)果都不好,可能原因是當(dāng)層數(shù)太少時(shí),沒有充分學(xué)到特征,當(dāng)層數(shù)太多時(shí),學(xué)到的臟特征比較多,所以精度下降了。

      表1 不同算法的網(wǎng)絡(luò)層數(shù)效果對(duì)比表Table 1 Comparison table of effect of different algorithms under number of network layers

      (2)不同算法的網(wǎng)絡(luò)層神經(jīng)元個(gè)數(shù)效果對(duì)比

      改變RNN/CNN/自注意力網(wǎng)絡(luò)層神經(jīng)元的個(gè)數(shù),分別為64、128和256,實(shí)驗(yàn)結(jié)果如圖4所示。從圖中可以看出,無論是CNN、RNN還是自注意力,當(dāng)神經(jīng)元個(gè)數(shù)為128時(shí)效果最好,當(dāng)神經(jīng)元個(gè)數(shù)為64時(shí)數(shù)量偏少?zèng)]有學(xué)到足夠的特征,當(dāng)神經(jīng)元個(gè)數(shù)為256時(shí),可能產(chǎn)生過擬合導(dǎo)致精度下降。

      圖4 不同算法的神經(jīng)元個(gè)數(shù)結(jié)果對(duì)比圖Fig.4 Comparison chart of number of neurons of different algorithms

      (3)不同算法的學(xué)習(xí)率效果對(duì)比

      使用了不同的學(xué)習(xí)率來訓(xùn)練模型,學(xué)習(xí)率分別設(shè)為0.01、0.02、0.03、0.04、0.05、0.06、0.07、0.08、0.09和0.1。不同的學(xué)習(xí)率下精度的對(duì)比如圖5所示,從圖5可以看出,這三種方法中,當(dāng)學(xué)習(xí)率為0.06時(shí),精度是最高的。當(dāng)學(xué)習(xí)率從0.01升到0.06時(shí),這三種方法的精度同時(shí)提高;當(dāng)學(xué)習(xí)率從0.06升到0.1時(shí),這三種方法的精度同時(shí)降低,學(xué)習(xí)率提高時(shí),模型的訓(xùn)練速度雖然加快了,但是可能已經(jīng)陷入到局部最優(yōu)的情況了,所以這三種方法的精度都在不斷降低。

      圖5 不同算法的學(xué)習(xí)率效果對(duì)比圖Fig.5 Comparison of learning rate effects of different algorithms

      (4)創(chuàng)新方法與傳統(tǒng)80%位、50%位數(shù)據(jù)輸入選取方法對(duì)比

      比較不同方法下數(shù)據(jù)輸入選取點(diǎn)的優(yōu)化結(jié)果,通過測(cè)試對(duì)比評(píng)價(jià)分析本文創(chuàng)新方法與傳統(tǒng)80%位、50%位數(shù)據(jù)輸入選取方法,實(shí)驗(yàn)結(jié)果表如表2所示。從表中可以明顯地看出,本文方法好于最大最小平均法,平均法好于隨機(jī)法。本文方法中,被評(píng)為A級(jí)、B級(jí)和C級(jí)的個(gè)數(shù)遠(yuǎn)大于其他兩個(gè)方法,被評(píng)為D級(jí)、E級(jí)和F級(jí)的個(gè)數(shù)遠(yuǎn)小于其他兩個(gè)方法,說明本文提出的深度學(xué)習(xí)方法是有效的。

      表2 本文創(chuàng)新方法與傳統(tǒng)方法評(píng)價(jià)對(duì)比表Table 1 Evaluation comparison table of innovative method in this paper and traditional methods

      本文統(tǒng)計(jì)各分時(shí)段優(yōu)化結(jié)果中,創(chuàng)新方法和其他2種對(duì)比方法中6個(gè)評(píng)級(jí)的精度,結(jié)果如圖6所示。從圖中可以看出,無論是哪個(gè)級(jí)別,本文方法的精度都遠(yuǎn)遠(yuǎn)大于另外兩個(gè)方法。

      圖6 本文創(chuàng)新方法與傳統(tǒng)方法精度對(duì)比圖Fig.6 Accuracy comparison chart between innovative method in this paper and traditional methods

      本文同時(shí)比較訓(xùn)練過程中損失的變化,將本文創(chuàng)新方法、80%位取值、50%位取值進(jìn)行比較,實(shí)驗(yàn)結(jié)果如圖7所示。從圖中可以看出,本文方法損失下降最快的。同時(shí)也可以發(fā)現(xiàn)本文創(chuàng)新方法也是一種逐步遞進(jìn)的優(yōu)化方法,本方法初期參數(shù)運(yùn)行時(shí)精度比傳統(tǒng)方法差,但是隨著訓(xùn)練數(shù)據(jù)的逐步積累,網(wǎng)絡(luò)各層間的核心參數(shù)也在不斷優(yōu)化,方法運(yùn)行中期精度已超過50%取值法。同時(shí)因?yàn)楸疚囊胱宰⒁饬C(jī)制,在數(shù)據(jù)輸出以及中間全連接層各參數(shù)可相互聯(lián)系相互影響,同時(shí)其之間的動(dòng)態(tài)權(quán)重可在不斷調(diào)整,故本方法運(yùn)行后期逐步超越80%取值法。此外,本文還比較了隨著訓(xùn)練次數(shù)的增加精度的變化情況,實(shí)驗(yàn)結(jié)果如圖8所示。從圖中可以看出,本文方法隨著訓(xùn)練次數(shù)的增加,精度上升最快。

      圖7 本文創(chuàng)新方法不同運(yùn)行階段與傳統(tǒng)方法訓(xùn)練損失對(duì)比圖Fig.7 Comparison of training loss between different operating stages of innovative method in this paper and traditional methods

      圖8 本文創(chuàng)新方法與傳統(tǒng)方法精度變化對(duì)比圖Fig.8 Comparison of accuracy changes between innovative method in this paper and traditional methods

      根據(jù)上面的實(shí)驗(yàn)和實(shí)驗(yàn)結(jié)果可以看出,無論是在總時(shí)段優(yōu)化結(jié)果還是在各分時(shí)段優(yōu)化結(jié)果中,無論是訓(xùn)練損失變化對(duì)比還是精度變化對(duì)比,或者訓(xùn)練時(shí)間對(duì)比,本文創(chuàng)新方法都要好于80%位取值法和50%取值法。此外,評(píng)級(jí)中最好的級(jí)別是A,最差的級(jí)別是F。本文方法的結(jié)果基本都在B級(jí)和C級(jí)中,而最大最小平均法和隨機(jī)法的結(jié)果集中化在D和E中,本文方法中F的個(gè)數(shù)很少,而傳統(tǒng)方法中F的個(gè)數(shù)比較多,更加說明了本文方法的有效性。

      4 結(jié)束語

      城市道路交叉口交通信號(hào)控制系統(tǒng)是解決城市核心區(qū)域交通擁堵問題的重要手段,目前大多數(shù)城市道路交叉口采用的信號(hào)控制方式是多時(shí)段控制。隨著大數(shù)據(jù)與人工智能技術(shù)積累的逐步成熟,多時(shí)段控制數(shù)據(jù)輸入源選取模型都得到進(jìn)一步激活,原來很多傳統(tǒng)的復(fù)雜模型受到當(dāng)時(shí)計(jì)算資源以及建模參數(shù)選擇等其他很多因素制約,當(dāng)時(shí)條件下無法體現(xiàn)出太多的價(jià)值,而現(xiàn)在基于大數(shù)據(jù)與人工智能技術(shù)對(duì)其建模能力進(jìn)行進(jìn)一步的釋放。本文打破傳統(tǒng)多時(shí)段控制數(shù)據(jù)輸入源選取的經(jīng)驗(yàn)論,提出一種基于傳感網(wǎng)數(shù)據(jù)采集技術(shù)與人工智能理論相結(jié)合的交叉口多時(shí)段控制深度注意力遞歸網(wǎng)絡(luò)輸入源選取優(yōu)化方法。在傳統(tǒng)神經(jīng)網(wǎng)絡(luò)基礎(chǔ)上引入自注意力機(jī)制,增加網(wǎng)絡(luò)各層節(jié)點(diǎn)之間的雙向聯(lián)系,同時(shí)通過不斷訓(xùn)練的數(shù)據(jù)來合理優(yōu)化各節(jié)點(diǎn)之間的注意力動(dòng)態(tài)權(quán)重,并以某城市實(shí)際交通流量數(shù)據(jù)為測(cè)試數(shù)據(jù)進(jìn)行評(píng)價(jià)對(duì)比分析。結(jié)果表明,本文創(chuàng)新模型與其他選取50%位、80%位期間交通量作為模型固定輸入源的傳統(tǒng)方法相比,特別是在交通流內(nèi)部沖突點(diǎn)更加復(fù)雜多變的高峰期間,本文創(chuàng)新方法既注重交通流量的宏觀趨勢(shì),又兼顧沖突點(diǎn)附近的微觀變化。優(yōu)化出的數(shù)據(jù)輸入源選取點(diǎn)生成的信號(hào)配時(shí)方案更加精準(zhǔn)高效,交叉口全天總延誤時(shí)間有效降低。

      猜你喜歡
      網(wǎng)絡(luò)層時(shí)間段交叉口
      Noise-Tolerant ZNN-Based Data-Driven Iterative Learning Control for Discrete Nonaffine Nonlinear MIMO Repetitive Systems
      夏天曬太陽防病要注意時(shí)間段
      信號(hào)交叉口延誤參數(shù)獲取綜述
      發(fā)朋友圈沒人看是一種怎樣的體驗(yàn)
      意林(2017年8期)2017-05-02 17:40:37
      基于WPA的物聯(lián)網(wǎng)網(wǎng)絡(luò)層安全的研究
      一種Y型交叉口設(shè)計(jì)方案的選取過程
      不同時(shí)間段顱骨修補(bǔ)對(duì)腦血流動(dòng)力學(xué)變化的影響
      考慮黃燈駕駛行為的城市交叉口微觀仿真
      不同時(shí)間段服用左旋氨氯地平治療老年非杓型高血壓患者31例
      基于VISSIM的交叉口改善評(píng)價(jià)研究
      河南科技(2014年14期)2014-02-27 14:12:02
      安吉县| 郑州市| 慈利县| 临汾市| 交城县| 灵璧县| 平利县| 泾阳县| 武安市| 伊金霍洛旗| 手机| 如皋市| 云和县| 海宁市| 周宁县| 晋江市| 洮南市| 龙江县| 黄梅县| 星子县| 睢宁县| 东乡| 增城市| 正蓝旗| 芷江| 阿拉善右旗| 微山县| 陈巴尔虎旗| 澜沧| 揭阳市| 淮安市| 和硕县| 封开县| 永安市| 永福县| 江西省| 临桂县| 霍州市| 南平市| 延庆县| 信阳市|