• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      不確定環(huán)境下的深度強(qiáng)化學(xué)習(xí)編隊(duì)避障控制①

      2022-11-06 06:06:18禹鑫燚杜丹楓歐林林
      高技術(shù)通訊 2022年8期
      關(guān)鍵詞:隊(duì)形編隊(duì)障礙物

      禹鑫燚 杜丹楓 歐林林

      (浙江工業(yè)大學(xué)信息工程學(xué)院 杭州310023)

      0 引言

      多智能體系統(tǒng)在軍事、衛(wèi)星群協(xié)同控制、無(wú)人機(jī)編隊(duì)控制等方面都有廣闊的應(yīng)用前景[1-3],因此得到了各界學(xué)者的廣泛關(guān)注[4]。其優(yōu)點(diǎn)在于利用多個(gè)智能體協(xié)作完成單個(gè)智能體無(wú)法完成的復(fù)雜任務(wù)。多智能體的編隊(duì)一直是多智能體系統(tǒng)的研究熱點(diǎn)[5-6],它要求智能體以特定的幾何形狀形成集群或者以期望的隊(duì)形完成特定的任務(wù)。如何使多智能體系統(tǒng)在避開(kāi)障礙物的同時(shí)保持隊(duì)形,是多智能體編隊(duì)控制的關(guān)鍵問(wèn)題。

      已有的編隊(duì)控制方法有領(lǐng)航跟隨法[7]、虛擬結(jié)構(gòu)法[8]、基于行為法[9]和基于圖論法[10]等。文獻(xiàn)[11]研究了一種基于視覺(jué)的領(lǐng)航跟隨跟蹤策略。文獻(xiàn)[12]設(shè)計(jì)了一種基于虛擬結(jié)構(gòu)的避障方法,為每個(gè)機(jī)器人生成基本軌跡。文獻(xiàn)[13]基于圖論提出了一種新穎的自適應(yīng)編隊(duì)控制方法,用于解決非線性多智能體系統(tǒng)的編隊(duì)控制問(wèn)題。雖然多智能體編隊(duì)控制已經(jīng)取得了一系列的研究成果,但是在面對(duì)復(fù)雜環(huán)境或者動(dòng)態(tài)環(huán)境時(shí)適應(yīng)能力不足。在不確定環(huán)境中,多智能體編隊(duì)的避障不夠靈活,智能體之間的碰撞避免以及智能體與障礙物的碰撞避免,給多智能體編隊(duì)避障控制帶來(lái)了挑戰(zhàn)。

      深度強(qiáng)化學(xué)習(xí)[14-16]可以不依賴環(huán)境模型,適用于未知環(huán)境中的決策控制問(wèn)題。同時(shí)由于深度強(qiáng)化學(xué)習(xí)擁有強(qiáng)大的感知和學(xué)習(xí)能力[17-18],在多智能體領(lǐng)域已經(jīng)取得了較為成功的應(yīng)用[19-22]?;趶?qiáng)化學(xué)習(xí)的多智能體編隊(duì)控制具有傳統(tǒng)編隊(duì)方法所不具備的優(yōu)點(diǎn),可以在不斷的試錯(cuò)中進(jìn)行學(xué)習(xí)來(lái)解決編隊(duì)避障控制問(wèn)題。目前已有諸多學(xué)者將深度強(qiáng)化學(xué)習(xí)與傳統(tǒng)編隊(duì)控制相結(jié)合,并且取得了較好的成果。針對(duì)動(dòng)力學(xué)未知的非線性多智能體編隊(duì)控制,文獻(xiàn)[23]提出了結(jié)合模糊邏輯系統(tǒng)和強(qiáng)化學(xué)習(xí)的優(yōu)化控制方案來(lái)實(shí)現(xiàn)編隊(duì)控制。文獻(xiàn)[24]提出了一種基于深度學(xué)習(xí)的無(wú)人機(jī)編隊(duì)協(xié)調(diào)控制算法,使得無(wú)人機(jī)能夠在大規(guī)模復(fù)雜環(huán)境中形成特定隊(duì)形并執(zhí)行導(dǎo)航任務(wù)??紤]到編隊(duì)過(guò)程中的碰撞避免問(wèn)題,文獻(xiàn)[25,26]使用深度強(qiáng)化學(xué)習(xí)方法優(yōu)化領(lǐng)航跟隨算法,實(shí)現(xiàn)了多智能體的編隊(duì)避障控制。文獻(xiàn)[27]將基于行為的控制方法和深度強(qiáng)化學(xué)習(xí)相結(jié)合,使編隊(duì)可以在保持隊(duì)形的同時(shí)避開(kāi)障礙物。為了進(jìn)一步提高編隊(duì)避障的成功率,文獻(xiàn)[28]和[29]利用深度強(qiáng)化學(xué)習(xí)強(qiáng)大的學(xué)習(xí)能力,訓(xùn)練了一種多智能體編隊(duì)避障策略,有效降低了智能體之間的碰撞概率。文獻(xiàn)[30]將深度學(xué)習(xí)方法與傳統(tǒng)碰撞回避算法相結(jié)合,在編隊(duì)的過(guò)程中,采用長(zhǎng)短期記憶來(lái)感知任意數(shù)量的障礙物信息,并設(shè)計(jì)了復(fù)合獎(jiǎng)勵(lì)函數(shù)來(lái)提高編隊(duì)避障的成功率。上述文獻(xiàn)基于深度強(qiáng)化學(xué)習(xí)實(shí)現(xiàn)了多智能體的編隊(duì)避障控制,并且在不同方面做出了優(yōu)化,但是對(duì)于多個(gè)智能體的學(xué)習(xí)過(guò)程長(zhǎng)、學(xué)習(xí)速率慢的問(wèn)題,目前研究還不夠深入。

      為進(jìn)一步縮短編隊(duì)過(guò)程中智能體的學(xué)習(xí)時(shí)間,并且加快智能體學(xué)習(xí)效率,本文提出了一種不確定環(huán)境下的深度強(qiáng)化學(xué)習(xí)編隊(duì)避障控制方法。首先,在智能體學(xué)習(xí)的初始階段,建立了價(jià)值評(píng)估網(wǎng)絡(luò),增加智能體選擇觸碰障礙物或者到達(dá)期望位置這些特殊動(dòng)作的經(jīng)驗(yàn)。其次,在智能體選擇動(dòng)作時(shí),基于貪心策略,改進(jìn)動(dòng)作選擇策略,提高了算法的學(xué)習(xí)效率。然后設(shè)計(jì)了樣本存儲(chǔ)空間,增加樣本的利用率。最終,結(jié)合多步學(xué)習(xí)算法,使價(jià)值估計(jì)更準(zhǔn)確。通過(guò)本文提出的深度強(qiáng)化學(xué)習(xí)編隊(duì)避障控制方法,智能體可以在不確定環(huán)境中通過(guò)學(xué)習(xí)完成編隊(duì)避障任務(wù)。為驗(yàn)證本文方法在不確定環(huán)境下的有效性,本文設(shè)置了不同的障礙物環(huán)境進(jìn)行仿真實(shí)驗(yàn)。仿真結(jié)果表明本文所提算法能夠使多個(gè)智能體在不確定環(huán)境下較好地實(shí)現(xiàn)編隊(duì)避障任務(wù)。

      1 問(wèn)題描述

      本文所要解決的主要問(wèn)題是確定每個(gè)智能體的最優(yōu)控制策略,使得智能體到達(dá)各自的期望位置形成隊(duì)形,并且能在維持隊(duì)形不變的情況下有效避開(kāi)障礙物。假設(shè)存在N(N≥2) 個(gè)智能體隨機(jī)分布在二維空間內(nèi),每個(gè)智能體對(duì)應(yīng)著不同的期望位置。在多智能體編隊(duì)過(guò)程中,位置坐標(biāo)表示智能體i的狀態(tài),并且朝著期望位置Gi(i=1,2,…,N) 運(yùn)動(dòng),同時(shí)智能體互相之間不發(fā)生碰撞并且能有效避開(kāi)障礙物。智能體i在運(yùn)動(dòng)過(guò)程中有5 種可能的動(dòng)作可供選擇,即動(dòng)作集合Ai(s) 為{前,后,左,右,保持原地}。

      將上述多智能體編隊(duì)避障控制問(wèn)題表述為強(qiáng)化學(xué)習(xí)問(wèn)題。在不確定環(huán)境下的深度強(qiáng)化學(xué)習(xí)編隊(duì)避障控制問(wèn)題中,對(duì)于每個(gè)智能體,st和at分別表示t時(shí)刻的狀態(tài)和動(dòng)作。智能體i的位置坐標(biāo)為pt,i=速度為,期望位置的坐標(biāo)為可觀測(cè)的智能體狀態(tài)為st,i其中g(shù)t,i表示智能體是否到達(dá)期望位置。獎(jiǎng)勵(lì)值函數(shù)的設(shè)計(jì)為R=[rO,rG,rF],其中rO表示智能體觸碰障礙物的獎(jiǎng)勵(lì)值,rG表示智能體到達(dá)目標(biāo)位置的獎(jiǎng)勵(lì)值,rF表示多個(gè)智能體保持隊(duì)形的獎(jiǎng)勵(lì)值。如果目標(biāo)編隊(duì)完成,即智能體到達(dá)相應(yīng)的目標(biāo)位置時(shí),會(huì)獲得正向的獎(jiǎng)勵(lì)值,而智能體觸碰障礙物或者智能體隊(duì)形被破壞則會(huì)得到負(fù)向的懲罰。根據(jù)上述定義,本文使用一個(gè)五元組<I,S,Ai(s),P,{ri}>來(lái)表示多智能體編隊(duì)避障控制過(guò)程,其中,I為有限個(gè)智能體的集合;S為每個(gè)智能體可觀測(cè)狀態(tài)的集合;Ai(s) 為第i個(gè)智能體在狀態(tài)s∈S下可以選擇的動(dòng)作集合;P為狀態(tài)轉(zhuǎn)移函數(shù),是指給定智能體在當(dāng)前狀態(tài)和聯(lián)合行為時(shí),下一狀態(tài)的概率分布;{ri} 表示多個(gè)智能體在采取不同動(dòng)作之后的獎(jiǎng)勵(lì)值的集合。多個(gè)智能體在s狀態(tài)下的聯(lián)合動(dòng)作可以表示為A(s)=A1(s)×A2(s)×A3(s)…×AN(s)。在學(xué)習(xí)過(guò)程中,每個(gè)智能體與環(huán)境不斷進(jìn)行交互,獲取智能體自身的狀態(tài)信息。多個(gè)智能體的狀態(tài)信息組合成聯(lián)合狀態(tài)輸入到神經(jīng)網(wǎng)絡(luò),智能體根據(jù)動(dòng)作選擇策略選取自身的動(dòng)作,獲得下一時(shí)刻的狀態(tài)和獎(jiǎng)勵(lì)值函數(shù)值。智能體與環(huán)境交互產(chǎn)生的數(shù)據(jù)元組{st,i,at,i,rt+1,i,st+1,i}被存儲(chǔ)到經(jīng)驗(yàn)池中。在每一回合,從經(jīng)驗(yàn)池中進(jìn)行采樣學(xué)習(xí),最終智能體通過(guò)學(xué)習(xí)確定最優(yōu)控制策略π,為隊(duì)形保持和碰撞避免選擇最優(yōu)動(dòng)作。當(dāng)智能體執(zhí)行策略π時(shí),可以最大化智能體的獎(jiǎng)勵(lì)總和Ri,其中γ是折扣因子,t表示時(shí)間,T是終止時(shí)間。

      2 不確定環(huán)境下的深度強(qiáng)化學(xué)習(xí)編隊(duì)避障控制方法

      將多智能體編隊(duì)避障控制問(wèn)題抽象為強(qiáng)化學(xué)習(xí)過(guò)程,目的是通過(guò)學(xué)習(xí)得到最優(yōu)策略,使智能體在保持隊(duì)形的同時(shí)避免碰撞并到達(dá)期望位置。本文建立了價(jià)值評(píng)估網(wǎng)絡(luò),改進(jìn)了智能體動(dòng)作選擇策略,設(shè)計(jì)了樣本存儲(chǔ)空間,同時(shí)結(jié)合了多步學(xué)習(xí)算法,提出了不確定環(huán)境下的深度強(qiáng)化學(xué)習(xí)編隊(duì)避障控制方法。

      2.1 獎(jiǎng)勵(lì)值和動(dòng)作選擇策略的設(shè)計(jì)

      獎(jiǎng)勵(lì)函數(shù)的設(shè)計(jì)對(duì)深度強(qiáng)化學(xué)習(xí)編隊(duì)避障控制任務(wù)尤為重要。在本文中,智能體互相之間發(fā)生碰撞或者觸碰障礙物以及無(wú)法保持隊(duì)形會(huì)獲得一個(gè)負(fù)的獎(jiǎng)勵(lì)值,智能體到達(dá)各自的期望位置則會(huì)獲得一個(gè)正的獎(jiǎng)勵(lì)值,其他時(shí)刻獎(jiǎng)勵(lì)值為0。

      其中rcrash是智能體之間發(fā)生碰撞或者觸碰到障礙物的獎(jiǎng)勵(lì)值;rreach是智能體到達(dá)期望位置的獎(jiǎng)勵(lì)值;rformation表示多智能體無(wú)法維持隊(duì)形時(shí)的獎(jiǎng)勵(lì)值。

      合理而有效的動(dòng)作選擇策略設(shè)計(jì)可以減少學(xué)習(xí)的時(shí)間。將貪心策略用于動(dòng)作選擇,來(lái)平衡學(xué)習(xí)過(guò)程中的探索與利用,求解出接近真實(shí)的價(jià)值模型。貪心策略定義如下:

      其中μ∈[0,1] 是每個(gè)回合產(chǎn)生的隨機(jī)值,ε是探索速率,是動(dòng)作空間A中的一個(gè)隨機(jī)動(dòng)作。貪心策略可以使每個(gè)智能體有1-ε的概率隨機(jī)選擇動(dòng)作。在訓(xùn)練前期,智能體需要多次探索,以獲取不同的動(dòng)作價(jià)值,避免陷入局部最優(yōu);而經(jīng)過(guò)一段時(shí)間訓(xùn)練之后,智能體逐漸學(xué)習(xí)到最優(yōu)策略,就可直接選擇正確的動(dòng)作,盡可能獲取更多的獎(jiǎng)勵(lì)值。ε的取值隨著迭代次數(shù)的增加而增加,最終值為1。

      當(dāng)智能體選擇動(dòng)作時(shí),在保留一定概率隨機(jī)選擇動(dòng)作的基礎(chǔ)上,對(duì)貪心策略作了改進(jìn)。為了加快智能體在前期的探索效率,本文建立了一個(gè)價(jià)值評(píng)估網(wǎng)絡(luò)使智能體更快地理解環(huán)境。智能體在選擇碰撞或者到達(dá)期望位置等特殊動(dòng)作時(shí),會(huì)產(chǎn)生特殊經(jīng)驗(yàn),價(jià)值評(píng)估網(wǎng)絡(luò)被用來(lái)評(píng)價(jià)選擇的特殊動(dòng)作的價(jià)值。該網(wǎng)絡(luò)E的損失函數(shù)定義為

      價(jià)值評(píng)估網(wǎng)絡(luò)E的訓(xùn)練需在網(wǎng)絡(luò)Q之前完成,然后幫助選擇動(dòng)作。結(jié)合貪心策略,將動(dòng)作選擇策略設(shè)計(jì)為

      式(5)中,e(st,at;) 可以增加智能體特殊經(jīng)驗(yàn)的比例,即在訓(xùn)練前期,鼓勵(lì)智能體選擇下一步的碰撞或者到達(dá)期望位置的動(dòng)作。當(dāng)Q(st,at;θt) 開(kāi)始正確識(shí)別障礙物時(shí),e(st,at;) 可以抑制碰撞,鼓勵(lì)智能體探索更多的位置。

      2.2 樣本存儲(chǔ)空間設(shè)計(jì)

      通過(guò)2.1 節(jié)中的動(dòng)作選擇策略,智能體與環(huán)境進(jìn)行交互產(chǎn)生學(xué)習(xí)樣本,存入樣本存儲(chǔ)空間中。樣本存儲(chǔ)空間具備采樣功能,通過(guò)計(jì)算每個(gè)樣本的時(shí)間差分誤差(temporal difference error,TD-Error),即樣本的估計(jì)值和實(shí)際值之間的差距,將其作為當(dāng)前樣本的采樣權(quán)重。越大的TD-Error 表示樣本的估計(jì)值和實(shí)際值之間的差距越大,樣本越有價(jià)值。智能體編隊(duì)避障控制過(guò)程中的TD-Error 的定義為

      其中,rt+1是t +1 時(shí)刻的獎(jiǎng)勵(lì)值,γ是折扣因子,s和a是智能體的狀態(tài)和動(dòng)作,θt是神經(jīng)網(wǎng)絡(luò)參數(shù)。使用隨機(jī)采樣算法,在以TD-Error 為權(quán)重的采樣和均勻采樣之間進(jìn)行插值。根據(jù)式(6),將樣本i的采樣概率P表示為

      其中pi和pk表示樣本i和k的TD-Error,α可以調(diào)整TD-Error 的權(quán)重。為了在提高樣本利用率的同時(shí)確保不會(huì)有太大的偏差,結(jié)合重要性采樣定理對(duì)原來(lái)的概率計(jì)算增加權(quán)重:

      其中N是存儲(chǔ)的樣本數(shù)量。在整個(gè)訓(xùn)練過(guò)程中,β的初始值為0,并且隨著迭代學(xué)習(xí)的進(jìn)行,線性增長(zhǎng)為1。

      樣本存儲(chǔ)空間的功能可以描述為:當(dāng)智能體通過(guò)動(dòng)作選擇策略與環(huán)境交互產(chǎn)生樣本存入樣本存儲(chǔ)空間時(shí),計(jì)算每個(gè)樣本i的采樣概率P(i);在樣本取出時(shí),以概率P(i) 進(jìn)行采樣;在更新時(shí),為每個(gè)樣本添加權(quán)重ωi,隨著訓(xùn)練的進(jìn)行,β從初始值線性增長(zhǎng)為1。

      2.3 算法設(shè)計(jì)

      本文采用如下的動(dòng)作-值函數(shù)來(lái)估計(jì)所學(xué)到的策略:

      其中E表示期望。式(9)可以遞歸計(jì)算為

      其中r(s,a) 表示在狀態(tài)s執(zhí)行動(dòng)作a的獎(jiǎng)勵(lì)值,s′和a′分別是下一時(shí)刻的狀態(tài)和動(dòng)作,γ是折扣因子,a′~π表示智能體通過(guò)動(dòng)作選擇策略π采取下一步動(dòng)作a′。深度Q 學(xué)習(xí)算法基于時(shí)序差分法的思想,通過(guò)貝爾曼方程進(jìn)行自迭代更新,更新公式為

      深度Q 學(xué)習(xí)算法大多通過(guò)下一時(shí)刻的回報(bào)和價(jià)值估計(jì)得到目標(biāo)價(jià)值,這種方法在前期具有學(xué)習(xí)速度較慢的缺點(diǎn)。為了提高學(xué)習(xí)速度,本文結(jié)合多步學(xué)習(xí)算法,以使訓(xùn)練前期目標(biāo)價(jià)值可以估計(jì)得更準(zhǔn)確,從而加速訓(xùn)練。多步學(xué)習(xí)算法的公式為

      其中,γ是折扣因子,r是獎(jiǎng)勵(lì)值,θt是神經(jīng)網(wǎng)絡(luò)的參數(shù)。結(jié)合式(11)和式(12),值函數(shù)的更新公式為

      其中α是學(xué)習(xí)速率,St是狀態(tài)空間,At是動(dòng)作空間,θt是神經(jīng)網(wǎng)絡(luò)參數(shù)。

      智能體與環(huán)境進(jìn)行交互產(chǎn)生數(shù)據(jù)(s,a,r,s′),使用經(jīng)驗(yàn)回放池來(lái)存儲(chǔ)交互產(chǎn)生的這些數(shù)據(jù),并且通過(guò)最小化損失函數(shù)來(lái)學(xué)習(xí)智能體的最優(yōu)策略。損失函數(shù)的定義為

      其中,Gt是根據(jù)多步學(xué)習(xí)算法得到的實(shí)際值,Q(St,At,θt) 為估計(jì)值,ω是由式(8)得到的權(quán)重。

      根據(jù)獎(jiǎng)勵(lì)值、動(dòng)作選擇策略和樣本存儲(chǔ)空間的設(shè)計(jì),結(jié)合多步學(xué)習(xí)算法,獲得適用于不確定環(huán)境下的深度強(qiáng)化學(xué)習(xí)編隊(duì)避障控制的算法如下。

      (1)初始化容量為N的Replay Buffer:D;

      (2)初始化狀態(tài)行動(dòng)價(jià)值模型Q和參數(shù)θ;初始化Target Network和參數(shù)θ′,價(jià)值評(píng)估網(wǎng)絡(luò)E和參數(shù)θE;初始化t=0 ;初始化batch_size大小為m;初始化多步學(xué)習(xí)算法步數(shù)n;

      (3)初始化環(huán)境得到初始狀態(tài)s1;

      (4)智能體i隨機(jī)選擇動(dòng)作at,i,從D中采樣進(jìn)行訓(xùn)練并計(jì)算yj,i=rj,i,根據(jù)式(3)計(jì)算神經(jīng)網(wǎng)絡(luò)E的損失函數(shù),訓(xùn)練并更新E的參數(shù)

      (5)智能體i以ε的概率選擇一個(gè)動(dòng)作at,i,或者根據(jù)式(5) 選擇當(dāng)前最優(yōu)動(dòng)作at,i=arg maxa∈Aq(st,i,at,i;θt,i)e(st,i,at,i;);(6)智能體i執(zhí)行動(dòng)作at,i,得到新一輪的狀態(tài)st+1,i和獎(jiǎng)勵(lì)值rt+1,i;

      (7)將樣本數(shù)據(jù){st,i,at,i,rt+1,i,st+1,i} 存儲(chǔ)到D中;

      (8)從D中采樣一批樣本進(jìn)行訓(xùn)練,根據(jù)式(12)計(jì)算yj,i的值,當(dāng)st+1,i為最終狀態(tài)時(shí),yj,i=rj,i,否則

      (9) 根據(jù)式(14)計(jì)算損失函數(shù)L(θ)=

      (10)每隔C輪進(jìn)行參數(shù)更新θ′←θt+1;

      (11)如果完成一次迭代訓(xùn)練,返回步驟(3),否則返回步驟(4)。

      在訓(xùn)練過(guò)程中,智能體與環(huán)境不斷進(jìn)行交互,獲取智能體自身的狀態(tài)信息。多個(gè)智能體的狀態(tài)信息組合成聯(lián)合狀態(tài)輸入到神經(jīng)網(wǎng)絡(luò)中,智能體根據(jù)改進(jìn)的動(dòng)作選擇策略選取自身的動(dòng)作,得到下一時(shí)刻的狀態(tài)和獎(jiǎng)勵(lì)函數(shù)值。交互過(guò)程中產(chǎn)生的智能體狀態(tài)-動(dòng)作值被存儲(chǔ)到經(jīng)驗(yàn)池中,在每一回合,從經(jīng)驗(yàn)池中進(jìn)行采樣學(xué)習(xí)。本文提出的算法可以通過(guò)學(xué)習(xí)得到多智能體編隊(duì)避障控制的最優(yōu)策略,使多個(gè)智能體到達(dá)期望位置形成隊(duì)形,并有效進(jìn)行避障。

      3 仿真實(shí)驗(yàn)

      為了驗(yàn)證在不確定環(huán)境下本文提出算法的有效性,在智能體學(xué)習(xí)過(guò)程中添加額外的障礙物。同時(shí),本文針對(duì)2 種不同的障礙物環(huán)境,分別進(jìn)行4 個(gè)智能體和6 個(gè)智能體的編隊(duì)避障控制。智能體通過(guò)迭代學(xué)習(xí)形成期望隊(duì)形,有效避開(kāi)障礙物并到達(dá)期望位置視為一次成功,文中以訓(xùn)練過(guò)程中的成功率為指標(biāo),將本文提出的方法與Double DQN[31]和MADDPG[32]2 種算法進(jìn)行成功率對(duì)比,驗(yàn)證了本文算法的有效性。仿真實(shí)驗(yàn)共進(jìn)行2000 回合的訓(xùn)練。在正式訓(xùn)練前需要進(jìn)行預(yù)訓(xùn)練,用于收集經(jīng)驗(yàn)數(shù)據(jù)以進(jìn)行批次訓(xùn)練。訓(xùn)練過(guò)程中,ε的取值從初始值0.1增長(zhǎng)到1。仿真實(shí)驗(yàn)的參數(shù)設(shè)計(jì)詳見(jiàn)表1。

      在二維空間內(nèi),基礎(chǔ)的動(dòng)作空間只包含{前,后,左,右,保持原地}5 個(gè)動(dòng)作。為了加快學(xué)習(xí)記憶的過(guò)程,本文在水平面內(nèi)將行為空間劃分為8 個(gè)離散的動(dòng)作,使智能體有更多的動(dòng)作選擇。如圖1 所示,本文的動(dòng)作空間包含8 個(gè)方向選擇,A(s)={0°,45°,90°,135°,180°,225°,270°,315°},智能體每次動(dòng)作的步幅是0.2。獎(jiǎng)勵(lì)值的設(shè)定為智能體發(fā)生碰撞時(shí)rcrash=-1,到達(dá)期望位置時(shí)rreach=1,rformation=-1。

      圖1 動(dòng)作空間

      如圖2 所示,在二維空間內(nèi)隨機(jī)生成4 個(gè)智能體的位置,在初始階段,智能體經(jīng)過(guò)訓(xùn)練學(xué)習(xí)形成正四邊形。然后,多個(gè)智能體在保持隊(duì)形不發(fā)生變化的前提下,通過(guò)迭代學(xué)習(xí)尋找到一條最優(yōu)路徑,避開(kāi)障礙物的同時(shí)到達(dá)期望位置。圖中深色正方形區(qū)域?yàn)樵疽汛嬖诘恼系K物,淺色正方形區(qū)域則在智能體學(xué)習(xí)過(guò)程中新加入的障礙物,坐標(biāo)左下角的圓點(diǎn)為智能體,坐標(biāo)右上角的圓點(diǎn)所在位置為各個(gè)智能體的期望位置。由圖2可知,即使在智能體學(xué)習(xí)過(guò)程中增加新的障礙物,多個(gè)智能體也可以通過(guò)本文提出的方法形成期望的隊(duì)形,有效避開(kāi)障礙物并到達(dá)期望位置。

      圖2 不確定環(huán)境下的智能體編隊(duì)避障軌跡

      本文考慮了在更復(fù)雜的環(huán)境下4 個(gè)智能體的編隊(duì)控制問(wèn)題,同時(shí)將智能體編隊(duì)避障的成功率與其他2 種算法進(jìn)行對(duì)比,驗(yàn)證了本文提出算法的有效性。如圖3 所示,圖中正方形為障礙物,坐標(biāo)左下角的圓點(diǎn)為智能體,坐標(biāo)右上角的圓點(diǎn)所在位置為各個(gè)智能體的期望位置。由圖3 可知,本文提出的方法可以使多個(gè)智能體在面對(duì)不同的環(huán)境時(shí)形成期望的隊(duì)形,同時(shí)經(jīng)過(guò)迭代學(xué)習(xí)得到最優(yōu)策略,在有效避開(kāi)障礙物的同時(shí)到達(dá)期望位置。

      圖3 4 個(gè)智能體編隊(duì)避障軌跡

      圖4 表示智能體保持隊(duì)形避障過(guò)程中每個(gè)回合的Q值之和。剛開(kāi)始所有Q值為0,隨著迭代訓(xùn)練的進(jìn)行,根據(jù)獎(jiǎng)勵(lì)值進(jìn)行Q值的更新。由圖4 可知,在訓(xùn)練初期由于ε值小,智能體隨機(jī)選擇動(dòng)作概率大,大概率觸碰障礙物獲得負(fù)向獎(jiǎng)勵(lì)值;在訓(xùn)練中后期,神經(jīng)網(wǎng)絡(luò)對(duì)整個(gè)樣本空間有了相對(duì)全面的采樣,在此基礎(chǔ)上,神經(jīng)網(wǎng)絡(luò)通過(guò)訓(xùn)練不斷對(duì)Q值進(jìn)行泛化,同時(shí)ε值增長(zhǎng),智能體可以根據(jù)經(jīng)驗(yàn)選擇最優(yōu)動(dòng)作,獲得正向獎(jiǎng)勵(lì)值的概率逐漸增大。經(jīng)過(guò)不斷學(xué)習(xí),成功避開(kāi)障礙物到達(dá)期望位置的概率越來(lái)越高。圖5 表示每個(gè)回合智能體的步數(shù)。由圖5 可知,4 個(gè)智能體經(jīng)過(guò)1250 個(gè)回合的學(xué)習(xí),最終學(xué)習(xí)到最優(yōu)策略,尋找到避開(kāi)障礙物到達(dá)期望位置的最短路徑。將所提出的算法與Double DQN 算法和MADDQN算法進(jìn)行了對(duì)比,3 種算法的成功率如圖6所示。由圖6 可知,本文提出的算法最終的成功率更高。

      圖4 智能體學(xué)習(xí)曲線

      圖5 智能體每個(gè)回合的步數(shù)

      圖6 3 種算法的成功率對(duì)比

      本文同時(shí)還考慮了6 個(gè)智能體在不同環(huán)境下的編隊(duì)避障控制,如圖7 所示。圖中坐標(biāo)左下角的圓點(diǎn)為智能體,坐標(biāo)右上角的圓點(diǎn)為各個(gè)智能體的期望位置,塊狀區(qū)域?yàn)檎系K物。智能體通過(guò)迭代學(xué)習(xí)形成正六邊形,并且有效避開(kāi)障礙物到達(dá)期望位置。圖8 為智能體的學(xué)習(xí)曲線,圖9 為智能體每個(gè)回合的步數(shù)。結(jié)合圖8 和圖9 可知,智能體通過(guò)訓(xùn)練學(xué)習(xí),在1100 回合之后獲得最優(yōu)策略,在保持隊(duì)形不發(fā)生變化的前提下,有效避開(kāi)障礙物到達(dá)期望位置。圖1 0 表示6 個(gè)智能體環(huán)境下本文方法與Double DQN 和MADDPG 2 種算法的成功率對(duì)比。由圖10可知,本文方法在多智能體編隊(duì)避障控制問(wèn)題中的成功率更高。

      圖7 6 個(gè)智能體編隊(duì)避障軌跡

      圖8 智能體學(xué)習(xí)曲線

      圖9 智能體每個(gè)回合的步數(shù)

      圖10 3 種算法的成功率對(duì)比

      為了驗(yàn)證在不確定環(huán)境下本文提出算法的有效性,在智能體學(xué)習(xí)過(guò)程中添加額外的障礙物。仿真結(jié)果表明多個(gè)智能體在不確定環(huán)境下能形成特定隊(duì)形避開(kāi)障礙物到達(dá)期望位置。同時(shí),在2 種不同的環(huán)境下,針對(duì)4 個(gè)和6 個(gè)智能體進(jìn)行了仿真實(shí)驗(yàn),并且將所提的方法與Double DQN 和MADDPG 算法進(jìn)行對(duì)比。結(jié)合圖3 和圖7 可知,本文提出的方法面對(duì)不同環(huán)境都能實(shí)現(xiàn)多智能體的編隊(duì)避障控制。多個(gè)智能體通過(guò)迭代學(xué)習(xí)形成期望隊(duì)形,并且有效避開(kāi)障礙物到達(dá)期望位置。由圖6 和圖10 可知,本文提出的方法在前期能更快地獲取成功的經(jīng)驗(yàn),學(xué)習(xí)速率更快,并且最終的成功率也相對(duì)更高。這表明了本文設(shè)計(jì)的價(jià)值評(píng)估網(wǎng)絡(luò)能幫助智能體更快地取得到達(dá)期望位置的特殊經(jīng)驗(yàn)。

      4 結(jié)論

      針對(duì)復(fù)雜環(huán)境的隨機(jī)性和不確定性,本文提出了一種不確定環(huán)境下的深度強(qiáng)化學(xué)習(xí)編隊(duì)避障控制方法。在該方法中,設(shè)計(jì)了價(jià)值評(píng)估網(wǎng)絡(luò)來(lái)增加編隊(duì)過(guò)程中的智能體選擇觸碰障礙物或者到達(dá)期望位置這些特殊動(dòng)作的經(jīng)驗(yàn),使智能體更快地理解環(huán)境規(guī)則。并且將該價(jià)值評(píng)估網(wǎng)絡(luò)和貪心策略相結(jié)合,對(duì)動(dòng)作選擇策略進(jìn)行改進(jìn),提高算法的學(xué)習(xí)效率。同時(shí),設(shè)計(jì)了樣本存儲(chǔ)空間,增加樣本利用率的同時(shí)提高了模型訓(xùn)練效率。在決策階段,結(jié)合多步學(xué)習(xí)算法使價(jià)值估計(jì)更準(zhǔn)確。通過(guò)仿真實(shí)驗(yàn)驗(yàn)證了本文提出方法的有效性,能在不同的環(huán)境下較好地完成多智能體編隊(duì)任務(wù)。仿真結(jié)果表明本文提出的方法可以適用于各種不確定環(huán)境中。將本文提出的方法和Double DQN 與MADDPG 2 種算法進(jìn)行對(duì)比,結(jié)果表明本文方法收斂速度更快,智能體編隊(duì)避障的成功率更高。

      猜你喜歡
      隊(duì)形編隊(duì)障礙物
      2023年1月25日,美軍一次演習(xí)期間,空軍正在進(jìn)行編隊(duì)飛行
      軍事文摘(2023年5期)2023-03-27 08:56:26
      隊(duì)列隊(duì)形體育教案
      高低翻越
      SelTrac?CBTC系統(tǒng)中非通信障礙物的設(shè)計(jì)和處理
      詩(shī)歌的奇怪隊(duì)形(一)
      基于事件驅(qū)動(dòng)的多飛行器編隊(duì)協(xié)同控制
      無(wú)人機(jī)編隊(duì)機(jī)動(dòng)飛行時(shí)的隊(duì)形保持反饋控制
      基于預(yù)測(cè)控制的無(wú)人機(jī)編隊(duì)內(nèi)部避碰
      多彈編隊(duì)飛行控制技術(shù)研究
      土釘墻在近障礙物的地下車行通道工程中的應(yīng)用
      东阿县| 唐山市| 徐州市| 阿坝县| 永顺县| 武宁县| 灵丘县| 汽车| 尼木县| 监利县| 平阴县| 兴山县| 多伦县| 滨海县| 嘉义市| 元阳县| 拉萨市| 剑河县| 罗平县| 射洪县| 武隆县| 利津县| 东乡| 达日县| 云南省| 比如县| 随州市| 梁平县| 浏阳市| 石台县| 陆川县| 丹东市| 彰武县| 荃湾区| 鄢陵县| 阜康市| 海口市| 鸡西市| 象山县| 临颍县| 泰顺县|