劉冰雁, 葉雄兵, 岳智宏, 董獻(xiàn)洲, 張其揚(yáng)
(1.軍事科學(xué)院, 北京 100091; 2.32032部隊(duì), 北京 100094)
以追捕者視角看待的追逃博弈(PEG)問題[1],是在僅知自身狀態(tài)和逃逸者當(dāng)前有限狀態(tài)、未知逃逸者未來行為策略的條件下采取最優(yōu)行為,并最終完成追捕任務(wù)的一個動態(tài)博弈過程。該問題是最優(yōu)控制與動態(tài)博弈的深度融合,現(xiàn)已在戰(zhàn)車追捕[2]、戰(zhàn)斗機(jī)格斗[3]、導(dǎo)彈攔截[4]以及航天器交會[5]等軍事應(yīng)用場景中被重點(diǎn)關(guān)注。
PEG問題中的逃逸者,除了在一個連續(xù)且動態(tài)變化的空間環(huán)境中活動外,還具有典型的非合作性,即有信息層面不溝通、機(jī)動行為不配合、先驗(yàn)知識不完備等特性[5]。針對此類軍事場景中常出現(xiàn)的雙方連續(xù)動態(tài)沖突、對抗博弈問題,可通過微分對策[6-7]進(jìn)行數(shù)學(xué)描述。這類追捕- 逃逸微分博弈是微分對策的一種應(yīng)用,最初由Isaacs[1]提出,近年被廣泛運(yùn)用到諸多領(lǐng)域。例如,文獻(xiàn)[8-9]根據(jù)機(jī)器人追捕問題的具體情況,通過分析追逃雙方的不同狀態(tài)及形勢,建立了追捕者與逃逸者的微分博弈描述式。文獻(xiàn)[10]將高速機(jī)動目標(biāo)攔截末制導(dǎo)過程抽象為以視線角速率和燃料消耗為性能指標(biāo)的零和微分博弈問題,設(shè)計了一種微分對策制導(dǎo)律,以表述對目標(biāo)的攔截策略。文獻(xiàn)[11-12]在主動防御飛行器制導(dǎo)問題研究中,運(yùn)用微分對策理論對對抗雙方的制導(dǎo)律進(jìn)行了描述與設(shè)計。文獻(xiàn)[13]在三維空間中多智能體參與的PEG問題研究中,利用微分對策設(shè)計了防御器和逃逸器的最優(yōu)控制策略。文獻(xiàn)[14]為獲得追逃雙方在對策條件下的最優(yōu)策略,運(yùn)用微分博弈對航天器的整個追逃過程進(jìn)行了數(shù)學(xué)描述。但在利用微分對策描述PEG問題過程中,由于會面臨多目標(biāo)求解、方程復(fù)雜度以及約束非線性等諸多難題,導(dǎo)致其求解過程一直較為棘手[15]。
當(dāng)前,強(qiáng)化學(xué)習(xí)技術(shù)[16]在有效結(jié)合深度學(xué)習(xí)[17]后得到了進(jìn)一步發(fā)展,為微分對策問題提供了更好的解決方案,并受到各領(lǐng)域廣泛關(guān)注[18-19]。例如,針對實(shí)時對抗微分對策問題,Deepmind科研團(tuán)隊(duì)利用深度學(xué)習(xí)展現(xiàn)了強(qiáng)大的信息處理和決策能力,之后又結(jié)合強(qiáng)化學(xué)習(xí)技術(shù)以提升實(shí)時對抗和動態(tài)博弈能力,使其自主對抗決策能力接近人智水平[20]。文獻(xiàn)[21]闡述了軍事智能博弈對抗的發(fā)展需求和概念內(nèi)涵,分析了基于強(qiáng)化學(xué)習(xí)的博弈對抗特點(diǎn),展望了智能博弈對抗技術(shù)的發(fā)展方向。文獻(xiàn)[22]在交通網(wǎng)絡(luò)信號控制領(lǐng)域研究中,融入博弈論的混合策略納什均衡概念,改進(jìn)IA-MARL的決策過程,提出了一種考慮博弈的多智能體強(qiáng)化學(xué)習(xí)框架,有效降低了車輛在不飽和且交通需求不均衡和波動的城市路網(wǎng)中的單位行程時間和單位車均延誤。文獻(xiàn)[23]針對無人機(jī)通信網(wǎng)絡(luò)中的干擾對抗問題,考慮無人機(jī)網(wǎng)絡(luò)節(jié)點(diǎn)的動態(tài)特性,將干擾器視為分層博弈領(lǐng)導(dǎo)者無人機(jī)用戶視為分層博弈跟隨者,提出一種基于分層博弈的自適應(yīng)頻譜接入優(yōu)化機(jī)制,智能地調(diào)整信道選擇從而獲得了良好的吞吐量性能。因此,基于深度強(qiáng)化學(xué)習(xí)的技術(shù)性突破,對解決高動態(tài)、不確定以及復(fù)雜環(huán)境下的微分對策問題,將具有重要的理論意義和應(yīng)用價值[24-27]。
在空中格斗、導(dǎo)彈攔截、戰(zhàn)車追擊以及空間非合作目標(biāo)交會等軍事對抗中,追捕者試圖在最短時間內(nèi)追上逃逸者,而逃逸者則試圖盡可能避開追捕者的現(xiàn)實(shí)問題,是典型的雙方對抗博弈問題。本文在運(yùn)用強(qiáng)化學(xué)習(xí)解決此類PEG問題過程中,針對傳統(tǒng)Q-learning應(yīng)對連續(xù)空間存在維數(shù)災(zāi)難問題,構(gòu)建了Takagi-Sugeno-Kang(TSK)模糊推理模型表征連續(xù)空間行為;針對離散動作集自學(xué)復(fù)雜且耗時問題,設(shè)計了多組并行的深度Q網(wǎng)絡(luò)(DQN)算法,從而達(dá)成以較短學(xué)習(xí)時間、在連續(xù)空間快速完成追捕任務(wù)的研究目標(biāo)。
PEG問題通常出現(xiàn)在連續(xù)空間,但傳統(tǒng)強(qiáng)化學(xué)習(xí)可能會由于其狀態(tài)連續(xù)性、多維并存而存在維數(shù)災(zāi)難問題[28]。為有效避免這一問題,本文依據(jù)“模糊推理是一種可以任何精度逼近任意非線性函數(shù)的萬能逼近器”[29]的結(jié)論,通過構(gòu)建一個TSK模糊推理模型來表征連續(xù)空間,并將其作為強(qiáng)化學(xué)習(xí)中的一部分。
通過零階TSK模糊推理模型[30],結(jié)合隸屬函數(shù)[31]表征連續(xù)狀態(tài)行為空間,經(jīng)過IF-THEN規(guī)則獲得模糊集到輸出連續(xù)線性函數(shù)之間的模糊映射關(guān)系[32]為
(1)
對于模糊模型的輸出,可利用加權(quán)平均去模糊化技術(shù)將模糊量轉(zhuǎn)換成精確量[34]:
(2)
(3)
圖1所示為輸入量為2、隸屬函數(shù)個數(shù)為3的TSK模糊推理模型。推廣到一般情況,假設(shè)以n個連續(xù)空間行為變量xi為輸入。對每個xi通過y個隸屬函數(shù),再經(jīng)過去模糊處理后輸出精確值U.
圖1 TSK模糊推理模型Fig.1 TSK fuzzy inference model
第2層網(wǎng)絡(luò)中,采取直積推理[35],即分別在L(L=yn)個運(yùn)算節(jié)點(diǎn)對各隸屬度進(jìn)行交叉相乘運(yùn)算:
(4)
第3層網(wǎng)絡(luò)中,進(jìn)行加權(quán)平均去模糊化處理,歸一隸屬度為
(5)
(6)
第5層網(wǎng)絡(luò)中,累計各節(jié)點(diǎn),便可實(shí)現(xiàn)(2)式所示的去模糊化效果:
(7)
強(qiáng)化學(xué)習(xí)直接運(yùn)用于TSK模糊推理模型,會面臨行為數(shù)量與映射規(guī)則的組合增長問題,將大大削弱離散化處理后的行為控制決策能力。為此,本文構(gòu)建多組、并行的DQN網(wǎng)絡(luò)架構(gòu),設(shè)計PEG強(qiáng)化學(xué)習(xí)算法,提出追捕者與逃逸者的博弈交互訓(xùn)練步驟,在未知逃逸策略、行為動作的條件下,實(shí)現(xiàn)最優(yōu)追捕行為的自主生成。
連續(xù)狀態(tài)空間和行為空間,經(jīng)過TSK模糊推理模型處理,依L條規(guī)則根據(jù)(5)式計算,獲得L項(xiàng)歸一化直積推理值。其間,構(gòu)建多組并行的DQN網(wǎng)絡(luò)架構(gòu),為基于TSK模糊推理預(yù)處理的追逃微分策略問題生成全局連續(xù)行為。
由此,依據(jù)TSK模糊推理模型中的L條規(guī)則,建立L組DQN網(wǎng)絡(luò),對PEG策略進(jìn)行自主學(xué)習(xí)。多組并行DQN網(wǎng)絡(luò),是在單個神經(jīng)網(wǎng)絡(luò)基礎(chǔ)上增加了多個并行神經(jīng)網(wǎng)絡(luò)。與單組神經(jīng)網(wǎng)絡(luò)[36]類似,并行神經(jīng)網(wǎng)絡(luò)在與環(huán)境的不斷交互中自主學(xué)習(xí)并提升行為決策能力,通過在網(wǎng)絡(luò)中加入博弈和反饋機(jī)制,使多組并行DQN網(wǎng)絡(luò)具有更強(qiáng)的自主性、靈活性和協(xié)調(diào)性等特點(diǎn),具備更強(qiáng)的學(xué)習(xí)、推理和自組織能力。
多組并行DQN基本架構(gòu)如圖2所示。其中,與L條IF-THEN模糊規(guī)則相對應(yīng)的離散動作集a={a1,a2,…,aL},經(jīng)過多組并行的神經(jīng)網(wǎng)絡(luò)計算,獲得離散動作的狀態(tài)行為函數(shù)(簡稱為q函數(shù)),再經(jīng)過PEG強(qiáng)化學(xué)習(xí)算法以及加權(quán)平均去模糊處理,便可獲得該狀態(tài)下的輸出行為U.
圖2 多組并行DQN基本架構(gòu)Fig.2 Basic framework of multi-group DQN
為運(yùn)用多組并行DQN架構(gòu)解決連續(xù)空間PEG問題,需要對模糊規(guī)則稍作調(diào)整,用al替換(1)式中的cl. 在運(yùn)用加權(quán)平均去模糊化技術(shù)之前,依據(jù)輸入量為n、隸屬函數(shù)個數(shù)為y的TSK模糊推理模型,進(jìn)行L(L=yn)條IF-THEN模糊規(guī)則映射:
(8)
式中:al為追捕者離散動作集a中對應(yīng)于規(guī)則l的動作。
為了有效解決強(qiáng)化學(xué)習(xí)中的探索與利用問題,即持續(xù)使用當(dāng)前最優(yōu)策略保持高回報的同時,敢于嘗試一些新的行為以求更大地獎勵,對行為al采取ε-greedy貪婪策略[25]。該策略定義追捕者以ε的概率在動作集中隨機(jī)選取,以1-ε的概率選擇一個最優(yōu)動作。
(9)
式中:q(S,al)為規(guī)則和追捕者動作al∈a下的關(guān)聯(lián)q函數(shù)。
根據(jù)(2)式,t時刻追捕者所采取的全局連續(xù)行為可表示為
(10)
(11)
為了彌補(bǔ)DQN算法存在的獎勵偏見問題,本文提出一種競爭網(wǎng)絡(luò)取代經(jīng)典算法中的單輸出網(wǎng)絡(luò)模型,以提升神經(jīng)網(wǎng)絡(luò)訓(xùn)練效果,加快收斂速度。將q函數(shù)的神經(jīng)網(wǎng)絡(luò)全連接層分解為一個狀態(tài)函數(shù)vt(S)和一個優(yōu)勢函數(shù)ot(S,al),再通過全連接合并,有
qt(S,al)=vt(S)+ot(S,al).
(12)
利用優(yōu)勢函數(shù)期望值為0這一特性[37],用優(yōu)勢函數(shù)ot(S,al)減去當(dāng)前狀態(tài)下所有動作優(yōu)勢函數(shù)的均值,以控制優(yōu)勢函數(shù)的期望,進(jìn)而(12)式修改為
(13)
DQN架構(gòu)中,在獎懲值的牽引下為實(shí)現(xiàn)反饋?zhàn)灾鲗W(xué)習(xí),定義了時間差分誤差函數(shù):
(14)
式中:γ為折扣因子,γ∈[0,1];Rt+1為t+1時刻可獲得的獎懲值。
通過神經(jīng)網(wǎng)絡(luò)迭代,更新q函數(shù),有
(15)
式中:η為強(qiáng)化學(xué)習(xí)速率。
在追捕者與逃逸者的PEG交互過程中,追捕者當(dāng)前行為的確定需要TSK模糊推理模型中離散動作集a={a1,a2,…,aL}的參與。運(yùn)用多組并行DQN架構(gòu),可實(shí)現(xiàn)離散動作al的并行自主學(xué)習(xí),在獲得最優(yōu)動作的同時提升運(yùn)行時效。與此同時,多組神經(jīng)網(wǎng)絡(luò)并行部署,極大提升了離散動作的獨(dú)立學(xué)習(xí)能力,增強(qiáng)了算法對環(huán)境探索的能力。
為使追捕者獲得高效的追擊行為策略,限定一次回合中最大時間步個數(shù)為M. 同時,為真實(shí)反映追捕者與逃逸者的PEG過程,隨機(jī)初始化逃逸者初始位置、狀態(tài)以及逃逸策略。在多次訓(xùn)練中,1輪PEG交互過程如圖3所示。
圖3 PEG交互流程圖Fig.3 Flow chart of pursuit-evasion game interaction
具體交互訓(xùn)練步驟如下:
步驟1隨機(jī)初始化逃逸者位置狀態(tài)P,設(shè)定逃逸者行為方式與逃逸策略;初始化追捕者位置狀態(tài)S,定義追捕者追捕方式及行為邊界條件;初始化系統(tǒng)變量“回合數(shù)”=0、“完成”=0.
步驟2根據(jù)追捕者位置狀態(tài)S定義TSK模糊推理模型輸入量n,設(shè)定隸屬函數(shù)y. 依據(jù)模糊規(guī)則數(shù),定義L(L=yn)組DQN網(wǎng)絡(luò),并對各網(wǎng)絡(luò)的q函數(shù)進(jìn)行隨機(jī)初始化。
步驟4分別在與第l={1,2,…,L}條規(guī)則所對應(yīng)的DQN網(wǎng)絡(luò)中,根據(jù)(9)式選取動作al(l=1,2,…,L)。
步驟6計算追捕者與逃逸者的歐氏距離,判斷是否滿足捕獲條件。若滿足,則令變量“完成”=1并轉(zhuǎn)步驟11;若不滿足,則執(zhí)行步驟7.
步驟7令變量“完成”=0,依據(jù)策略逃逸者選擇對自身最佳的行動方向,并移至下一狀態(tài)P+1.
步驟9各組DQN網(wǎng)絡(luò)中,依據(jù)(12)式~(15)式,以回報值rl為牽引,采取一定的學(xué)習(xí)率η,更新q(S,al)函數(shù)。
步驟10判斷變量“回合數(shù)”是否大于最大行動步數(shù)M. 若“回合數(shù)”>M,則轉(zhuǎn)步驟11;否則,“回合數(shù)”數(shù)量加1并轉(zhuǎn)步驟3.
步驟11結(jié)束本輪PEG交互過程。
以四輪智能戰(zhàn)車PEG問題為例設(shè)計仿真環(huán)境與運(yùn)動模型,運(yùn)用本文算法進(jìn)行仿真實(shí)驗(yàn),并與其他算法結(jié)果相比對,以驗(yàn)證本論文算法的有效性。
PEG過程中,追捕者試圖在最短時間內(nèi)追上逃逸者,而逃逸者則試圖盡可能避開追捕者。為了使仿真結(jié)果盡可能反映真實(shí)情況,需要提前構(gòu)建仿真環(huán)境以及追捕者與逃逸者的運(yùn)動模型。
假設(shè)整個追逃環(huán)境是無障礙的,追捕者與逃逸者均不知道對方下一步的行為選擇,二者均可根據(jù)當(dāng)前狀態(tài)采取對自身最有利的行為,只有當(dāng)逃逸者處于追捕者捕獲范圍或者“回合數(shù)”達(dá)到最大時間步M,本輪博弈交互過程結(jié)束。
如圖4所示,以四輪智能戰(zhàn)車PEG問題[39]為例,構(gòu)建追捕者p與逃逸者e. 圖4中,xp、yp為追捕者當(dāng)前的笛卡爾坐標(biāo);xe、ye為逃逸者當(dāng)前的笛卡爾坐標(biāo);vp、ve分別為追捕者與逃逸者速度,且定義追捕者快于逃逸者;θp、θe分別為追捕者與逃逸者的運(yùn)動方向;Lp、Le分別為追捕者與逃逸者的軸距。
圖4 追捕者和逃逸者的運(yùn)動模型Fig.4 Motion model of pursuer and runaway
設(shè)追捕者和逃逸者的運(yùn)動模型分別為
(16)
(17)
式中:up與ue分別為追捕者與逃逸者采取的轉(zhuǎn)向角,up∈[-upmax,upmax]、ue∈[-uemax,uemax],upmax、uemax分別為追捕者與逃逸者的最大轉(zhuǎn)向角;設(shè)定追捕者機(jī)動性能差于逃逸者,即upmax 由此,追捕者p和逃逸者e之間的角度差φ為 (18) (19) 式中:φ′為上一狀態(tài)的角度差;T為采樣時間。 追捕者p和逃逸者e之間的歐氏距離d為 (20) 在PEG過程中,追捕者p的目標(biāo)是在最短時間內(nèi)追上逃逸者e;而逃逸者e的目標(biāo)是使得追捕時間最大化并避免被追上。只有當(dāng)逃逸者e位于追捕者p捕獲半徑l內(nèi),即d≤l時,追捕任務(wù)才算完成。 追捕者p采取的策略是使得與逃逸者e之間的角度差φ趨于0,由此將多組并行DQN架構(gòu)中的回報函數(shù)定義為 rl=2e-φ2-1, ?l∈[1,L], (21) 追捕者p在連續(xù)空間可采取如下行為: (22) 逃逸者e選取對其最有利的逃逸策略,且不以追捕者p的意志為轉(zhuǎn)移。借鑒文獻(xiàn)[40-41]結(jié)論,逃逸者e將采用以下兩種策略使得與追捕者p之間的距離最大化: 1)若二者之間歐氏距離d大于特定距離D,則逃逸者e將采取如下行為: (23) 2)若二者之間歐氏距離d小于特定距離D,則逃逸者e則將采取更高機(jī)動性的行為,即 ue=θp-θe+π. (24) 仿真實(shí)驗(yàn)在1.6 GHz、1.8 GHz雙核CPU、8G RAM計算硬件上,運(yùn)用PyCharm仿真編譯環(huán)境進(jìn)行。設(shè)定1輪episode中時間步個數(shù)M=360,采樣時間T=0.1 s. 設(shè)定追捕者p的初始位置(xp,yp)=(0 m,0 m),初始方向θp=0°,恒定追捕速度vp=1 m/s,捕獲半徑l=0.1 m,軸距Lp=0.3 m,轉(zhuǎn)向角范圍up∈[-0.5°,0.5°]。隨機(jī)初始化逃逸者位置(xe,ye),初始方向θe=0°,恒定逃逸速度ve=0.5 m/s,逃逸策略中特定距離D=3 m,軸距Le=0.3 m,轉(zhuǎn)向角ue∈[-1°,1°]。多組并行DQN架構(gòu)中,采用的神經(jīng)網(wǎng)絡(luò)層數(shù)為5,隱藏層神經(jīng)元個數(shù)為10,激活函數(shù)為sigmoid,探索率ε=0.3,折扣因子γ=0.9,學(xué)習(xí)速率η=0.3. 運(yùn)用本文所提算法進(jìn)行仿真實(shí)驗(yàn),與Q-learning算法[42]、基于資格跡的強(qiáng)化學(xué)習(xí)算法[33]以及基于獎勵的遺傳算法[43]實(shí)驗(yàn)結(jié)果進(jìn)行比對。各算法在經(jīng)過100次自主學(xué)習(xí)后,均能完成追捕任務(wù),捕獲時間和訓(xùn)練時間如表1所示。其中,Q-learning算法由于需要鏈?zhǔn)酱鎯Χ鄠€特征向量以及同時迭代更新多張Q表,導(dǎo)致其自主學(xué)習(xí)耗時較長;基于資格跡的強(qiáng)化學(xué)習(xí)算法將時序差分法和蒙特卡洛法相統(tǒng)一,只需要追蹤一個跡向量,不再需要存儲多個特征向量,大大縮減了自主學(xué)習(xí)時間,但其短期記憶特性延長了實(shí)際追捕時間;基于獎勵的遺傳算法,雖具有較高的實(shí)際應(yīng)用性能,但卻以更長的自主訓(xùn)練時耗為代價[43];本文所提算法,在充分發(fā)揮強(qiáng)化學(xué)習(xí)算法自主尋優(yōu)優(yōu)勢的同時,運(yùn)用多組神經(jīng)網(wǎng)絡(luò)對進(jìn)行并行訓(xùn)練,大大縮減了自主學(xué)習(xí)耗時,并能確保在較短時間內(nèi)完成追捕任務(wù)。 表1 不同算法完成捕獲任務(wù)的耗時Tab.1 Elapsed time of different algorithms to complete the capture task s 圖5展示了當(dāng)逃逸者初始位置為(5 m,5 m)時運(yùn)用本文所提算法,分別經(jīng)過自主學(xué)習(xí)0次、50次和100次后的PEG過程。圖6和圖7分別展現(xiàn)了3種情況下PEG過程中,追捕者與逃逸者之間距離及角度差的空間變化情況。其中,如圖5(a)所示,當(dāng)算法不經(jīng)學(xué)習(xí)直接應(yīng)用于該P(yáng)EG問題,追捕者雖以角度差趨于零為行動目標(biāo),但由于其q函數(shù)隨機(jī)生成,且沒有任何先驗(yàn)知識,導(dǎo)致角度差上下來回浮動,與逃逸者距離卻越來越大,不能完成任務(wù)。如圖5(b)所示,當(dāng)算法經(jīng)過50次自主學(xué)習(xí)后,追捕者能夠朝著追捕者方向逼近,途中逃逸者采取更為靈活的規(guī)避策略,致使與追捕者角度差陡增,追捕者在緊急轉(zhuǎn)向后順利完成追捕任務(wù)。如圖5(c)所示,當(dāng)算法獲得更多的學(xué)習(xí)次數(shù)后,能夠更好地處理逃逸者規(guī)避行為,自主選取更為有利的行動方向,從而大大提升了任務(wù)完成效果。 圖6 追捕者與逃逸者之間的距離變化Fig.6 Distance between pursuer and runaway 圖7 追捕者與逃逸者之間的角度差變化Fig.7 Angle difference between pursuer and runaway 本文提出一種自主學(xué)習(xí)時間少、問題應(yīng)用耗時短的PEG算法,實(shí)現(xiàn)了追捕者在連續(xù)空間最優(yōu)追捕行為的自主生成。通過構(gòu)建TSK模糊推理模型以表征連續(xù)行為空間,構(gòu)建多組并行的DQN架構(gòu),設(shè)計基于DQN的PEG算法,提出追捕者與逃逸者在連續(xù)空間博弈交互的訓(xùn)練步驟,從而有效地避免了傳統(tǒng)強(qiáng)化學(xué)習(xí)應(yīng)對連續(xù)空間所可能存在的維數(shù)災(zāi)難不足,實(shí)現(xiàn)了最優(yōu)追捕行為的自主生成,有效解決了離散動作集自學(xué)習(xí)復(fù)雜且耗時的問題。連續(xù)空間PEG方法不僅能夠完成連續(xù)空間PEG任務(wù),還能隨著學(xué)習(xí)次數(shù)增加不斷提升問題處理能力,滿足動態(tài)實(shí)時博弈需求,對于解決其他領(lǐng)域的PEG問題同樣具有借鑒意義。3.2 算例仿真
4 結(jié)論