陳維興,蘇景芳,孟美含
(中國民航大學 電子信息與自動化學院,天津 300300)
機坪感知機會網(wǎng)絡(luò)[1]發(fā)展自機會網(wǎng)絡(luò)[2](opportunistic network,ON).在ON中,信息傳輸主要靠節(jié)點移動產(chǎn)生的相遇機會完成信息的交換,機坪感知機會網(wǎng)絡(luò)具有靜態(tài)感知節(jié)點分散,動態(tài)節(jié)點短時聚集的特征,而當相遇機會產(chǎn)生時,同時需要確保信息傳輸?shù)挠行?節(jié)點能量和緩存限制消息傳輸,當相遇節(jié)點緩存空間不足時,節(jié)點因無法接收新的數(shù)據(jù)包或緩存中的數(shù)據(jù)包因緩存隊列過長而導致傳輸延遲增加,發(fā)生擁塞現(xiàn)象,進一步使網(wǎng)絡(luò)投遞率下降.
解決網(wǎng)絡(luò)擁塞提高投遞成功率的方法在機會網(wǎng)絡(luò)中一般有2種[3]:一種是路由策略關(guān)注轉(zhuǎn)發(fā)機會以及關(guān)鍵節(jié)點選??;一種是緩存管理策略.緩存管理中需考慮合理利用和釋放緩存[4-7].緩存管理策略主要是根據(jù)全局可用信息進行分類,定義消息優(yōu)先級,但是并沒有考慮節(jié)點性能,易造成待傳輸消息因節(jié)點數(shù)據(jù)擁塞無法傳輸[5].文獻[6]中提出了一種基于接受閾值的擁塞控制機制,該機制使每個時延容忍網(wǎng)絡(luò)(delay tolerant networks,DTN)節(jié)點動態(tài)調(diào)整到其接受閾值,并相應(yīng)地調(diào)整為其擁塞狀態(tài),缺少在消息層面的擁塞控制策略.文獻[7]在上述基礎(chǔ)上增加基于時空考慮的消息丟棄策略,若消息副本符合時空丟棄策略,但是其僅有一個副本,此時的丟棄則會使該消息消失,造成消息投遞率降低.經(jīng)典的消息副本丟棄策略還有DL(drop last)、DY(drop youngest)[8].這些策略在節(jié)點擁塞時,采用隊列管理思想按照消息進入節(jié)點緩存空間的先后順序、時間長短等規(guī)則選擇需要丟棄的消息副本,釋放節(jié)點的緩存空間來接收新的消息.上述的算法都是基于副本在當前節(jié)點上的局部特性來判斷,沒有考慮消息副本在傳輸過程中實際存在的情況,尤其是基于相遇機會轉(zhuǎn)發(fā)消息的機會網(wǎng)絡(luò)中,緩存空間中存在時間久的消息并不一定已經(jīng)被成功轉(zhuǎn)發(fā),欠缺全局性思維.
文中針對機坪網(wǎng)絡(luò)中的緩存管理問題,研究一種基于元胞演化規(guī)則的機坪機會網(wǎng)絡(luò)緩存控制策略(apron opportunity network cache under cellular evolution rule,ACER).首先建立基于節(jié)點擁塞情況的數(shù)據(jù)通信模型,發(fā)現(xiàn)擁塞度較低的節(jié)點,使得Prophet算法中擁塞度較低的節(jié)點擁有較高的轉(zhuǎn)移概率,增大消息成功傳遞到目的節(jié)點的概率.然后針對擁塞度較高的節(jié)點,研究基于元胞自動機的消息副本丟棄策略,進一步降低節(jié)點能耗、減少擁塞.
機坪停機位與地面保障車輛具有嚴格的位置劃分與運行規(guī)范,并且分布面積較廣;在航班入場后,機坪各個保障車輛會出現(xiàn)同時大量傳送的數(shù)據(jù),引起無線信道數(shù)據(jù)流量的傳輸高峰,進而導致節(jié)點發(fā)生擁塞.由于機坪監(jiān)控網(wǎng)絡(luò)異構(gòu),包括加油車、清潔車、擺渡車等在內(nèi)的地面保障車輛以及旅客流等因素使得數(shù)據(jù)傳輸端到端時延變長,中繼節(jié)點需要攜帶大量數(shù)據(jù)副本存儲較長時間,從而增大了對存儲空間和能量的消耗.相比傳統(tǒng)的無線自組織網(wǎng)絡(luò),基于機會網(wǎng)絡(luò)的機坪網(wǎng)絡(luò)傳輸對節(jié)點的緩存容量有著較高的要求.
通過對機坪感知網(wǎng)絡(luò)的分析可知,在資源有限且受航班流驅(qū)動的機坪網(wǎng)絡(luò)中節(jié)點由于短時聚集易出現(xiàn)數(shù)據(jù)擁塞.對機坪網(wǎng)絡(luò)擁塞控制的工作目標是監(jiān)視本地情況并采取適當?shù)拇胧﹣砉芾砉?jié)點緩存副本.在具有延時的機坪網(wǎng)絡(luò)傳輸過程中,如圖1所示,主要分為3個步驟進行擁塞控制:對節(jié)點緩存的擁塞情況進行判斷;根據(jù)節(jié)點擁塞情況選取擁塞度較小的節(jié)點決定路由的傳輸概率;在相遇節(jié)點擁塞度較高時對緩存的副本進行處理,決策需要丟棄的副本對象,以增加總體傳輸率并降低端到端延遲.
圖1 機坪感知網(wǎng)絡(luò)擁塞度控制算法
機坪中每個節(jié)點i與周圍所有相鄰節(jié)點在每個時間間隔T的開始時刻進行交互時,首先進行自身緩存空間使用情況判斷.機坪中所有節(jié)點緩存中消息副本主要包括節(jié)點自身產(chǎn)生的消息和節(jié)點移動過程中作為中繼節(jié)點接收的消息兩部分.消息副本MC(message copy)通常根據(jù)時間的先后順序以隊列的形式(TMC1,TMC2,…,TMCN)存放于節(jié)點緩存中.
定義1令節(jié)點i自身產(chǎn)生消息的大小為MTC.當節(jié)點產(chǎn)生一個副本時,獲取該副本的數(shù)據(jù)大小情況,然后計算節(jié)點歷史時間內(nèi)產(chǎn)生的消息總和MTC:
(1)
式中:m(i)size為節(jié)點消息占用的緩存大小;n1為歷史時間消息產(chǎn)生總數(shù);Created[m(i)size]為節(jié)點歷史時間產(chǎn)生一個消息副本的大小.
定義2令節(jié)點i接收消息大小為MTR.M-Agent移動過程中作為中繼節(jié)點成功接收一個副本MC時,獲取該副本的緩存空間大小,然后計算節(jié)點歷史時間內(nèi)接收的消息總和MTR:
(2)
式中:Received[m(i)size]為節(jié)點歷史時間內(nèi)接收一個副本的緩存大??;n2為歷史時間內(nèi)該節(jié)點接收并存儲的副本總數(shù).因此,節(jié)點緩存中所有消息副本的總和為
MTotal=MTC+MTR.
(3)
定義3令節(jié)點的緩存擁塞度為Con(i).設(shè)置網(wǎng)絡(luò)中M-Agent節(jié)點的緩存容量初始值為buffersize,則節(jié)點Con(i)可以通過點緩存中所有消息副本的總和MTotal與初始緩存大小buffersize的比值來表示:
(4)
Con(i)反映了節(jié)點緩存空間的使用情況,若Con(i)較高的節(jié)點不斷與中繼節(jié)點進行交互,而不考慮此消息副本MC在當前網(wǎng)絡(luò)的存在情況,則該節(jié)點可能接收網(wǎng)絡(luò)中存在比例較大的副本,導致數(shù)據(jù)擁塞,此節(jié)點無法繼續(xù)接收網(wǎng)絡(luò)中存在比例較小的副本,從而使網(wǎng)絡(luò)投遞成功率降低.
確定網(wǎng)絡(luò)中節(jié)點Con(i)后,針對Con(i)較小的節(jié)點,進行基于概率路由的數(shù)據(jù)通信.Prophet是基于兩個節(jié)點歷史相遇和轉(zhuǎn)發(fā)概率的經(jīng)典多副本概率路由算法,該算法通過將副本轉(zhuǎn)發(fā)給與目的節(jié)點傳輸概率大的中繼節(jié)點,改善了Epidemic中節(jié)點副本轉(zhuǎn)發(fā)的盲目性,其節(jié)點傳輸概率為
P(i,j)=P(i,j)old+(1-P(i,j)old)·Pinit.
(5)
但在節(jié)點緩存空間有限、時延較大的機坪網(wǎng)絡(luò)環(huán)境中,假設(shè)當前某個M-Agent與一個中繼節(jié)點B相遇并且經(jīng)Prophet算法計算,該節(jié)點與相遇節(jié)點將副本轉(zhuǎn)發(fā)到目的節(jié)點的概率相同,但是當前節(jié)點Con(i)大于相遇節(jié)點,那么此時相遇的中繼節(jié)點B將消息傳輸?shù)侥康墓?jié)點的概率大于當前節(jié)點.
因此,將Con(i)作為接觸概率值P(i,j)的影響因素之一,對式(5)進行改進,將節(jié)點的擁塞度大小以及相遇的2個節(jié)點擁塞度的比較考慮在內(nèi).
當與M-Agent相遇的中繼節(jié)點B擁塞度小于
μ,并且Con(i)MeetingNode P(i,j)=P(i,j)old+(1-P(i,j)old)· (Pinit+η·Con(i)MNCon(i)MN), (6) 式中:Pinit∈[0,1]為初始化常數(shù),在ONE中默認值為0.75,通過仿真表明Pinit=0.7、μ=0.7、η=0.2性能更好;Con(i)MN為相遇中繼節(jié)點的擁塞度.由于Con(i)≤1,Pinit+η·Con(i)MNCon(i)MN<1,所以傳輸概率值P(i,j)<1. 因此在機坪上,當M-Agent與下一跳節(jié)點相遇時,根據(jù)不同范圍的Con(i)使用不同的傳輸概率,根據(jù)相遇節(jié)點到目的節(jié)點的概率決定是否傳輸消息.消息轉(zhuǎn)發(fā)算法的偽代碼如下: Initial: while(When node M-Agent meets node B) if(B is the destination node) Directly Deliver message to B else if(Con(i)≤0.7;Con(i)MeetingNode calculate theP(M-Agent,des),P(B,des) CompareP(M-Agent,des),P(B,des) if (P(M-Agent,des) Forward message to Node B if (P(M-Agent,des)>P(B,des)) Waiting for the next node end if end while 兩個節(jié)點相遇之后不滿足上述擁塞度的判定條件時,則依然采用Prophet原本的轉(zhuǎn)發(fā)概率,采用式(5)進行轉(zhuǎn)發(fā)概率的計算. 計算節(jié)點轉(zhuǎn)發(fā)消息到目的節(jié)點概率時加入了節(jié)點擁塞度對概率值的影響.當節(jié)點擁塞度大于0.7時,即使相遇節(jié)點的傳輸概率值較大,緩存空間仍然影響節(jié)點接收新的消息副本.此時節(jié)點需要對緩存內(nèi)的消息副本進行處理.根據(jù)對機坪網(wǎng)絡(luò)擁塞問題的分析引入元胞自動機模型,局部范圍考慮消息副本的存在情況,設(shè)計合理的消息丟棄策略. 在經(jīng)典CA模型基礎(chǔ)上,結(jié)合學習自動機(learning automatic,LA)模型,文獻[10]提出元胞學習自動機(cellular learning automata,CLA),LA的加入可以讓元胞節(jié)點從有限的動作集中選擇一個自動執(zhí)行.機坪環(huán)境中將移動智能體M-Agent架設(shè)于機坪保障車輛作為機會傳輸?shù)南嘤鰴C會,文中將通過M-Agent作為LA執(zhí)行動作來進行建模.為了避免規(guī)則網(wǎng)格在實際情況的局限性,進一步發(fā)展了更加通用的模型不規(guī)則元胞自動機(irregular cellular learning automata,ICLA),其更加適用于WSN網(wǎng)絡(luò)、圖論等相關(guān)領(lǐng)域[11]. 根據(jù)機坪環(huán)境不規(guī)則網(wǎng)格劃分的思想,將網(wǎng)格對應(yīng)為元胞空間,因此可以利用ICLA模型設(shè)置相應(yīng)的演化規(guī)則對緩存內(nèi)的消息副本進行丟棄策略的設(shè)計.機坪網(wǎng)絡(luò)與ICLA模型的對應(yīng)關(guān)系圖見圖2. 圖2 機坪網(wǎng)絡(luò)與元胞自動機模型的對比 由圖2可見,機坪網(wǎng)絡(luò)的局部緩存處理策略可根據(jù)ICLA模型執(zhí)行.機坪傳感器節(jié)點映射為元胞,節(jié)點、可通信的周圍鄰居節(jié)點對應(yīng)為元胞空間;機坪不規(guī)則網(wǎng)格子域?qū)?yīng)于ICLA不規(guī)則性;機坪上移動節(jié)點以及各節(jié)點之間無線連接的建立與斷開,可以看作元胞鄰居的動態(tài)變化;傳感器節(jié)點的無線通信范圍相當于元胞半徑,而緩存策略的處理過程就可以看作元胞演化規(guī)則的設(shè)計.M-Agent對消息緩存的處理對應(yīng)于LA的動作執(zhí)行.通過節(jié)點自身緩存與鄰居節(jié)點的副本傳輸情況,決定當前節(jié)點對每個副本緩存的保留或者丟棄.因此,采用ICLA模型在機坪上自動執(zhí)行緩存的丟棄與保留具有可行性. 因此在機坪網(wǎng)絡(luò)環(huán)境中設(shè)計了基于不規(guī)則元胞自動機的消息副本丟棄策略. 圖3所示為機坪上配備LA的ICLA模型,在機坪不連通子域的元胞空間內(nèi)配備LA,其中,α={α1,α2,…,αr}表示LA的動作集,β={β1,β2,…,βs}表示強化信號的輸入集. 圖3 基于ICLA的機坪網(wǎng)絡(luò)模型 基于ICLA的機坪網(wǎng)絡(luò)模型操作過程如下: 1)每個元胞空間的狀態(tài)由LA的動作概率向量決定,初始狀態(tài)的設(shè)定根據(jù)機坪上消息副本丟棄歷史經(jīng)驗設(shè)定. 2)根據(jù)節(jié)點自身緩存副本和即將接收的緩存消息副本設(shè)定CA的演化規(guī)則,從而確定元胞空間內(nèi)的強化信號β. 3)每個配備LA的節(jié)點根據(jù)環(huán)境實時反饋的強化信號對概率向量進行更新. ACER策略計算節(jié)點消息副本并進行擁塞度的判斷,當Con(i)>0.7時,節(jié)點基于ICLA模型,檢測節(jié)點自身緩存的副本在鄰居節(jié)點的持有情況以及新到副本在鄰居節(jié)點的持有情況,若消息副本在鄰居節(jié)點的存在數(shù)量大于某個值a,則進行消息副本的丟棄或者拒絕接收新到副本,從而釋放節(jié)點緩存空間接收網(wǎng)絡(luò)中存在比例小的消息副本. 機坪網(wǎng)絡(luò)中,節(jié)點移動性使得網(wǎng)絡(luò)的傳輸建立或者斷開相當于ICLA中元胞的動態(tài)變化.通過配備LA的M-Agent節(jié)點執(zhí)行動作e1和e2,分別表示對節(jié)點內(nèi)每個緩存副本的保留或者丟棄,對應(yīng)動作概率用Preceive和Pdiscard表示,節(jié)點進行消息交互的開始保留與丟棄的動作概率相等,分別為0.5.設(shè)置時間間隔為T,每經(jīng)過T后更新一次節(jié)點狀態(tài),節(jié)點Ni在T開始與相鄰節(jié)點進行交互時,需要進行以下3步操作: 1)獲取節(jié)點中每個副本在周圍鄰居節(jié)點的持有情況; 2)給出節(jié)點Ni的LA命令信號τi(n); 3)對每個副本的動作產(chǎn)生相應(yīng)的命令信號,如下式所示: (7) 式中:τi(r)為節(jié)點在第r輪時對相同副本的命令信號取值;sumi(r)為第r輪節(jié)點i的鄰居數(shù)目;ej(r)為節(jié)點j在第r輪保留該副本的動作. 根據(jù)τi(r)取值的不同,對副本丟棄概率Pdiscard按照式(8)或(9)進行更新: Pdiscard(r+1)=Pdiscard(r)+θ(r)·(1-Pdiscard(r)), (8) Pdiscard(r+1)=Pdiscard(r)·(1-φ(r)), (9) 式中:θ(r)與φ(r)表示LA的激勵和懲罰參數(shù),0<θ(r)<1,0<φ(r)<1. 相應(yīng)的節(jié)點對副本的保留概率為 Preceive(r+1)=1-Pdiscard(r+1). (10) (11) (12) 在每一輪r開始時,都按照上述過程對節(jié)點上每個副本的丟棄概率進行更新.由于機坪節(jié)點的移動,以及前一輪的擁塞度檢測與節(jié)點緩存的處理,持有相同副本的鄰居節(jié)點也會隨之發(fā)生變化.如果當前持有相同副本的鄰居節(jié)點數(shù)量比前一輪少,則認為該副本在當前局部網(wǎng)絡(luò)環(huán)境中對網(wǎng)絡(luò)的擁塞度降低.由于丟棄的是局部范圍內(nèi)存在較多的相同副本,因此,會增大接收其他重要副本的機會,從而提高投遞的成功率.其算法偽代碼如下: Input:List of MC in the cache of node A,the current neighbor set of node A Output:Drop probability of each message. for(each message m of node A) for(Every neighbor node B){ if(Node B buffers message m) Pdiscard(r+1)=Pdiscarde(r)+θ(r)· (1-Pdiscard(r)); else Pdiscard(r+1)=Pdiscard(r)·(1-φ(r))); end if end for end for 圖4給出了ACER算法的流程圖.由圖4可見,ACER算法步驟如下: 圖4 ACER算法流程圖 1)在初始化階段,節(jié)點Ni通過和周圍所有鄰居節(jié)點Nj的交互,獲知節(jié)點Ni和Nj的每個副本在周圍鄰居節(jié)點上的持有情況. 2)為了降低節(jié)點能耗,節(jié)點接收消息前,根據(jù)節(jié)點緩存內(nèi)副本量與緩存的比值計算擁塞率. 3)當Con(i)>0.7時,則首先檢測Nj的每個副本在周圍鄰居節(jié)點上的持有情況,選擇需要丟棄的副本,否則檢測新到節(jié)點Ni副本在鄰居節(jié)點的持有情況. 4)依次檢測Nj自身需要丟棄的副本在鄰居節(jié)點的持有情況,若m節(jié)點在鄰居節(jié)點的持有數(shù)量大于a(a>3),則丟棄該副本,否則保留該消息副本. 5)最后選擇下一時刻需要接受的副本在周圍鄰居節(jié)點的持有情況,選擇接受或者拒絕接受.在每輪丟棄和接收之后,更新節(jié)點擁塞度的值,進行新一輪的檢測. 使用ONE仿真平臺進行試驗驗證,其中網(wǎng)絡(luò)性能參數(shù)包括信息投遞率、網(wǎng)絡(luò)開銷以及平均時延.采用天津濱海國際機場地圖進行試驗,圖5為該機場衛(wèi)星圖. 圖5 天津濱海機場衛(wèi)星圖 由圖5可見,近機位包括T1和T2航站樓,遠機位位于跑道左側(cè),其總面積是7.4萬m2,跑道長3 600 m.利用OpenStreetMap導出機場地圖,如圖6所示.對近機位和遠機位進行區(qū)域劃分,其中藍色線條代表M-Agent運動軌跡,近機位區(qū)域內(nèi)節(jié)點采用ClusterMovement移動模型,不連通子域間則采用MapRouteMovement移動模型. 圖6 天津機場OSM地圖 選取基于改進的Prophet路由算法進行仿真,通過仿真可知參數(shù)取Pinit=0.7時性能較好.仿真范圍根據(jù)機坪情況設(shè)置為3 600 m×4 500 m,相同配置文件下,分別選取基于緩存時間長短的DL與基于緩存節(jié)點存活時間的DY兩種經(jīng)典緩存管理算法進行比較.為了體現(xiàn)移動節(jié)點M-Agent交互過程中的緩存控制問題,設(shè)置固定的簇內(nèi)節(jié)點數(shù)量50個,緩存30 MB,根據(jù)M-Agent節(jié)點的變化進行仿真,其中參數(shù)設(shè)置如表1所示. 表1 仿真環(huán)境參數(shù)配置 首先先將M-Agent數(shù)量的變化(從10到80)進行仿真,其他參數(shù)見表1.圖7-9分別顯示了不同M-Agent節(jié)點數(shù)量下的消息投遞率、網(wǎng)絡(luò)開銷和消息平均時延. 圖7 不同節(jié)點數(shù)量的消息投遞率 從圖7可見,3種緩存控制策略的消息傳遞率隨著節(jié)點數(shù)目的增加而提高.隨著節(jié)點數(shù)量增加,M-Agent節(jié)點移動過程中的相遇機會變大、消息副本量增多,使得消息與目的節(jié)點相遇的機會增大,因而在一定程度上增大了消息投遞率.但ACER算法的投遞率始終保持最高,因為該算法改善了DL、DY在緩存處理時的隨機性,通過對鄰居節(jié)點副本的持有情況對緩存進行控制,降低了節(jié)點緩存內(nèi)存在時間久但未被成功傳遞消息副本的丟失率.與基于緩存時間長短和節(jié)點存活時間的DL、DY相比,ACER算法投遞率提高約91%和97%. 從圖8可見,DL與DY算法的網(wǎng)絡(luò)開銷較大.因為隨著節(jié)點數(shù)量的增加,節(jié)點之間交互次數(shù)增加,消息副本的過多復制導致網(wǎng)絡(luò)開銷較大.而ACER算法在消息傳遞過程中,通過節(jié)點擁塞度改進了消息傳輸概率,避免了消息轉(zhuǎn)發(fā)的盲目性,降低了消息傳輸至目的節(jié)點中的交互次數(shù),因而相比DL與DY算法,ACER算法在網(wǎng)絡(luò)開銷方面分別降低約69%和70%. 圖8 不同節(jié)點數(shù)量的網(wǎng)絡(luò)開銷 由圖9可見,消息平均時延整體呈下降趨勢.隨著節(jié)點數(shù)量的增加,節(jié)點的相遇次數(shù)及副本量增加,因而消息從源節(jié)點到目的節(jié)點的時延降低.而ACER算法是下降幅度最大的,當節(jié)點數(shù)量小于70時ACER延時較大,但數(shù)量達到75之后,其消息平均時延低于DL與DY.這是因為文中設(shè)置的仿真場景為3 600 m×4 500 m,在仿真環(huán)境較大時,節(jié)點數(shù)量少使得中繼轉(zhuǎn)發(fā)節(jié)點較少,節(jié)點攜帶消息副本時間較長,故延遲較大;當節(jié)點數(shù)量持續(xù)增大時,節(jié)點無需攜帶消息時間過長就傳輸至下一跳節(jié)點,并且通過對緩存的設(shè)計增大了消息的傳輸概率. 圖9 不同節(jié)點數(shù)量的消息平均傳輸時延 圖10-12為基于不同緩存空間的對比結(jié)果. 圖10 不同緩存空間的消息投遞率 從圖10可見,消息投遞率隨著緩存空間的增大而呈現(xiàn)增長趨勢.這是因為緩存空間的增大將增加節(jié)點攜帶副本的數(shù)量,使消息副本被傳遞到目標節(jié)點的機會變大,從而使投遞率有所提高.由于ACER算法處理緩存時考慮了網(wǎng)絡(luò)中的副本情況,使網(wǎng)絡(luò)中副本數(shù)存在較少的消息更大概率傳輸?shù)侥康墓?jié)點,因此投遞率最高.相比DL與DY,ACER投遞率分別提高約42%和39%. 從圖11可見,隨著緩存空間的增加網(wǎng)絡(luò)開銷呈現(xiàn)下降趨勢.緩存空間的增大使得網(wǎng)絡(luò)中增加的緩存副本有了更大的存儲空間,節(jié)點在仿真環(huán)境較大的場景中成功投遞的消息數(shù)增加,網(wǎng)絡(luò)開銷降低.ACER對緩存的處理更加增大了緩存的利用空間,因此相比DY和DL,其網(wǎng)絡(luò)開銷分別降低約8%和30%. 圖11 不同緩存空間的網(wǎng)絡(luò)開銷 由圖12可見,隨著緩存的增加,消息平均時延呈現(xiàn)增長趨勢.這是因為隨著緩存空間的增大節(jié)點接收的副本數(shù)增加,在仿真面較大的場景中,消息傳輸過程的節(jié)點交互轉(zhuǎn)發(fā)次數(shù)增加,從而增大了目標節(jié)點的消息平均時延. 圖12 不同緩存空間的平均傳輸時延 由以上仿真結(jié)果可知,在M-Agent不同數(shù)量和緩存下,ACER無論是在投遞率、網(wǎng)絡(luò)開銷還是消息平均時延方面都有所改善. 針對擁塞控制具有單一性及局限性的研究現(xiàn)狀,以及機會網(wǎng)絡(luò)中多個副本造成的網(wǎng)絡(luò)擁塞的問題,文中研究了一種基于元胞演化規(guī)則的機坪緩存控制策略.根據(jù)機坪實際環(huán)境設(shè)置ONE仿真環(huán)境,與傳統(tǒng)的基于緩存時間長短和節(jié)點存活時間的緩存管理策略DL、DY算法相比,新策略在消息投遞率上最高可提高97%、同時網(wǎng)絡(luò)開銷最多可降低70%,通信時延也有一定程度的降低.在此基礎(chǔ)上,未來將進一步研究智慧機坪網(wǎng)絡(luò)全局最優(yōu)化.4 基于元胞自動機的消息副本丟棄策略
5 仿真驗證
5.1 不同節(jié)點數(shù)量下算法性能分析
5.2 不同緩存空間下算法性能分析
6 結(jié) 論