殷愛(ài)菡,陳 冬,張思瑤,鄭玉虹,林 瑤(華東交通大學(xué)信息工程學(xué)院,江西 南昌330013)
?
基于SLA的動(dòng)態(tài)分組算法研究
殷愛(ài)菡,陳 冬,張思瑤,鄭玉虹,林 瑤
(華東交通大學(xué)信息工程學(xué)院,江西南昌330013)
摘要:提出一種基于SLA的動(dòng)態(tài)分組算法,有效解決系統(tǒng)帶寬利用率低下、時(shí)延難以保證等問(wèn)題。算法根據(jù)當(dāng)前網(wǎng)絡(luò)情況改變輪詢周期并且實(shí)現(xiàn)下一周期業(yè)務(wù)的提前授權(quán),較好的優(yōu)化了帶寬時(shí)隙浪費(fèi)問(wèn)題。通過(guò)OPNET對(duì)算法進(jìn)行仿真以及與其它帶寬分配方案的比較分析表明該算法具有良好的帶寬利用率以及較低的系統(tǒng)時(shí)延特性。
關(guān)鍵詞:10 G/40 G EPON;帶寬分配;分組;SLA
隨著接入網(wǎng)的迅速發(fā)展,無(wú)源光網(wǎng)絡(luò)(passive optical network, PON)因其能夠滿足各種業(yè)務(wù)需求的特性成為接入網(wǎng)的首選,而10 G/40 G EPON被視為下一代理想寬帶接入網(wǎng)之一,受到越來(lái)越多的研究學(xué)者關(guān)注[1]。其中,如何合理分配、有效利用帶寬作為10 G/40 G EPON的研究熱點(diǎn)之一,吸引了眾多科研工作者[2]。根據(jù)大眾目前的多業(yè)務(wù)網(wǎng)絡(luò)需求,接入網(wǎng)必須滿足語(yǔ)音及視頻業(yè)務(wù)的實(shí)時(shí)性,同時(shí)要求更低的時(shí)延和抖動(dòng)[3]。因此,為了針對(duì)不同接入網(wǎng)用戶的多業(yè)務(wù)需求,對(duì)于動(dòng)態(tài)帶寬分配算法(dynamic bandwidth allocation, DBA)的研究是有必要的。EPON的動(dòng)態(tài)帶寬分配算法大多是基于輪詢的方式,經(jīng)典的輪詢算法有IPACT算法[4],BGP算法[5]等。然而這些帶寬分配算法基本存在輕負(fù)載惡化、公平性差、帶寬利用率低下以及難以保證時(shí)延等問(wèn)題。近年來(lái),又有一些新的帶寬分配算法被提出來(lái)用以優(yōu)化系統(tǒng)[6-7],所以針對(duì)當(dāng)前動(dòng)態(tài)帶寬分配算法存在的問(wèn)題,提出一種基于SLA的10 G/40 G EPON動(dòng)態(tài)分組帶寬分配方案。
根據(jù)以太網(wǎng)差分服務(wù)(differentiated services, DiffServ)模型[8],用戶的帶寬業(yè)務(wù)被分為3個(gè)不同的等級(jí):EF(expedited forwarding)業(yè)務(wù)、AF(assured forwarding)業(yè)務(wù)、BE(best effort)業(yè)務(wù),它們的優(yōu)先級(jí)依次降低。EF業(yè)務(wù)對(duì)應(yīng)的是固定比特速率的數(shù)據(jù)流的話音業(yè)務(wù),需保證更低的時(shí)延和抖動(dòng);AF業(yè)務(wù)對(duì)應(yīng)的是可變比特速率的數(shù)據(jù)流的視頻業(yè)務(wù),需保證一定帶寬;BE業(yè)務(wù)對(duì)應(yīng)的是對(duì)時(shí)延和抖動(dòng)沒(méi)有要求的數(shù)據(jù)傳輸業(yè)務(wù),需提供盡力而為的服務(wù)。
圖1 業(yè)務(wù)分組模型Fig.1 Model of traffic group
首先,為了保證業(yè)務(wù)帶寬分配的公平性,如圖1所示,規(guī)定每個(gè)ONU的最大開(kāi)窗時(shí)隙為Bimax,最小開(kāi)窗時(shí)隙為0。將這三種不同等級(jí)的業(yè)務(wù)分為兩組:組1為EF業(yè)務(wù),組2包括AF業(yè)務(wù)和BE業(yè)務(wù),其中Report部分包含ONU組2長(zhǎng)度以及剩余組1數(shù)據(jù)的信息。根據(jù)DiffServ協(xié)議,組1的優(yōu)先級(jí)高于組2,因此優(yōu)先發(fā)送組1數(shù)據(jù),規(guī)定組1的最大時(shí)隙為Bg1max。
假設(shè)10GEPON系統(tǒng)中包含有N個(gè)ONU,每一個(gè)ONU的傳輸速率為定值Ru,且每個(gè)上行單元間的保護(hù)時(shí)隙為Bp,由此不難得出OLT的最大授權(quán)帶寬BOLTmax為
因此,所有ONU的業(yè)務(wù)組2允許的最大時(shí)隙Bg2max為
其中:Wi是為每一個(gè)ONU的分配因子,該分配因子與ONU的業(yè)務(wù)服務(wù)等級(jí)SLA相關(guān),當(dāng)所有ONU的SLA相等時(shí),它們的分配因子Wi也相等,故有
在OLT結(jié)束對(duì)ONU組1的授權(quán)之后,OLT繼續(xù)對(duì)ONU組2進(jìn)行授權(quán),當(dāng)ONU組2數(shù)據(jù)請(qǐng)求帶寬小于組2數(shù)據(jù)所允許的最大時(shí)隙Bg2max時(shí),其授權(quán)時(shí)隙Gi為
當(dāng)ONU組2數(shù)據(jù)請(qǐng)求帶寬大于組2數(shù)據(jù)所允許的最大時(shí)隙Bg2max時(shí),其授權(quán)時(shí)隙為
其中:Ri代表各ONU的組2數(shù)據(jù)所請(qǐng)求的時(shí)隙帶寬。
在一個(gè)完整的上行傳輸過(guò)程中,每個(gè)輪詢周期內(nèi),ONU的數(shù)據(jù)按照業(yè)務(wù)等級(jí)分組發(fā)送,其發(fā)送的窗口大小對(duì)優(yōu)先級(jí)最高的EF業(yè)務(wù)的實(shí)時(shí)性沒(méi)有產(chǎn)生影響。
如圖2所示,Te代表OLT接收前一周期數(shù)據(jù)的結(jié)束時(shí)間,Ts代表OLT接收下一周期數(shù)據(jù)的開(kāi)始間間。當(dāng)ONU完成數(shù)據(jù)業(yè)務(wù)的分組之后,發(fā)送包含待發(fā)送的組1和組2數(shù)據(jù)的大小以及組1到達(dá)時(shí)間的Report消息。為了減少空閑時(shí)間、有效的利用帶寬,OLT在接收到組2開(kāi)始的Report信息之后,若ONU仍然有剩余組1數(shù)據(jù)待發(fā)送,則向ONU發(fā)送Gate幀,而ONU在接收該Gate信息之后在Tx發(fā)送下一周期的組1數(shù)據(jù)。其中下一周期發(fā)送時(shí)間,Tx計(jì)算公式為
圖2 數(shù)據(jù)傳輸示意圖Fig.2 Diagram of data transmission
其中RTT為環(huán)路延時(shí)。
3.1 仿真模型
使用OPNET網(wǎng)絡(luò)軟件對(duì)其進(jìn)行建模仿真,并與靜態(tài)和其他動(dòng)態(tài)DBA進(jìn)行分析比較。OPNET是一款功能豐富強(qiáng)大的網(wǎng)絡(luò)仿真工具,能夠?qū)W(wǎng)絡(luò)系統(tǒng)結(jié)構(gòu)、協(xié)議模型、性能參數(shù)、QoS服務(wù)質(zhì)量進(jìn)行設(shè)計(jì)、建模、分析和管理,充分的滿足了大型復(fù)雜網(wǎng)絡(luò)的仿真需求。為了有效模擬真實(shí)情況,建立一個(gè)包含16個(gè)ONU的模型。ONU到OLT的距離設(shè)置為5~20 km,上行與下行速率均是10 Gbit·s-1,輪詢周期設(shè)為2 ms。其中OLT的中心模塊server節(jié)點(diǎn)進(jìn)程結(jié)構(gòu)如下圖所示。其工作流程為:在Init狀態(tài)下接收數(shù)據(jù)幀或控制幀,當(dāng)接收到幀后,進(jìn)入Start狀態(tài),由于接收到的幀類型不同其進(jìn)入的進(jìn)程也不同;如果接收到的是數(shù)據(jù)幀,則表示ARRIVAL被激活,業(yè)務(wù)數(shù)據(jù)被發(fā)送到Rcv_pkt進(jìn)程,完畢后返回Idle并且等待下一幀;如果若接收到的是控制幀,則表示REQUEST被激活,控制幀進(jìn)入Request,完畢后返回Idle并且等待下一幀。其中等待處理的所有數(shù)據(jù)幀及控制幀都緩存在Idle隊(duì)列中。
ONU中心模塊buffer的進(jìn)程結(jié)構(gòu)如下圖所示,與OLT相類似,一部分是處理數(shù)據(jù)幀,另一部分是處理控制幀,它們分別由ARRIVAL和GRANT負(fù)責(zé)激活。在Init狀態(tài)下開(kāi)始接收數(shù)據(jù)幀或控制幀,由幀類型的不同進(jìn)入不同的進(jìn)程。Buffer將用戶發(fā)送的數(shù)據(jù)幀排隊(duì)處理,而Grant則是響應(yīng)從OLT發(fā)送的控制幀,完畢后,數(shù)據(jù)幀和控制幀都要返回到Idle。
圖3 OLT server進(jìn)程結(jié)構(gòu)Fig.3 Process structure of OLT server
圖4 ONU buffer進(jìn)程結(jié)構(gòu)示意圖Fig.4 Process structure of ONU buffer
3.2 仿真結(jié)果分析
通過(guò)對(duì)系統(tǒng)進(jìn)行建模之后,將方案添加在模型中進(jìn)行仿真并且與靜態(tài)帶寬分配算法和動(dòng)態(tài)帶寬分配算法在ONU平均時(shí)延和隊(duì)列長(zhǎng)度以及網(wǎng)絡(luò)平均吞吐量方面進(jìn)行了比較分析。圖5是系統(tǒng)平均吞吐量結(jié)果的比較示意圖。從圖中可以看出,系統(tǒng)的吞吐量隨著負(fù)載的增加而迅速增大,3種方案在負(fù)載為0.9的時(shí)候吞吐量增長(zhǎng)速度放緩,其中靜態(tài)帶寬分配基本沒(méi)有增長(zhǎng),而本方案的算法和IPACT動(dòng)態(tài)帶寬分配算法仍有增長(zhǎng)的趨勢(shì),兩者基本保持一致性,但是提出的方案能夠擁有更高的吞吐量也說(shuō)明在系統(tǒng)重負(fù)載的情況之下,帶寬利用率有明顯提高。
圖5 平均吞吐量結(jié)果比較Fig.5 Comparison of average throughput
圖6 時(shí)延特性比較Fig.6 Comparison of time delay
圖6是系統(tǒng)平均時(shí)延的結(jié)果比較示意圖。從圖中可以看出,三者都有隨著負(fù)載增加而時(shí)延增長(zhǎng)的趨勢(shì),其中靜態(tài)帶寬分配算法的表現(xiàn)最差,在平均負(fù)載為0.4時(shí)的時(shí)延就開(kāi)始急劇增加;而其他動(dòng)態(tài)帶寬分配算法和本方案的時(shí)延均在負(fù)載達(dá)到0.9時(shí)才急劇增加,并且本方案提出的分配算法較其他動(dòng)態(tài)帶寬分配算法平均時(shí)延較低,表現(xiàn)優(yōu)于IPACT動(dòng)態(tài)帶寬分配算法。通過(guò)仿真對(duì)比,基于SLA的動(dòng)態(tài)帶寬分配方案具有以下特點(diǎn):
1)能夠根據(jù)網(wǎng)絡(luò)環(huán)境動(dòng)態(tài)改變輪詢周期,有效的進(jìn)行帶寬的分配,避免了無(wú)謂的帶寬浪費(fèi);
2)方案不僅能夠保證高優(yōu)先級(jí)業(yè)務(wù)的帶寬需求及QoS,還充分考慮了中、低優(yōu)先級(jí)業(yè)務(wù)的公平性問(wèn)題。將剩余帶寬按照中、低優(yōu)先級(jí)業(yè)務(wù)的優(yōu)先級(jí)對(duì)其進(jìn)行分配,有效地保障中、低優(yōu)先等級(jí)用戶的權(quán)利;
3)對(duì)于下一周期業(yè)務(wù)的提前授權(quán)也減少了帶寬的浪費(fèi),能夠在當(dāng)前周期結(jié)束之后以最短的時(shí)間開(kāi)始下一周期的業(yè)務(wù)授權(quán)傳輸,將剩余帶寬再次進(jìn)行有效的利用,避免了更多的貸款浪費(fèi)。
提出的基于SLA的動(dòng)態(tài)分組算法不僅在10 G/40 G EPON系統(tǒng)的輕負(fù)載惡化、公平性差的問(wèn)題上表現(xiàn)良好,還通過(guò)動(dòng)態(tài)調(diào)整不同業(yè)務(wù)的帶寬授權(quán)來(lái)進(jìn)行帶寬優(yōu)化,另外對(duì)于下一周期業(yè)務(wù)的提前授權(quán)也起到了提高帶寬利用率的作用,有效的保證了系統(tǒng)傳輸?shù)馁|(zhì)量以及性能,使得系統(tǒng)能夠滿足用戶多業(yè)務(wù)的網(wǎng)絡(luò)需求。經(jīng)過(guò)對(duì)算法的仿真結(jié)果分析,證明算法在網(wǎng)絡(luò)吞吐量和實(shí)時(shí)時(shí)延方面具有一定的優(yōu)勢(shì)。本算法能夠更好地滿足用戶實(shí)時(shí)業(yè)務(wù)需求,有效提高網(wǎng)絡(luò)資源的利用率。
參考文獻(xiàn):
[1]殷愛(ài)菡,王勝凱.基于改進(jìn)的AES算法的EPON安全方案研究[J].華東交通大學(xué)學(xué)報(bào),2013,30(4):35-39.
[2] ANAKA M,TAKEMOTO M,TAKAHASHI A,et al. Dynamic bandwidth allocation algorithm with fairness in 1G/10G coexistence EPON system[J]. IEICE Transactions on Communications,2009,92(3):819-827.
[3] SHAMI A,BAI XIAOFENG,ASSI C M,et al. Jitter performance in Ethernet passive optical networks[J]. Journal of Lightwave Technology,2005,23(4):1745.
[4] KRAMER G,MUKHERJEE B,PESAVENTO G. IPACT a dynamic protocol for an Ethernet PON(EPON)[J]. IEEE Communications Magazine,2002,40(2):74-80.
[5] MA M,ZHU Y,CHENG T H. A bandwidth guaranteed polling MAC protocol for Ethernet passive optical networks[C]//INFOCOM 2003,Twenty-Second Annual Joint Conference of the IEEE Computer and Communications,IEEE Societies,2003:22-31.
[6]朱婉瑩,何榮希,楊帥. EPON中節(jié)能動(dòng)態(tài)帶寬分配算法[J].光通信技術(shù),2014,38(011):35-38.
[7]解朝晟,孫強(qiáng). EPON中的一種新型動(dòng)態(tài)帶寬分配算法[J].光通信技術(shù),2011,35(2):1-3.
[8]江文靜,蔡祥寶. DiffServ隊(duì)列調(diào)度算法研究[J].計(jì)算機(jī)技術(shù)與發(fā)展ISTIC,2015,25(4):85-88.
(責(zé)任編輯 姜紅貴)
Research on Dynamic Grouping Algorithm Based on SLA
Yin Aihan, Chen Dong, Zhang Siyao, Zheng Yuhong, Lin Yao
(School of Information Engineering, East China Jiaotong University, Nanchang 330013, China)
Abstract:This study proposes a dynamic grouping algorithm based on SLA, which can effectively solve the problems of low bandwidth utilization rate and difficulty in guaranteeing delay. The proposed algorithm could make dynamic change according to actual condition and realize the authorization in advance of the next cycle, thus optimizing the bandwidth time slot. By simulating the algorithm with OPNET, comparing with other schemes, it proves that the algorithm has the better bandwidth utilization and characteristics of lower system time delay.
Key words:10 G/40 G EPON; bandwidth allocation; grouping; SLA
中圖分類號(hào):TN919
文獻(xiàn)標(biāo)志碼:A
文章編號(hào):1005-0523(2016)03-0106-04
收稿日期:2015-11-30
基金項(xiàng)目:國(guó)家自然科學(xué)基金項(xiàng)目(61262079);2014年江西省大學(xué)生創(chuàng)新項(xiàng)目(20141040402)
作者簡(jiǎn)介:殷愛(ài)菡(1963—),女,教授,博士,研究方向?yàn)楣馔ㄐ偶夹g(shù)。