• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于時間序列的Openstack云計算平臺負(fù)載預(yù)測與彈性資源調(diào)度的研究

      2016-08-06 02:04:17李達(dá)港金連文黃甘波

      李達(dá)港,李 磊,金連文,黃甘波,吳 權(quán)

      (1.華南理工大學(xué) 電子與信息學(xué)院,廣東 廣州 510641; 2.世紀(jì)龍信息網(wǎng)絡(luò)有限責(zé)任公司,廣東 廣州 510630)

      ?

      基于時間序列的Openstack云計算平臺負(fù)載預(yù)測與彈性資源調(diào)度的研究

      李達(dá)港1,李磊1,金連文1,黃甘波2,吳權(quán)2

      (1.華南理工大學(xué) 電子與信息學(xué)院,廣東 廣州 510641; 2.世紀(jì)龍信息網(wǎng)絡(luò)有限責(zé)任公司,廣東 廣州 510630)

      摘要:隨著云計算技術(shù)的發(fā)展與運用,云計算在資源的效用比、按需服務(wù)等方面優(yōu)勢顯著;相對于傳統(tǒng)的計算資源構(gòu)建,云計算憑借其安全性保障、高效的彈性計算資源分配能力、簡易的硬件要求等特性,能實現(xiàn)面對不同需求時的計算資源快速彈性構(gòu)建?;谠朴嬎愕膹椥再Y源效用比為研究點,以經(jīng)典的電信接入隨機過程模型—泊松過程為基礎(chǔ),采用相關(guān)性時間序列模型對資源預(yù)測進(jìn)行研究,并對相似的多類模型進(jìn)行仿真與分析;最后以O(shè)penstack云平臺為基礎(chǔ),結(jié)合實際需求對模型進(jìn)行了工程化實現(xiàn)和初步測試。結(jié)果表明,該方法為云計算按需使用和資源彈性構(gòu)建提供了一種可行的方式,在保證服務(wù)等級協(xié)議(service-level agreement, SLA)的同時,進(jìn)一步降低云計算平臺的運行損耗,提高資源的效用比。

      關(guān)鍵詞:時間相關(guān);泊松分布;彈性資源分配;高效用比 ;openstack

      0引言

      目前云計算已經(jīng)成為互聯(lián)網(wǎng)技術(shù)和業(yè)務(wù)支撐的重要基礎(chǔ)設(shè)施,它使用戶能夠通過網(wǎng)絡(luò)按需地從一個共享的、可配置的資源池中獲取包括計算、存儲、網(wǎng)絡(luò)等資源[1-3],極大地降低了用戶對于基礎(chǔ)設(shè)施的資源投入,可以快速部署自己的應(yīng)用,并上線運行。目前關(guān)于云計算資源調(diào)度和效用比的研究成為當(dāng)前云計算技術(shù)和學(xué)術(shù)的熱點之一,包括用戶的資源利用率、資源調(diào)度的過程、服務(wù)的響應(yīng)時間和服務(wù)隊列長度[4-6],其目的在于降低云計算平臺運行過程中各種無效的損耗,實現(xiàn)“綠色云”[7-11]。然而文獻(xiàn)[5]中論述了在高可用條件下,為了滿足任何用戶在任意時間不確定的負(fù)載,目前以超量資源(所提供的資源大于最大的實際資源需求)方式進(jìn)行資源的規(guī)劃成為云計算系統(tǒng)資源規(guī)劃的一個常見的方式,這種方式的效用比較低,造成資源大量浪費和資源損耗。

      基于上述問題,目前降低云計算平臺中能源損耗和其他無效損耗的方法主要包括:①關(guān)閉云計算平臺中空閑狀態(tài)的主機,進(jìn)一步減低能源的消耗[12];②基于優(yōu)化虛擬機調(diào)度方法,使得虛擬機在調(diào)度上可以進(jìn)一步保證資源的有效集中[13];③將云計算的虛擬機按照應(yīng)用的負(fù)載壓力分為多個狀態(tài),即休眠、空閑和忙等狀態(tài),并對狀態(tài)的切換進(jìn)行優(yōu)化[14]。

      然而上述方法是通過優(yōu)化虛擬機調(diào)度過程減低云計算的平臺運行消耗,并沒有從按需使用方面來對云計算的資源進(jìn)行伸縮,從而降低云計算平臺的各項無效損耗,提高云計算的資源的效用比。本文的主要貢獻(xiàn)包括:①從云計算的本質(zhì)出發(fā),即everything as a service[15],其本質(zhì)認(rèn)為任何資源都是一種服務(wù)。以云計算平臺提供的服務(wù)負(fù)載為基礎(chǔ),對其所需的計算資源進(jìn)行預(yù)測,從按需使用方面對云計算平臺的資源進(jìn)行彈性伸縮和調(diào)度;②以泊松過程為基礎(chǔ),推演資源預(yù)測的數(shù)學(xué)模型,并對該模型下相似方法進(jìn)行了類比,說明不同方法之間的有效性,為相關(guān)研究提供有價值的基礎(chǔ)性研究;③將本文所提出的數(shù)學(xué)模型在Openstack云計算平臺上進(jìn)行工程化實現(xiàn),在此過程中依據(jù)實際的需求和環(huán)境進(jìn)行了優(yōu)化和修正,并初步驗證了實現(xiàn)效果。

      1云計算服務(wù)負(fù)載相關(guān)研究與基礎(chǔ)

      云計算平臺提供的服務(wù)本質(zhì)是互聯(lián)網(wǎng)的接入服務(wù),在文獻(xiàn)[12,14,16-19]中采用了典型電信接入的隨機過程模型—泊松過程作為系統(tǒng)資源調(diào)度優(yōu)化的研究基礎(chǔ)。

      泊松過程是一類最基本的描述隨機事件的獨立增量過程,將事件發(fā)生的時間間隔認(rèn)為是相互獨立的隨機變量,等效為一種更新過程[20]。典型的泊松過程表示為

      (1)

      (1)式中:N(t)為0到t時刻事件發(fā)生的數(shù)量;λ為事件發(fā)生的強度。在互聯(lián)網(wǎng)接入服務(wù)中可以分別看做是t時刻互聯(lián)網(wǎng)服務(wù)的接入數(shù)量和接入強度,N(t)-N(t-s)為[t-s,t)時間段內(nèi)的互聯(lián)網(wǎng)的服務(wù)接入數(shù)量的增量。

      2基于互聯(lián)網(wǎng)接入服務(wù)數(shù)量的時間序列預(yù)測模型的研究

      互聯(lián)網(wǎng)服務(wù)的接入數(shù)量在時間序列上雖然服從泊松過程,并且各個時間段的服務(wù)接入數(shù)量的增量相互獨立,但從人類行為學(xué)來看,用戶使用互聯(lián)網(wǎng)服務(wù)與其作息時間密切相關(guān),互聯(lián)網(wǎng)服務(wù)請求量在確定時間間隔內(nèi)的增量并非穩(wěn)定,而是與時間點密切相關(guān)。文獻(xiàn)[21]測量了CN域名服務(wù)器在48h內(nèi)的查詢請求量,如圖1[21]所示。

      圖1 CN域名服務(wù)器在2008年11月連續(xù)48小時查詢請求率分布Fig.1 48 hours request rate distribution on CN domain name server on November 2008

      根據(jù)泊松過程,即s時間段內(nèi)的互聯(lián)網(wǎng)的負(fù)載增量服從(1)式,其數(shù)學(xué)期望為

      (2)

      同時泊松過程的條件期望為

      (3)

      從(3)式可以得出泊松過程的條件期望等于其泊松過程的期望,本文將E(N(t)|N(t-s))作為互聯(lián)網(wǎng)接入服務(wù)預(yù)測的基本數(shù)學(xué)依據(jù),即下一個時刻互聯(lián)網(wǎng)接入服務(wù)數(shù)量的預(yù)測等于已知前一個時刻的互聯(lián)網(wǎng)接入數(shù)量情況下的條件期望。

      如圖1所示,本文假設(shè)互聯(lián)網(wǎng)接入的事件過程是一個具備各態(tài)歷經(jīng)性的過程,且與之前多個時刻的互聯(lián)網(wǎng)接入數(shù)量有關(guān),因此有

      (4)

      為進(jìn)一步體現(xiàn)時間序列的相關(guān)性的強弱,一般而言,認(rèn)為相距較近時間的事件關(guān)聯(lián)性越強,數(shù)學(xué)描述為

      (5)

      (5)式中,a(n)為相關(guān)系數(shù),表示各個時刻互聯(lián)網(wǎng)接入數(shù)量與預(yù)測結(jié)果的相關(guān)強度。a(n)的數(shù)值直接決定了互聯(lián)網(wǎng)接入數(shù)量預(yù)測的質(zhì)量。為了進(jìn)一步給出不同方法的對比,本文采用了如下方法對a(n)進(jìn)行設(shè)定。

      1)自回歸模型(autoregressivemodel,AR)線性預(yù)測模型方法。AR模型是一種線性預(yù)測,即已知n個數(shù)據(jù),可由模型推出第m點前面或后面的數(shù)據(jù)(設(shè)推出m+1點),所以其本質(zhì)類似于插值,其目的為了增加有效數(shù)據(jù)[22]。本文采用的AR線性模型數(shù)學(xué)表述式為

      (6)

      (6)式,中a(n)由Yule-Walker方程依據(jù)自相關(guān)矩陣得出。

      2)時間強度相關(guān)模型方法。依據(jù)(5)式,同時依據(jù)圖1表達(dá)的數(shù)據(jù)趨勢,本文認(rèn)為如下假設(shè)成立:假設(shè)下一個時刻的互聯(lián)網(wǎng)接入數(shù)量與其過去的某一個時間相距最近時刻的事件數(shù)量相關(guān)性最強,時間相距最長的相關(guān)性最弱。因此,本文假定

      (7)

      3)斜率導(dǎo)向模型方法。由圖1所示,預(yù)測互聯(lián)網(wǎng)的接入數(shù)量主要目的是預(yù)測其增長的趨勢和強度,由公式E(N(t)-N(t-s))=E(N(t)|N(t-s))可得出,利用斜率導(dǎo)向的預(yù)測模型數(shù)學(xué)描述為

      (8)

      3資源預(yù)測模型的仿真與結(jié)果對比

      3.1預(yù)測算法與原始數(shù)據(jù)的對比仿真

      本文產(chǎn)生一個以正弦波為載波,并且以此為基礎(chǔ)調(diào)制一組泊松分布隨機數(shù)據(jù),從而產(chǎn)生一組測試的數(shù)據(jù)輸入,其中數(shù)據(jù)長度為100個,即在一段時間內(nèi)的采樣點為100次,泊松強度假設(shè)為λ=5。

      1)AR線性預(yù)測模型方法的實驗對比。本文采用前5個互聯(lián)網(wǎng)接入服務(wù)數(shù)量作為AR模型的輸入,與實際服務(wù)數(shù)量對比結(jié)果如圖2所示。

      圖2 AR線性預(yù)測模型的效果對比圖Fig.2 Comparison of the effect of AR linear prediction model

      從圖2a中可以看出,在每個時刻其預(yù)測結(jié)果相對于真實的互聯(lián)網(wǎng)接入數(shù)量結(jié)果偏低。為進(jìn)行修正,本文引入了加權(quán)修正因子b。修正后的AR線性預(yù)測模型數(shù)學(xué)表達(dá)式為

      (9)

      在本實驗仿真中,b=1.4。

      從圖2b可以看出,相對于原始AR線性預(yù)測方法,改進(jìn)后的AR效果在峰值和提前量上有所改進(jìn),但對于某些拐點預(yù)測結(jié)果誤差較大。這2種方法都出現(xiàn)對于某些低點預(yù)測誤差過大的問題。

      2)時間強度相關(guān)模型方法和斜率導(dǎo)向模型的實驗對比,如圖3所示。

      圖3 時間相關(guān)模型預(yù)測效果對比Fig.3 Comparison of time dependent model prediction

      本文同樣采用前5個互聯(lián)網(wǎng)服務(wù)數(shù)量作為模型的預(yù)測,即系數(shù)a(0)—a(4)設(shè)置為0.6,0.2,0.1,0.07,0.03和0.8,0.1,0.05,0.03,0.02,分別代表時間序列的弱相關(guān)和強相關(guān)。從圖3a可以看出,在時間強度相關(guān)模型中強相關(guān)和弱相關(guān)在預(yù)測效果上接近,說明在系數(shù)歸一化的條件下,系數(shù)的設(shè)置對于各歷經(jīng)性的隨機過程影響較小,整體而言預(yù)測結(jié)果與實際數(shù)據(jù)匹配較好。

      在斜率導(dǎo)向模型方法中,為了進(jìn)行類比,本文同樣采用前5個互聯(lián)網(wǎng)服務(wù)負(fù)載作為輸入預(yù)測后一個負(fù)載數(shù)量,即設(shè)定2組系數(shù)0.6,0.2,0.1,0.07,0.03和0.8,0.1,0.05,0.03,0.02代表互聯(lián)網(wǎng)服務(wù)負(fù)載的數(shù)量變化斜率時間序列的弱相關(guān)和強相關(guān)。從圖3b可以看出,在斜率導(dǎo)向模型強相關(guān)性模型中最大值和最小值的預(yù)測上出現(xiàn)明顯的過沖現(xiàn)象。與弱相關(guān)性預(yù)測模型對比,強相關(guān)性在數(shù)據(jù)的突變上反應(yīng)較慢。

      3.2各個預(yù)測算法之間的效果對比說明

      由于直觀上難以對各個預(yù)測模型的結(jié)果直接進(jìn)行對比說明,因此,為了進(jìn)一步得到各個預(yù)測算法之間有效性,本文依據(jù)真實的云計算平臺結(jié)構(gòu)設(shè)計以下2個評測指標(biāo)。

      1)隊列剩余任務(wù)數(shù)。在文獻(xiàn)[12,14,16-19]中均認(rèn)為云計算平臺為隊列模型處理模型,即互聯(lián)網(wǎng)服務(wù)遵循先到先服務(wù)(firstcomefirstservice,F(xiàn)CFS)[21],因此,為了評估預(yù)測模型的效果,本文定義相同時間段后云計算平臺中任務(wù)隊列長度(剩余未處理的任務(wù))Length_lev作為評測指標(biāo)。Length_lev越大,說明以該模型為預(yù)測方法的彈性預(yù)測質(zhì)量較差,其具體的過程包括以下步驟:①依據(jù)真實的云計算服務(wù)情況設(shè)定初始計算服務(wù)資源數(shù),該變量定義為init_res。一般而言,租戶都會預(yù)先啟動一定資源的虛擬機作為服務(wù)的首次計算資源配置;②假設(shè)一個計算單位的計算能力為C,即處理一個計算單位可以處理C個服務(wù),本文實驗設(shè)定為100。其數(shù)學(xué)描述為

      Length_lev=Length_lev(before)+

      input/C-predict/C

      (10)

      (10)式中,當(dāng)Length_lev(before)<0時,Length_lev(before)=0。Length_lev(before)是前一個時刻的服務(wù)隊列長度的數(shù)量,input是當(dāng)前時刻互聯(lián)網(wǎng)接入數(shù)量,predict是上一個時刻對當(dāng)前時刻的接入數(shù)量預(yù)測。當(dāng)tn

      2)計算資源單位數(shù)量誤差。為了進(jìn)一步對預(yù)測的質(zhì)量進(jìn)行對比,本文同時定義了資源準(zhǔn)確度,即實際所需的計算單位的數(shù)量和所預(yù)測的計算單元數(shù)量差異的總和—res_diff。其數(shù)學(xué)描述為

      res_diff=res_diff(before)-input/C+predict/C

      (11)

      (11)式中,res_diff(before)是前一個時刻的計算資源單位數(shù)量誤差。各預(yù)測模型在這2個標(biāo)準(zhǔn)下的效果對比如圖4所示。

      圖4 各個預(yù)測模型的對比效果Fig.4 Contrast effect of different forecast models

      從圖4中可以看出,經(jīng)過一段時間后,未改進(jìn)的AR線性模型預(yù)測模型的剩余服務(wù)隊列最長,約為其他預(yù)測模型剩余服務(wù)隊列長度的20倍;但在資源的差異方面最小,說明未改進(jìn)的AR預(yù)測模型預(yù)測的結(jié)果總是低于實際的互聯(lián)網(wǎng)接入服務(wù)數(shù)量,經(jīng)過一定時間后造成剩余服務(wù)隊列長度最長,同時每個時刻與實際數(shù)值差值相對最小,因此資源差異最??;而由于未改進(jìn)的AR線性模型預(yù)測模型的剩余的服務(wù)隊列最長,無法保證其SLA。同時其他預(yù)測模型在剩余的消息隊列長度上接近,說明在某些時刻預(yù)測結(jié)果大于實際數(shù)量,但差值都小于10,說明所調(diào)度的計算資源能較好地滿足接入服務(wù)的計算資源需求,可以保證SLA;另外,除了改進(jìn)的AR預(yù)測模型,其他預(yù)測模型在資源差異上數(shù)值接近,說明這些模型在預(yù)測的資源與實際需求上,其效果和質(zhì)量接近,同時相對于未改進(jìn)的AR預(yù)測模型,資源準(zhǔn)確度相對誤差均在30%內(nèi),差值并未出現(xiàn)如剩余服務(wù)隊列長度那樣極高的差異;在計算復(fù)雜度上,AR線性預(yù)測模型>斜率導(dǎo)向模型>時間強度相關(guān)模型。綜合考慮本文采用時間強度相關(guān)模型作為Openstack平臺的彈性資源預(yù)測系統(tǒng)的基礎(chǔ)模型。

      4基于Openstack平臺的彈性資源預(yù)測調(diào)度系統(tǒng)的實現(xiàn)

      Openstack[23]是由Rackspace 和美國國家航空航天局共同開發(fā)的云計算平臺。 從IceHouse版本開始除了包括了6個主要的核心子工程:Nova—提供虛擬主機的調(diào)度、創(chuàng)建和刪除和簡單網(wǎng)絡(luò)資源管理功能;Cinder—提供網(wǎng)絡(luò)的塊存儲設(shè)備;Glance—提供創(chuàng)建虛擬主機所需的鏡像注冊、存儲和刪除功能;Swift—提供對象方式的分布式存儲功能;Keystone—服務(wù)權(quán)限的驗證、用戶信息注冊、修改、刪除和相關(guān)服務(wù)權(quán)限管理功能;Horizon—基于Django架構(gòu)的Web服務(wù),提供面向終端用戶的網(wǎng)頁操作管理功能;還提供了包括NaaS(network as a service)—Neutron工程提供用戶定義網(wǎng)絡(luò)的服務(wù),監(jiān)控工程—Ceilometer工程,提供資源的監(jiān)控服務(wù),按照模板啟動虛擬機工程—Heat工程,按照用戶自定義的規(guī)則和模板批量動態(tài)擴展虛擬機資源。

      4.1基于Openstack云計算平臺的資源預(yù)測與彈性調(diào)度設(shè)計

      本文以Heat工程為參考,直接采用了各個相關(guān)工程的API進(jìn)行資源預(yù)測和彈性調(diào)度模塊的開發(fā)。其架構(gòu)如圖5所示。

      圖5 基于Openstack的資源預(yù)測與調(diào)度云計算平臺架構(gòu)Fig.5 Cloud computing platform architecture for resource prediction and scheduling based on Openstack

      本文在原有虛擬機管理上增加虛擬機加入集群的預(yù)備狀態(tài)和退出集群繼續(xù)執(zhí)行任務(wù)的待關(guān)閉狀態(tài)(在此狀態(tài)下的虛擬機繼續(xù)執(zhí)行任務(wù)),如圖6所示。

      圖6 彈性集群虛擬機管理Fig.6 Structure of elastic cluster virtual machine management

      同時在實際環(huán)境中,需要考慮監(jiān)控信息獲取的便利性和虛擬機負(fù)載的穩(wěn)定性(一般位于50%—80%),在工程化資源預(yù)測和彈性調(diào)度系統(tǒng)的過程中做了如下的修正和優(yōu)化。

      1)對現(xiàn)有系統(tǒng)內(nèi)的每個虛擬機的負(fù)載進(jìn)行預(yù)測,結(jié)合公式(5),第k個虛擬機的負(fù)載預(yù)測為

      (12)

      2)第i個時刻,系統(tǒng)內(nèi)虛擬機的平均負(fù)載為

      (13)

      本文以Load_Avg(i)作為資源擴展的依據(jù),設(shè)置上、下2個閾值。當(dāng)Load_Avg(i)大于上閾值時,擴展虛擬機計算資源;當(dāng)Load_Avg(i)低于閾值時,收縮虛擬機資源,具體流程如圖7所示。

      圖7 資源預(yù)測與彈性資源調(diào)度策略流程圖Fig.7 Resource prediction and flexible resource scheduling strategy flow chart

      4.2系統(tǒng)初步實驗結(jié)果

      本文通過LoadRunner并發(fā)測試工具來模擬多個用戶同時訪問應(yīng)用服務(wù),以每隔10 s改變并發(fā)用戶的遞增速度模擬對應(yīng)用服務(wù)的訪問壓力,資源預(yù)測和彈性調(diào)度集群使用的虛擬機類型為2VCPU,2GByte內(nèi)存的配置,時間窗口m取值為5,同時設(shè)定觸發(fā)集群擴展策略的集群平均負(fù)載閾值為80,觸發(fā)集群收縮策略的平均負(fù)載閾值為30。

      如圖8所示為資源預(yù)測和彈性調(diào)度集群擴展時虛擬機負(fù)載曲線圖,隨著用戶的并發(fā)連接數(shù)量不斷增大,彈性集群的平均負(fù)載不斷增高,集群中的虛擬機的互聯(lián)網(wǎng)接入服務(wù)數(shù)量增加超過一定閾值時,系統(tǒng)會自動增加一臺虛擬機作為資源的彈性擴展;當(dāng)互聯(lián)網(wǎng)接入服務(wù)數(shù)量下降到一定數(shù)值,在虛擬機的內(nèi)部負(fù)載接近0時,關(guān)閉其中一臺虛擬機,另外一臺虛擬機的內(nèi)部負(fù)載會出現(xiàn)少量的提高,將關(guān)閉的虛擬機處理能力接管過來。

      實驗結(jié)果可以看出,彈性伸縮策略可以很好地適應(yīng)互聯(lián)網(wǎng)接入服務(wù)數(shù)量的變化,保障良好的服務(wù)質(zhì)量。當(dāng)用互聯(lián)網(wǎng)接入服務(wù)數(shù)量上升時,集群也可以隨之?dāng)U大規(guī)模;當(dāng)互聯(lián)網(wǎng)接入服務(wù)數(shù)量下降時,集群也可以隨之收縮規(guī)模;使用戶的計算資源更多地用在應(yīng)用服務(wù)上,提高資源的效用比,資源收益得到提高。

      圖8 資源預(yù)測和彈性調(diào)度集群擴展時虛擬機負(fù)載曲線圖Fig.8 Resource prediction and flexible scheduling cluster expansion virtual machine load curve

      5總結(jié)

      經(jīng)過實踐和實際運行,本文完成了既定的2個目標(biāo):①從互聯(lián)網(wǎng)接入服務(wù)負(fù)載的過程出發(fā),提出了基于泊松過程的資源預(yù)測模型,并對相關(guān)的理論做了研究和仿真;②以O(shè)penstack平臺為基礎(chǔ),結(jié)合實際的條件和需求,對理論的模型進(jìn)行優(yōu)化和修正,初步實現(xiàn)了模型的工程化。本文為云計算平臺資源彈性和高效用比使用提出一種可行的數(shù)學(xué)模型和實現(xiàn)方法,展示了理論和工程化結(jié)合的過程。下一步的工作我們將進(jìn)一步對模型進(jìn)行優(yōu)化和修正,并結(jié)合調(diào)度的顆粒度,進(jìn)一步提高云計算按需使用和資源的效用比。

      參考文獻(xiàn):

      [1]WANG L, LASZEWSKI G V, YOUNGE A, et al. Cloud computing: A perspective study[J]. New Generation Computing, 2010, 28(2):137-146.

      [2]SOTOMAYOR B,MONTERO R S,LORENTE I M,et al.Infrastructure Management in Private and Hybrid Clouds[J].IEEE Internet Computing,2009,12(5):14-22.

      [3]MELL P, GRANCE T. The NIST definition of cloud computing (draft)[J]. NIST special publication, 2011,80(145): 7-15.

      [4]RUYYA R,YEO C S,VENUGOPA S, et al. Cloud computing and emerging IT platforms: vision, hype, and reality for delivering computing as the 5th utility[J]. Future Generation Computer Systems,2009,25(6):599-616.[5]ARMBRUST M A, FOX R, GRIFFITH R, et al. Above the clouds: A Berkeley view of cloud computing[J]. Eecs Department University of California Berkeley, 2009, 53(4):50-58.

      [6]XIONG K, PERROS H. Service Performance and Analysis in Cloud Computing[J]. World Conference on Services-i, 2009(13), 1:693-700.

      [7]LEE Y, ZOMAYA A Y. Energy efficient utilization of resources in cloud computing systems[J]. J Supercomput, 2012, 60(2): 268-280.

      [8]BElOGLAZOV A, BUYYA R, LEE Y, et al. A taxonomy and survey of energy-efficient data centers and cloud computing systems[J]. Advances in Computers, 2011, 8(3):47-111.

      [9]PAWAR C, WAGH R. Priority Based Dynamic Resource Allocation in Cloud Computing with Modified Waiting Queue[C]//In Proc. IEEE International Conference on Intelligent Systems and Signal Processing (ISSP). Gujarat, Pakistani: IEEE Press, 2013:311-316.[10] 周相兵.一種基于粒子群優(yōu)化的虛擬資源分配方法[J].重慶郵電大學(xué)學(xué)報:自然科學(xué)版, 2014, 26(5):686-693.

      ZHOU Xiangbing. An optimization approach of virtual resources allocation base on particle swarm algorithm[J]. Journal of Chongqing University of Posts and Telecommunications: Natural Science Edition,2014,26(5):686-693.[11] 史少鋒,劉宴兵.基于動態(tài)規(guī)劃的云計算任務(wù)調(diào)度研究[J].重慶郵電大學(xué)學(xué)報:自然科學(xué)版,2012,24(6):687-692.

      SHI Shaofeng, LIU Yanbing. Cloud computing task scheduling research based on dynamic programming[J]. Journal of Chongqing University of Posts and Telecommunications:Natural Science Edition,2012,24(6):687-692.[12] BIANCHINI R, RAJAMONY R. Power and Energy Management for Server Systems[J]. Computer, 2004, 37(11): 68-74.

      [13] HUANG W, LI X, QIAN Z. An Energy Efficient Virtual Machine Placement Algorithm with Balanced Resource Utilization[C]//In Proc. IEEE Seventh International Conference on Innovative Mobile and Internet Services in Ubiquitous Computing. USA: IEEE Press,2013:313-319.

      [14] CHIANG Y, OUYANG Y, HSU C. An Efficient Green Control Algorithm in Cloud Computing for Cost optimization[C]∥IEEE Transactions on Cloud Computing, Taichung, China: IEEE Press, 2015, 3(2):145-155.

      [15] SUN Y, XIAO Z, BAO D, et al. An Architecture Model of Management and Monitoring on Cloud Services Resources[C]//In Proc. IEEE 3rd International Conference on Advanced Computer Theory and Engineering (ICACTE). Chengdu, China: IEEE Press, 2010,3:207-211.

      [16] RANJAN R,ZHAO L,WU X,et al.Peer-to-peer cloud provisioning:Service discovery and load-balancing[J].Computer Communications & Networks,2010,12(2)195-217.

      [17] ZHANG M, HOU Z. M/G/1 queue with single working vacation[J]. Applied Mathematics and Computing, 2012, 39(1):221-234.

      [18] WANG K,HUANG H.Optimal control of an M/Ek/1 queueing system with a removable service station[J].Operational Research Society,1997,48(9):936-946.[19] CHIANG Y, OUYANG Y, HSU C. An Optimal Cost-Efficient Resource Provisioning for Multi-Servers Cloud Computing[C]//In Proc. IEEE International Conference on Cloud Computing and Big Data(CloudCom-Asia).Fuzhou,China:IEEE Press,2013:225-231.

      [20] Wikipedia. Poisson distribution[EB/OL]. (2016-03-30) [2015-10-09]. https://en.wikipedia.org/wiki/Poisson_distribution.

      [21] 尉遲學(xué)彪,李曉東,閻保平,等. DNS服務(wù)中的Internet訪問行為測量研究[J].計算機工程與應(yīng)用, 2009, 34(1):85-88.

      YUCHI Xuebiao, LI Xiaodong, YAN Baoping, et al. Internet usage measurements in DNS services[J]. Computer Engineering and Applications, 2009, 34(1):85-88.

      [22] Wikipedia. ARMA [EB/OL]. (2016-03-31) [2016-04-01]. https://en.wikipedia.org/wiki/Autoregressive%E2%80%93moving-average_model.

      [23] BELL T. OpenStack Documentation[EB/OL]. (2016-04-01) [2016-04-06]. http://docs.openstack.org/.

      DOI:10.3979/j.issn.1673-825X.2016.04.018

      收稿日期:2015-12-30

      修訂日期:2016-04-20通訊作者:李磊eelilei@scut.edu.cn

      基金項目:國家科技支撐計劃(2013BAH65F01-2013BAH65F04);廣東省工業(yè)高新技術(shù)領(lǐng)域科技計劃項目(2013B010202004);廣東省應(yīng)用型科技研發(fā)專項(2015B010131004)

      Foundation Items:The National Key Technology Support Program(2013BAH65F01-2013BAH65F04); The Guangdong Science and Technology Project(2013B010202004);The Guangdong Science and Technology Research Plan(2015B010131004)

      中圖分類號:TP13

      文獻(xiàn)標(biāo)志碼:A

      文章編號:1673-825X(2016)03-0560-07

      作者簡介:

      李達(dá)港(1991-),男,廣東佛山人,碩士研究生,主要研究方向為云計算、分布式系統(tǒng)、性能評估、機器學(xué)習(xí)和大數(shù)據(jù)。E-mail:eric.lee.ltk@gmail.com。

      李磊(1983-),男,云南昆明人,博士研究生,工程師,研究領(lǐng)域包括云計算、最優(yōu)控制算法、性能評估、機器學(xué)習(xí)和綠色云計算系統(tǒng)。E-mail:eelilei@scut.edu.cn。

      (編輯:田海江)

      Research of load forecasting and elastic resources scheduling of Openstack platform based on time series

      LI Dagang1, LI Lei1, JIN Lianwen1, HUANG Ganbo2, WU Quan2

      (1. School of Electronic and Information Engineering, South China University of Technology, Guangzhou 510641, P.R.China;2. 21CN, Guangzhou 510630, P.R.China)

      Abstract:With the rapid development of cloud computing, cloud computing outperforms in aspects of providing high utility ratio and on-demand resources. Compared with traditional computing resource construction technology, cloud computing, which provides better security levels, higher elastic resource allocation capability and lower hardware requirements, can satisfy the need of fast resource allocation. We focus on one of the researching hot spot of cloud computing, elastic resource effectiveness ratio, and use the time series correlation based on network access probability distributions, Poisson distribution, to analyze and simulate different related models. Finally, based on Openstack cloud computing platform, the model has been developed, which is suitable for the real environment. We also have tested the platform and got some useful results. The results show that the way we provided is a feasible way to improve the cloud computing resource utilization ratio and guarantee service-level agreement(SLA).

      Keywords:time correlation; Poisson distribution; elastic resources allocation; high effectiveness ratio; openstack

      长子县| 汤阴县| 苍山县| 台北县| 寻甸| 洛宁县| 永康市| 延川县| 长寿区| 观塘区| 洛阳市| 兴和县| 蛟河市| 平原县| 辽中县| 益阳市| 兴和县| 甘孜县| 大化| 那曲县| 广东省| 金川县| 邳州市| 民勤县| 阿拉善右旗| 南岸区| 临泉县| 赤壁市| 噶尔县| 望奎县| 临沂市| 河西区| 长治县| 汉川市| 万安县| 随州市| 三门县| 闽侯县| 柳林县| 鸡西市| 怀仁县|