王 敏,唐明珠
1.湖南機電職業(yè)技術(shù)學院 信息工程學院,長沙 410151
2.湖南大學 計算機與通信學院,長沙 410082
3.長沙理工大學 能源與動力工程學院,長沙 410114
融合對立學習的混合灰狼優(yōu)化算法*
王 敏1,2+,唐明珠3
1.湖南機電職業(yè)技術(shù)學院 信息工程學院,長沙 410151
2.湖南大學 計算機與通信學院,長沙 410082
3.長沙理工大學 能源與動力工程學院,長沙 410114
灰狼優(yōu)化算法;Rosenbrock搜索;對立學習
群體智能優(yōu)化算法源于對自然界中生物群體的一些行為機制的模擬,通過生物群體中個體之間的相互合作所表現(xiàn)出的智能行為進行迭代搜索。與傳統(tǒng)優(yōu)化方法相比,群體智能優(yōu)化算法通常具有原理簡單,需調(diào)整的參數(shù)少,支持分布式并行計算,編程容易實現(xiàn),無需問題的梯度信息,較強的全局搜索能力等特點,因此被廣泛應用于函數(shù)優(yōu)化、參數(shù)估計、組合優(yōu)化、神經(jīng)網(wǎng)絡(luò)訓練、自動控制、圖像處理、路徑規(guī)劃等多個領(lǐng)域。典型的群智能優(yōu)化算法有粒子群優(yōu)化(particle swarm optimization,PSO)算法[1]、蟻群優(yōu)化(ant colony optimization,ACO)算法[2]、人工蜂群(artificial bee colony,ABC)算法[3]等。
2014年,Mirjalili等人[4]借鑒灰狼群體捕食行為的特性,提出一種新型群體智能優(yōu)化算法,即灰狼優(yōu)化(grey wolf optimization,GWO)算法。GWO算法主要通過狼群追蹤、包圍、追捕、攻擊獵物等過程來達到優(yōu)化搜索的目的。GWO算法具有原理簡單,需要調(diào)整的參數(shù)少,并行性,編程容易實現(xiàn),有較強的全局搜索能力等特點。在函數(shù)優(yōu)化方面,GWO算法比PSO算法、引力搜索算法(gravitational search algorithm,GSA)和差分進化(differential evolution,DE)算法具有更快的收斂速度和較好的收斂精度[4]。因此,GWO算法被廣泛應用于電力系統(tǒng)[5]、傳感器訓練[6]、直流電機最優(yōu)控制[7]、經(jīng)濟調(diào)度[8]、特征子集選擇[9]等領(lǐng)域中。
然而,與其他群體智能優(yōu)化算法類似,GWO算法同樣也存在后期收斂速度慢,求解精度不高,易出現(xiàn)早熟收斂現(xiàn)象等缺陷。因此,研究人員從不同角度對GWO算法進行改進以提高其尋優(yōu)性能。文獻[10]將動態(tài)進化種群(evolutionary population dynamics,EPD)算子嵌入到GWO算法中,用于加快算法收斂速度和增強其局部搜索能力。文獻[11]提出一種改進GWO算法用于訓練高斯徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)。文獻[12]結(jié)合差分進化的搜索能力,提出一種混合GWO算法用于函數(shù)優(yōu)化和三維堆疊芯片的測試調(diào)度。文獻[13]提出一種改進GWO算法用于求解約束優(yōu)化問題,在改進算法中,引入佳點集初始化種群個體,對當前最優(yōu)個體執(zhí)行Powell局部搜索。
針對標準GWO算法的缺點,本文利用對立學習策略取代隨機初始化生產(chǎn)初始種群;為了增強局部搜索能力和加快收斂速度,對當前群體中最優(yōu)個體進行Rosenbrock局部搜索;對當前最優(yōu)個體執(zhí)行精英對立學習策略以避免算法出現(xiàn)早熟收斂現(xiàn)象,提出一種混合GWO算法。
2.1 灰狼群體捕食行為
灰狼是頂級食肉動物,其生活方式大多以群居為主,構(gòu)建了灰狼種群等級金字塔,并具有嚴格的等級管理制度,如圖1所示。
Fig.1 Hierarchy of grey wolf population圖1 灰狼種群等級金字塔示意圖
金字塔第一層為種群中的頭狼稱為α,主要負責群體各項決策事務;金字塔第二層稱為β,協(xié)助α做出管理決策;金字塔第三層為δ,δ聽從α及β的指令;金字塔最底層稱為ω,主要負責平衡種群內(nèi)部關(guān)系。
灰狼的種群等級在實現(xiàn)群體高效捕殺獵物的過程中發(fā)揮著至關(guān)重要的作用。捕食過程由α帶領(lǐng)完成,首先狼群以團隊模式搜索、跟蹤、靠近獵物,然后從各個方位包圍獵物,當包圍圈足夠小且完善時,狼群在α的指揮下由獵物最近的β、δ展開進攻,在獵物逃跑時,其余個體進行補給,實現(xiàn)群狼包圍圈的跟隨變換移動,從而對獵物不斷實施各個方向的攻擊,最終捕獲獵物。
2.2GWO算法描述
在GWO算法中,由α、β、δ執(zhí)行追捕行為,ω跟隨前3者進行獵物跟蹤圍剿,最終完成捕食任務。利用GWO算法求解連續(xù)函數(shù)優(yōu)化問題時,假設(shè)灰狼種群中的灰狼數(shù)目為N,搜索空間為d維,其中第i只灰狼在d維空間中的位置可表示為xi=(xi1,xi2,…,xid),種群中當前最優(yōu)個體記為α,將適應度值排名第二及第三的對應個體記為β和δ,剩余個體記為ω,獵物的位置對應于優(yōu)化問題的全局最優(yōu)解。
在捕食過程中,灰狼群體首先根據(jù)式(1)對獵物進行包圍:
其中,Xp(t)表示第t代時獵物的位置;X(t)表示第t代時灰狼個體的位置;常數(shù)C為擺動因子,由式(2)決定:
式中,r1為[0,1]之間的隨機數(shù)。
利用式(3)進行灰狼位置更新:
其中,A為收斂因子,由式(4)決定:
式中,r2為[0,1]之間的隨機數(shù);a隨著迭代次數(shù)增加從2線性遞減到0。
狼群中個體跟蹤獵物方位的數(shù)學描述如下:由式(5)~(10)計算出群內(nèi)其他灰狼個體與α、β、δ的距離,然后由式(11)即可綜合判斷出個體向獵物移動的方向。
3.1 基于對立學習的種群初始化
與其他群體智能優(yōu)化算法一樣,基本GWO算法在迭代前同樣采用隨機初始化種群個體。由于事先對全局最優(yōu)解沒有任何先驗知識,初始種群應均勻地覆蓋在搜索空間中。對基于種群迭代的智能優(yōu)化算法來說,最優(yōu)保存策略是將上一代種群中的優(yōu)良個體保存到下一代種群;若初始種群中的優(yōu)良個體較少,則會直接影響算法的收斂。另外,初始種群的優(yōu)劣還會影響算法的收斂速度。因此,本文采用對立學習策略[14]來產(chǎn)生初始種群,即同時產(chǎn)生當前個體及相應的對立個體,然后比較選擇適應度值較好的個體作為初始種群個體,從而提高算法的搜索效率。
對立學習策略是由學者Tizhoosh[14]于2005年提出的,目前已在遺傳算法(genetic algorithm,GA)、PSO算法、差分進化算法、ACO算法、生物地理學優(yōu)化(biogeography-based optimization,BBO)算法等群體智能優(yōu)化算法中得到了成功的應用。
定義1(對立點)假設(shè)在[l,u]上存在數(shù)x,則x的對立點定義為x′=l+u-x。將對立點的定義擴展到n維空間,設(shè) p=(x1,x2,…,xn)為n維空間中的一個點,其中xi∈[li,ui],i=1,2,…,n,則其對立點為 p′= (x1′,x2′,…,xn′),其中xi′=li+ui-xi。
根據(jù)上述定義,基于對立學習策略的種群初始化步驟如下:
(1)在搜索空間中隨機初始化N個灰狼個體位置 xij(i=1, 2,…,n,j=1, 2,…,N)作為初始種群 RP,N為種群規(guī)模。
(2)根據(jù)定義1,初始種群RP中的每個灰狼個體x的對立個體x′構(gòu)成對立種群OP。
(3)合并種群RP和OP,將其2N個灰狼個體按照適應度值進行升序排序,選取適應度值前N個灰狼個體作為初始種群。
3.2 Rosenbrock搜索方法
Rosenbrock搜索[15]是一種用于無約束優(yōu)化的直接方法,它不需問題的梯度信息,具有強大的局部搜索能力。其搜索過程包括兩個階段,即探測和構(gòu)造新的搜索方向。
第一階段 探測階段。
步驟1給定初始點x(1)∈Rn,取坐標方向作為單位正交方向d(1),d(2),…,d(n),步長,縮減因子 β∈(-1,0),擴大因子α>1,允許誤差ε>0。令y(1)=x(1),k=1,j=1,δi=δ(0)i(i=1,2,…,n)。
步驟2 若 f(y(j)+δjd(j))<f(y(j)),則 y(j+1)=y(j),δj: = αδj,否則,y(j+1)=y(j),δj: =βδj。
步驟3若 j<n,則 j:=j+1,轉(zhuǎn)步驟2;否則,轉(zhuǎn)步驟4。
步驟4 若 f(y(n+1))<f(y(1)),則 y(1)=y(n+1),j=1,轉(zhuǎn)步驟2;若 f(y(n+1))=f(y(1)),則轉(zhuǎn)步驟5。
步驟5若 f(y(n+1))<f(y(k)),則轉(zhuǎn)步驟6;否則,若對于所有 j,|δj|≤ε成立,則計算停止,x(k)作為近似最優(yōu)解;否則,令y(1)=y(n+1),j=1,轉(zhuǎn)步驟2。
步驟 6 設(shè) x(k+1)=y(n+1),若 ||x(k+1)-x(k)||≤ε,則將x(k+1)作為近似極小值,計算停止;否則,轉(zhuǎn)步驟7。
第二階段 構(gòu)造新的搜索方向。
采用Gram-Schmidt方法將{p(j)}正交化,令
然后單位化,令
獲得n個新的正交搜索方向。
步驟8 令d(j)=dˉ(j),δj=δ(0)j(j=1,2,…,n),y(1)=x(k+1),k:=k+1,j=1,返回步驟2。
3.3 精英對立學習策略
利用GWO算法在求解優(yōu)化問題時,找到全局最優(yōu)解是其最終的目標。在GWO算法的進化過程中,尤其是進化后期,所有灰狼個體均向決策層區(qū)域逼近,從而導致群體多樣性損失,收斂速度明顯變慢或停止,進而陷入局部最優(yōu),這也是群體智能優(yōu)化算法的固有特點。
由文獻[14]可知,對立學習策略能較好地擴大群體的搜索范圍,開采出新的搜索區(qū)域,增強群體的多樣性,利用其與群體智能優(yōu)化算法混合,可提高算法的全局搜索能力和避免算法出現(xiàn)早熟收斂現(xiàn)象。因此,本文對決策層中個體執(zhí)行精英對立學習策略。
由定義2可知,γ為[0,1]之間服從均勻分布的隨機數(shù),當γ取不同的數(shù)值時,由當前灰狼群體中決策層3個個體可產(chǎn)生多個不同的精英對立個體,從而可有效地提高群體的多樣性,避免算法陷入局部最優(yōu)。
3.4HGWO算法步驟
步驟1初始化算法參數(shù)。種群規(guī)模N,最大迭代次數(shù),在搜索空間中隨機生成a、A、C等參數(shù)。
步驟2在搜索空間中利用2.1節(jié)所描述的對立學習策略產(chǎn)生包含N個灰狼個體的初始種群,令t=1。
步驟3計算群體中每個灰狼個體的適應度值,并將適應度值進行排序,記錄最優(yōu)適應度值及對應位置。
步驟4將適應度值排列前3位的灰狼個體位置分別記為Xα、Xβ和Xδ,作為決策層。
步驟5由式(5)~(7)計算群體中其他灰狼個體與Xα、Xβ和Xδ的距離,并根據(jù)式(8)~(11)更新每個灰狼個體的位置。
步驟6利用2.2節(jié)所描述的Rosenbrock搜索方法對當前最優(yōu)灰狼個體進行局部精確搜索。
步驟7對決策層個體Xα、Xβ和Xδ執(zhí)行2.3節(jié)所描述的精英對立學習策略以產(chǎn)生新的個體。
步驟8更新a、A、C等參數(shù)的值。
步驟9判斷灰狼群體是否滿足收斂條件,若是,則算法結(jié)束,輸出最優(yōu)解;否則,令t=t+1,返回步驟3。
4.1 測試函數(shù)
為了檢驗本文提出的HGWO算法的尋優(yōu)性能,選取6個標準測試函數(shù)進行仿真實驗,6個測試函數(shù)的表達式如下。
在上述6個測試函數(shù)中,f1、f2和 f3為單峰函數(shù),f4、f5和 f6為多峰函數(shù),函數(shù)的維數(shù)均設(shè)置為30,6個函數(shù)的全局最優(yōu)值均為0。
4.2與標準GWO和GWO-DE算法的比較
利用HGWO算法對6個標準測試函數(shù)進行求解,并與標準GWO算法以及混合GWO與差分進化(記為GWO-DE)算法[12]進行比較。3種算法參數(shù)如下:種群規(guī)模N均設(shè)置為50,最大迭代次數(shù)均設(shè)置為1 000,收斂精度設(shè)置為1E-06。所有仿真實驗均在Intel Core Quad,CPU:Q8300,2 GB內(nèi)存,2.50 GHz主頻的計算機上實現(xiàn),程序采用Matlab7.0語言實現(xiàn)。
6個測試函數(shù)在上述參數(shù)設(shè)置的條件下,采用GWO和HGWO算法分別獨立運行30次,記錄其最優(yōu)值、平均值、最差值和標準差,并與GWO-DE算法的結(jié)果進行比較,結(jié)果如表1所示。為了增加其可信度,GWO-DE算法的結(jié)果直接來源于參考文獻。
Table 1 Experimental results of 3 algorithms for 6 test functions表1 3種算法對6個測試函數(shù)的結(jié)果比較
從表1可知,在滿足固定收斂精度下,除了Rosenbrock函數(shù),本文提出的HGWO算法在其他5個函數(shù)上進行30次實驗中均能一致收斂到問題的全局最優(yōu)解,尤其是Rastrigin函數(shù)和Griewank函數(shù),HGWO算法能收斂到理論最優(yōu)值。對于Rosenbrock函數(shù),3種GWO算法的尋優(yōu)結(jié)果不理想,原因在于Rosenbrock是一個典型的非凸函數(shù),在維數(shù)大于3的情況下呈現(xiàn)出多峰特性,其全局極小值位于一條平滑而狹長的拋物線形狀的山谷底部,且為優(yōu)化算法提供的信息很少,因此找到全局極小值就顯得相當困難。對于Sphere函數(shù)、Schwefel 1.2函數(shù)、Rastrigin函數(shù)、Ackley函數(shù)和Griewank函數(shù),HGWO算法尋優(yōu)成功率為100%。標準GWO算法對于Sphere函數(shù)和Ackley函數(shù),30次實驗均能一致收斂到全局最優(yōu)解,尋優(yōu)成功率為100%;對于Schwefel 1.2函數(shù)和Rastrigin函數(shù),GWO算法能收斂到問題的全局最優(yōu)解,尋優(yōu)成功率分別為75%和20%;對于Griewank函數(shù),GWO算法找到的解接近全局最優(yōu)解。由上述比較得知,與標準GWO算法相比,不論是收斂精度,還是收斂穩(wěn)定性方面,HGWO算法的尋優(yōu)性能有了明顯的提高。
與GWO-DE算法相比,對于測試函數(shù)f1、f2和f3,HGWO算法獲得了較好的尋優(yōu)結(jié)果。對于測試函數(shù)f4和f6,兩種算法得到了相似的最優(yōu)值0,而HGWO算法獲得了較好的平均值、最差值和標準差。對測試函數(shù)f5,兩種算法取得了相似的結(jié)果。
另外,在算法收斂(達到收斂精度1E-06)時間方面,標準GWO算法對6個測試函數(shù)30次實驗的平均收斂時間分別為6.02 s、60.16 s、27.84 s、26.67 s、7.99 s和23.56 s,而HGWO算法對6個測試函數(shù)30次實驗的平均收斂時間分別為0.90 s、15.13 s、27.35 s、5.28 s、1.20 s和4.66 s。從平均收斂時間來看,與標準GWO算法相比,HGWO算法的收斂速度明顯加快。圖2給出了GWO算法和HGWO算法對6個函數(shù)的尋優(yōu)收斂曲線。從圖2可以清晰地看出,對于6個函數(shù),HGWO算法均能比GWO算法具有較快的收斂速度。
4.3 與其他進化算法的比較
Fig.2 Evolution curves for 6 test functions圖2 6個測試函數(shù)的進化曲線
為了更進一步驗證HGWO算法的有效性,將其與PSO算法[4]、GSA算法[4]和DE算法[4]的結(jié)果進行比較。3種算法的參數(shù)設(shè)置如下:種群規(guī)模和最大迭代次數(shù)均與HGWO算法設(shè)置相同;在PSO算法中,最大慣性權(quán)重為0.9,最小慣性權(quán)重為0.2,c1=c2=2;在DE算法中,縮放因子F=0.5,交叉概率Pc=0.2;在GSA算法中,G0=100,α=20。為了增加其可信度,PSO、GSA和DE算法的結(jié)果直接來源于各自參考文獻,結(jié)果如表2所示。
Table 2 Experimental results of 4 different evolutionary algorithms for 6 test functions表2 4種進化算法對6個測試函數(shù)的結(jié)果比較
從表2可知,與PSO算法和GSA算法相比,HGWO算法在6個函數(shù)上均獲得了較好的尋優(yōu)結(jié)果。與DE算法相比,HGWO算法在Sphere、Schwefel 1.2、Rastrigin和Ackley函數(shù)上獲得了較好的結(jié)果,在Rosenbrock函數(shù)上獲得了較差的尋優(yōu)結(jié)果,在Griewank函數(shù)上得到了相似的結(jié)果。
4.4 對立學習種群初始化的算法性能分析
由3.1節(jié)可知,最優(yōu)保存策略是將上一代種群中的優(yōu)良個體保存到下一代種群;若初始種群中的優(yōu)良個體較少,則會直接影響算法的收斂。隨機初始化則不能保證初始種群中含有較多的優(yōu)良個體,因此本文采用對立學習策略來初始化種群個體。下面通過對6個測試函數(shù)進行實驗,分析采用對立學習策略和隨機初始化對算法性能的影響。表3是分別采用兩種初始化方法的尋優(yōu)結(jié)果比較。
從表3中結(jié)果可知,除了測試函數(shù)f6,采用對立學習策略初始化種群方法在其他5個函數(shù)上獲得的結(jié)果明顯優(yōu)于采用隨機初始化方法;對于測試函數(shù)f6,兩種初始化方法取得了相似的尋優(yōu)結(jié)果。從比較結(jié)果可以看出,與隨機初始化方法相比,采用對立學習初始化種群方法在收斂速度和收斂精度上均有較明顯的優(yōu)勢。
Table 3 Experimental results of 2 initialization methods for 6 test functions表3 兩種初始化方法對6個測試函數(shù)的結(jié)果比較
本文將灰狼優(yōu)化算法、對立學習策略與Rosenbrock搜索方法相結(jié)合,提出了一種混合灰狼優(yōu)化(HGWO)算法。對6個基準函數(shù)進行測試實驗,結(jié)果表明,相對于其他幾種群體智能優(yōu)化算法,HGWO算法具有尋優(yōu)精度高,收斂速度快,魯棒性強等特點。然而,HGWO算法對單峰Rosenbrock函數(shù)優(yōu)化時收斂速度較慢。對HGWO算法進行改進以加強其尋優(yōu)能力是進一步研究的課題。另外,將HGWO算法用于處理約束優(yōu)化問題也有待進一步研究。
[1]Akbari R,Ziarati K.A rank based particle swarm optimization algorithm with dynamic adaptation[J].Journal of Computational and Applied Mathematics,2011,235(8):2694-2714.
[2]Seckiner S U,Eroglu Y,Emrullah M,et al.Ant colony optimization for continuous functions by using novel pheromone updating[J].Applied Mathematics and Computation, 2013,219(9):4163-4175.
[3]Tang Lingyun,Mao Li,Zhou Changxi.Improved artificial bee colony algorithm for function optimization[J].Journal of Frontiers of Computer Science and Technology,2015,9(7):854-860.
[4]Mirjalili S,Mirjalili S M,Lewis A.Grey wolf optimization [J].Advances in Engineering Software,2014,69:46-61.
[5]Ei-Gaafary A A M,Mohamed Y S,Hemeida A M,et al. Grey wolf optimization for multi input multi output system [J].Universal Journal of Communications and Networks, 2015,3(1):1-6.
[6]Mirjalili S.How effective is the grey wolf optimizer in training multilayer perceptrons[J].Applied Intelligence,2015, 42(4):608-619.
[7]Madadi A,Motlagh M M.Optimal control of DC motor using grey wolf optimizer algorithm[J].Technical Journal of Engineering andApplied Science,2014,4(4):373-379.
[8]Song H M,Sulaiman M H,Mohamed M R.An application of grey wolf optimizer for solving combined economic emission dispatch problems[J].International Review on Modelling and Simulation,2014,7(5):838-844.
[9]Emary E,Zawbaa H M,Grosan C,et al.Feature subset selection approach by gray-wolf optimization[C]//Advances in Intelligent Systems and Computing 334:Proceedings of the 1st International Afro-European Conference for Industrial Advancement,Addis Ababa,Ethiopia,Nov 17-19,2014. Berlin,Heidelberg:Springer,2014:1-13.
[10]Saremi S,Mirjalili S Z,Mirjalili S M.Evolutionary population dynamics and grey wolf optimizer[J].Neural Computing &Applications,2015,26(5):983-989.
[11]Muangkote N,Sunat K,Chiewchanwattana S.An improved grey wolf optimizer for training q-Gaussian radial basis functional-link nets[C]//Proceedings of the 2014 International Conference on Computer Science and Engineering, Khon Kaen,Thailand,Jul 30-Aug 1,2014.Piscataway, USA:IEEE,2014:209-214.
[12]Zhu Aijun,Xu Chuanpei,Li Zhi,et al.Hybridizing grey wolf optimization with differential evolution for global optimization and test scheduling for 3D stacked SoC[J].Journal of Systems Engineering and Electronics,2015,26(2): 317-328.
[13]Long Wen,Zhao Dongquan,Xu Songjin.Improved grey wolf optimization algorithm for constrained optimization problem[J].Journal of Computer Applications,2015,35(9): 2590-2595.
[14]Tizhoosh H R.Opposition-based learning:a new scheme for machine intelligence[C]//Proceedings of the 2005 International Conference on Computational Intelligence for Modelling,Control and Automation and International Conference on Intelligent Agents,Web Technologies and Internet Commerce,Vienna,Austria,Nov 28-30,2005.Washington:IEEE Computer Society,2005:695-701.
[15]Jia Shujin,Du Bin.Hybrid optimized algorithms based on the Rosenbrock search method and dynamic inertia weight PSO[J].Control and Decision,2011,26(7):1060-1064.
附中文參考文獻:
[3]唐凌蕓,毛力,周長喜.求解函數(shù)優(yōu)化問題的改進人工蜂群算法[J].計算機科學與探索,2015,9(7):854-860.
[13]龍文,趙東泉,徐松金.求解約束優(yōu)化問題的改進灰狼優(yōu)化算法[J].計算機應用,2015,35(9):2590-2595.
[15]賈樹晉,杜斌.Rosenbrock搜索與動態(tài)慣性權(quán)重粒子群混合優(yōu)化算法[J].控制與決策,2011,26(7):1060-1064.
WANG Min was born in 1978.He is an associate professor at Hunan Mechanical&Electrical Polytechnic.His research interests include intelligent optimization algorithm and evolutionary computation,etc.
王敏(1978—),男,湖南長沙人,碩士,湖南機電職業(yè)技術(shù)學院副教授,主要研究領(lǐng)域為智能優(yōu)化算法,進化計算等。
TANG Mingzhu was born in 1983.He received the Ph.D.degree in control science and engineering from Central South university in 2011.Now he is a lecturer at Changsha University of Science&Engineering.His research interests include intelligent optimization algorithm and system simulation,etc.
唐明珠(1983—),男,湖南岳陽人,2011年于中南大學控制科學與工程專業(yè)獲得博士學位,現(xiàn)為長沙理工大學講師,主要研究領(lǐng)域為智能優(yōu)化算法,系統(tǒng)仿真等。
Hybrid Grey Wolf OptimizationAlgorithm with Opposition-Based Learning*
WANG Min1,2+,TANG Mingzhu3
1.Department of Information Engineering,Hunan Mechanical&Electrical Polytechnic,Changsha 410151,China
2.School of Computer and Communication,Hunan University,Changsha 410082,China
3.School of Energy and Power Engineering,Changsha University of Science&Technology,Changsha 410114,China
+Corresponding author:E-mail:wangmin_7819@163.com
The standard grey wolf optimization(GWO)algorithm has a few disadvantages of slow convergence, low solving precision and high possibility of being trapped in local optimum.To overcome these disadvantages of GWO algorithm,this paper proposes a hybrid GWO(HGWO)algorithm based on opposition-based learning strategy and Rosenbrock local search method.In the proposed hybrid algorithm,opposition-based learning strategy is introduced to generate initial population,which strengthens the diversity of population.Rosenbrock local search method is applied to the current best individual,which improves the convergence speed and local search ability of GWO algorithm.Elite opposition-based learning approach is used to avoid premature convergence of GWO algorithm. The experimental results of 6 well-known benchmark functions show that the proposed HGWO algorithm has strong convergence and high precision.
grey wolf optimization algorithm;Rosenbrock search;opposition-based learning
10.3778/j.issn.1673-9418.1509052
A
TP301.6
*The National Natural Science Foundation of China under Grant No.61403046(國家自然科學基金);the Science and Technology Projects of Hunan Province under Grant No.2014FJ3051(湖南省科技計劃項目).
Received 2015-09,Accepted 2016-10.
CNKI網(wǎng)絡(luò)優(yōu)先出版:2016-10-31,http://www.cnki.net/kcms/detail/11.5602.TP.20161031.1650.004.html
WANG Min,TANG Minzhu.Hybrid grey wolf optimization algorithm with opposition-based learning.Journal of Frontiers of Computer Science and Technology,2017,11(4):673-680.
摘 要:針對標準灰狼優(yōu)化(grey wolf optimization,GWO)算法存在后期收斂速度慢,求解精度不高,易出現(xiàn)早熟收斂現(xiàn)象等問題,提出了一種基于對立學習策略和Rosenbrock局部搜索的混合灰狼優(yōu)化(hybrid GWO,HGWO)算法。該算法首先采用對立學習策略取代隨機初始化生成初始種群,以保證群體的多樣性;然后對當前群體中最優(yōu)個體進行Rosenbrock局部搜索,以增強局部搜索能力和加快收斂速度;最后為了避免算法出現(xiàn)早熟收斂現(xiàn)象,利用精英對立學習方法產(chǎn)生精英對立個體。對6個標準測試函數(shù)進行仿真實驗,并與其他算法進行比較,結(jié)果表明,HGWO算法收斂速度快,求解精度高。