• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      粒子群優(yōu)化算法中慣性權(quán)重改進(jìn)策略綜述

      2019-12-13 05:21:28楊博雯錢偉懿
      關(guān)鍵詞:慣性全局線性

      楊博雯,錢偉懿

      (渤海大學(xué) 數(shù)理學(xué)院, 遼寧 錦州 121013)

      0 引言

      (1)

      (2)

      其中c1和c2是學(xué)習(xí)因子,r1和r2是[0,1]之間的隨機(jī)數(shù).為了改善基本PSO算法的性能,Shi 和Eberhart〔2〕引入了慣性權(quán)重策略,其速度更新公式為

      (3)

      其中ω稱為慣性權(quán)重.引入慣性權(quán)重能夠較好地平衡了PSO算法的全局搜索能力和局部搜索能力.后人把帶有慣性權(quán)重的PSO算法稱為標(biāo)準(zhǔn)PSO算法.自從引入慣性權(quán)重后,人們對PSO算法中的慣性權(quán)重進(jìn)行了廣泛深入的研究,取得許多好的成果.為了讓讀者較快了解這些成果,為PSO算法進(jìn)一步研究提供一些參考,本文從五個(gè)方面對PSO算法中的慣性權(quán)重改進(jìn)策略進(jìn)行綜述研究.

      本文常用的符號說明:rand()為[0,1]之間的隨機(jī)數(shù),ωmin和ωmax分別為慣性權(quán)重的最小值(或終值)和最大值(或初值),t為當(dāng)前迭代步,T為最大迭代步,N為群體規(guī)模,D為搜索空間的維數(shù).

      1 常值慣性權(quán)重策略

      所謂的常值慣性權(quán)重就是標(biāo)準(zhǔn)PSO算法在實(shí)施過程中慣性權(quán)重值為常數(shù).事實(shí)上,基本PSO算法就是慣性權(quán)重等于1的標(biāo)準(zhǔn)PSO算法.由于慣性權(quán)重大,全局搜索能力較強(qiáng),局部搜索能力較差,慣性權(quán)重小,全局搜索能力較差,局部搜索能力較強(qiáng),為了平衡PSO算法的全局搜索能力和局部搜索能力,Shi 和Eberhart在文〔2〕中討論了常值慣性權(quán)重的選擇區(qū)域,當(dāng)ω>1.2時(shí),PSO算法具有較弱的全局搜索能力,當(dāng)ω<0.8時(shí),PSO算法易陷于局部最優(yōu),因此他們建議ω取[0.8,1.2]之間的值.Clerc在文〔3〕中建議取ω=0.729,c1=c2=1.494.Trelea在文〔4〕中通過對PSO算法的動(dòng)態(tài)系統(tǒng)分析,建議取ω=0.6,c1=c2=1.7.張炎等在文〔5〕中通過大量實(shí)驗(yàn),提出的策略.高浩等〔6〕在PSO算法中引入高斯變異算子,提出一種改進(jìn)的PSO算法,在該文中建議取ω=0.7,c1=c2=1.4.雖然上述從不同的角度分析給出慣性權(quán)重取值方法,但常值慣性權(quán)重不適合各類問題,因此在實(shí)際應(yīng)用中根據(jù)不同的問題選取適當(dāng)?shù)臋?quán)重.

      2 隨機(jī)慣性權(quán)重策略

      所謂隨機(jī)慣性權(quán)重就是ω取隨機(jī)值,它能夠很好使PSO算法在動(dòng)態(tài)環(huán)境下跟蹤最佳狀態(tài).Eberhart和Shi〔7〕首先引入隨機(jī)慣性權(quán)重策略,其表達(dá)式為

      (4)

      由(4)知,ω是[0.5,1]之間的隨機(jī)數(shù),均值為0.75.

      黃軒等〔8〕通過取ω從0.1到1間隔0.1的值的實(shí)驗(yàn)發(fā)現(xiàn):對于單峰函數(shù),ω取值在[0.3, 0.5]內(nèi)較好,對于多峰函數(shù)ω取值在[0.5, 0.7]內(nèi)較好,基于實(shí)驗(yàn)分析,他們提出一個(gè)隨機(jī)慣性權(quán)重策略

      ω=0.4+0.2·rand()

      即ω取[0.4, 0.6]內(nèi)的隨機(jī)數(shù).

      趙志剛等〔9〕對簡化PSO算法提出一種新的隨機(jī)慣性權(quán)重策略,其公式如下:

      ω=ωmin+(ωmax-ωmin)·rand()+σ·randn()

      (5)

      其中randn()為服從正態(tài)分布的隨機(jī)數(shù),σ為用來衡量權(quán)重與其均值之間的偏離程度,(5)中第3項(xiàng)控制權(quán)重向期望權(quán)重方向進(jìn)化.

      Lei等〔10〕基于模擬退火策略隨機(jī)調(diào)整慣性權(quán)重,其方法如下:設(shè)k是一正整數(shù),當(dāng)前迭代步t是k的倍數(shù)時(shí),首先計(jì)算模擬退火溫度

      慣性權(quán)重定義為

      其中α1,α2是[0,1]之間的隨機(jī)數(shù),且α1>α2.當(dāng)t不是k的倍數(shù)時(shí),慣性權(quán)重采用線性遞減策略,見式(8).

      張麗平等〔11〕基于最佳適應(yīng)值的變化率給出了一種隨機(jī)調(diào)整慣性權(quán)重策略,即

      Adewumi等〔12〕提出基于成功率的自適應(yīng)隨機(jī)慣性權(quán)重策略,對于極小優(yōu)化問題,首先定義了當(dāng)前迭代步群體成功率

      (6)

      其中

      (7)

      ω(t)=0.5×rand()+0.5×ssrt-1

      胡建秀等〔13〕將慣性權(quán)重與學(xué)習(xí)因子聯(lián)系在一起,給出了慣性權(quán)重的隨機(jī)策略,即

      ω(t)=1-c1r1-c2r2

      其中r1和r2是[0,1]之間的隨機(jī)數(shù),c1和c2是學(xué)習(xí)因子.

      3 時(shí)變慣性權(quán)重策略

      所謂時(shí)變慣性權(quán)重就是基于算法的迭代步來確定慣性權(quán)重.目前關(guān)于時(shí)變慣性權(quán)重主要有兩方面:一是慣性權(quán)重線性遞減(或遞增)策略,另一種是慣性權(quán)重非線性遞減(或遞增)策略.

      3.1 線性策略

      為了平衡PSO算法的全局搜索能力和局部搜索能力,一般情況下,在算法的初期慣性權(quán)重較大,增強(qiáng)算法全局搜索能力,而在算法的后期慣性權(quán)重較小,提高算法的局部搜索能力,基于此思想,Shi和Eberhart在文〔2〕中提出了慣性權(quán)重線性遞減策略,慣性權(quán)重更新公式為

      (8)

      一般情況下,取ωmin=0.4,ωmax=0.9〔14,15,16〕,但有些情況下,ωmin,ωmax取0.4和0.9以外的值〔17,18〕.

      通過具體分析,Zhang等〔19〕提出了慣性權(quán)重遞增策略,即

      在該文中,取ωmin=0.4,ωmax=0.9,雖然數(shù)值實(shí)驗(yàn)驗(yàn)證了在某些問題上優(yōu)于線性遞減策略,但是進(jìn)一步研究工作較少.

      若取ωmin=0.4,ωmax=0.9,則線性遞減策略使慣性權(quán)重從0.9線性減小到0.4,而線性遞增策略使慣性權(quán)重從0.4線性增加到0.9.崔宏梅等〔20〕在前面兩個(gè)工作基礎(chǔ)上,提出了慣性權(quán)重先增后減策略,慣性權(quán)重從0.4線性增加到0.9,然后在線性遞減到0.4,即

      3.2 非線性策略

      慣性權(quán)重線性遞減策略比較簡單,且易實(shí)現(xiàn),但慣性權(quán)重沿著線性方向遞減是否最好呢?一些學(xué)者根據(jù)慣性權(quán)重遞減思想,提出慣性權(quán)重非線性遞減策略.Chatterjee和 Siarry〔21〕提出了一類拋物線形式遞減的慣性權(quán)重調(diào)整策略,即

      (9)

      其中n是非線性調(diào)整常數(shù),不同的n導(dǎo)致不同的慣性權(quán)重非線性遞減策略,顯然n=1就是線性遞減策略.同時(shí),陳貴敏等〔22〕提出兩種拋物線形式的慣性權(quán)重遞減策略,一種是凹型拋物線(開口向下)形式,即

      (10)

      另一種是凸型拋物線(開口向上)形式,即

      (11)

      (10)式慣性權(quán)重初期遞減較慢,后期遞減較快,(11)式慣性權(quán)重初期遞減較快,后期遞減較慢.事實(shí)上,(11)式慣性權(quán)重公式就是(9)式n=2的情況,同樣的結(jié)果在文〔23〕也給出過.Huang等〔24〕把文〔21〕的結(jié)果進(jìn)行推廣,給出一種更廣泛的慣性權(quán)重調(diào)整策略

      (12)

      顯然若參數(shù)m取1,就是(9)式形式.在該文中,作者對m=2,n=1,m=1,n=2,m=2,n=5三種策略進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明取m=2,n=5效果較好.Liu等〔25〕根據(jù)不同的適應(yīng)值,提出兩種動(dòng)態(tài)非線性方法調(diào)節(jié)慣性權(quán)重策略,一種慣性權(quán)重調(diào)整表達(dá)式如下:

      (13)

      另一種表達(dá)形式

      (14)

      其中dn是動(dòng)態(tài)非線性因子,dnmax和dnmin是dn的最大值和最小值.該文中,兩種策略使用方法為當(dāng)適應(yīng)值小于平均適應(yīng)值時(shí),采用(13)式或(14)式.

      與上述探討角度不同,一些學(xué)者提出按指數(shù)方式調(diào)整慣性權(quán)重策略.Jiang等〔26〕提出慣性權(quán)重按指數(shù)方式調(diào)整策略,即

      (15)

      其中ρ為控制參數(shù).Lei等〔27〕在此基礎(chǔ)上,提出另一種按指數(shù)方式調(diào)整慣性權(quán)重策略

      (16)

      其中b為參數(shù),顯然,當(dāng)b=1,ρ=30時(shí),兩種策略是一樣的.Ting等〔28〕基于文〔29〕的差分進(jìn)化算法的自適應(yīng)交叉率的調(diào)整方案,給出的慣性權(quán)重調(diào)整策略

      (17)

      其中a,b為非負(fù)參數(shù).事實(shí)上,該結(jié)果是對文〔26,27〕的結(jié)果進(jìn)行了推廣,即,當(dāng)b=1時(shí)就是(15)式,當(dāng)a=30時(shí)就是(16)式.(17)式中a越大,局部搜索能力越大,b越大,全局搜索能力越大.Chen等〔14〕基于慣性權(quán)重線性遞減的框架,提出兩種慣性權(quán)重按指數(shù)方式遞減策略,具體表達(dá)式見(18)和(19).

      (18)

      (19)

      慣性權(quán)重采用(18)式的PSO算法稱為e1-PSO, 采用(19)式的PSO算法稱為e2-PSO,在取ωmin=0.4,ωmax=0.9條件下,數(shù)值結(jié)果驗(yàn)證了e2-PSO優(yōu)于e1-PSO,而他們都優(yōu)于線性遞減策略.張迅等〔30〕推廣了(19)式的結(jié)果,他們給出的慣性權(quán)重調(diào)整策略為

      其中k為參數(shù),顯然,當(dāng)k=0.25時(shí),與(19)式策略相同.通過分析,當(dāng)k>0.3時(shí),慣性權(quán)重變化平穩(wěn),當(dāng)k<0.3時(shí),在算法的初期慣性權(quán)重較大,且遞減速度較快,而在算法后期,慣性權(quán)重相對平穩(wěn),因此作者建議k取值在[0.1,0.3]之間,為了減少計(jì)算權(quán)重次數(shù),提高算法的效率,作者提出如下慣性權(quán)重調(diào)整策略

      數(shù)值結(jié)果認(rèn)為k=0.2效果較好.為了克服PSO算法早熟現(xiàn)象和后期震蕩現(xiàn)象,Li等〔31〕給出另一種按指數(shù)方式遞減慣性權(quán)重策略,即

      其中d1,d2是參數(shù),大量實(shí)驗(yàn)表明,當(dāng)ωmin=0.4,ωmax=0.95,d1=0.2,d2=7時(shí),算法性能可以大大提高.Amoshahy 等〔32〕提出一種靈活(Flexible)的指數(shù)慣性權(quán)重策略,即

      其中c是調(diào)節(jié)參數(shù),c值較大,則慣性權(quán)重下降快,使算法過早陷入局部搜索,c值較小,則慣性權(quán)重下降慢,使算法在后期也不能接近ωmin,因此,作者建議取c=10.再如,文〔33〕給出的慣性權(quán)重策略

      ω(t)=ω×u-t

      其中ω是取[0,1]之間的初始慣性權(quán)重值,u是取值于[1.0001,1.005]之間的常數(shù).實(shí)驗(yàn)表明,u=1.0002,ω∈[0.3,0.4]算法能夠得到較好的結(jié)果.

      除此之外,許多學(xué)者從不同的角度提出一些其他慣性權(quán)重非線性調(diào)整策略.Malik等〔34〕提出Sigmoid遞減和遞增的慣性權(quán)重策略,即

      (20)

      (21)

      其中u=10(log(T)-2),n是設(shè)置sigmoid函數(shù)分區(qū)的常量,(20)式稱Sigmoid遞減的慣性權(quán)重,(21)稱Sigmoid遞增的慣性權(quán)重.數(shù)值實(shí)驗(yàn)顯示Sigmoid遞增的慣性權(quán)重大大提高了快速收斂能力.田東平等〔35〕提出了另一種基于Sigmoid函數(shù)的非線性遞減慣性權(quán)重策略,即

      不難計(jì)算該策略的初始權(quán)重為0.95,最終權(quán)重為0.4,實(shí)驗(yàn)結(jié)果表明了該策略優(yōu)于慣性權(quán)重線性遞減方法和文〔22〕的三種方法.黃洋等〔36〕也提出了基于Sigmoid函數(shù)的非線性遞減慣性權(quán)重另一種策略

      以上三種基于Sigmoid函數(shù)調(diào)整慣性權(quán)重策略,都是利用Sigmoid函數(shù)特征,使得在算法的初期和后期慣性權(quán)重遞減緩慢,這樣在算法初期能夠保證慣性權(quán)重長時(shí)間取得較大值,增強(qiáng)全局搜索能力,在算法后期也能保證慣性權(quán)重長時(shí)取得較小值,增加局部搜索能力.

      Gao等〔37〕提出了對數(shù)遞減的慣性權(quán)重策略

      該策略能夠改善收斂速度.Lei等〔38〕使用Sugeno函數(shù)作為慣性權(quán)重下降曲線,給出慣性權(quán)重非線性遞減策略

      其中s是大于-1的常數(shù).該策略能夠自動(dòng)調(diào)整全局搜索能力和局部搜索能力.

      Kentzoglanakis等〔39〕提出三個(gè)慣性權(quán)重振蕩調(diào)整策略,策略一:振幅為常數(shù)按余弦波方式振蕩調(diào)整慣性權(quán)重,當(dāng)t≤T1時(shí),

      (22)

      (23)

      策略三:分段調(diào)整慣性權(quán)重,即

      (24)

      Kordestani等〔40〕把線性遞減慣性權(quán)重與線性遞增慣性權(quán)重思想相結(jié)合提出按對稱三角波方式調(diào)整慣性權(quán)重策略,稱為振蕩三角慣性權(quán)重,其表達(dá)式如下:

      ω(t)=ωmax-|round(αx)-αx|

      其中參數(shù)α∈[0.0,0.5],不同的α生成不同三角波形式來調(diào)整振蕩三角慣性權(quán)重,而round(x)是實(shí)數(shù)x的四舍五入函數(shù).由于慣性權(quán)重振蕩變化,所以這兩種策略有效平衡了全局搜索能力和局部搜索能力.

      姜建國等〔41〕基于余弦函數(shù)提出了非線性遞減的慣性權(quán)重調(diào)整策略

      該策略在一定程度上改進(jìn)了算法的搜索效率,且克服算法早熟現(xiàn)象.黃洋等〔42〕在文〔9〕和〔41〕基礎(chǔ),提出一種動(dòng)態(tài)調(diào)整慣性權(quán)重策略,即

      其中σ為調(diào)整因子,betarnd()為服從Beta 分布的隨機(jī)數(shù).該策略中前兩項(xiàng)為慣性權(quán)重按余弦方式遞減,第三項(xiàng)控制慣性權(quán)重偏離程度,在一定程度上,克服了在算法后期群體多樣性較差現(xiàn)象.姜長元等〔43〕提出了慣性權(quán)重按正弦方式調(diào)整策略,即

      顯然,該策略慣性權(quán)重從0.4按正弦曲線形式遞增到0.9,然后再按正弦曲線形式遞減到0.4.南杰瓊等〔44〕基于正弦函數(shù)把慣性權(quán)重非線性遞減策略與隨機(jī)策略相結(jié)合提出了改進(jìn)的慣性權(quán)重調(diào)整策略

      該策略第一項(xiàng)慣性權(quán)重按凸曲線形式從ωmax遞減到0,而第二項(xiàng)是隨機(jī)擾動(dòng)項(xiàng),在算法前期擾動(dòng)范圍較小,后期擾動(dòng)較大,從而有效平衡了全局搜索能力和局部搜索能力.李建平等〔45〕提出一種基于逆不完全Γ函數(shù)慣性權(quán)重非線性遞減策略,即

      (25)

      其中λ是非負(fù)參數(shù),該文取λ=0.1,gammaincinv(λ,a)是逆不完全Γ函數(shù).(25)式從略大于ωmax遞減到接近于ωmin,且前期接近線性遞減,后期接近指數(shù)遞減,所以該策略能夠較好實(shí)現(xiàn)全局搜索能力和局部搜索能力的平衡.Li等〔46〕基于正切函數(shù)提出一種非線性遞減慣性權(quán)重調(diào)整策略

      其中k是一個(gè)控制參數(shù),它的不同導(dǎo)致慣性權(quán)重遞減方式不同,該文通過數(shù)值實(shí)驗(yàn)認(rèn)為k=0.6或k=1.7能夠得到較好數(shù)值結(jié)果,該文中取k=0.6.

      4 混沌慣性權(quán)重策略

      由于混沌映射具有遍歷性和隨機(jī)性等優(yōu)點(diǎn),所以被廣泛地應(yīng)用于優(yōu)化領(lǐng)域.混沌慣性權(quán)重的基本思想就是利用混沌映射的優(yōu)點(diǎn)來設(shè)定慣性權(quán)重.Feng等〔15〕利用Logistic映射

      z=μ×z×(1-z)

      (26)

      分別提出混沌遞減慣性權(quán)重策略

      和混沌隨機(jī)慣性權(quán)重策略

      ω(t)=0.5×rand()+0.5×z

      其中μ=4.如果z的初始值取在(0,1)之間,且不等于0,0.25,0.5及1,那么(26)式能夠生成(0,1)之間的數(shù).該策略就是為了避免算法陷入局部最優(yōu),把Logistic映射與線性遞減策略(8)和隨機(jī)策略(4)相結(jié)合,從而改善了線性遞減策略和隨機(jī)策略的性能.數(shù)值結(jié)果表明該策略具有較好的收斂精度、較快的收斂速度和較好的全局搜索能力.

      Arasomwan等〔47〕在文〔15〕的基礎(chǔ)上,把群體成功率(6)與混沌映射相結(jié)合,提出了兩個(gè)新的自適應(yīng)慣性調(diào)整策略,即

      (27)

      ω(t)=0.5×ssrt+0.5×z

      (28)

      其中z=4×ssrt×(1-ssrt).顯然該策略就是在文〔15〕的基礎(chǔ)上,把(26)式右端中的z用群體成功率代替,另外,在(28)式中群體成功率代替了隨機(jī)數(shù).

      Cheng等〔48〕基于正弦函數(shù)提出了一個(gè)新的混沌映射,即

      (29)

      其中z(t)為第t個(gè)混沌數(shù),d是最大迭代數(shù)的分區(qū)數(shù),取d=2或d=4.根據(jù)新的混沌映射提出了慣性權(quán)重調(diào)整策略,即

      (30)

      數(shù)值實(shí)驗(yàn)證明在某些問題上,該策略的尋優(yōu)能力優(yōu)于其他算法.Cheng等〔49〕基于Logistic映射給出了慣性權(quán)重更新策略

      ω(t)=4×ω(t-1)×(1-ω(t-1))

      文〔25〕中提出兩個(gè)策略(13)或(14)只是適應(yīng)值小于平均適應(yīng)值所采用的慣性權(quán)重調(diào)整策略,而對于適應(yīng)值大于平均適應(yīng)值,則采用下面的混沌慣性權(quán)重調(diào)整策略

      ω(t)=α+(1-α)×z

      其中α是動(dòng)態(tài)混沌慣性權(quán)重調(diào)整因子,αmax和αmin分別是α的最大值和最小值,z由(26)式給出.此外,其他混沌映射也能生成相應(yīng)的慣性權(quán)重更新公式,具體見文〔50〕.

      5 自適應(yīng)慣性權(quán)重策略

      時(shí)變慣性權(quán)重策略是慣性權(quán)重的變化只與迭代步有關(guān),而沒有考慮到算法的性能與慣性權(quán)重之間的關(guān)系,因此,慣性權(quán)重調(diào)整沒有充分利用算法所提供的有用信息.基于這個(gè)思想,許多學(xué)者提出一些自適應(yīng)慣性權(quán)重.所謂自適應(yīng)慣性權(quán)重就是基于一個(gè)或多個(gè)反饋參數(shù)來調(diào)整慣性權(quán)重.Shi和Eberhart〔51〕提出模糊自適應(yīng)PSO算法,在此算法中,建立一個(gè)9個(gè)規(guī)則的模糊系統(tǒng)來動(dòng)態(tài)調(diào)整慣性權(quán)重,每一個(gè)規(guī)則有2個(gè)輸入變量和一個(gè)輸出變量,當(dāng)前群體規(guī)范化的最優(yōu)性能指標(biāo)(Normalized current best performance evaluation, NCBPE)和當(dāng)前的慣性權(quán)重作為輸入變量,而慣性權(quán)重的改變量作為輸出變量,NCBPE被計(jì)算如下:

      其中CBPE為最優(yōu)性能指標(biāo),CBPEmin為最小估計(jì)值,CBPEmax為非最優(yōu)值.所有的三個(gè)模糊變量都有三個(gè)模糊集:低、中和高.以一個(gè)例子為例:如果NCBPE是中的,權(quán)重是低的,那么權(quán)重的改變量是高的.

      Yang等〔52〕基于進(jìn)化速度和聚集度兩個(gè)參數(shù)提出一種自適應(yīng)慣性權(quán)重策略,進(jìn)化速度定義如下:

      其中ωini是權(quán)重的初始值,本文取ωini=1,α和β是[0,1]之間的常數(shù).該文對不同的α和β進(jìn)行數(shù)值實(shí)驗(yàn),結(jié)果表明該方法在計(jì)算復(fù)雜性,成功率和求解精度方面有一定的優(yōu)勢.

      Arumugam 和Rao〔53〕利用群體歷史最好適應(yīng)值與每個(gè)粒子歷史最好適應(yīng)值的平均值的比,定義了自適應(yīng)慣性權(quán)重

      其中g(shù)best是群體歷史最好位置,besti是第i個(gè)粒子歷史最好位置,f是適應(yīng)值函數(shù),

      Panigrahi等〔54〕基于粒子的適應(yīng)值最優(yōu)排序給出了自適應(yīng)慣性調(diào)整策略

      其中Ranki是第i個(gè)粒子按最好適應(yīng)值排序的位置,Total_population是群體規(guī)模,該策略是每個(gè)粒子擁有各自的慣性權(quán)重,顯然較好的粒子有較小的慣性權(quán)重,具有局部搜索能力,較差的粒子有較大的慣性權(quán)重,具有全局搜索能力.

      Shen等〔55〕基于群體多樣性和群體的聚集度提出了自適應(yīng)慣性權(quán)重調(diào)整策略

      ωi(t)=ωmin+(ωmax-ωmin)×Ft×φt

      其中Ft為多樣性函數(shù),φt為調(diào)整函數(shù),其表達(dá)式如下

      φt=exp(-t2/2σ2)

      Zheng等〔56〕首先定義第i個(gè)粒子在第j維上的個(gè)體搜索能力為

      (31)

      其中xij是第i個(gè)粒子位置在第j維上的分量,pij是第i個(gè)粒子歷史最好位置的第j維分量,pgj是全局最好位置的第j維分量,ε是一個(gè)很小的正常數(shù).從(31)式可以看出,如果xij離pij較遠(yuǎn),而pij離pgj較近,則ISA較大,此時(shí)說明全局搜索能力較強(qiáng),應(yīng)該減小慣性權(quán)重,增強(qiáng)局部搜索能力;如果xij離pij較近,而pij離pgj較遠(yuǎn),則ISA較小,此時(shí)說明局部搜索能力較強(qiáng),應(yīng)該增大慣性權(quán)重,提高全局搜索能力.基于此思想,作者提出了自適應(yīng)調(diào)整慣性權(quán)重策略

      其中α∈(0,1]為控制慣性權(quán)重變化速度參數(shù).實(shí)驗(yàn)表明α∈[0.1,0.4]時(shí)算法性能較好,該文取α=0.3.

      Alfi〔57〕把自適應(yīng)變異機(jī)制和動(dòng)態(tài)調(diào)整慣性權(quán)重策略與傳統(tǒng)PSO算法結(jié)合,提出自適應(yīng)粒子群優(yōu)化算法,慣性權(quán)重調(diào)整策略為

      Zhan等〔58〕首先給出粒子i與其他粒子的平均距離

      基于此距離定義了進(jìn)化因子

      其中dg為全局最好粒子與其他粒子的平均距離,dmin,dmax分別為所有di中最小值和最大值.基于進(jìn)化因子和sigmoid函數(shù)提出了自適應(yīng)調(diào)整慣性權(quán)重策略,即

      該慣性權(quán)重策略主要依賴于進(jìn)化因子,在算法早期,進(jìn)化因子較大,慣性權(quán)重較大,有利于全局搜索,而在算法后期處于收斂狀態(tài),此時(shí)進(jìn)化因子較小,慣性權(quán)重較小,有利于局部搜索.

      Nickabdi等〔59〕首先定義了(6)式給出的群體成功率ssrt,如果ssrt值較大,粒子收斂到遠(yuǎn)離最優(yōu)解的點(diǎn),使得整個(gè)群體較慢向最優(yōu)解移動(dòng),從而應(yīng)增大慣性權(quán)重,相反,如果ssrt值較小,表明粒子在最優(yōu)解附近振蕩,從而應(yīng)減小慣性權(quán)重.基于此思想,他們提出了如下慣性權(quán)重調(diào)整策略

      ω(t)=g(ssrt)

      其中g(shù)是遞增函數(shù).在該文中作者采用了線性函數(shù),即

      ω(t)=(ωmax-ωmin)ssrt+ωmin

      顯然ssrt∈[0,1],ω(t)∈[ωmin,ωmax]

      Adewumi等〔12〕也基于群體成功率提出自適應(yīng)慣性權(quán)重策略,即

      該策略使得最終慣性權(quán)重具有一定靈活性,最終慣性權(quán)重在ωmin附近獲得可能更高或更低的值,即成功率較大,則最終慣性權(quán)重更高,成功率較小,則最終慣性權(quán)重更低,從而增加全局或局部搜索能力.

      Kessentini等〔60〕基于最優(yōu)粒子的反饋信息提出了一種自適應(yīng)慣性權(quán)重策略.首先定義一個(gè)K維的變量d=(d(1),d(2),…,d(K)),其中K為常數(shù).d的每個(gè)分量定義為

      該策略當(dāng)粒子的最優(yōu)位置比較接近時(shí),慣性權(quán)重將會(huì)增加,從而提高探索能力,每K步,慣性權(quán)重都有較小值,從而提高開發(fā)能力.

      杜江等〔61〕提出一種新的自適應(yīng)調(diào)整慣性權(quán)重策略

      其中α為慣性權(quán)重調(diào)整參數(shù),它由粒子在搜索空間的分布來決定,該文采用分布熵

      來刻畫搜索空間的分布,其中Q為搜索空間被平均劃分的區(qū)域個(gè)數(shù),Nk為t時(shí)刻第k個(gè)區(qū)域中粒子的個(gè)數(shù),(k=1,2,…,Q).顯然,E(t)越小表明粒子越集中,此時(shí)α應(yīng)有較大的值,增加算法的搜索能力,反之,E(t)越大表明粒子越分散,此時(shí)α應(yīng)有較小的值,增加算法的開發(fā)能力.基于此思想,作者提出調(diào)整參數(shù)α的策略,即

      其中E1和E2分別為粒子分布熵的上、下門的閾值,且E1

      周燕等〔62〕首先定義粒子適應(yīng)值的相對變化率

      其中fi(t)表示粒子i在t時(shí)刻的適應(yīng)值.當(dāng)粒子相對變化率k較大時(shí),表明粒子遠(yuǎn)離最優(yōu)解,此時(shí)應(yīng)增大慣性權(quán)重,使粒子向最優(yōu)解靠近,相反,當(dāng)粒子相對變化率k較小時(shí),表明粒子更新較差,此時(shí)應(yīng)減少慣性權(quán)重,基于此思想,作者基于粒子相對變化率和Sigmoid函數(shù)提出了一個(gè)新慣性權(quán)重調(diào)整策略

      顧明亮等〔63〕基于粒子適應(yīng)值方差提出一個(gè)自適應(yīng)調(diào)整慣性權(quán)重策略.粒子適應(yīng)值方差定義為

      其中fi為粒子i的適應(yīng)值,fave為群體的平均適應(yīng)值,f為歸一化因子,它被定義如下

      若粒子適應(yīng)值方差小,則群體多樣性差,此時(shí)應(yīng)增大慣性權(quán)重值,因此慣性權(quán)重調(diào)整策略為

      其中ε為適應(yīng)值方差的臨界值.

      敖永才等〔64〕將粒子群體按粒子適應(yīng)值變化情況分成兩個(gè)子群體,即

      對于極小問題,屬于集合P1的粒子適應(yīng)值得到改進(jìn),而屬于集合P2的粒子適應(yīng)值沒有得到改進(jìn),此時(shí)慣性權(quán)重應(yīng)賦予較小的值,因此對每個(gè)粒子定義了不同的權(quán)重,具體表達(dá)式如下:

      其中ω(t)為(8)式的線性遞減慣性權(quán)重.

      李龍澍等〔65〕基于粒子對全局最優(yōu)位置的距離提出動(dòng)態(tài)調(diào)整慣性權(quán)重的策略.先引入粒子i在t時(shí)刻與全局最優(yōu)位置的距離

      慣性權(quán)重基于上式距離進(jìn)行動(dòng)態(tài)調(diào)整,其表達(dá)式如下:

      5 結(jié)論

      PSO算法是目前應(yīng)用較廣泛的一種智能優(yōu)化算法,其慣性權(quán)重參數(shù)是PSO算法最重要參數(shù),它直接影響算法的收斂速度和求解精度.本文對PSO算法的慣性權(quán)重改進(jìn)策略從5個(gè)方面進(jìn)行了較全面的綜述,為研究人員對PSO算法的慣性權(quán)重研究提供一定的參考.由于作者水平有限,有許多慣性權(quán)重的改進(jìn)策略沒有被總結(jié).未來的工作就是研究這些算法的性能,并合理利用已知的慣性權(quán)重策略,提高算法的性能.

      猜你喜歡
      慣性全局線性
      你真的了解慣性嗎
      漸近線性Klein-Gordon-Maxwell系統(tǒng)正解的存在性
      Cahn-Hilliard-Brinkman系統(tǒng)的全局吸引子
      量子Navier-Stokes方程弱解的全局存在性
      沖破『慣性』 看慣性
      線性回歸方程的求解與應(yīng)用
      二階線性微分方程的解法
      落子山東,意在全局
      金橋(2018年4期)2018-09-26 02:24:54
      無處不在的慣性
      普遍存在的慣性
      永新县| 马鞍山市| 余江县| 栾城县| 光山县| 民丰县| 芜湖市| 吉林市| 邯郸县| 双流县| 丰县| 西乡县| 陕西省| 青川县| 扶余县| 余干县| 南康市| 鄂托克旗| 长葛市| 子长县| 辉县市| 贵南县| 平陆县| 宁津县| 天峻县| 凤城市| 泉州市| 大渡口区| 清徐县| 阿拉善右旗| 西林县| 富川| 北安市| 株洲市| 常德市| 宜良县| 东阿县| 靖安县| 石首市| 莱州市| 宣城市|