段先華+操佳佳+劉佳
摘 要: 介紹了PCNN模型原理,提出了基于雙通道自適應(yīng)的PCNN多光譜與全色圖像融合算法。該算法首先將RGB空間的多光譜圖像轉(zhuǎn)換為HSV彩色空間,然后將HSV彩色空間中的非彩色通道(V通道)的灰度像素值和全色圖像的像素灰度值分別作為PCNN?1及PCNN?2的神經(jīng)元輸入,利用方向性信息作為自適應(yīng)鏈接強(qiáng)度系數(shù),對非彩色通道圖像和全色圖像進(jìn)行自適應(yīng)分解,再將點(diǎn)火時間序列送入判決因子得到新的非彩色通道圖像,最后將原多光譜圖像的H通道分量、S通道分量及新的V通道分量經(jīng)HSV空間逆變換獲得最終的融合圖像。實(shí)驗(yàn)結(jié)果表明,該算法不僅解決了鏈接強(qiáng)度系數(shù)自動設(shè)置的問題,而且充分考慮到圖像邊緣和方向特征的影響,無論在主觀視覺效果,還是客觀評價(jià)標(biāo)準(zhǔn)上均優(yōu)于IHS、PCA、小波融合等其他圖像融合算法,同時降低了計(jì)算復(fù)雜度。
關(guān)鍵詞: 遙感圖像; 圖像融合; PCNN模型; HSV彩色空間
中圖分類號: TN911.73?34 文獻(xiàn)標(biāo)識碼: A 文章編號: 1004?373X(2014)03?0055?06
Application research of modified PCNN model in multispectral
and panchromatic images fusion
DUAN Xian?hua, CAO Jia?jia, LIU Jia
(College of Computer Science and Engineering, Jiangsu University of Science and Technology, Zhenjiang 212003, China)
Abstract: The principle of PCNN model is introduced, and an image fusion algorithm of multispectral and panchromatic based on adaptive dual?channel PCNN is proposed. Firstly the multispectral image of RGB space is converted to HSV color space, and then the gray level of achromatic channel (channel V) in HSV color space and gray level of panchromatic images are entered as PCNN?1 and PCNN?2 neurons respectively, using orientation information as an adaptive link strength factor to achieve adaptive decomposition for achromatic channel and panchromatic images. The duration of ignition sequence is sent to judgment factor to get new of achromatic channel image. Finally the final fused image is obtained through HSV space inverse transformation of H channel component, S Channel component and new V?channel component of original multispectral image. Experimental results show that the algorithm not only solved the problem of automatically setting linking strength factor, but also took full account of the effect of image edge and directional characteristics. No matter the subjective visual effect, or objective evaluation standards they are all better than other image fusion algorithms such as IHS, PCA, wavelet transform image fusion, the computational complexity is reduced in the meantime.
Keywords: remote sensing image; image fusion; PCNN model; HSV color space
0 引 言
多光譜圖像具有較高的光譜分辨率和較低的空間分辨率,全色圖像的空間分辨率較高,但具有較低的光譜分辨率。在遙感應(yīng)用領(lǐng)域,有時會要求圖像的空間分辨率和光譜分辨率都比較高,但由于技術(shù)條件的限制,很難提供這樣的數(shù)據(jù)。因此,為了獲得較高的空間分辨率同時保留多光譜圖像的光譜特性,將多光譜圖像和全色圖像進(jìn)行融合成為了圖像融合領(lǐng)域的研究熱點(diǎn)。自 20 世紀(jì)研究者們開始對遙感圖像融合技術(shù)關(guān)注以來,針對多光譜與全色圖像融合提出了大量算法,大致可分為兩大類[1]:基于彩色空間分量替換的融合方法和基于多分辨率分析的融合方法?;诓噬臻g分量替換的融合一般是在圖像的像素灰度空間上進(jìn)行融合,如 IHS[2]、Brovey[3]及 PCA變換法[4]等均屬于此類算法。而基于多分辨率分析的融合是先對待融合的多源圖像進(jìn)行圖像變換,對變換后的系數(shù)進(jìn)行重新組合,依據(jù)分解方式不同可分為基于金字塔變換的融合算法、基于小波變換的融合算法以及基于多尺度幾何變換的融合算法[5]?;诓噬臻g分量替換和基于多分辨率分析的融合算法是通過特征點(diǎn)的融合增強(qiáng)來獲取關(guān)于目標(biāo)或區(qū)域更完整的信息,多用于像素級的圖像融合。與像素級融合相比,決策級融合更完善,實(shí)時性最好[6]。決策級圖像融合是指對來自不同傳感器的多幅圖像信息進(jìn)行邏輯或統(tǒng)計(jì)推理的過程。首先對獲取的多傳感器圖像進(jìn)行處理,然后得出各自的決策,最后再根據(jù)一定的融合規(guī)則作出最優(yōu)的結(jié)論。目前,基于神經(jīng)網(wǎng)絡(luò)的決策級融合算法是研究的熱點(diǎn)。脈沖耦合神經(jīng)網(wǎng)絡(luò)(Pulse Coupled Neural Network,PCNN)作為單層模型的神經(jīng)網(wǎng)絡(luò),不需要訓(xùn)練過程即可實(shí)現(xiàn)模式識別、圖像分割及目標(biāo)分類等,因此非常適合實(shí)時的圖像融合處理[7]。Wei Li等人提出了一種基于小波包分解與PCNN相結(jié)合的圖像融合方法[8],它將PCNN網(wǎng)絡(luò)的脈沖輸出量作為圖像融合的準(zhǔn)則,但實(shí)驗(yàn)結(jié)果表明該方法融合圖像后易出現(xiàn)邊緣移位的現(xiàn)象。武治國等人設(shè)計(jì)實(shí)現(xiàn)了一種基于自適應(yīng)PCNN和小波變換的融合技術(shù)[9],該方法充分利用PCNN同步激發(fā)特性,使用小波系數(shù)圖的局部熵作為神經(jīng)元的自適應(yīng)鏈接強(qiáng)度,取得了較好的融合結(jié)果。本文在綜合分析了 PCNN 原理的基礎(chǔ)上,結(jié)合一種直觀的顏色模型(HSV顏色模型),提出一種基于雙通道自適應(yīng)的 PCNN 圖像融合算法。
1 PCNN模型及其改進(jìn)
1.1 PCNN模型及其基本原理
PCNN是一種不同于傳統(tǒng)人工神經(jīng)網(wǎng)絡(luò)的新型神經(jīng)網(wǎng)絡(luò),它是由若干個神經(jīng)元互相連接而成的反饋型網(wǎng)絡(luò),構(gòu)成PCNN神經(jīng)元是一個綜合的動態(tài)非線性系統(tǒng),它包括接受域、調(diào)制耦合器和脈沖產(chǎn)生器三部分,如圖1所示。同時PCNN模型具有神經(jīng)元捕獲特性,即某神經(jīng)元點(diǎn)火后,會引起亮度與該神經(jīng)元相近的鄰近神經(jīng)元捕獲點(diǎn)火,這是一種自動實(shí)現(xiàn)信息耦合和信息傳遞的過程。
在PCNN模型中,接受域包括反饋輸入和連接輸入域,分別接受來自其他神經(jīng)元的輸出[Yij]與外部激勵信號[Sij,]然后再經(jīng)漏電容積分及加權(quán)求和后形成反饋輸入信號[Fij]和連接輸入信號[Lij;]對于調(diào)制部分,將來自反饋域和連接域的信號按照非線性原理相乘調(diào)制,得到內(nèi)部活動信號[Uij,]而突觸間的連接強(qiáng)度系數(shù)[β]的取值決定了[Uij]的活躍程度;脈沖產(chǎn)生器將[Uij]與動態(tài)閾值[θij]相比較,若[Uij>θij,]脈沖發(fā)生器打開(稱該神經(jīng)元點(diǎn)火),輸出為1,通過反饋,[θij]在閾值發(fā)生器中迅速提高,當(dāng)其值大于[Uij]時,脈沖發(fā)生器就關(guān)閉了,輸出為0,從而形成了脈沖信號。上述模型每個神經(jīng)元[Nij]的離散數(shù)學(xué)方程表達(dá)式如下:
[Fij(n)=e-αFF(n-1)+VFklMijklYkl(n-1)+Sij] (1)
[Lij(n)=e-αLLij(n-1)+VLklWijklYkl(n-1)] (2)
[Uij(n)=Fij(n)(1+βLij(n))] (3)
[θij(n)=e-αθθ(n-1)+VθYij(n-1)] (4)
[Yij(n)=1,Uij(n)θij(n)0,Uij(n)<θij(n)] (5)
其中:[(i,j)]為神經(jīng)元的標(biāo)號;[k,l]表示與周圍神經(jīng)元連接的范圍;[Fij(n)]是神經(jīng)元在第[n]次迭代時的反饋輸入;[Sij]為外部輸入激勵,通常是點(diǎn)[(i,j)]的像素灰度值;[Lij(n)]是神經(jīng)元的線性連接輸入;[β]為突觸間的連接強(qiáng)度系數(shù);[Uij(n)]是神經(jīng)元的內(nèi)部活動項(xiàng);[θij(n)]為變閾值函數(shù)輸出;[Yij(n)]則是第[n]次迭代時[(i,j)]神經(jīng)元的二值輸出;[Mijkl]和[Wijkl]是神經(jīng)元的突觸連接權(quán)系數(shù)矩陣;[αF,][αL,][αθ]為時間衰減常數(shù),[VF,][VL,][Vθ]為放大系數(shù);[n]表示迭代次數(shù)。
圖1 PCNN的神經(jīng)元模型
1.2 PCNN模型的改進(jìn)
PCNN是一種多參數(shù)的神經(jīng)網(wǎng)絡(luò),其應(yīng)用效果的好壞在很大程度上取決于參數(shù)的設(shè)置,因此就存在最優(yōu)參數(shù)尋找的問題。近年來,對于連接系數(shù)、閾值放大系數(shù)及迭代次數(shù)等參數(shù)設(shè)置仍需通過反復(fù)實(shí)驗(yàn)來逐步設(shè)定,明顯制約著PCNN應(yīng)用的深度和廣度。目前,已有學(xué)者對PCNN參數(shù)自動設(shè)定問題進(jìn)行了深入研究[10?13],主要集中在以下兩類:一類是在固定其他參數(shù)的情況下,只討論某單個參數(shù)的自動設(shè)定方法;另一類是簡化PCNN模型,在減少參數(shù)個數(shù)的情況下,討論其自動設(shè)定方法,這類是現(xiàn)階段研究的熱點(diǎn)。為了彌補(bǔ)PCNN在圖像處理中存在參數(shù)自適應(yīng)差的缺點(diǎn),對傳統(tǒng)模型進(jìn)行簡化和改進(jìn)。假設(shè)神經(jīng)元的反饋輸入[Fij]只接受外部刺激輸入信號[Sij,]則圖1的神經(jīng)元模型采用文獻(xiàn)[14]提出的簡化模型,如圖2所示。
因此,簡化的PCNN模型中式(1)用下式表示:
[Fij(n)=Sij] (6)
為減少計(jì)算量,提高計(jì)算效率,將PCNN每個神經(jīng)元輸出的閾值[θij(n)] 作為神經(jīng)元的輸出,則式(5)表示為:
[Yij(n)=θij(n),Uij(n)θij(n)0,Uij(n)<θij(n)] (7)
圖2 PCNN神經(jīng)元的簡化模型
1.3 自適應(yīng)鏈接強(qiáng)度[β]的確定
鏈接強(qiáng)度[β]的大小直接關(guān)系到輸入源圖像在最終融合圖像中所占的權(quán)重,因此[β]的選取對PCNN模型的應(yīng)用效果會產(chǎn)生較大的影響。PCNN中鏈接強(qiáng)度[β]應(yīng)與圖像該像素處的特征信息有一定的關(guān)系,這種關(guān)系會隨著圖像特征變化的不同而自適應(yīng)的調(diào)整。本文根據(jù)人眼視覺對方向特征和邊緣等信息更加敏感的特點(diǎn)以及圖像自身擁有的特征明顯和不明顯這兩類差異區(qū)域的基本特性,利用方向性信息作為自適應(yīng)鏈接強(qiáng)度。
對于給定的一幅圖像[I],第[(i,j)]個像素表示為[I(i,j),]同時定義局部圖像的方向信息[15](Orientation Information)測量如下:
[O(I(i,j))=dθmax-dθmin] (8)
[dθmax=max0°θ180°(dθ)] (9)
[dθmin=min0°θ180°(dθ)] (10)
[dθ=fAL-fAR] (11)
[fAL=(i,j)∈ALI(i,j)] (12)
[fAR=(i,j)∈ARI(i,j)] (13)
式中:[AL]和[AR]分別代表給定的局域圖像的左右區(qū)域;[lθ]是通過像素[(i,j)]的線,具體說明如圖3所示。通過方向信息測量可以檢測出所有的像素并且計(jì)算出空域的方向角度,為了減少計(jì)算量和復(fù)雜性,在[5×5]滑動窗口中進(jìn)行方向信息的測量。如果一個圖像塊是平滑的,沒有尖銳的邊緣和豐富的紋理,那么方向信息值就很小。所以,利用方向性信息作為自適應(yīng)鏈接強(qiáng)度[β]的數(shù)值是合理的。
假設(shè)源圖像分別為[I1,][I2;][β1ij,][β2ij]分別是[I1,][I2]對應(yīng)通道的鏈接強(qiáng)度系數(shù),則:
[β1ij=11+e-ηO(I(i,j))β2ij=11+eηO(I(i,j))] (14)
其中:[O(I(i,j))=O(I1(i,j))-O(I2(i,j))],[η>0]是一個常數(shù)調(diào)節(jié)因子,用來調(diào)節(jié)鏈接強(qiáng)度[βij]的數(shù)值。若[O(I1)>O(I2),]則圖像鄰域內(nèi)[I1]比[I2]的方向信息明顯,對應(yīng)神經(jīng)元的鏈接強(qiáng)度[βij]就較大,則在最終融合圖像中所占的加權(quán)權(quán)重就越大。因此,根據(jù)圖像鄰域窗內(nèi)像素的方向信息變化情況來自適應(yīng)地調(diào)整PCNN的鏈接強(qiáng)度,從而更符合人眼視覺對邊緣和方向特征等信息更加敏感特點(diǎn),更加有利于提高圖像融合效果。
圖3 方向信息測量
2 HSV彩色空間傳遞
HSV(Hue、Saturation、Value)模型在1978年由Alvy Ray Smith創(chuàng)立,是對RGB色彩空間中點(diǎn)的關(guān)系的表示,它嘗試描述比RGB更準(zhǔn)確的感知顏色聯(lián)系,并仍保持在計(jì)算上簡單。HSV 顏色模型是面向用戶的,對用戶來說是一種直觀的顏色模型,符合人眼對顏色的感覺。
2.1 RGB空間到HSV空間轉(zhuǎn)換
由于HSV是設(shè)備依賴的RGB的簡單變換,(H,S,V)三元組定義的顏色依賴于所使用的特定紅色、綠色和藍(lán)色。每個獨(dú)特的RGB設(shè)備都伴隨著一個獨(dú)特的HSV空間。RGB空間與HSV 空間的轉(zhuǎn)換關(guān)系如式(15)~式(17)所示。式中,(r,g,b)分別是一個顏色的紅、綠和藍(lán)分量,max等價(jià)于r,g和b中的最大者,min等于這些值中的最小者。
[h=0°if max=min60°×g-bmax-min+0°if max=r and gb60°×g-bmax-min+360°if max=r and g [s=0if max=0max-minmaxotherwise] (16) [v=max] (17) 2.2 HSV空間到RGB空間轉(zhuǎn)換 通過式(18)~式(23)把圖像從HSV空間轉(zhuǎn)換到RGB空間。 [hi=h60 mod 6] (18) [f=h60-hi] (19) [p=v×(1-s)] (20) [q=v×(1-f×s)] (21) [t=v×(1-(f×s)×s)] (22) [(r,g,b)=(v,t,p)if hi=0(q,v,p)if hi=1(p,v,t)if hi=2(p,q,v)if hi=3(t,p,v)if hi=4(v,p,q)if hi=5] (23) 3 融合算法實(shí)現(xiàn)過程 圖4為基于雙通道自適應(yīng) PCNN 的多光譜與全色圖像融合算法的實(shí)現(xiàn)框圖,下面將對此框圖做詳細(xì)描述。 圖4 雙通道自適應(yīng)PCNN圖像融合示意圖 3.1 彩色空間轉(zhuǎn)換 根據(jù) 2.1節(jié)內(nèi)容,利用HSV變換對配準(zhǔn)后的多光譜圖像進(jìn)行RGB?HSV彩色空間轉(zhuǎn)換,將其分解為H(色調(diào))、S(飽和度)、V(亮度)3個通道。 3.2 雙通道 PCNN 參數(shù)設(shè)置 選取彩色空間轉(zhuǎn)換后V通道的灰度像素值和全色圖像的像素灰度值分別作為PCNN?1及PCNN?2的神經(jīng)元輸入,每個神經(jīng)元與其3×3鄰域中的其他神經(jīng)元相連,并按式(14)計(jì)算連接系數(shù)[β。]然后將其與反饋輸入和連接輸入加權(quán)到內(nèi)部活動項(xiàng),并積累到超出一個動態(tài)門限,從而產(chǎn)生一個輸出脈沖。每個神經(jīng)元的輸出只有兩種狀態(tài):點(diǎn)火或者不點(diǎn)火。PCNN模型的主要參數(shù)設(shè)置如下:平衡因子[σ=-0.1,]閾值衰減時間值[αE=0.5,]閾值放大系數(shù)[VE=220,][η]= 0.01,輸入的像素值為歸一化后的灰度值。 3.3 自適應(yīng)融合處理 根據(jù)上述參數(shù)設(shè)置,將V通道圖像和全色圖像的像素值輸入雙通道PCNN,在PCNN分解結(jié)束后得到輸出點(diǎn)火時間圖[Y1ij、][Y2ij。]然后,將雙通道PCNN分解輸出的點(diǎn)火時間圖[Y1ij]和[Y2ij]輸入到判決因子中,根據(jù)神經(jīng)元點(diǎn)火時間情況判斷目標(biāo)是在V通道圖像中[IA]還是在全色圖像中[IB,]即: [F(i,j)=(r,g,b)=IA(i,j),Y1ij(i,j)>Y2ij(i,j)IB(i,j),Y1ij(i,j) 3.4 彩色空間逆變換 在進(jìn)行彩色空間逆變換時,原多光譜圖像的彩色通道H和S保持不變,而非彩色通道V被判決因子輸出的灰度融合圖像[F(i,j)]所替代。 4 實(shí)驗(yàn)結(jié)果分析 為了測試本文融合算法的有效性,用兩組IKONOS 衛(wèi)星圖像進(jìn)行仿真實(shí)驗(yàn),采用IKNOS 1 m全色和4 m的多光譜數(shù)據(jù),采用最近鄰法進(jìn)行重采樣,避免插值引起的光譜退化,像元分辨率為1 m,完成全色和多光譜數(shù)據(jù)空間上的配準(zhǔn)。并與目前常用的IHS、PCA、小波融合(小波基是長度為13的Daubechies小波基,小波變換級數(shù)[n=3])以及鏈接強(qiáng)度取固定值(0.01,0.03)的方法進(jìn)行融合結(jié)果比較,結(jié)果如圖5,圖6所示。 在融合效果的客觀評價(jià)中,從信息熵、空間頻率、相關(guān)系數(shù)、光譜扭曲度、偏差指數(shù)5方面進(jìn)行比較。其中,信息熵和光譜扭曲度均取R、G、B三個波段的均值。表1,表2給出了上述各種融合算法所對應(yīng)的客觀評價(jià)結(jié)果。
表1 第一幅IKONOS衛(wèi)星圖像下不同方法的融合性能評價(jià)
[融合方法\&信息熵\&空間頻率\&相關(guān)系數(shù)\&光譜扭曲度\&偏差指數(shù)\&IHS\&7.425 6\&27.263 0\&0.721 8\&29.430 1\&0.287 2\&PCA\&7.410 6\&26.681 4\&0.728 4\&27.000 1\&0.255 0\&小波方法\&7.613 5\&26.079 4\&0.769 3\&27.284 8\&0.266 6\&鏈接強(qiáng)度固定\&7.621 4\&29.073 4\&0.769 0\&27.310 3\&0.266 8\&自適應(yīng)鏈接強(qiáng)度\&7.621 2\&29.069 5\&0.893 5\&17.379 0\&0.182 3\&]
表2 第二幅IKONOS衛(wèi)星圖像下不同方法的融合性能評價(jià)
[融合方法\&信息熵\&空間頻率\&相關(guān)系數(shù)\&光譜扭曲度\&偏差指數(shù)\&IHS\&7.626 4\&57.287 7\&0.627 0\&36.328 3\&0.695 44\&PCA\&6.934 7\&35.331 1\&0.623 2\&41.237 4\&0.493 41\&小波方法\&7.639 4\&56.519 9\&0.656 6\&33.483 4\&0.579 99\&鏈接強(qiáng)度
固定\&7.827 0\&64.980 5\&0.651 9\&41.036 1\&0.443 31\&自適應(yīng)鏈接
強(qiáng)度\&7.673 3\&58.556 4\&0.815 1\&25.331 0\&0.440 49\&]
從實(shí)驗(yàn)結(jié)果圖5,圖6及表1,表2可以看出,本文提出的融合方法除了在光譜能力保持方面略遜于小波融合方法,其他各項(xiàng)客觀評價(jià)上都明顯優(yōu)于其他算法。綜合視覺分析的主觀評價(jià)得出以下結(jié)論:
(1) 從信息熵來看,IHS 算法、PCA算法和小波融合算法(圖5(c)~(f)、圖6(c)~(f))在融合圖像信息的提取上沒有改進(jìn)的PCNN模型算法對圖像信息的提取效果好,因?yàn)楦倪M(jìn)的PCNN模型算法是通過相似狀態(tài)神經(jīng)元同步激發(fā)特征來實(shí)現(xiàn)的,因此相比之下信息提取效果更優(yōu)。
(2) 從空間頻率來看,IHS 算法和 PCA 算法和小波融合算法由于沒有進(jìn)行任何方向性的提取,其邊緣信息的保存量最低,空間活躍程度較小;而改進(jìn)的自適應(yīng) PCNN 融合算法在處理圖像時,其輸出具有尺度和位移不變性,空間活躍程度較大,融合效果更優(yōu)。
(3) 從相關(guān)系數(shù)、光譜扭曲度、偏差指數(shù)來看,IHS 算法,PCA算法利用全色圖像直接替換第一主分量,與第一主分量圖像的相似程度小,往往不能得到很好的結(jié)果,小波圖像融合是通過特征點(diǎn)的融合來獲取目標(biāo)或區(qū)域更完整的信息,光譜能力保持得較好,而改進(jìn)的 PCNN模型算法由于將全色圖像與第一主分量進(jìn)行了融合,相似程度提高了,融合圖像的光譜能力保持最好。
(4) 采用自適應(yīng)鏈接強(qiáng)度的算法,除了信息熵和空間頻率略低于取固定值(0.01,0.03)鏈接強(qiáng)度的算法,其他指標(biāo)包括相關(guān)系數(shù)、光譜扭曲度和偏差系數(shù)要明顯好于取固定值的鏈接強(qiáng)度。而且固定值是經(jīng)過反復(fù)試驗(yàn)對比后確定的,通用性比較差。所以,根據(jù)圖像本身來自適應(yīng)地取鏈接強(qiáng)度更具有通用性。
5 結(jié) 論
本文在綜合分析了PCNN原理的基礎(chǔ)上,結(jié)合一種直觀的顏色模型(HSV顏色模型),提出一種基于雙通道自適應(yīng)的PCNN多光譜與全色圖像融合算法。該算法首先將RGB空間的多光譜圖像轉(zhuǎn)換為HSV彩色空間,然后通過簡化傳統(tǒng)的PCNN模型及利用方向性信息作為自適應(yīng)鏈接強(qiáng)度系數(shù)對全色圖像和HSV彩色空間中的非彩色通道(V通道)圖像進(jìn)行自適應(yīng)分解,再將點(diǎn)火時間序列送入判決因子得到新的非彩色通道圖像,最后將原多光譜圖像的H通道分量、S通道分量及新的V通道分量經(jīng)HSV空間逆變換獲得最終的融合圖像。實(shí)驗(yàn)結(jié)果表明,該算法不僅解決了傳統(tǒng)PCNN模型用于圖像處理時參數(shù)過多且無法自動設(shè)置的問題,而且充分考慮到像素間的相關(guān)性及噪聲突變影響,無論在主觀視覺效果,還是客觀評價(jià)標(biāo)準(zhǔn)上均優(yōu)于IHS、PCA等其他圖像融合算法,同時降低了計(jì)算復(fù)雜度。
參考文獻(xiàn)
[1] 周前祥,敬忠良,姜世忠.不同光譜與空間分辨率遙感圖像融合方法的理論研究[J].遙感技術(shù)應(yīng)用,2003,18(1):41?46.
[2] CHIBANI Y, HOUACINE A. The joint use of IHS transform and redundant wavelet decomposition for fusing multispectral and panchromatic images [J]. International Journal of Remote Sensing, 2002, 23(18): 3821?3833.
[3] ZHANG Y. A new merging method and its spectral and spatial effects [J]. International Journal of Remote Sensing, 1999, 20(10): 2003?2014.
[4] JIA Y H. Fusion of Landsat TM and SAR images based on principal component analysis [J]. Remote Sensing Technology and Application, 1998, 13(1): 46?49.
[5] 焦李成,譚山.圖像的多尺度幾何分析:回顧和展望[J].電子學(xué)報(bào),2003,31(12A):1975?1981.
[7] 史飛.脈沖耦合神經(jīng)網(wǎng)絡(luò)在圖像處理中的應(yīng)用研究[D].蘭州:蘭州大學(xué),2003.
[8] 武治國,王延杰,李桂菊.應(yīng)用小波變換的自適應(yīng)脈沖耦合神經(jīng)網(wǎng)絡(luò)在圖像融合中的應(yīng)用[J].光學(xué)精密工程,2010,18(3):708?715.
[9] 李玲玲,丁明躍,周成平,等.一種基于提升小波變換的快速圖像融合方法[J].小型微型計(jì)算機(jī)系統(tǒng),2005,26(4):667?670.
[10] 苗啟廣,王寶樹.基于局部對比度的自適應(yīng) PCNN 圖像融合[J].計(jì)算機(jī)學(xué)報(bào),2008,31(5):875?880.
[11] WANG Zhao?bin, MA Yi?de. Dual?channel PCNN and its application in the field of image fusion [C]// Proceedings of 3rd International Conference on Natural Computation. Haikou, China: ICNC, 2007, 1: 755?759.
[12] 李敏,蔡騁,談?wù)?基于修正PCNN的多傳感器圖像融合方法[J].中國圖象圖形學(xué)報(bào),2008,13(2):284?290.
[13] 苗啟廣,王寶樹.一種自適應(yīng)PCNN多聚焦圖像融合新算法[J].電子信息學(xué)報(bào),2006,28(3):466?470.
[14] CHAI Y, LI H F, GUO M Y. Multifocus image fusion scheme based on features of multiscale products and PCNN in lifting stationary wavelet domain [J]. Optics Communications, 2011, 284(5): 1146?1158.
[15] WANG Xin?nian, LIANG De?qun. Orientation information measure based image restoration [C]// Proceedings of 2003 International Conference on Machine Learning and Cybernetics. Xian, China: ICMLC, 2003, 5: 2925?2930.
[7] 史飛.脈沖耦合神經(jīng)網(wǎng)絡(luò)在圖像處理中的應(yīng)用研究[D].蘭州:蘭州大學(xué),2003.
[8] 武治國,王延杰,李桂菊.應(yīng)用小波變換的自適應(yīng)脈沖耦合神經(jīng)網(wǎng)絡(luò)在圖像融合中的應(yīng)用[J].光學(xué)精密工程,2010,18(3):708?715.
[9] 李玲玲,丁明躍,周成平,等.一種基于提升小波變換的快速圖像融合方法[J].小型微型計(jì)算機(jī)系統(tǒng),2005,26(4):667?670.
[10] 苗啟廣,王寶樹.基于局部對比度的自適應(yīng) PCNN 圖像融合[J].計(jì)算機(jī)學(xué)報(bào),2008,31(5):875?880.
[11] WANG Zhao?bin, MA Yi?de. Dual?channel PCNN and its application in the field of image fusion [C]// Proceedings of 3rd International Conference on Natural Computation. Haikou, China: ICNC, 2007, 1: 755?759.
[12] 李敏,蔡騁,談?wù)?基于修正PCNN的多傳感器圖像融合方法[J].中國圖象圖形學(xué)報(bào),2008,13(2):284?290.
[13] 苗啟廣,王寶樹.一種自適應(yīng)PCNN多聚焦圖像融合新算法[J].電子信息學(xué)報(bào),2006,28(3):466?470.
[14] CHAI Y, LI H F, GUO M Y. Multifocus image fusion scheme based on features of multiscale products and PCNN in lifting stationary wavelet domain [J]. Optics Communications, 2011, 284(5): 1146?1158.
[15] WANG Xin?nian, LIANG De?qun. Orientation information measure based image restoration [C]// Proceedings of 2003 International Conference on Machine Learning and Cybernetics. Xian, China: ICMLC, 2003, 5: 2925?2930.
[7] 史飛.脈沖耦合神經(jīng)網(wǎng)絡(luò)在圖像處理中的應(yīng)用研究[D].蘭州:蘭州大學(xué),2003.
[8] 武治國,王延杰,李桂菊.應(yīng)用小波變換的自適應(yīng)脈沖耦合神經(jīng)網(wǎng)絡(luò)在圖像融合中的應(yīng)用[J].光學(xué)精密工程,2010,18(3):708?715.
[9] 李玲玲,丁明躍,周成平,等.一種基于提升小波變換的快速圖像融合方法[J].小型微型計(jì)算機(jī)系統(tǒng),2005,26(4):667?670.
[10] 苗啟廣,王寶樹.基于局部對比度的自適應(yīng) PCNN 圖像融合[J].計(jì)算機(jī)學(xué)報(bào),2008,31(5):875?880.
[11] WANG Zhao?bin, MA Yi?de. Dual?channel PCNN and its application in the field of image fusion [C]// Proceedings of 3rd International Conference on Natural Computation. Haikou, China: ICNC, 2007, 1: 755?759.
[12] 李敏,蔡騁,談?wù)?基于修正PCNN的多傳感器圖像融合方法[J].中國圖象圖形學(xué)報(bào),2008,13(2):284?290.
[13] 苗啟廣,王寶樹.一種自適應(yīng)PCNN多聚焦圖像融合新算法[J].電子信息學(xué)報(bào),2006,28(3):466?470.
[14] CHAI Y, LI H F, GUO M Y. Multifocus image fusion scheme based on features of multiscale products and PCNN in lifting stationary wavelet domain [J]. Optics Communications, 2011, 284(5): 1146?1158.
[15] WANG Xin?nian, LIANG De?qun. Orientation information measure based image restoration [C]// Proceedings of 2003 International Conference on Machine Learning and Cybernetics. Xian, China: ICMLC, 2003, 5: 2925?2930.