摘 要:針對可見光和合成孔徑雷達(synthetic aperture radar, SAR)圖像配準(zhǔn)過程中的幾何差異、輻射差異和斑點噪聲問題,提出一種基于圖像結(jié)構(gòu)信息的可見光和SAR圖像快速配準(zhǔn)算法。首先,建立高斯尺度空間,利用偏移均值濾波和雙線性插值建立圖像自相似性方向圖;然后,在最大和最小自相似性圖上進行加速分段特征測試(features from accelerated segment test, FAST)特征點檢測,獲取角點和邊緣特征;再者,基于最小自相似性索引圖和等面積策略構(gòu)建描述子,并提出描述子多方向轉(zhuǎn)換方法和批量生成方法;最后,利用最鄰近距離比算法和快速抽樣一致性算法識別正確匹配。實驗結(jié)果表明,所提算法在可見光和SAR圖像配準(zhǔn)方面具有明顯優(yōu)勢。
關(guān)鍵詞: 可見光和合成孔徑雷達圖像配準(zhǔn); 結(jié)構(gòu)信息; 多方向轉(zhuǎn)換; 批量生成
中圖分類號: TN 957.52
文獻標(biāo)志碼: ADOI:10.12305/j.issn.1001 506X.2025.02.10
Fast registration of optical and SAR images based on image structural information
JIA Leilei1, LIU Limin1,*, DONG Jian2
(1. Department of Electronic and Optical Engineering, Army Engineering University Shijiazhuang Campus,
Shijiazhuang 050003, China; 2. School of Integrated Circuits and Electronics, Beijing Institute of Technology, Beijing 100081, China)
Abstract:To address the problem of geometric differences, radiometric differences, and speckle noise in the registration process of the images of visible light and synthetic aperture radar (SAR), a fast registration algorithm for optical and SAR images based on image structure information is proposed. Firstly, a Gaussian scale space is established and an image self similarity orientation map is constructed by using offset mean filtering and bilinear interpolation. Then, characteristic points detection for features from accelerated segment test (FAST) is performed on the maximum and minimum self similarity maps to obtain corner and edge features. Furthermore, based on the minimum self similarity index map and equal area strategy, descriptors are constructed, and multi orientation conversion method and batch generation method for descriptors are proposed. Finally, the nearest neighbor distance ratio (NNDR) algorithm and the fast sample consensus (FSC) algorithm are performed to identify correct matches. The experimental results show that the proposed algorithm has significant advantages in visible optical and SAR image registration.
Keywords:visible optical and synthetic aperture radar (SAR) image registration; structural information; multi orientation conversion; batch generation
0 引 言
隨著太空技術(shù)和傳感器技術(shù)的迅猛發(fā)展,遙感影像的獲取愈發(fā)快速和便利,已成為人們對地觀測、分析地表特征的主要手段。與使用單傳感器數(shù)據(jù)相比,多源傳感器可以觀測地球表面的不同特征,將其聯(lián)合起來進行分析,有助于獲得更全面的地面場景描述[1]。在各種類型的遙感圖像中,可見光和合成孔徑雷達(synthetic aperture radar, SAR)圖像的互補作用明顯。可見光成像系統(tǒng)發(fā)展最早,技術(shù)相對成熟,且可見光圖像符合人眼視覺特性,具有良好的可解釋性,但可見光圖像容易受天氣的影響,當(dāng)存在云、雨、霧、霾等不良天氣情況時,可見光圖像無法獲得準(zhǔn)確的地面物體(以下簡稱“地物”)目標(biāo)信息。SAR是一種主動式對地觀測微波成像系統(tǒng),能夠全天時、多天候成像,并且能夠穿透地表,對人造目標(biāo)、尤其是金屬目標(biāo)比較敏感,可以有效彌補可見光圖像易受天氣影響的缺點,但其可解釋性很差,且具有嚴重的斑點噪聲。將可見光和SAR圖像配合起來使用,有助于發(fā)揮各自的優(yōu)勢,在圖像融合[2]、變化檢測[3]、三維重建[4]、導(dǎo)航[5]等應(yīng)用中都具有十分重要的意義。
圖像配準(zhǔn)是指將在不同視角下或在不同時間由相同或不同傳感器捕獲的同一場景的兩個或多個圖像進行幾何坐標(biāo)對齊的過程。圖像配準(zhǔn)是多源圖像聯(lián)合應(yīng)用中的必要步驟[6]。由于可見光傳感器和SAR傳感器的成像機制截然不同,兩者的配準(zhǔn)需要解決以下3個問題:一是幾何差異??梢姽鈭D像是中心投影成像,SAR圖像是側(cè)視成像,地物目標(biāo)信息在不同成像模式下存在較大的幾何差異,且地形起伏會導(dǎo)致可見光和SAR圖像之間產(chǎn)生幾何畸變。當(dāng)場景中存在山峰、山谷等高低起伏的地物時,此現(xiàn)象尤為突出。二是輻射差異。可見光傳感器被動地收集由地物反射的太陽光,而SAR圖像主動地發(fā)射波長較長的微波,并收集地物的反向散射能量,受地表的粗糙度、坡度、復(fù)介電常數(shù)等影響較大。這些傳感器從電磁頻譜的不同頻段接收能量,故采集的圖像具有不同的輻射特性。三是相干斑噪聲。SAR系統(tǒng)為相干成像系統(tǒng),不可避免地會產(chǎn)生相干斑噪聲,相干斑噪聲會使圖像真實灰度信息發(fā)生變化,導(dǎo)致灰度統(tǒng)計出現(xiàn)誤差。
為了解決上述問題,眾多學(xué)者已經(jīng)對可見光和SAR圖像的配準(zhǔn)問題進行了大量研究。目前的研究方法可大致分為3類[7]:基于深度學(xué)習(xí)的配準(zhǔn)方法、基于區(qū)域的配準(zhǔn)方法和基于特征的配準(zhǔn)方法。基于深度學(xué)習(xí)的配準(zhǔn)方法是目前的研究熱點。Hughes等[8]使用硬負挖掘策略來加強深度網(wǎng)絡(luò)的配準(zhǔn)性能。文獻[9]提出一種基于自注意交互式融合網(wǎng)絡(luò)的模板匹配算法來匹配多源衛(wèi)星圖像。Siamese卷積神經(jīng)網(wǎng)絡(luò)[10]顯示了其在多模態(tài)圖像配準(zhǔn)中的潛力。Li等[11]引入跨模態(tài)對抗學(xué)習(xí)策略來尋找可見光和SAR圖像的最佳對應(yīng)。
文獻[12]提出用于SAR 光學(xué)圖像配準(zhǔn)的描述符(descriptor for SAR optical, SODescNet)來構(gòu)建局部描述符。Ye等[13]提出一種有效多分支全局關(guān)注模塊和一種聯(lián)合多裁剪圖像匹配損失函數(shù)模塊來提高匹配精度。然而,作為數(shù)據(jù)驅(qū)動的配準(zhǔn)方法,其嚴重依賴于各種不同類型的訓(xùn)練數(shù)據(jù)集,并且需要更快的計算速度和更多的內(nèi)存資源[14]。此外,基于深度學(xué)習(xí)的配準(zhǔn)方法對大的幾何變換比較敏感[15-16]。
基于區(qū)域的配準(zhǔn)方法又稱模板匹配法,包括基于互信息[17]的方法、基于相關(guān)[18]的方法和頻域相關(guān)技術(shù)[19]3種?;诨バ畔⒌呐錅?zhǔn)方法可以成功地配準(zhǔn)單模態(tài)遙感圖像[20],但對相干斑噪聲和輻射差異敏感,在多模態(tài)圖像配準(zhǔn)中應(yīng)用較少。圖像灰度和梯度信息對非線性輻射差異敏感,為了增強配準(zhǔn)魯棒性,已有學(xué)者研究圖像的結(jié)構(gòu)特征[21],利用局部自相似性(local self similarity, LSS)來獲取圖像的結(jié)構(gòu)特征[22]。Ye等[23]提出密集LSS (dense LSS, DLSS)特征描述子,定義新的相似性度量方法,取得比歸一化互相關(guān)(normalized cross correlation, NCC)和互信息更好的配準(zhǔn)效果。Xiong等[24]通過設(shè)計基于秩的LSS(rank based LSS, RLSS)特征來改進DLSS描述符。除此之外,還有研究人員利用相位一致性(phase congruency, PC)來獲取圖像的結(jié)構(gòu)特征。Ye等[25]將PC模型和梯度方向直方圖(histogram of oriented gradient, HOG)相結(jié)合,構(gòu)建定向PC方向直方圖(histogram of orientated PC, HOPC),提高多模態(tài)圖像的配準(zhǔn)精度。后又基于定向梯度通道特征(channel features of oriented gradients, CFOG)生成穩(wěn)健的特征描述符[26],以配準(zhǔn)多模態(tài)遙感圖像,并提供與模板匹配的通用框架。Xiang等[27]將可見光和SAR圖像的兩種一致特征表示結(jié)合到三維相位相關(guān)方案中,以實現(xiàn)可見光和SAR圖像配準(zhǔn)。Fan等[28]將LSS和PC相結(jié)合,提出PC結(jié)構(gòu)描述符,取得較好的配準(zhǔn)效果。Xiang等[29]設(shè)計一種可用于可見光和SAR圖像配準(zhǔn)的改進PC模型??傊?,結(jié)構(gòu)特征的應(yīng)用提高了模板匹配法的配準(zhǔn)精度。然而,這些方法通常具有很高的計算復(fù)雜度,并且對旋轉(zhuǎn)和尺度變化敏感[30]。
與基于區(qū)域的配準(zhǔn)算法相比,基于特征的配準(zhǔn)方法更適合處理存在幾何差異和輻射差異的多模態(tài)圖像之間的配準(zhǔn)?;谔卣鞯姆椒ㄊ紫忍崛D像中的顯著特征,包括點、線、區(qū)域等[31],并為其構(gòu)建特征描述符,然后根據(jù)特征描述符的相似性來建立可靠的匹配點對,最后利用最小二乘法計算變換模型。在眾多基于特征的算法中,尺度不變特征變換(scale invariation feature transformation, SIFT)是最具代表性的算法,其具有尺度和旋轉(zhuǎn)不變性[32]。由于不具有輻射不變性,SIFT并不適用于可見光和SAR圖像的配準(zhǔn)。眾多學(xué)者對此進行了改進。Fan等[33]從圖像的第2層開始提取特征點,以避免SAR斑點噪聲的影響,改進了SIFT的配準(zhǔn)效果。Xu等[34]將迭代思想引入SIFT算法,提出基于迭代水平集和SIFT (iterative level set and SIFT, ILS SIFT)算法,實現(xiàn)可見光和SAR圖像的配準(zhǔn)。Ma等[35]受SIFT算法的啟發(fā),提出結(jié)合關(guān)鍵點位置、尺度和方向的SIFT(position scale orientation SIFT, PSO SIFT)算法,該算法通過定義新的梯度來解決輻射差異。Zhang等[36]采用Canny算法提取圖像邊緣,并將邊緣點從候選關(guān)鍵點中去除。Xiang等[30]針對光學(xué)和SAR圖像的不同特點,提出了光學(xué)SAR SIFT(optical SAR SIFT, OS SIFT)算法,該算法使用不同的梯度算子來計算可見光和SAR圖像梯度。Zhang等[37]改進指數(shù)加權(quán)平均比算子,使用級聯(lián)樣本一致性(cascaded sample consensus, CSC)匹配算法改進OS SIFT算法。這些改進的SIFT算法對于配準(zhǔn)效果的提升作用非常有限,因為其均基于梯度信息來構(gòu)建特征描述符,而梯度信息對于輻射差異非常敏感[26]。
近年來,基于特征的方法更多利用圖像結(jié)構(gòu)信息而不是梯度信息,結(jié)構(gòu)信息對于輻射差異和斑點噪聲有較好的魯棒性[38]。Paul等[39]提出一種基于結(jié)構(gòu)描述符的新型配準(zhǔn)算法。Li等[40]提出輻射不變特征變換(radiation invariation feature transform, RIFT)算法,該算法基于不同尺度和方向的相位一致性幅值信息,提出基于最大索引值的特征描述方法。Zhang等[41]提出加權(quán)相位方向直方圖(histogram of the orientation of weighted phase, HOWP),該模型能抵抗多模態(tài)遙感圖像的輻射失真和對比度差異。Xiong等[15]基于改進的最大自相似性(improved maximal self dissimilarity, IMSD)特征檢測器和定向自相似性(oriented self similarity, OSS)的特征描述符實現(xiàn)可見光和SAR圖像的配準(zhǔn)。后又提出優(yōu)化偏移平均濾波(offset mean filtering,OMF)方法來提取相鄰自相似性(adjacent self similarity, ASS)特征,并對SAR圖像中的斑點噪聲進行抑制,提高配準(zhǔn)效率和魯棒性[42]。以上方法對于克服非線性輻射差異均取得了令人滿意的結(jié)果。然而,當(dāng)上述方法在被應(yīng)用于具有較大旋轉(zhuǎn)和尺度差異的圖像時,其性能仍然有限。
為了解決上述問題,本文提出基于圖像結(jié)構(gòu)信息的可見光和SAR圖像快速配準(zhǔn)算法。首先,為了獲得特征點的尺度不變性,建立高斯尺度空間,并利用OMF和雙線性插值建立多通道圖像自相似性方向圖(multi channel image self similarity oriented map, MISSOM)。其次,基于最大和最小自相似性圖進行加速分段特征測試(features from accelerated segment test, FAST),有效增加正確匹配點對的數(shù)量。然后,基于最小自相似性索引圖(minimum self similarity index map, MSSIM)構(gòu)建特征描述子,并提出批量生成方法以加快描述子構(gòu)建過程。最后,采用最鄰近距離比(nearest neighbor distance ratio, NNDR)算法和快速抽樣一致性(fast sample consensus, FSC)算法建立正確匹配點對,計算變換模型。
本文的主要工作如下:
(1) 基于OMF和雙線性插值建立MISSOM,準(zhǔn)確提取圖像中的結(jié)構(gòu)信息。在此基礎(chǔ)上,基于最大和最小自相似性圖進行FAST特征點檢測,同時檢測角點和邊緣特征,在保證特征點重復(fù)率的同時,增加特征點的總數(shù)量,提高配準(zhǔn)成功率。
(2) 基于MSSIM和等面積策略構(gòu)建特征描述子,并提出多方向特征描述子轉(zhuǎn)換方法。等面積策略增加了描述子的穩(wěn)定性,提高了特征點對的正確匹配率。針對特征點主方向分配不準(zhǔn)確問題,提出多方向特征描述子轉(zhuǎn)換方法,解決特征點的旋轉(zhuǎn)不變性問題。
(3) 提出特征描述子批量生成方法。在圖像配準(zhǔn)過程中,構(gòu)建描述子為最耗時的階段。受限于特征主方向和局部支持域特征值的不同,特征描述子無法批量生成。本文不涉及特征主方向分配過程,且基于索引值構(gòu)建描述子,故提出特征描述子批量生成方法,極大地提高了配準(zhǔn)效率。
本文的其他各章節(jié)組織如下:第1節(jié)回顧圖像LSS理論;第2節(jié)介紹本文所提方法,包括不同尺度的MISSOM的建立、特征點的提取和特征描述子的批量生成;第3節(jié)給出所提方法的實驗驗證以及與其他算法的比較結(jié)果;第4節(jié)是結(jié)論部分。
1 LSS理論
2007年,Shechtman和Irani提出圖像LSS的概念。該理論最早用于捕獲邊緣和復(fù)雜紋理的自相似性。與基于圖像強度或梯度的配準(zhǔn)算法不同,LSS可以獲取圖像的局部結(jié)構(gòu)信息,對圖像間的輻射差異具有魯棒性,適合被應(yīng)用于存在輻射差異的多源遙感圖像之間的配準(zhǔn)過程。
圖1為像素p相對于像素q的自相似性示意圖。在以q為中心的局部區(qū)域中,以每個像素為中心、取一定大小的補丁,計算其與以q為中心的中心補丁的灰度值的平方差和(sum of square differences,SSD),并將得到的SSD歸一化后轉(zhuǎn)化為相關(guān)曲面Sq(x,y),如下所示:
Sq(x,y)=exp-SSDq(x,y)max(varnoise,varauto(q))(1)
式中:varnoise是一個常數(shù),表示可接受的光照變化;varauto(q)考慮了圖像補丁的對比度及其形狀結(jié)構(gòu)。當(dāng)形狀結(jié)構(gòu)發(fā)生改變時,圖像邊界區(qū)域比光滑區(qū)域具有更好的穩(wěn)定性。在具體實現(xiàn)過程中,varauto(q)是以q為中心、半徑為1的小鄰域內(nèi)的SSDq(x,y)的最大值。
為了降低描述子對圖像局部形變的敏感性,將相關(guān)曲面Sq(x,y)轉(zhuǎn)化為以q為中心的對數(shù)極坐標(biāo)中,并分別在角度向、沿半徑方向等間隔劃分子區(qū)域,形成對數(shù)極坐標(biāo)描述子dq。最后,對dq進行歸一化處理,以消除輻射差異的影響。
LSS是一種描述圖像內(nèi)部結(jié)構(gòu)信息的特征算子,反映圖像局部區(qū)域的形狀屬性。盡管可見光和SAR圖像之間具有較大的輻射差異,且SAR圖像具有嚴重的相干斑噪聲,但影像間結(jié)構(gòu)和局部紋理具有較高的相似性。利用這一特性,本文提出基于圖像結(jié)構(gòu)信息的可見光和SAR圖像快速配準(zhǔn)算法。
2 基于圖像結(jié)構(gòu)信息的配準(zhǔn)算法
本節(jié)詳細介紹基于結(jié)構(gòu)信息的可見光和SAR圖像快速配準(zhǔn)算法。首先,對可見光和SAR圖像分別構(gòu)建高斯金字塔,以實現(xiàn)其尺度不變性;然后,利用OMF和雙線性插值建立MISSOM,實現(xiàn)圖像亞像素級的LSS特征表示,并在此基礎(chǔ)上生成最大、最小自相似性圖和MSSIM;再者,基于最大、最小自相似性圖和FAST,提取大量定位精確和重復(fù)率高的特征點,并利用MSSIM為每個特征點建立特征描述子;最后,采用NNDR算法和FSC算法識別正確匹配,并計算兩幅圖像之間的轉(zhuǎn)換模型。
2.1 圖像亞像素級LSS表示
為了獲得更精細的圖像自相似性特征,本文首先將子圖像進行雙線性插值得到不同方向的多通道圖像,并在此基礎(chǔ)上進行配準(zhǔn)實驗。為了提高計算效率,Xiong等[42]提出OMF,其采用圖像通道作差的方法來提取LSS特征,極大提高了計算效率,該算法主要分為兩個步驟。
步驟 1 子圖像構(gòu)建
通過裁剪圖像I得到中心子圖像SubIc和5個方向(0°,45°,90°,135°,180°)的偏移子圖像SubIi(i=1,2,3,4,5),如圖2所示。
想要獲得任意方向的子圖像SubIθ,可以通過對5個偏移子圖像進行雙線性插值來實現(xiàn),如下所示:
SubIθ=[1-cos θ,cos θ]SubIcSubI3
SubI1SubI21-sin θsin θ, θ∈[0°,90°)
[1-sin θ,sin θ]SubIcSubI5
SubI3SubI41+cos θ
-cos θ, θ∈[90°,180°](2)
在[0°,180°]范圍內(nèi)劃分N0個方向,則第o個方向處的偏移子圖像的角度θ可表示為
θ=180°(o-1)N0, o=1,2,…,N0(3)
步驟 2 均值濾波
在獲得子圖像之后,θ處的圖像自相似性圖Lθ的計算方式如下:
Lθ=meanFilterw(|SubIc-SubIθ|)(4)
式中:meanFilter(·)為均值濾波;|·|為取絕對值;w為濾波窗口,其與中心圖像補丁大小相等。本文選取圓形濾波窗口,其半徑r=2。
將SubIc與各個方向的偏移子圖像SubIi作差,便可得到MISSOM{Lo}1N0。在MISSOM中,每個像素對應(yīng)N0個方向的N0個值。
最大和最小自相似性圖可以分別表示為
Lmax=maxo=1,2,…,N0{Lo}(5)
Lmin=mino=1,2,…N0{Lo}(6)
圖像的MSSIM IndexMap計算如下:
IndexMap=arg mino{Lo}(7)
2.2 基于最大和最小自相似性圖和FAST算法的特征點提取
圖像配準(zhǔn)效果在很大程度上取決于特征點的定位精度和重復(fù)率,由于可見光和SAR圖像之間存在嚴重的非線性輻射差異,且SAR圖像中含有大量斑點噪聲,導(dǎo)致現(xiàn)有算法在提取可見光和SAR圖像對的同名點時異常困難。對此,本文提出一種基于最大、最小自相似性圖和FAST的特征點提取算法。該算法結(jié)合角點和邊緣特征,在保證特征重復(fù)率的同時,增加特征點的總數(shù)量,有效地提高了正確匹配對的數(shù)量。
圖3為特征點檢測示意圖,其中圖3(a)為可見光和SAR圖像對;圖3(b)和圖3(c)分別為最小和最大自相似性圖;圖3(d)為從原圖像對中檢測的特征點;圖3(e)和圖3(f)分別為Lmin中的角點特征和Lmax中的邊緣特征。通過對Lmin和Lmax進行FAST特征點檢測,可以獲得大量可靠的特征點。
2.3 特征描述符的建立
在檢測到特征點集后,為了增加同名點之間的相似性以及異配點之間的獨特性,需要對特征點進行特征描述,構(gòu)建特征點描述子。為了增加描述子的穩(wěn)定性和獨特性,選取了梯度位置和方向直方圖(gradient location and orientation histogram, GLOH)型描述子。與SIFT的方形描述子相比,GLOH對幾何畸變具有更強的魯棒性。同時,為了更好地適應(yīng)可見光和SAR圖像之間的輻射差異,本文選擇以特征點為中心、半徑為R的區(qū)域作為局部支持域來建立特征描述子。GLOH型描述子主要有兩個參數(shù):徑向劃分箱數(shù)Nr和角度向劃分箱數(shù)Na。為了使描述子更具魯棒性,本文所用的GLOH型描述子的每個子區(qū)域面積均相等。圖4為具有3個徑向箱和16個角度向箱的GLOH型描述子示意圖。由于索引值的范圍為[1,N0],故每個子區(qū)域均可形成一個N0維的直方圖。通過連接每個子區(qū)域的直方圖,可得到該點的描述子Des。描述子Des可表示為
Des=[An1,An2,…,AnNa]
Ani=[Rai,1,Rai,2,…,Rai,Nr]
Rai,j=[Bini,j,1,Bini,j,2,…,Bini,j,N0](8)
式中:Ani表示第i個角度向子區(qū)域,i∈[1,Na];Rai,j表示第i個角度向中的第j個徑向子區(qū)域,j∈[1,Nr];Bini,j,k表示在子區(qū)域Rai,j中第k個索引值的統(tǒng)計量。參考文獻[42]的取值,R=42,Na=16,Nr=3,No=8。Des的維數(shù)為Na×Nr×N0。
2.4 特征描述符的旋轉(zhuǎn)不變性
第2.3節(jié)介紹描述子的構(gòu)建方法,但并未考慮可見光和SAR圖像之間的旋轉(zhuǎn)差異。在大多數(shù)應(yīng)用場景中,圖像之間存在明顯的旋轉(zhuǎn)差異,考慮特征描述符的旋轉(zhuǎn)不變性問題勢在必行。在以往的研究中,學(xué)者多采用為特征點分配主方向的方式來使描述子具備旋轉(zhuǎn)不變性,其中經(jīng)典的SIFT算法就屬于此類。但由于可見光和SAR圖像之間的嚴重輻射差異,可能會導(dǎo)致同名點對主方向不一致,甚至?xí)霈F(xiàn)較大差異,進而影響配準(zhǔn)結(jié)果。
為了解決圖像間的旋轉(zhuǎn)差異問題,本文選擇建立多個不同方向的描述子。將可見光圖像作為參考圖像,并為可見光圖像中的每個特征點建立一個特征描述子;將SAR圖像作為待配準(zhǔn)圖像,為圖像中的每個特征點建立Na個特征描述子。與其他算法不同的是,本文的Na個特征描述子只進行一次構(gòu)建過程,而其他Na-1個描述子均由初始描述子衍生而來。其衍生過程主要包括兩個方面:子區(qū)域直方圖的轉(zhuǎn)換和描述子支持域的變換。
(1) 子區(qū)域直方圖的轉(zhuǎn)換
子區(qū)域直方圖轉(zhuǎn)換主要包括以下4個步驟。
步驟 1 為SAR圖像中的每個特征點構(gòu)建一個初始方向的特征描述子。
步驟 2 統(tǒng)計支持域中所有子區(qū)域的每個索引值出現(xiàn)的次數(shù)。
步驟 3 找到出現(xiàn)的最大次數(shù)Numb及其出現(xiàn)的位置S(S∈[1,N0]),如果次大值大于最大值的80%,則同樣記錄其位置。
[Numb,S]=arg max(hist)(9)
式中:hist為所有子區(qū)域的索引值統(tǒng)計的直方圖,維度為N0
步驟 4 所有子區(qū)域的直方圖Rni,j如圖5所示,將其重新排列如下:
Rni,j=
[Bini,j,k-S+1,Bini,j,k-S+2,…,Bini,j,N0], k≥S
[Bini,j,1+N0-S+1,Bini,j,2+N0-S+1,…,Bini,j,k+N0-S+1], klt;S(10)
(2) 描述子支持域的變換
為了方便計算,本文在生成不同方向描述子時,角度間隔應(yīng)與初始描述子角度向間隔保持一致或為其整數(shù)倍。需要說明的是,本文衍生而來的描述子是特定角度的,而不是任意方向的。故在生成第s個描述子Dess時,只需將第s個角度向子區(qū)域作為Dess向量的起始位置即可。即:
Dess=[Ani-s+1,Ani+1-s+1,…,AnNa-s+1], i≥s
[An1+Na-s+1,An2+Na-s+1,…,Ani+Na-s+1], ilt;s
Ani=[Rai,1,Rai,2,…,Rai,Nr]
Rai,j=[Bini,j,1,Bini,j,2,…,Bini,j,N0](11)
分別計算SAR圖像同一特征點不同方向的描述子與可見光圖像特征點描述子之間的歐氏距離,取最小值作為正確匹配。值得注意的是,圖像間旋轉(zhuǎn)差異可以為任意值,而生成的描述子均為指定方向,勢必存在角度差。而GLOH型描述子具有一定的旋轉(zhuǎn)不變性,對于小角度差異具有魯棒性。
2.5 特征描述子批量生成方法
在圖像配準(zhǔn)過程中,構(gòu)建特征描述子最為耗時,大約占配準(zhǔn)總時間的80%左右,且特征點越多,占比越大。故如何快速建立特征描述子對提高圖像配準(zhǔn)效率而言至關(guān)重要。受限于特征點主方向和局部支持域特征值的不同,特征描述子無法批量生成。為了提高配準(zhǔn)效率,OS SIFT、OS SIFT+CSC和局部歸一化圖像特征變換(locally normalized image feature transform, LNIFT)[43]算法在構(gòu)建特征描述子時均采用并行計算。該方法在一定程度上提高了運行速度,但無疑對硬件性能和運行空間提出了更高的要求。
本文算法不涉及特征主方向分配階段,且基于最小自相似性索引值構(gòu)建特征描述子,故提出特征描述子批量生成方法,如算法1所示。
算法 1 特征描述子批量生成算法
輸入 可見光和SAR圖像的最小自相似性索引值圖和特征點
輸出 可見光和SAR圖像的特征描述子Desp
步驟 1 以可見光和SAR圖像特征點位置為中心,提取局部支持域Nh×Nw。其中,Nh為局部支持域的高,Nw為局部支持域的寬。
步驟 2 將所有特征點的局部支持域疊放在一起,形成局部支持域三維矩陣LSDomain:Nh×Nw×NP。其中,NP為可見光和SAR圖像中的總特征點數(shù)。
步驟 3 for i=1:Nh
for j=1:Nw
if (i,j) in GLOH
if (i,j) in Bin(k,h)
temp=LSDomain(i,j,:);
Desp(Bin(k,h))=Desp(Bin(k,h))+1;
end if
end if
end for
end for
2.6 特征匹配與粗差剔除
本文采用歐氏距離作為相似性匹配準(zhǔn)則進行初始匹配,以獲取異源遙感影像的初始匹配,利用NNDR和FSC方法剔除初始匹配中的錯誤匹配,獲得最終的匹配點對。
3 實驗與分析
為驗證本文算法的配準(zhǔn)效果,分別進行可見光和SAR圖像配準(zhǔn)的驗證和對比試驗。首先,給出實驗所用數(shù)據(jù)集,確定評價標(biāo)準(zhǔn);然后,測試本文算法的旋轉(zhuǎn)和尺度不變性;最后,將本文算法與當(dāng)前比較先進的算法進行對比,并對實驗結(jié)果進行分析。
3.1 實驗數(shù)據(jù)集及評價標(biāo)準(zhǔn)
(1) 實驗數(shù)據(jù)集
實驗使用了6對真實的可見光和SAR圖像,如圖6所示。數(shù)據(jù)對1中的可見光圖像來自Google Earth,分辨率為1 m,拍攝于2012年10月,圖像大小為923×704 pixel;其SAR圖像由TerraSAR X捕獲,分辨率為1 m,拍攝于2010年12月,圖像大小為900×795 pixel。數(shù)據(jù)對2中的場景為城區(qū),其可見光圖像來自Google Earth,分辨率為3 m,拍攝于2016年12月,圖像大小為590×590 pixel;SAR圖像來自于GF3,分辨率為3 m,拍攝于2016年11月,圖像大小為590×590 pixel。數(shù)據(jù)對3~數(shù)據(jù)對6均取自O(shè)S DATASET數(shù)據(jù)集,其場景分布于世界各地,其可見光圖像來自Google Earth,SAR圖像由GF3提供,圖像大小均為256×256 pixel。如圖6所示,數(shù)據(jù)對1中的可見光和SAR圖像存在明顯的輻射差異,但SAR圖像中斑點噪聲較少;數(shù)據(jù)對2~數(shù)據(jù)對6中的SAR圖像存在明顯的輻射差異和嚴重的斑點噪聲。此外,數(shù)據(jù)對2、數(shù)據(jù)對3和數(shù)據(jù)對6存在較嚴重的旋轉(zhuǎn)差異,數(shù)據(jù)對1、數(shù)據(jù)對4和數(shù)據(jù)對5存在輕微的旋轉(zhuǎn)差異,數(shù)據(jù)對2和數(shù)據(jù)對3存在輕微的尺度差異。
(2) 評價標(biāo)準(zhǔn)
本節(jié)采用正確匹配數(shù)(number of correct matches, NCM)、總體配準(zhǔn)數(shù)(total number of matching, TNM)、正確匹配率(correct matches ratio, CMR)、均方根誤差(root mean square error, RMSE)和運行時間(processing time, PT)來對算法的配準(zhǔn)效果進行定量評價。其中,CMR=NCM/TNM。其中,TNM包括錯誤的配準(zhǔn)對。所有實驗均在Intel酷睿 i5 12400 2.50 GHz 6核處理器上進行,運行內(nèi)存為32 GB,操作系統(tǒng)為Windows 10。
通過地理坐標(biāo)可計算圖像對的大致位置信息,但無法獲得像素級的對應(yīng)。為了得到準(zhǔn)確的圖像變換模型,對每個圖像對人工選取同名點,同名點數(shù)量為40~60,采用投影變換來計算真實的變換模型。將計算得到的變換模型作為真實變換模型來判斷算法獲取的配準(zhǔn)點對是否為正確匹配點。將RMSE小于2 pixel的配準(zhǔn)點對視為正確匹配點,并將其計入NCM。
3.2 旋轉(zhuǎn)和尺度不變性測試
本節(jié)利用經(jīng)過人工配準(zhǔn)的5對可見光和SAR圖像來驗證本文所提算法的旋轉(zhuǎn)和尺度不變性,其中5對可見光和SAR圖像幾乎沒有旋轉(zhuǎn)和尺度差異。在測試中,算法的參數(shù)取值情況為R=42,Na=16,Nr=3,No=8。
(1) 旋轉(zhuǎn)不變性檢驗
為了測試算法的旋轉(zhuǎn)不變性,將可見光圖像作為參考圖像,對SAR圖像進行逆時針旋轉(zhuǎn),步長為5°,旋轉(zhuǎn)角度為ξ,ξ∈[0°,355°],共得到72幅旋轉(zhuǎn)SAR圖像。將其分別與可見光圖像進行配準(zhǔn),記錄配準(zhǔn)結(jié)果的NCM和CMR,并以5對可見光和SAR圖像的平均NCM和平均CMR作為評價標(biāo)準(zhǔn)來驗證算法的旋轉(zhuǎn)不變性。在特征匹配過程中,將可見光圖像中的特征描述子分別與SAR圖像中不同方向的特征描述子依次匹配,共進行Na組匹配。在每組配準(zhǔn)結(jié)果中,取描述子距離最小的前150個匹配對,并求距離之和。取距離和最小值所在組的旋轉(zhuǎn)角度作為圖像對之間的角度差。圖7為實驗圖像對及SAR圖像旋轉(zhuǎn)示意圖。
從圖8可以看出,在所有旋轉(zhuǎn)角度下,本文算法均能成功配準(zhǔn)圖像對,且其NCM和CMR均保持在較高值,這說明算法對圖像的旋轉(zhuǎn)差異具有較強的魯棒性。通過觀察圖8(a)不難發(fā)現(xiàn),其NCM隨角度的變化呈現(xiàn)出一定的周期性。分析其原因可知,當(dāng)圖像的旋轉(zhuǎn)角度與特征描述子支持域的變換角度一致時,可見光和SAR圖像中形成特征點描述子的局部支持域得以完全對應(yīng),從而獲得了更多的配準(zhǔn)點對,得到了較好的配準(zhǔn)結(jié)果。同樣地,當(dāng)圖像的旋轉(zhuǎn)角度與特征描述子支持域的變換角度有偏差時,由于GLOH型描述子對小角度差異具有魯棒性,故仍能成功配準(zhǔn)圖像對。當(dāng)SAR圖像的旋轉(zhuǎn)角度為50°和195°時,圖像對的配準(zhǔn)結(jié)果如圖9所示。
(2) 尺度不變性檢驗
為了驗證算法的尺度不變性,將可見光圖像作為參考圖像,對SAR圖像進行尺度變換,如圖10所示。將SAR圖像對在[1,23]尺度范圍內(nèi)以21/5為間隔進行等比例縮放,得到具有不同縮放系數(shù)的15個SAR圖像。將其分別與可見光圖像進行配準(zhǔn),記錄配準(zhǔn)結(jié)果的平均NCM和平均CMR,并取5組配準(zhǔn)實驗的平均值作為最終的評價標(biāo)準(zhǔn)。與旋轉(zhuǎn)不變性測試類似,將可見光圖像中的特征描述子分別與SAR圖像中不同尺度的特征描述子依次匹配,共進行15組匹配。在每組配準(zhǔn)結(jié)果中,取描述子距離最小的前150個匹配對,并求距離之和。取距離和最小值所在組的縮放系數(shù)為圖像對之間的尺度差。
由圖11可知,平均NCM隨著SAR圖像尺度比的增大而逐漸減小,平均CMR與平均NCM的變化趨勢類似。隨著SAR圖像的逐漸減小,其可提取的特征點數(shù)量也在不斷減少,進而影響到平均NCM。由于本文算法的描述子半徑為42 pixel,故在進行特征點提取時,將距邊緣42 pixel以內(nèi)的區(qū)域視為邊界,不進行特征提取。當(dāng)尺度比大于4時,SAR圖像縮小為原圖像的1/16,可提取特征的范圍也在不斷減小,導(dǎo)致算法的性能逐漸下降,最終導(dǎo)致算法失效。圖12所示為尺度比分別為22/5和2時的配準(zhǔn)結(jié)果。
3.3 算法對比分析
為了驗證本文算法在配準(zhǔn)可見光和SAR圖像時的優(yōu)勢,將本文算法與目前最先進的算法進行對比。對比算法主要包括OS SIFT、OS SIFT+CSC、RIFT、OSS、LNIFT、ASS和HOWP。
圖13~圖19分別給出8種算法在6對真實圖像上的配準(zhǔn)結(jié)果對比和配準(zhǔn)結(jié)果棋盤圖。通過對比配準(zhǔn)結(jié)果可知,本文算法在6對具有顯著幾何和輻射差異的可見光和SAR圖像中均實現(xiàn)了數(shù)量足夠、分布均勻的特征匹配,證明本文算法在可見光和SAR圖像配準(zhǔn)方面的有效性。通過觀察棋盤圖不難看出,每對圖像都取得了正確的配準(zhǔn)結(jié)果,并且拼接處的紋理結(jié)構(gòu)能夠?qū)崿F(xiàn)較好的吻合。表1給出了OS SIFT、OS SIFT+CSC、RIFT、OSS、LNIFT、ASS、HOWP和本文算法在6對真實圖像數(shù)據(jù)上的配準(zhǔn)結(jié)果的定量表示,證明本文算法在配準(zhǔn)可見光和SAR圖像時的優(yōu)勢,在NCM、CMR、RMSE和PT這4個方面的表現(xiàn)均優(yōu)于其他算法。
在7個對比算法中,OS SIFT的配準(zhǔn)表現(xiàn)較差。在6對圖像中,OS SIFT僅成功配準(zhǔn)數(shù)據(jù)對1,且其NCM為所有對比算法中最小的。這是因為OS SIFT為基于梯度信息的圖像配準(zhǔn)算法。在可見光和SAR圖像的配準(zhǔn)過程中,梯度信息容易受到非線性輻射差異和斑點噪聲的影響,導(dǎo)致配準(zhǔn)效果不佳。OS SIFT算法對可見光和SAR圖像的輻射差異分別進行了不同處理,在一定程度上提高了輻射不變性,故能成功配準(zhǔn)數(shù)據(jù)對1,但對于嚴重的斑點噪聲缺乏魯棒性。
OS SIFT+CSC算法在OS SIFT算法的基礎(chǔ)上做了兩點改進:一是利用CSC算法對特征進行匹配,增加配準(zhǔn)點對的數(shù)量;二是改進SAR圖像的梯度計算方法,增加梯度信息的一致性。在6組實驗中,OS SIFT+CSC成功配準(zhǔn)數(shù)據(jù)對1和數(shù)據(jù)對2與數(shù)據(jù)對4和數(shù)據(jù)對5,且NCM值較大。相對于OS SIFT算法,OS SIFT+CSC算法的性能有明顯提高。
LNIFT算法的配準(zhǔn)效果僅次于本文算法,其成功配準(zhǔn)了全部6對圖像。在第5組實驗中,LNIFT算法獲得了最大的NCM。LNIFT算法的成功主要有兩個原因:一是特征點提取數(shù)量大。在特征提取過程中,其提取了5 000個特征點,遠遠多于其他算法。二是局部歸一化濾波器的使用。雖然LNIFT是梯度信息的圖像配準(zhǔn)算法,但其將原始圖像轉(zhuǎn)換為歸一化中間態(tài)圖像進行特征檢測和描述,從而大大降低多模態(tài)圖像之間的輻射差異,抑制SAR圖像中的斑點噪聲。LNIFT算法不具有尺度不變性,不能配準(zhǔn)具有大尺度差異的圖像對。
OSS和ASS是基于改進LSS的圖像配準(zhǔn)算法。LSS能提取圖像的結(jié)構(gòu)信息,在多模態(tài)圖像配準(zhǔn)中,結(jié)構(gòu)信息能夠克服輻射差異,減弱斑點噪聲的影響。OSS成功配準(zhǔn)了數(shù)據(jù)對1~數(shù)據(jù)對5,且配準(zhǔn)速度較快。ASS成功配準(zhǔn)了數(shù)據(jù)對1和數(shù)據(jù)對2與數(shù)據(jù)對4和數(shù)據(jù)對5,且配準(zhǔn)精度較高。在所有算法中,OSS和ASS提取的特征點數(shù)量最少,這也是其不能全部配準(zhǔn)所有圖像對的主要原因。
與OSS和ASS相同,本文算法也是基于改進LSS的圖像配準(zhǔn)算法。在特征點提取過程中,本文算法選擇結(jié)合角點和邊緣特征的策略,既保證了特征點重復(fù)率,又保證了特征點的數(shù)量,故在配準(zhǔn)過程中得到了最大的NCM。在構(gòu)建特征描述子時,本文算法選擇了GLOH型描述子,并根據(jù)面積相等原則劃分子區(qū)域,有效地提高了特征描述子的穩(wěn)定性和獨特性。針對算法中最為耗時的描述子生成環(huán)節(jié),本文提出描述子批量生成方法,極大提高了配準(zhǔn)效率,在所有對比算法中用時最短。需要說明的是,OS SIFT、OS SIFT+CSC和LNIFT算法在生成描述子時,均采用了并行算法。并行算法雖然提高了運行效率,但對內(nèi)存運行空間要求較高。
RIFT和HOWP均為基于PC的配準(zhǔn)算法。RIFT不具有尺度和旋轉(zhuǎn)不變性,但對較小的尺度和旋轉(zhuǎn)差異具有魯棒性。RIFT成功配準(zhǔn)了數(shù)據(jù)對1和數(shù)據(jù)對2與數(shù)據(jù)對4和數(shù)據(jù)對5,但評價指標(biāo)值并不突出。由于數(shù)據(jù)對3和數(shù)據(jù)對6旋轉(zhuǎn)差異較大,故RIFT未能成功配準(zhǔn)。與RIFT利用索引圖構(gòu)建特征描述子不同,HOWP基于加權(quán)相位方向構(gòu)建了特征描述子。雖然HOWP具有尺度和旋轉(zhuǎn)不變性,但由于圖像對非線性輻射差異較大,HOWP的配準(zhǔn)效果較差。
4 結(jié)束語
本文提出一種基于結(jié)構(gòu)信息的可見光和SAR圖像快速配準(zhǔn)算法。為了獲得足夠數(shù)量且重復(fù)率高的特征點,分別在最大和最小自相似圖上提取圖像角點和邊緣特征。然后,基于MISSOM和等面積策略構(gòu)建特征描述子,等面積策略增加描述子的穩(wěn)定性,提高特征點對的正確匹配率。針對特征點主方向分配不準(zhǔn)確的問題,提出多方向特征描述子轉(zhuǎn)換方法,解決特征點的旋轉(zhuǎn)不變性問題。針對特征描述子生成的時間成本問題,提出特征描述子批量生成方法,極大地提高了配準(zhǔn)效率。在6對真實可見光和SAR圖像上的實驗結(jié)果表明,所提算法在配準(zhǔn)魯棒性、準(zhǔn)確性方面優(yōu)于現(xiàn)有的OS SIFT、OS SIFT+CSC、RIFT、OSS、LNIFT、HOWP和ASS算法。在配準(zhǔn)精度上,所提算法取得了最小的RMSE。未來,將繼續(xù)研究復(fù)雜場景下可見光和SAR圖像的配準(zhǔn)問題。
參考文獻
[1]PAUL S, PATI U C. A comprehensive review on remote sensing image registration[J]. International Journal of Remote Sensing, 2021, 42(14): 5396-5432.
[2]YE Y Y, ZHANG J C, ZHOU L, et al. Optical and SAR image fusion based on complementary feature decomposition and visual saliency features[J]. IEEE Trans.on Geoscience and Remote Sensing, 2024, 62: 5205315.
[3]ZHOU R F, QUAN D, WANG S, et al. A unified deep learning network for remote sensing image registration and change detection[J]. IEEE Trans.on Geoscience and Remote Sensing, 2024, 62: 5101216.
[4]MAO Y Q, CHEN K Q, ZHAO L J, et al. Elevation estimation driven building 3 D reconstruction from single view remote sensing imagery[J]. IEEE Trans.on Geoscience and Remote Sensing, 2023, 61: 5608718.
[5]GAMBRYCH J, GROMEK D, ABRATKIEWICZ K, et al. SAR and orthophoto image registration with simultaneous SAR based altitude measurement for airborne navigation systems[J]. IEEE Trans.on Geoscience and Remote Sensing, 2023, 61: 5219714.
[6]ZITOVA B, FLUSSER J. Image registration methods: a survey[J]. Image and Vision Computing, 2003, 21(11): 977-1000.
[7]FENG R T, SHEN H F, BAI J J, et al. Advances and opportunities in remote sensing image geometric registration: a systema tic review of state of the art approaches and future research directions[J]. IEEE Geoscience and Remote Sensing Magazine, 2021, 9(4): 120-142.
[8]HUGHES L H, SCHMITT M, ZHU X X. Mining hard negative samples for SAR optical image matching using generative adversarial networks[J]. Remote Sensing, 2018, 10(10): 1552.
[9]LIU M, ZHOU G X, MA L F, et al. SIFNet: a self attention interaction fusion network for multisource satellite imagery template matching[J]. International Journal of Applied Earth Observation and Geoinformation, 2023, 118: 103247.
[10]ZHANG H, LEI L, NI W P, et al. Optical and SAR image matching using pixelwise deep dense features[J]. IEEE Geoscience and Remote Sensing Letters, 2022, 19: 6000705.
[11]LI H Y, XU F, YANG W, et al. Learning to find the optimal correspondence between SAR and optical image patches[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2023, 16: 9816-9830.
[12]XU W Y, YUAN X H, HU Q W, et al. SAR optical feature matching: a large scale patch dataset and a deep local descriptor[J]. International Journal of Applied Earth Observation and Geoinformation, 2023, 122: 103433.
[13]YE Y Y, YANG C, GONG G Q, et al. Robust optical and SAR image matching using attention enhanced structural features[J]. IEEE Trans.on Geoscience and Remote Sensing, 2024, 62: 5610212.
[14]XIANG Y M, JIAO N G, WANG F, et al. A robust two stage registration algorithm for large optical and SAR images[J]. IEEE Trans.on Geoscience and Remote Sensing, 2022, 60: 5218615.
[15]XIONG X, JIN G W, XU Q, et al. Self similarity features for multimodal remote sensing image matching[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2021, 14: 12440-12454.
[16]USS M, VOZEL B, LUKIN V, et al. Efficient discrimination and localization of multimodal remote sensing images using CNN based prediction of localization uncertainty[J]. Remote Sensing, 2020, 12(4): 703.
[17]LIU D, MANSOUR H, BOUFOUNOS P T. Robust mutual information based multi image registration[C]∥Proc.of the IEEE International Geoscience and Remote Sensing Symposium, 2019: 915-918.
[18]PRATT W K. Correlation techniques of image registration[J]. IEEE Trans.on Aerospace and Electronic Systems, 1974, 10(3): 353-358.
[19]HAST A. Robust and invariant phase based local feature matching[C]∥Proc.of the 22nd International Conference on Pattern Recognition, 2014: 809-814.
[20]SURI S, REINARTZ P. Mutual information based registration of TerraSAR X and Ikonos imagery in urban areas[J]. IEEE Trans.on Geoscience and Remote Sensing, 2009, 48(2): 939-949.
[21]葉沅鑫, 單杰, 彭劍威, 等. 利用局部自相似的多光譜遙感圖像自動配準(zhǔn)[J]. 測繪學(xué)報, 2014, 43(3): 268-275.
YE Y X, SHAN J, PENG J W, et al. Automated multispectral remote sensing image registration using local self similarity[J]. Acta Geodaetica et Cartographica Sinica, 2014, 43(3): 268-275.
[22]SHECHTMAN E, IRANI M. Matching local self similarities across images and videos[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition, 2007.
[23]YE Y Y, SHEN L, HAO M, et al. Robust optical to SAR image matching based on shape properties[J]. IEEE Geoscience and Remote Sensing Letters, 2017, 14(4): 564-568.
[24]XIONG X, XU Q, JIN G W, et al. Rank based local self similarity descriptor for optical to SAR image matching[J]. IEEE Geoscience and Remote Sensing Letters, 2020, 17(10): 1742-1746.
[25]YE Y Y, SHAN J, BRUZZONE L, et al. Robust registration of multimodal remote sensing images based on structural similarity[J]. IEEE Trans.on Geoscience and Remote Sensing, 2017, 55(5): 2941-2958.
[26]YE Y Y, BRUZZONE L, SHAN J, et al. Fast and robust matching for multimodal remote sensing image registration[J]. IEEE Trans.on Geoscience and Remote Sensing, 2019, 57(11): 9059-9070.
[27]XIANG Y M, TAO R S, WAN L, et al. OS PC: combining feature representation and 3 D phase correlation for subpixel optical and SAR image registration[J]. IEEE Trans.on Geoscience and Remote Sensing, 2020, 58(9): 6451-6466.
[28]FAN J W, WU Y, LI M, et al. SAR and optical image registration using nonlinear diffusion and phase congruency structural descriptor[J]. IEEE Trans.on Geoscience and Remote Sensing, 2018, 56(9): 5368-5379.
[29]XIANG Y M, TAO R S, WANG F, et al. Automatic registration of optical and SAR images via improved phase congruency model[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2020, 13: 5847-5861.
[30]XIANG Y M, WANG F, YOU H J. OS SIFT: a robust SIFT like algorithm for high resolution optical to SAR image registration in suburban areas[J]. IEEE Trans.on Geoscience and Remote Sensing, 2018, 56(6): 3078-3090.
[31]楊勇, 胡思茹. 基于模板匹配約束下的光學(xué)與SAR圖像配準(zhǔn)[J]. 系統(tǒng)工程與電子技術(shù), 2019, 41(10): 2235-2242.
YANG Y, HU S R. Registration of optical and SAR images based on template matching constraints[J]. Systems Engineering and Electronics, 2019, 41(10): 2235-2242.
[32]LOWE D G. Distinctive image features from scale invariant keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91-110.
[33]FAN B, HUO C L, PAN C H, et al. Registration of optical and SAR satellite images by exploring the spatial relationship of the improved SIFT[J]. IEEE Geoscience and Remote Sensing Letters, 2013, 10(4): 657-661.
[34]XU C, SUI H G, LI H L, et al. An automatic optical and SAR image registration method with iterative level set segmentation and SIFT[J]. International Journal of Remote Sensing, 2015, 36(15): 3997-4017.
[35]MA W P, WEN Z L, WU Y, et al. Remote sensing image regi stration with modified SIFT and enhanced feature matching[J]. IEEE Geoscience and Remote Sensing Letters, 2016, 14(1): 3-7.
[36]ZHANG W N. Combination of SIFT and Canny edge detection for registration between SAR and optical images[J]. IEEE Geoscience and Remote Sensing Letters, 2022, 19: 4007205.
[37]ZHANG X T, WANG Y H, LIU H W. Robust optical and SAR image registration based on OS SIFT and cascaded sample consensus[J]. IEEE Geoscience and Remote Sensing Letters, 2021, 19: 4011605.
[38]葉沅鑫, 慎利, 陳敏, 等. 局部相位特征描述的多源遙感影像自動匹配[J]. 武漢大學(xué)學(xué)報(信息科學(xué)版), 2017, 42(9): 1278-1284.
YE Y X, SHEN L, CHEN M, et al. An automatic matching method based on local phase feature descriptor for multi source remote sensing images[J]. Geomatics and Information Science of Wuhan University, 2017, 42(9): 1278-1284.
[39]PAUL S, PATI U C. Automatic optical to SAR image registration using a structural descriptor[J]. IET Image Processing, 2020, 14(1): 62-73.
[40]LI J Y, HU Q W, AI M Y. RIFT: multi modal image matching based on radiation variation insensitive feature transform[J]. IEEE Trans.on Image Processing, 2020, 29: 3296-3310.
[41]ZHANG Y J, YAO Y Y, WAN Y, et al. Histogram of the ori entation of the weighted phase descriptor for multi modal remote sensing image matching[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2023, 196: 1-15.
[42]XIONG X, JIN G W, XU Q, et al. Robust registration algorithm for optical and SAR images based on adjacent self similarity feature[J]. IEEE Trans.on Geoscience and Remote Sensing, 2022, 60: 5233117.
[43]LI J Y, XU W Y, SHI P C, et al. LNIFT: locally normalized image for rotation invariant multimodal feature matching[J]. IEEE Trans.on Geoscience and Remote Sensing, 2022, 60: 5621314.
作者簡介
賈蕾蕾(1994—),男,博士研究生,主要研究方向為光電偵察與信息處理。
劉利民(1971—),男,教授,博士,主要研究方向為光電對抗、光電信息處理。
董 ?。?982—),男,副研究員,博士,主要研究方向為雷達信號處理、遙感圖像處理。