郭一洋,宋偉東,戴激光
(遼寧工程技術(shù)大學(xué) 測繪與地理科學(xué)學(xué)院,遼寧 阜新 123000)
?
一種改進(jìn)的多源遙感影像SIFT算法匹配策略
郭一洋,宋偉東,戴激光
(遼寧工程技術(shù)大學(xué) 測繪與地理科學(xué)學(xué)院,遼寧 阜新 123000)
傳統(tǒng)SIFT算法在遙感影像中相似性場景大量存在的情況下呈現(xiàn)出匹配效率低的問題。文中提出對傳統(tǒng)SIFT算法匹配策略進(jìn)行改進(jìn),其步驟包括:首先在初匹配階段,利用建立金字塔影像匹配的方式確定影像間的幾何關(guān)系模型;其次,利用該幾何關(guān)系模型對初始影像進(jìn)行約束匹配;最后利用RANSAC模型剔除誤匹配點(diǎn)。通過相似性場景影像匹配實(shí)驗(yàn)可以表明,與傳統(tǒng)SIFT算法相比,本方法具有明顯的匹配效率和精度優(yōu)勢。
SIFT算法;遙感影像;相似性場景;匹配;幾何模型
匹配作為遙感影像處理的一個基本問題,是實(shí)現(xiàn)多源遙感影像數(shù)據(jù)分析的前提和基礎(chǔ)[1]。傳統(tǒng)遙感影像的匹配技術(shù)主要分為基于灰度的匹配和基于特征的匹配?;谔卣鞯挠跋衿ヅ淇朔诨叶鹊姆椒ㄓ?jì)算量大、對影像灰度敏感等缺點(diǎn),成為影像匹配研究的主要發(fā)展方向。加拿大的D.G.Lowe于1999年提出,2004年完善的尺度不變特征(scale invariant feature transform,SIFT)算法,由于其具有尺度不變性和旋轉(zhuǎn)不變性,并且對視點(diǎn)變化、噪聲干擾、光照變化具有魯棒性,在圖像處理領(lǐng)域中得到廣泛應(yīng)用[2]。文獻(xiàn)[3]將SIFT算法應(yīng)用于遙感影像的匹配,證明SIFT算法可以用于遙感圖像匹配。但是SIFT算法本身還存在一些問題,如計(jì)算復(fù)雜度過高,只考慮局部紋理特征等[4]。針對SIFT算法存在的問題,文獻(xiàn)[5]對檢測到的關(guān)鍵點(diǎn)進(jìn)行尺度空間下的Contourlet 變換,再進(jìn)行Contourlet全局紋理匹配篩選,有效降低誤匹配概率,但匹配點(diǎn)的數(shù)量較少。文獻(xiàn)[6]使用Harris算子代替SIFT 進(jìn)行特征點(diǎn)檢測,形成以Harris角點(diǎn)和SIFT描述相結(jié)合的快速影像匹配算法,提高運(yùn)算效率。文獻(xiàn)[7]在SIFT特征提取的基礎(chǔ)上,使用核線約束匹配取得良好效果。文獻(xiàn)[8]將匹配支持度的這種相似性測度引入特征匹配,明顯提高匹配的可靠性和成功率。文獻(xiàn)[9]通過控制特征點(diǎn)數(shù)量和分布情況獲取均勻分布的特征點(diǎn),采用粗匹配、精匹配和誤匹配點(diǎn)剔除策略,由粗到精地獲取準(zhǔn)確的同名點(diǎn),但初匹配的篩選過程繁雜,效率較低。
雖然上述文獻(xiàn)都改進(jìn)了SIFT算法,但對于存在相似性場景的遙感影像匹配不能獲得滿意結(jié)果,無法在保證匹配點(diǎn)的數(shù)量和精度的情況下,提高運(yùn)算的速度。針對這一問題,本文提出一種新的匹配策略,有效改進(jìn)衛(wèi)星遙感影像的匹配效率。
傳統(tǒng)SIFT算法包括以下內(nèi)容:
1)首先構(gòu)造高斯金字塔,如圖1所示,將原始圖像降階下采樣,構(gòu)成金字塔模型,得到高斯金字塔,式(1)為高斯核函數(shù),σ為尺度因子,(x,y)為像素坐標(biāo)。
(1)
將每組相鄰的上下兩層圖像相減得到高斯差分圖像。為尋找DOG函數(shù)極值點(diǎn),檢測點(diǎn)要與它同尺度的8個相鄰點(diǎn)和上下相鄰尺度的9×2個點(diǎn)共26個點(diǎn)比較。再剔除低對比度的關(guān)鍵點(diǎn)和不穩(wěn)定的邊緣響應(yīng)點(diǎn),以增強(qiáng)匹配穩(wěn)定性和提高抗噪聲能力。
圖1 高斯金字塔
2)為使描述符具有旋轉(zhuǎn)不變性,利用圖像的局部特征為每一個關(guān)鍵點(diǎn)分配一個基準(zhǔn)方向,需要統(tǒng)計(jì)鄰域內(nèi)像素的梯度和方向。
3)每一個關(guān)鍵點(diǎn),都有位置、尺度及方向3個信息,取以特征點(diǎn)為中心的16×16鄰域,分為4×4鄰域的子區(qū)域,對每個區(qū)域計(jì)算梯度直方圖(8個方向),形成4×4×8=128維特征向量。
4)利用特征點(diǎn)間歐氏距離次近距離與最近距離比值小于某個閾值的方式提取匹配點(diǎn)。
算法匹配策略包括初匹配階段和精匹配階段,其中初匹配階段主要作用是獲取兩幅影像之間的近似幾何關(guān)系模型,由于縮小范圍,解決匹配運(yùn)算效率低的問題,精匹配階段則在該模型的約束情況下進(jìn)行SIFT特征點(diǎn)匹配,解決相似性場景帶來的正確率低的問題。
2.1 初始匹配
初始匹配主要目的是快速獲取一定數(shù)量的同名點(diǎn),提高運(yùn)算效率。如圖2所示,為了降低在源圖像進(jìn)行直接匹配的復(fù)雜度,提高計(jì)算效率,直接對源圖像進(jìn)行下采樣,得到金字塔影像,其中每一層圖像均為下一層圖像的1/4大小。
圖2 金字塔圖像
取金字塔的最頂層圖像按照傳統(tǒng)的SIFT算法做特征提取和特征匹配,由下采樣過程可知這個頂層圖像大小要比原始圖像小,得到的特征點(diǎn)數(shù)量相應(yīng)減少,因此特征提取和特征匹配耗時(shí)很少,能夠快速獲取同名點(diǎn)。此過程的金字塔層數(shù)由原始影像的大小決定,層數(shù)多則頂層圖像過小會導(dǎo)致提取到的特征點(diǎn)很少,無法獲取足夠的同名點(diǎn)對用于解算影像間幾何變換模型。
2.2 幾何約束模型的構(gòu)建
建立金字塔影像進(jìn)行匹配,通過獲取適當(dāng)數(shù)量的同名點(diǎn)建立影像間的幾何約束關(guān)系,可以避免特征點(diǎn)的全景遍歷匹配,提高運(yùn)算速度。本文選擇仿射變換作為幾何變換模型,它是一種包括旋轉(zhuǎn)、平移、伸縮的簡單變換,能夠快速建立并可反映兩個空間的位置關(guān)系。
(2)
式中:(x′,y′)是變換后的坐標(biāo),(x,y)是變換前的坐標(biāo)。式(2)中一共有6個未知參數(shù),至少需要3對控制點(diǎn),超過3對控制點(diǎn),則采用最小二乘方法計(jì)算6個參數(shù)[10]。
2.3 精確匹配階段
2.3.1 匹配策略
初匹配階段確定幾何仿射變換模型,將其作為幾何約束條件進(jìn)行源圖像的精確匹配,可有效地解決相似性場景帶來匹配正確率低的問題。精匹配階段提取源圖像的SIFT特征點(diǎn),利用仿射變換模型在待匹配影像中確定基準(zhǔn)影像每一個特征點(diǎn)的候選同名點(diǎn)集,最后采用歐式距離作為判定度量,在候選同名點(diǎn)集中找到與基準(zhǔn)影像關(guān)鍵點(diǎn)歐式距離最小的特征點(diǎn),作為匹配點(diǎn)。
如圖3所示,點(diǎn)P為基準(zhǔn)影像特征點(diǎn),利用式(2)計(jì)算得到待匹配影像上的點(diǎn)P′稱為理論同名點(diǎn),以P′為中心取一個正方形的范圍,搜索范圍內(nèi)的特征點(diǎn),圖3中的黑色特征點(diǎn),構(gòu)成一個特征點(diǎn)集合稱為候選同名點(diǎn)集。從而保證每個特征點(diǎn)均對應(yīng)一個候選同名點(diǎn)集,搜索同名點(diǎn)的范圍由整幅圖像縮小到這個正方形,即對特征點(diǎn)和其對應(yīng)的候選同名點(diǎn)集進(jìn)行匹配,避免對相似性地物的辨別錯誤。
圖3 同名點(diǎn)集
2.3.2 粗差剔除
經(jīng)過精確匹配過程所提取的同名點(diǎn)對中仍然存在錯誤匹配,本文采用隨機(jī)抽樣一致算法(Random Sample Consensus,RANSAC)進(jìn)行誤匹配點(diǎn)的剔除。RANSAC算法常用于計(jì)算機(jī)視覺中,其基本思想是由一組含有錯誤點(diǎn)的樣本數(shù)據(jù)中,正確點(diǎn)滿足初始模型,利用此模型檢驗(yàn)樣本外數(shù)據(jù),得到新點(diǎn)后重新計(jì)算模型,通過這種迭代的方式,實(shí)現(xiàn)由局部到整體的搜索并剔除錯誤點(diǎn),魯棒地估計(jì)模型參數(shù)[11]。簡單的最小二乘法很難剔除大量噪聲點(diǎn),RANSAC存在50%的誤匹配時(shí)仍可以有效獲取同名點(diǎn)[7]。
3.1 實(shí)驗(yàn)數(shù)據(jù)
為了驗(yàn)證算法的有效性,本文選取同一地區(qū)具有相似性場景的異源遙感影像,像對1如圖4(a)所示,左圖為GeoEye影像,拍攝于2009年,分辨率為0.5m,大小為1024像素×1024像素,右圖為IKONOS影像,拍攝于2003年,分辨率為1m,GeoEye影像作為基準(zhǔn)影像,IKONOS影像作為待匹配影像。像對2如圖4(b)所示,左圖為WorldView影像,拍攝于2009年,分辨率為0.5m,右圖為IKONOS影像,拍攝于2006年,分辨率為1m,WorldView影像作為基準(zhǔn)影像,IKONOS為待匹配影像。取GeoEye影像和WorldView影像大小為1024像素×1024像素,IKONOS影像大小為512像素×512像素。圖中可以觀察到像對1中包含大量形狀相近的房屋、道路等地物信息,像對2中則有大量的梯田,運(yùn)用傳統(tǒng)的局部SIFT描述很難將這些地物進(jìn)行區(qū)分,因此論文選擇該數(shù)據(jù)作為所提算法的驗(yàn)證。
圖4 實(shí)驗(yàn)數(shù)據(jù)
3.2 實(shí)驗(yàn)結(jié)果及分析
初始匹配階段構(gòu)建金字塔影像時(shí),考慮到圖像匹配處理的速度與精度,實(shí)驗(yàn)中選擇金字塔影像第二層圖像作為初始匹配階段的圖像,匹配結(jié)果如圖5所示。
圖5 初始匹配結(jié)果
初始匹配階段,像對1和像對2分別獲得同名點(diǎn)對56個和18個,計(jì)算速度快,數(shù)量足夠,分布均勻,能夠?qū)崿F(xiàn)影像對仿射變換模型的計(jì)算。
為了驗(yàn)證本文算法的有效性,論文以SIFT算法為評價(jià)標(biāo)準(zhǔn),分別采用本文的方法和傳統(tǒng)SIFT經(jīng)典方法對實(shí)驗(yàn)數(shù)據(jù)進(jìn)行匹配對比分析。實(shí)驗(yàn)結(jié)果如圖6、圖7所示,表1所列數(shù)據(jù)為兩種匹配方法的對比,“匹配點(diǎn)數(shù)”為未剔除粗差前所得到的匹配點(diǎn)數(shù),“正確點(diǎn)”是剔除粗差后得到的匹配點(diǎn)數(shù),σ(x/y)為x,y方向的中誤差。
圖7 像對2實(shí)驗(yàn)結(jié)果對比
數(shù)據(jù)本文方法匹配點(diǎn)數(shù)正確點(diǎn)數(shù)計(jì)算總時(shí)間/sσ(x/y)SIFT方法匹配點(diǎn)數(shù)正確點(diǎn)數(shù)計(jì)算總時(shí)間/sσ(x/y)像對113911568.11.3/1/0956753.21.6/1.5像對2452639.81.2/1.2211236.31.3/1.1
由圖6和圖7可知,利用本文方法匹配得到的匹配點(diǎn)數(shù)明顯要多于SIFT方法,并且分布的更為均勻。這是由于加入幾何變換約束條件可以使基準(zhǔn)影像中的每個關(guān)鍵點(diǎn)對應(yīng)一個候選同名點(diǎn)集,降低了由于相似性地物存在造成的特征誤匹配概率,大幅提高匹配點(diǎn)的數(shù)量,使得分布更加均勻。
由表1可知,在像對1中SIFT算法匹配得到的正確點(diǎn)數(shù)為21,而本文的方法可得到其5倍的正確點(diǎn)數(shù),表明本文的方法在圖像中存在大量相似性場景且變形較小的情況下不僅能夠得到更多的匹配點(diǎn),而且正確率明顯提高。像對2由于影像間存在劇烈變形變換,本文方法雖未大幅度提高匹配正確率,但是本文方法得到匹配點(diǎn)數(shù)和正確點(diǎn)數(shù)仍然大幅度提高,表明對于變形劇烈的圖像本文算法也能夠獲得更多的正確匹配點(diǎn),而正確匹配點(diǎn)數(shù)提高對影像后續(xù)三維建模等處理具有重要意義。
兩種方法結(jié)果的x,y中誤差處于一個數(shù)量級,均在1~2個像素之間,本文方法的精度略高于SIFT匹配方法。由此可以表明,本文的匹配方法在得到更多的匹配點(diǎn)對的同時(shí)也能保證良好的精度。
在運(yùn)行效率上,雖然本文方法所用時(shí)間高于SIFT算法,但是根據(jù)表1的數(shù)據(jù)本文方法匹配得到總的正確點(diǎn)數(shù)是SIFT算法的4倍,而時(shí)間是原來的1.2倍左右,可見本文提出的基于SIFT特征的匹配策略具有更高的效率。
匹配是遙感圖像處理的核心問題,如何在獲取更多匹配點(diǎn)的同時(shí)保證精度和速度是一個值得研究的問題。本文在SIFT特征匹配的基礎(chǔ)上,提出SIFT算法的改進(jìn)策略,通過實(shí)驗(yàn)對比分析表明本文的方法在匹配點(diǎn)對數(shù)量和正確率上有顯著優(yōu)勢,具有較高的匹配效率。另外,由于論文算法涉及到兩個階段的匹配,從而提高算法的復(fù)雜度,進(jìn)一步提高匹配的速度是今后工作的主要改進(jìn)方向。
[1] 呂金?。谔卣鞯亩嘣催b感圖像配準(zhǔn)技術(shù)研究[D].長沙:國防科學(xué)技術(shù)大學(xué),2008.
[2] LOWE D G.Distinctive image features from scale-invariant keypoints[J].International Journal on Computer Vision,2004,60( 2) : 91-110.
[3] 李曉明,鄭璉,胡占義.基于SIFT特征的遙感影像自動配準(zhǔn)[J].遙感學(xué)報(bào),2006,10(6):885-892.
[4] 劉立,詹茵茵,羅揚(yáng),等.尺度不變特征變換算子綜述[J].中國圖像圖形學(xué)報(bào),2013,18(8):885-892.
[5] 陳抒瑢,李勃,董蓉,等.Contourlet-SIFT特征匹配算法[J].電子與信息學(xué)報(bào),2013,35(5):1215-1221.
[6] 陳夢婷,閆冬梅,王剛.基于Harris 角點(diǎn)和SIFT描述符的高分辨率遙感影像匹配算法[J].中國圖像圖形學(xué)報(bào),2012,17( 11) :1453-1459.
[7] 戴激光,宋偉東,賈永紅,等.一種新的異源高分辨率光學(xué)衛(wèi)星遙感影像自動匹配算法[J].測繪學(xué)報(bào),2013,42(1):80-86.
[8] 袁修孝,李然.帶匹配支持度的多源遙感影像SIFT匹配方法[J].武漢大學(xué)學(xué)報(bào)(信息科學(xué)版),2012,37(12):1438-1442.
[9] 張謙,賈永紅,胡忠文.源遙感影像配準(zhǔn)中的SIFT特征匹配改進(jìn)[J].武漢大學(xué)學(xué)報(bào)(信息科學(xué)版),2013,38(4):455-459.
[10] 吳振國,楊紅喬.一種具有仿射不變性的圖像匹配算法[J].計(jì)算機(jī)工程,2013,39(8):215-222.
[11] HARTLEY R I,ZISSERMAN A.Multiple View Geometry in Compter Vision[M].2nd ed.Cambridge:Cambrige University Press,2004.
[責(zé)任編輯:張德福]
An improved SIFT algorithm matching strategy ofmulti-source remote sensing images
GUO Yiyang ,SONG Weidong ,DAI Jiguang
(School of Geomatics,Liaoning Technical University,Fuxin 123000,China)
Traditional SIFT algorithm presents the problem of low matching efficiency in remote sensing image with a lagrge number of similarity scenes.In order to solve this problem,this paper improves the matching strategy of SIFT algorithmthe.The steps include:in the initial matching stage,determine the geometric relation model between the images by matching based on establishing the pyramid images;then the geometric relation model is used to conteaint matching for the initial images;finally eliminate the mismatching points through RANSAC model.The images with similarity scene matching experiment results verify that this method has obvious efficiency advantage and matching precision compared with the traditional SIFT algorithm.
SIFT algorithm;similarity scenes;matching;geomatics model
引用著錄:郭一洋,宋偉東,戴激光.一種改進(jìn)的多源遙感影像SIFT算法匹配策略[J].測繪工程,2017,26(1):26-31.
10.19349/j.cnki.issn1006-7949.2017.01.006
2015-05-24
郭一洋(1991-),女,碩士研究生.
P237
A
1006-7949(2017)01-0026-06