殷 明,王治成,于立萍
(合肥工業(yè)大學(xué)數(shù)學(xué)學(xué)院,合肥230009)
基于NSST和RI-LPQ的紋理圖像檢索
殷 明,王治成,于立萍
(合肥工業(yè)大學(xué)數(shù)學(xué)學(xué)院,合肥230009)
針對(duì)采用單一方法提取圖像特征時(shí)檢索率不高的問題,結(jié)合非下采樣剪切波變換(NSST)統(tǒng)計(jì)特征和旋轉(zhuǎn)不變的局部相位量化(RI-LPQ)原理,提出一種紋理圖像檢索方法。非下采樣剪切波不僅具有方向選擇性及平移不變性,而且可以對(duì)圖像進(jìn)行有效的稀疏表示,與傳統(tǒng)小波相比,可有效捕捉圖像的邊緣輪廓等紋理信息,與非下采樣輪廓波相比,具有更高的計(jì)算效率。利用廣義高斯分布函數(shù)對(duì)圖像NSST高頻子帶系數(shù)的統(tǒng)計(jì)特征進(jìn)行分析,RI-LPQ描述算子直接提取圖像特征,采用具有權(quán)重系數(shù)的相似性測(cè)度公式對(duì)Brodatz圖像庫(kù)進(jìn)行紋理圖像檢索。實(shí)驗(yàn)結(jié)果表明,與傳統(tǒng)小波和輪廓波的方法相比,NSST統(tǒng)計(jì)特征方法的平均檢索率分別提高4.77%和1.44%,紋理圖像檢索方法的平均檢索率分別提高7.36%和1.98%。
非下采樣剪切波變換;廣義高斯分布;紋理圖像檢索;旋轉(zhuǎn)不變的局部相位量化;特征提取;特征融合
隨著多媒體技術(shù)和計(jì)算機(jī)網(wǎng)絡(luò)的快速發(fā)展,大量數(shù)字圖像和視頻不斷涌現(xiàn),圖像作為最基本且最為廣泛的多媒體信息,已經(jīng)被廣泛應(yīng)用于數(shù)字圖書館、醫(yī)學(xué)圖像管理、遙感圖像處理等多個(gè)領(lǐng)域。如何快速、高效地從大規(guī)模的圖像數(shù)據(jù)中檢索出所需要的圖像是一個(gè)具有重要意義的研究性課題[1]。基于內(nèi)容的圖像檢索(Content Based Image Retrieval, CBIR)技術(shù)在進(jìn)行海量數(shù)據(jù)檢索時(shí)是一種非常有效的方法,而紋理特征則是描述圖像的關(guān)鍵要素之一。紋理圖像檢索系統(tǒng)[2]主要是由特征提取和相似性測(cè)度2個(gè)基本部分組成,為了提高紋理圖像檢索率,需要將兩者緊密結(jié)合。而多尺度變換域統(tǒng)計(jì)建模方法便于將特征提取和相似性測(cè)度有機(jī)結(jié)合起來,也有直接提取圖像的空域特征進(jìn)行紋理圖像檢索。
本文將旋轉(zhuǎn)不變的局部相位量化(Rotation Invariant Local Phase Quantization,RI-LPQ)特征用于紋理圖像檢索,提出一種基于非下采樣剪切波細(xì)節(jié)子帶統(tǒng)計(jì)特征和旋轉(zhuǎn)不變的局部相位量化特征的紋理圖像檢索方法。
20世紀(jì)90年代初,許多研究者開始研究使用小波變換進(jìn)行紋理檢索,通過提取小波細(xì)節(jié)子帶的均值、方差等進(jìn)行紋理檢索。2002年,文獻(xiàn)[3]提出基于離散小波變換域細(xì)節(jié)子帶廣義高斯分布建模的紋理檢索方法,相似性測(cè)度采用由分布參數(shù)組成的具有閉式結(jié)構(gòu)的 Kullback-Leibler距離(KLD)。2007年,文獻(xiàn)[4]提出一種在基于離散小波變換域Laplacian混合建模的檢索方法,其中模型參數(shù)有EM算法估計(jì)、相似性測(cè)度。在變換域上提出一種檢索方法,將細(xì)節(jié)子帶幅值建模為Weibull分布或Gammma分布,相似性測(cè)度采用KLD距離,獲得較好的圖像檢索率。
但是傳統(tǒng)小波變換方向選擇性上只能使用水平、垂直、對(duì)角3個(gè)有限的方向去捕獲邊緣特征,不能有效表達(dá)圖像的邊緣幾何特征。為了靈活地捕捉紋理圖像豐富的方向信息,具有方向選擇性和各向異性的多尺度幾何方法迅速發(fā)展起來,多尺度幾何分析方法相比于傳統(tǒng)小波有效地提高了圖像特征的刻畫能力,通常的多尺度幾何分析方法有:脊波(Ridgelet),曲線波(Curvelet),條帶波(Bandelet),輪廓波(Contourlet),剪切波(Shearlet)等[5]。2007年,文獻(xiàn)[6]提出利用廣義高斯模型對(duì)Contourlet變換子帶系數(shù)進(jìn)行建模提取圖像特征的方法,然后進(jìn)行紋理檢索。2011年,文獻(xiàn)[7]在Curvelet域提出綜合香農(nóng)熵與頻域子帶能量特征的圖像檢索算法,用香農(nóng)熵進(jìn)行預(yù)分類,用頻域子帶能量特征進(jìn)行相似性計(jì)算,獲得了比較好的檢索率。文獻(xiàn)[8]在Contourlet變換域上提出一種基于方向子帶系數(shù)的GGD混合建模的檢索方法,Contourlet變換具有良好的多分辨率、局部化和多方向性等特性,有效提高了檢索的性能。但是由于執(zhí)行Contourlet變換過程中采用了下采樣操作,因此Contourlet變換不具備平移不變性且子帶存在混疊現(xiàn)象,這在一定程度上削弱了Contourlet變換的方向選擇性。為了解決這一問題,文獻(xiàn)[9]提出了具有平移不變性的非下采樣Contourlet變換(Nonsubsampled Contourlet Transform,NSCT)。文獻(xiàn)[10]提出以非下采樣Contourlet變換不同子帶和不同方向變換系數(shù)矩陣的均值和方差為特征向量,進(jìn)行圖像的檢索,獲得較好的檢索率。2011年,文獻(xiàn)[11]提出結(jié)合改進(jìn)KLD度量的抗混疊輪廓波隱馬爾科夫樹(HMT)紋理圖像檢索方法,檢索率有所提高。2013,文獻(xiàn)[12]利用非下采樣Contourlet變換,分別對(duì)低頻子帶系數(shù)和高頻子帶系數(shù)處理,提取尺度間和尺度內(nèi)的紋理特征,并經(jīng)過特征融合形成較好描述圖像紋理信息的特征向量,取得較好的圖像檢索率,但是非下采樣Contourlet變換運(yùn)行時(shí)間較長(zhǎng)且計(jì)算效率較低。
2007年,文獻(xiàn)[13]提出一種新的多尺度幾何分析工具——剪切波變換,它可以對(duì)圖像進(jìn)行稀疏表示且產(chǎn)生最優(yōu)逼近。相較于Contourlet變換,雖然實(shí)現(xiàn)過程類似,但是剪切波變換時(shí)沒有方向數(shù)目和支撐基尺寸大小的限制,而且剪切波實(shí)現(xiàn)過程具有更高效的計(jì)算效率,但由于剪切波離散化過程也采用了下采樣操作,因此不具備平移不變性。非下采樣剪切波不僅具有各向異性及方向選擇性,而且具有平移不變性。因而非下采樣剪切波比小波變換和Contourlet能更有效地捕捉圖像的紋理信息,更適合紋理圖像檢索。旋轉(zhuǎn)不變的局部相位量化(Rotation Invariant Local Phase Quantization,RI-LPQ)特征是一種紋理描述算子,具有較強(qiáng)的紋理描述效果。
3.1 剪切波變換
非下采樣剪切波變換(Nonsubsampled Shearlet Transform,NSST)由非下采樣金字塔分解和剪切波濾波器組2個(gè)部分組成,具有方向敏感性、平移不變性及穩(wěn)定性等許多優(yōu)點(diǎn),它是圖像信號(hào)(如邊緣輪廓)真正的二維稀疏表示。
合成小波[13]是通過經(jīng)典仿射理論提出的一種有效解決幾何和多分辨率分析這一綜合問題而提出來的,當(dāng)維數(shù)為2時(shí),合成膨脹的仿射系統(tǒng)表示形式如下:
3.2 剪切波支撐基和小波支撐基的比較
剪切波變換[14]具有很好的局部化特性,剪切波變換使用類似梯形結(jié)構(gòu)來逼近圖像,每一個(gè)剪切波支撐大小近似為22j×2j、線方向斜率為2-jl(l為分解級(jí)數(shù),j為尺度)的梯形結(jié)構(gòu),如圖1(a)所示,具有方向性和各向異性,剪切波系數(shù)對(duì)于邊緣有更稀疏的表達(dá)。而二維小波基是由一維小波基張量構(gòu)成得到的支撐基缺乏方向性,不具有各向異性,只限于用大小近似為2j(j為尺度)的正方形支撐區(qū)間來逼近圖像,不同大小變成的正方形對(duì)于不同的小波分辨率,當(dāng)分辨率足夠精細(xì)時(shí),非零小波系數(shù)以指數(shù)形式增加,出現(xiàn)了大量不可忽略的系數(shù),只能通過點(diǎn)來捕獲圖像邊緣輪廓,不能稀疏地表示圖像特征,如圖1(b)所示。
圖1 剪切波和小波支撐基
3.3 非下采樣剪切波的離散化
非下采樣剪切波變換的離散化[15]過程主要通過非下采樣的金字塔濾波器組和剪切波濾波器實(shí)現(xiàn)。非下采樣金字塔濾波器實(shí)現(xiàn)非下采樣剪切波變換的多尺度剖分,圖像經(jīng)k級(jí)非下采樣金字塔濾波器分解可以得到k+1個(gè)與原圖像大小相同的子帶圖像。剪切濾波器完成非下采樣剪切波變換的方向局部化,標(biāo)準(zhǔn)的剪切波變換中使用的剪切濾波器是在偽極化網(wǎng)格中通過窗函數(shù)的平移操作實(shí)現(xiàn)的,因?yàn)閷?shí)現(xiàn)過程需要下采樣,所以不具備平移不變性。非下采樣剪切波變換把標(biāo)準(zhǔn)的剪切波濾波器從偽極化網(wǎng)格系統(tǒng)映射到笛卡爾坐標(biāo)系統(tǒng),通過傅里葉變換,可以直接通過二維卷積完成,避免了下采樣操作,從而具有平移不變性。如圖2所示 zoneplate圖經(jīng)過NSST變換兩級(jí)分解,圖2(a)是 zoneplate,圖2(b)是得到的各級(jí)細(xì)節(jié)子帶。非下采樣剪切波不僅具有上述剪切波具有方向性和各向異性等優(yōu)良特性,而且具有平移不變特性,能夠更好地捕獲圖像信息。
圖2 zoneplate圖的NSST變換
在多尺度變換域上對(duì)細(xì)節(jié)子帶系數(shù)采用零均值的廣義高斯分布(Generalized Gaussian Distribution, GGD)建模已得到廣泛應(yīng)用[16]。經(jīng)過多次實(shí)驗(yàn)發(fā)現(xiàn),自然圖像的非下采樣剪切波細(xì)節(jié)子帶系數(shù)的統(tǒng)計(jì)分布具有與小波系數(shù)類似的非高斯性,即基本上在零附近對(duì)稱分布,在零點(diǎn)處形成一個(gè)尖峰,很長(zhǎng)的拖尾。因此,本文采用零均值的GGD對(duì)非下采樣剪切波細(xì)節(jié)子帶進(jìn)行建模。
廣義高斯模型的概率分布函數(shù)為:
圖3 D56的NSST子帶系數(shù)統(tǒng)計(jì)信息
5.1 局部相位量化
LPQ[17]是用來處理空間模糊圖像紋理的描述算子,具有模糊不變性。圖像的空間模糊可以表述為圖像強(qiáng)度和一個(gè)點(diǎn)擴(kuò)散函數(shù)(PSF)的卷積。在頻域內(nèi),結(jié)果是一個(gè)乘積的形式G=F·H,其中,G,H,F分別代表模糊圖像、原始圖像和點(diǎn)擴(kuò)散函數(shù)的離散傅里葉變換,從而頻譜的相位關(guān)系可以表示為:∠G=∠F+∠H,當(dāng)點(diǎn)擴(kuò)散函數(shù)是中心對(duì)稱函數(shù)時(shí),它的傅里葉變換H總是實(shí)數(shù),也就是∠H∈{0,π}。對(duì)于一個(gè)規(guī)則的點(diǎn)擴(kuò)散函數(shù)的傅里葉變換H的形狀近視為一個(gè)高斯或辛克函數(shù),這至少保證在低頻上H是定值,即∠H=0,使得∠G=∠F,從而說明該相位特征具有模糊不變性。
LPQ特征計(jì)算圖像f(x)上每一像素點(diǎn)x=[x1,x2]T的鄰域Nx的相位。局部光譜F(u,x)使用離散的STFT計(jì)算得到,其定義為:
其中,μ表示頻率;LPQ分別在μ1=[a,0]T,μ2= [0,a]T,μ2=[a,a]T,μ2=[a,-a]T4個(gè)頻率上計(jì)算傅里葉系數(shù),a足夠小時(shí)滿足H(μi)>0,圖中的每個(gè)像素點(diǎn)可以用一個(gè)向量來表示:
傅里葉系數(shù)的相位信息由F(x)中每一個(gè)分量的實(shí)部和虛部的符號(hào)函數(shù)表示,然后進(jìn)行量化:
5.2 旋轉(zhuǎn)不變的局部相位量化實(shí)現(xiàn)步驟
為了進(jìn)一步提高LPQ的性能,文獻(xiàn)[18]提出了具有旋轉(zhuǎn)不變的LPQ算子,旋轉(zhuǎn)不變的局部相位量化(Rotation Invariant Local Phase Quantization,RILPQ)方法通過估算特征方向和計(jì)算特征方向LPQ特征2個(gè)步驟實(shí)現(xiàn)。
為了達(dá)到模糊不變的效果,僅考慮V(x)的相位。它是通過類似于式(5)中對(duì)G(x)操作得到信號(hào)虛部C(x)=lm{V(x)},特征方向可以通過量化系數(shù)得到,使用一個(gè)復(fù)數(shù)矩:
本文提取二進(jìn)制描述算子,這里的過程類似于最初的局部量化相位,但是每一個(gè)局部鄰域要旋轉(zhuǎn)到方向特征的方向。這一操作實(shí)現(xiàn)可以通過定義特征方向頻率系數(shù)完成:
對(duì)于旋轉(zhuǎn)圖片f′特征方向頻率系數(shù)變?yōu)?
6.1 基于廣義高斯分布的相似性度量算法
6.2 RI-LPQ特征相似性度量
6.3 相似性度量的權(quán)值分配
圖像的NSST統(tǒng)計(jì)特征和LPQ特征可能反映圖像某一方面的特征,對(duì)圖像特征的描述某種程度上具有一定的局限性。為了提高圖像的檢索性能,同時(shí)考慮圖像的NSST統(tǒng)計(jì)特征和LPQ特征,將圖像2種特征的相似性度量分配一定的權(quán)值,2幅圖像pi和pj的相似性度量可以采用將式(7)和式(8)分配一定權(quán)重值,即:
其中,λ為加權(quán)系數(shù)且λ∈[0,1]。
7.1 基于NSST特征和RI-LPQ的檢索算法
算法步驟如下:
(1)依據(jù)非下采樣剪切波原理,對(duì)紋理圖像進(jìn)行3層 NSST分解。其中,第 1層取 4個(gè)方向,第2層取8個(gè)方向,第3層取8個(gè)方向。
(2)對(duì)上述20個(gè)方向細(xì)節(jié)子帶進(jìn)行廣義高斯建模,提取尺度參數(shù)α和形狀參數(shù)β作為紋理圖像的統(tǒng)計(jì)特征。
(3)運(yùn)用RI-LPQ算子直接提取紋理圖像特征。
(4)采用具有權(quán)重系數(shù)的相似性測(cè)度公式式(9),使得上述統(tǒng)計(jì)特征和RI-LPQ特征很好地融合在一起,進(jìn)行紋理圖像檢索。
7.2 實(shí)驗(yàn)結(jié)果及分析
本文從 Brodatz圖像庫(kù)中選取不同自然圖片24幅640×640大小的灰度紋理圖像,將每一幅大小640×640圖像不重疊地分割為25個(gè)128×128的灰度子圖像,把這些子圖放在一起就構(gòu)成了一個(gè)具有600幅灰度紋理圖像的實(shí)驗(yàn)數(shù)據(jù)庫(kù)。為了驗(yàn)證本文紋理圖像檢索算法的性能,將利用上述600幅實(shí)驗(yàn)圖像庫(kù)進(jìn)行以下2個(gè)實(shí)驗(yàn)進(jìn)行比較。
7.2.1 檢索性能比較
在實(shí)驗(yàn)中用到4種方法:(1)DT-CWT+GGD方法。采用文獻(xiàn)[16]提出的使用雙樹復(fù)小波(DTCWT)和廣義高斯模型提取圖像特征,再用式(7)進(jìn)行紋理圖像檢索。(2)Contourlet+GGD方法。采用文獻(xiàn)[6]中提出的基于Contourlet變換和廣義高斯模型提取圖像紋理特征,再用式(7)進(jìn)行紋理圖像檢索。(3)NSCT+GGD方法。利用文獻(xiàn)[19]中的方法,采用非下采樣Contourlet變換(NSCT)和廣義高斯模型提取圖像紋理特征,再用式(7)進(jìn)行紋理圖像檢索。(4)NSST+GGD方法。本文所采用的方法之一即非下采樣剪切波統(tǒng)計(jì)特征方法。
從表1中可以看到,利用非下采樣剪切波能獲得較好的圖像檢索率,平均檢索率較DT-CWT+ GDD方法提高了4.77%,較Contourlet+GGD方法提高了1.14%,與NSCT+GGD相比檢索率稍顯不足,但NSCT+GGD計(jì)算復(fù)雜且運(yùn)行時(shí)間比較長(zhǎng)。
表1 不同方法的檢索性能比較
7.2.2 運(yùn)行時(shí)間比較
本文實(shí)驗(yàn)采用的計(jì)算機(jī)為2.53 GHz英特爾四核處理器,在Matlab 2009a環(huán)境下,使用多尺度幾何分析對(duì)100幅128×128灰度紋理圖像進(jìn)行分解和提取統(tǒng)計(jì)特征的平均用時(shí)比較如表2所示。
表2 不同方法的運(yùn)行時(shí)間比較
綜合表1和表2可以看出,NSST統(tǒng)計(jì)特征方法具有比較好的檢索效率和運(yùn)算效率。
7.2.3 LBP與RI-LPQ的檢索性能比較
對(duì)2種方法進(jìn)行比較:(1)LBP方法:利用局部二值模式(LBP)提取特征,然后用歐氏距離進(jìn)行紋理圖像檢索。(2)RI-LPQ:利用旋轉(zhuǎn)不變的局部相位量化(RI-LPQ)算子提取特征,然后用歐氏距離進(jìn)行圖像檢索。兩者檢索性能比較如表3所示。
表3 LBP和RI-LPQ紋理檢索性能比較
從表3看出RI-LPQ比LBP具有較好的紋理圖像檢索性能,這是因?yàn)?RI-LPQ具有模糊旋轉(zhuǎn)不變性。
由表4可以看出,單一地采用某一種方法獲得的檢索率稍低。這是因?yàn)槟承┘y理圖像具有豐富的信息,單一特征難以對(duì)一幅圖像進(jìn)行較好的描述。比如本文所選圖像D62,如果單獨(dú)采用NSST邊緣統(tǒng)計(jì)特征進(jìn)行紋理檢索,其平均檢索率只有70.67%;單獨(dú)采用局部相位量化LPQ算子提取特征進(jìn)行紋理檢索,也僅有77.00%的平均檢索率,但是通過將2種特征分別進(jìn)行相似性計(jì)算,然后將相似性計(jì)算結(jié)果進(jìn)行歸一化到[0,1],再使用具有權(quán)重系數(shù)的測(cè)度公式進(jìn)行檢索,得到圖像的平均檢索率為89.11%。
表4 權(quán)重系數(shù)λ取不同值時(shí)檢索性能比較
本文在多尺度變換域統(tǒng)計(jì)建模的理論框架下,提出了基于非下采樣剪切波邊緣統(tǒng)計(jì)特征和旋轉(zhuǎn)不變的局部相位量化的紋理圖像檢索方法。首先對(duì)紋理圖像的非下采樣剪切波的細(xì)節(jié)子帶進(jìn)行廣義高斯建模,提取圖像的尺度參數(shù)和形狀參數(shù)作為邊緣統(tǒng)計(jì)特征,并且用旋轉(zhuǎn)不變的局部相位量化算子來提取這些參數(shù)作為圖像的另一特征。然后采用具有權(quán)重系數(shù)的相似性測(cè)度公式,使得2種特征很好地融合在一起,更好地刻畫圖像的特征。實(shí)驗(yàn)結(jié)果表明,與分別使用單一方法相比,本文方法具有較好的檢索效率。
[1] 姚雪彥.基于多尺度幾何分析和LBP的圖像檢索技術(shù)研究[D].開封:河南大學(xué),2011.
[2] 曲懷敬.基于 PDTDFB域混合建模的紋理圖像檢索[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2012,24(10): 1329-1336.
[3] Do M N,Vetterli M.Wavelet-based Texture Retrieval Using Generalized Gaussian Density and Kullback-Leibler Distance[J].IEEE Transactions on Image Processing,2002,11(2):146-158.
[4] Amin T,Zeytinoglu M,Guan L.Application of Laplacian Mixture Model to Image and Video Retrieval [J].IEEE Transactions on Multimedia,2007,9(7): 1416-1429.
[5] 焦李成,譚 山.圖像的多尺度幾何分析:回顧和展望[J].電子學(xué)報(bào),2003,31(12):1975-1981.
[6] 楊家紅,許燦輝,王耀南.基于Contourlet廣義高斯模型的紋理圖像檢索[J].中國(guó)圖象圖形學(xué)報(bào),2007,12 (4):691-694.
[7] 李 健,牛振山.基于曲波的紋理圖像檢索系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[J].計(jì)算機(jī)工程與科學(xué),2011,33(3):62-66.
[8] Allili M S,Baaziz N.Contourlet-based Texture Retrieval Using a Mixture of Generalized Gaussian Distributions [C]//Proc.of Conference on Computer Analysis of Images and Patterns.Berlin,Germany:Springer,2011: 446-454.
[9] Zhou J,Cunha A L,Do M N.Nonsubsampled Contourlet Transform:Construction and Application in Enhancement [C]//Proc.of IEEE International Conference on Image Processing.[S.l.]:IEEE Press,2005:469-472.
[10] 劉明霞,侯迎坤,朱向彩,等.一種利用非下采樣Contourlet變換的紋理檢索方法[J].計(jì)算機(jī)應(yīng)用, 2010,30(1):94-98.
[11] 尚趙偉,趙正輝,龐慶堃,等.基于NACT和HMT模型的紋理圖像檢索[J].計(jì)算機(jī)工程,2011,37(3): 204-206.
[12] 張瑜慧,胡學(xué)龍.基于非下采樣Contourlet變換的紋理圖像檢索算法[J].揚(yáng)州大學(xué)學(xué)報(bào):自然科學(xué)版,2013, 16(1):46-49.
[13] Guo K,Labate D.Optimally Sparse Multidimensional Representation Using Shearlets[J].SIAM Journal on Mathematical Analysis,2007,39(1):298-318.
[14] 王 雷,李 彬,田聯(lián)房.基于平移不變剪切波變換的醫(yī)學(xué)圖像融合[J].華南理工大學(xué)學(xué)報(bào):自然科學(xué)版, 2011,39(12):145-152.
[15] Easley G,Labate D,Lim W Q.Sparse Directional Image Representations Using the Discrete Shearlet Transform [J].Applied and Computational Harmonic Analysis, 2008,25(1):25-46.
[16] Kwitt R,UhlA.LightweightProbabilistic Texture Retrieval[J].IEEE Transactions on Image Processing, 2010,19(1):241-253.
[17] Ojansivu V,Heikkil? J.Blur Insensitive Texture Classification Using Local Phase Quantization[M]// Elmoataz A,Lezoray O,Nouboud F,et al.Image and Signal Processing.Berlin,Germany:Springer,2008: 236-243.
[18] Ojansivu V,Rahtu E,Heikkila J.Rotation Invariant Local Phase Quantization for Blur Insensitive Texture Analysis[C]//Proc. of the 19th International Conference on Pattern Recognition.[S.l.]:IEEE Press, 2008:1-4.
[19] 馬建忠,李海濤,胡地榮.無下采樣輪廓波廣義高斯紋理檢索系統(tǒng)[J].信陽師范學(xué)院學(xué)報(bào):自然科學(xué)版, 2010,23(4):606-609.
編輯 顧逸斐
參考文獻(xiàn)
[1] Sarkar M,Leong T Y.Application of k-nearest NeighborsAlgorithm on BreastCancerDiagnosis Problem[C]//Proc.of American Medical Informatics Association Annual Symposium.Los Angeles,USA: IEEE Computer Society Press,2000:759-763.
[2] Procopiuc O,Agarwal P K,Arge L,et al.Bkd-tree:A Dynamic Scalable kd-tree[C]//Proc.of International Symposium on Spatial and Temporal Databases.Berlin, Germany:Springer,2003:46-65.
[3] Sankaranarayanan J,Samet H,Varshney A.A Fast All Nearest Neighbor Algorithm for Applications Involving Large Point-clouds[J].Computers&Graph,2007,31 (2):157-174.
[4] Connor M,Kumar P.Fast Construction of k-nearest Neighbor Graphs for Point Clouds[J].IEEE Transactions on Visualization&Computer Graphics, 2010,16(4):599-608.
[5] Dickerson M T,Drysdale R L S,Sack J R.Simple Algorithms for Enumerating Interpoint Distance and Finding k Nearest Neighbors[J].International Journal of Computational Geometry and Applications,1992,2(3): 221-239.
[6] Goodsell G.On Finding p-th Nearest Neighbors of Scattered Points in Two Dimensions for Small p[J]. Computer Aided Geometric Design,2000,17(4): 387-392.
[7] 周儒榮,張麗艷,蘇 旭,等.海量散亂點(diǎn)的曲面重建算法研究[J].軟件學(xué)報(bào),2001,12(2):249-255.
[8] 熊邦書,何明一,余華璟.三維散亂數(shù)據(jù)的k個(gè)最近鄰域快速搜索算法[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào), 2004,16(7):909-912.
[9] Piegl L A,Tiller W.Algorithm for Finding All k Nearest Neighbors[J].Computer-aided Design,2002,34(2): 167-172.
[10] 趙儉輝,龍成江,丁乙華,等.一種基于立方體小柵格的k鄰域快速搜索算法[J].武漢大學(xué)學(xué)報(bào):信息科學(xué)版,2009,34(5):615-618.
[11] 馬 娟,方源敏,趙文亮,等.利用空間微分塊與動(dòng)態(tài)球策略的k鄰域搜索算法研究[J].武漢大學(xué)學(xué)報(bào):信息科學(xué)版,2011,36(3):358-362.
[12] 馬驪溟,徐 毅,李澤湘.基于動(dòng)態(tài)網(wǎng)格劃分的散亂點(diǎn)k鄰域快速搜索算法[J].計(jì)算機(jī)工程,2008,34(8): 10-11.
[13] 楊 軍,林巖龍,王陽萍,等.大規(guī)模散亂點(diǎn)的k鄰域快速搜索算法[J].中國(guó)圖象圖形學(xué)報(bào),2013,18(4): 399-406.
[14] Jivani A G.The Novel k Nearest Neighbor Algorithm [C]//Proc.of International Conference on Computer Communicationand Informatics.Coimbatore,India: IEEE Computer Society Press,2013:1-4.
編輯 顧逸斐
Texture Image Retrieval Based on Nonsubsampled Shearlet Transform and Rotation Invariant Local Phase Quantization
YIN Ming,WANG Zhi-cheng,YU Li-ping
(School of Mathematics,Hefei University of Technology,Hefei 230009,China)
For a single method of extracting image feature retrieval defective,this paper proposes a combination of Nonsubsampled Shearlet Transform(NSST)statistical features and Rotation Invariant Local Phase Quantization(RILPQ)texture image retrieval method.NSST exhibits highly directional sensitivity and shift invariance,even it can be sparse representation of the image.In contrast,NSST acquires the natural texture and edge information with the traditional wavelet and has higher computational efficiently with nonsubsampled contourlet transform.This paper acquires the statistical features of the image NSST coefficients by Generalized Gaussian Distribution(GGD)function.Image features are directly extracted by RI-LPQ description operator.Texture images on the Brodatz image database are retrieved by the formula of similarity measure with weight coefficients.Experimental results show that average retrieval rate of NSST statistical features method is 4.77% and 1.44% higher than traditional wavelet method and Contourlet method respectively.The average retrieval rate of this paper method based on fused features is 7.36% and 1.98% higher than NSST method and RI-LPQ method respectively.
Nonsubsampled Shearlet Transform(NSST);Generalized Gaussian Distribution(GGD);texture image retrieval;Rotation Invariant Local Phase Quantization(RI-LPQ);feature extraction;feature fusion
1000-3428(2014)10-0258-06
A
TP391.41
10.3969/j.issn.1000-3428.2014.10.048
安徽省自然科學(xué)基金資助項(xiàng)目(1308085MA09);安徽省教育廳基金資助項(xiàng)目(2013AJZR0039);合肥工業(yè)大學(xué)博士專項(xiàng)科研基金資助項(xiàng)目(2012HGB0653)。
殷 明(1962-),男,教授、博士,主研方向:小波分析,圖形圖像處理;王治成,碩士研究生;于立萍,講師、碩士。
2013-09-16
2013-11-17E-mail:ymhfut@126.com
中文引用格式:殷 明,王治成,于立萍.基于NSST和RI-LPQ的紋理圖像檢索[J].計(jì)算機(jī)工程,2014,40(10): 258-263,269.
英文引用格式:Yin Ming,Wang Zhicheng,Yu Liping.Texture Image Retrieval Based on Nonsubsampled Shearlet Transform and Rotation Invariant Local Phase Quantization[J].Computer Engineering,2014,40(10):258-263,269.