• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于粒子群優(yōu)化的圖像自適應(yīng)尺度空間劃分方法研究

      2018-07-04 10:38:06徐久成王煜堯
      關(guān)鍵詞:尺度空間特征描述尺度

      徐久成,王煜堯,董 婉

      1(河南師范大學(xué) 計(jì)算機(jī)與信息工程學(xué)院,河南 新鄉(xiāng) 453007)

      2(河南省高校計(jì)算智能與數(shù)據(jù)挖掘工程技術(shù)研究中心,河南 新鄉(xiāng) 453007)

      1 引 言

      近年來(lái),人工智能在理論研究和實(shí)際應(yīng)用方面都取得了很大的進(jìn)展,其中,圖像識(shí)別是人工智能發(fā)展進(jìn)程中的重要組成部分.在圖像識(shí)別的過(guò)程中,如何從原始的圖像中提取有鑒別力的描述子,對(duì)于圖像識(shí)別的結(jié)果起著至關(guān)重要的作用.特征匹配則是檢測(cè)提取特征的一種有效的方法,其應(yīng)用領(lǐng)域包括共同分割[1,2],圖像匹配[3,4],目標(biāo)探測(cè)[5,6],圖像配準(zhǔn)[7,8]等許多方面.特征匹配結(jié)果的優(yōu)劣依賴(lài)于是否提取到精確的圖像局部特征和健壯的特征描述.

      從20世紀(jì)80年代開(kāi)始,人們已經(jīng)開(kāi)始進(jìn)行簡(jiǎn)單的圖像領(lǐng)域研究.但是由于計(jì)算機(jī)硬件的限制,當(dāng)時(shí)的圖像領(lǐng)域研究只能采用一些特征點(diǎn)的對(duì)應(yīng)關(guān)系做射影幾何,選擇一些線條作形狀的分析,Harris角點(diǎn)探測(cè)子[9]就屬于其中有關(guān)圖像特征的研究成果.到了90年代末本世紀(jì)初,隨著計(jì)算機(jī)硬件的革新,大批高效的圖像描述子提取方法被提出,其中包括Lowe提出的SIFT特征檢測(cè)和局部描述子[10],其通過(guò)收集梯度直方圖來(lái)得到最終的圖像描述.直至今日,仍有大批的學(xué)者[11-15]采用機(jī)器學(xué)習(xí)的方法來(lái)建立基于SIFT描述子的更加豐富的局部特征描述.

      除了SIFT圖像特征描述子,一些實(shí)值描述子[16-18]也相繼被提出.Wang等人利用圖像(塊)整體的亮度順序信息將圖像塊分割為若干個(gè)局部子區(qū)域,提出了用來(lái)刻畫(huà)圖像局部亮度順序信息的LIOP特征描述子[17].Hauagge和Snavely提出了基于圖像對(duì)稱(chēng)性的SYMD圖像特征描述子[18],該描述子在識(shí)別具有對(duì)稱(chēng)性質(zhì)的圖像時(shí)具有很好的性能.除了這些實(shí)值描述子,許多二進(jìn)制描述子[19-21]也不斷被提出.其中,Rublee等人在BRISK[19]的基礎(chǔ)上,提出了更加快速的二進(jìn)制ORB描述子[20],其具有旋轉(zhuǎn)不變性和抗噪的優(yōu)點(diǎn).另外,還有一些利用學(xué)習(xí)算法的特征提取方法,但是他們的有效性經(jīng)常嚴(yán)重依賴(lài)訓(xùn)練的數(shù)據(jù)集.例如,Trzcinski等提出的BinBoost方法[22],采用一種類(lèi)似AdaBoost的方法,在梯度域內(nèi)使用正負(fù)patch對(duì)來(lái)訓(xùn)練生成的二進(jìn)制描述子,在patch數(shù)據(jù)集[23]上經(jīng)常優(yōu)于很多方法,但是在其它的一些圖像匹配數(shù)據(jù)集上它的性能就不好,相同的結(jié)論同樣被許多學(xué)者所證實(shí)[15-21].基于CNN生成的特征描述子[24-26],雖然取得了很好的效果,但是卻生成了將近有4000維的描述子.

      最近,學(xué)者們發(fā)現(xiàn),相比指定每一個(gè)特征一個(gè)探測(cè)尺度并在每一個(gè)特定的尺度上提取特征描述子的描述子提取方法[10,16,20,22],融合多個(gè)采樣尺度的描述子[13-15]能夠獲得更加有效的特征描述.Hassner等人使用低維線性空間來(lái)近似代替一組在多尺度提取的SLS特征描述子[13].Dong等人提出了DSP-SIFT特征描述子[14],同樣通過(guò)采樣尺度空間,而不是在采樣尺度上的描述子上執(zhí)行pooling.Yang等人提出了ASV-SIFT特征描述子[15],通過(guò)不同尺度間的差異來(lái)測(cè)量特征尺度間的穩(wěn)定性.然而,這些基于多個(gè)采樣尺度空間的特征描述子提取方法在尺度空間的范圍以及分布上依靠經(jīng)驗(yàn),缺少了靈活性.例如,在Hassner提出的SLS特征描述子提取方法[13]中,他們主觀地在0.5到12的區(qū)間內(nèi)線性等分為20個(gè)尺度;在Dong提出的DSP-SIFT特征描述子提取方法[14]中,他們主觀地1/6到3/4的區(qū)間內(nèi)線性等分為15個(gè)尺度;在Yang提出的ASV-SIFT特征描述子提取方法[15]中,他們主觀地1/6到3的區(qū)間內(nèi)線性等分為若干個(gè)尺度.因此,本文提出一種自適應(yīng)的尺度空間劃分方法(PSO-ASV),采用基本的粒子群算法,自適應(yīng)地找尋到最佳的尺度劃分方案.

      2 相關(guān)工作

      2.1 SIFT 描述子

      尺度不變特征轉(zhuǎn)換(Scale-Invariant Feature Transform,SIFT)[10]是一種有效的用來(lái)探測(cè)與描述圖像中局部特征的算法,其在空間尺度中尋找極值點(diǎn),然后提取出相關(guān)的位置、尺度和旋轉(zhuǎn)不變量.SIFT圖像特征描述子的提取主要分為兩步:特征點(diǎn)的探測(cè)和描述子的生成.

      圖像I(x,y)通過(guò)與實(shí)現(xiàn)尺度變換的高斯函數(shù)G(x,y,σ)[27]的卷積運(yùn)算,進(jìn)而構(gòu)建尺度空間L(x,y,σ) :

      L(x,y,σ)=G(x,y,σ)*I(x,y)

      (1)

      其中,高斯函數(shù)G(x,y,σ)為:

      (2)

      在尺度空間采用高斯差分(DoG)函數(shù)探測(cè)到方向和尺度不變特性的特征點(diǎn).通過(guò)對(duì)比度去除一些對(duì)比度較低的特征點(diǎn),另外還去除一些不穩(wěn)定的邊緣響應(yīng)點(diǎn).計(jì)算出探測(cè)到的特征點(diǎn)與其附近像素間的梯度方向分布特性,選取梯度值最大的方向?yàn)楫?dāng)前特征點(diǎn)的方向,使得提取的局部描述子具有旋轉(zhuǎn)不變的特性.采用梯度直方圖的方式,每一個(gè)特征點(diǎn)最終生成了一個(gè)128維的特征描述向量.梯度的計(jì)算如下:

      m(x,y)=

      (3)

      θ(x,y)= tan-1((L(x,y+1)-L(x,y-1))/

      (L(x+1,y)-L(x-1,y)))

      (4)

      其中,m(x,y)和θ(x,y)分別為在特征點(diǎn)(x,y)處梯度的模值和方向.

      2.2 累積穩(wěn)定性投票

      累積穩(wěn)定性投票(Accumulated stability voting,ASV)與SLS[13],DSP-SIFT[14]類(lèi)似,都是在多尺度空間上提取特征描述子.首先,在被探測(cè)尺度σ的近鄰尺度(λsσ,λlσ)范圍內(nèi)線性等分地采樣ns個(gè)尺度.其中,λs表示最小尺度的縮放比例;λl表示最大尺度的縮放比例.

      然后在每一個(gè)采樣的尺度的同一個(gè)特征點(diǎn)上提取一個(gè)SIFT描述子,并求出在兩個(gè)不同的尺度采樣的SIFT描述子的差的絕對(duì)值vi,j.vi,j用來(lái)度量尺度i和尺度j之間的每一個(gè)特征點(diǎn)之間的穩(wěn)定性,表示為:

      vi,j=xi-xj

      (5)

      其中,xi和xj是從i和j(1≤i,j≤ns)兩個(gè)不同的尺度提取的SIFT描述子,運(yùn)算符 | · | 表示輸入向量的每一個(gè)元素的絕對(duì)值.由于在每一個(gè)尺度上的每一個(gè)特征點(diǎn)都對(duì)應(yīng)一個(gè)128維的SIFT描述子,因此,尺度之間的穩(wěn)定性可以另表示為:

      (6)

      hm=θt(vm|tm)

      (7)

      其中,θt為閾值函數(shù),tm為選定的閾值.最后,對(duì)所有尺度對(duì)所得的二進(jìn)制形式的穩(wěn)定性hm執(zhí)行pooling,得到度量穩(wěn)定性的實(shí)值描述子C:

      (8)

      最終得到的描述子C即為ASV-SIFT.

      3 基于PSO的自適應(yīng)尺度劃分的描述子生成

      近年來(lái),實(shí)驗(yàn)表明融合多個(gè)采樣尺度的描述子[13-15]能夠獲得更加有效的特征描述.尺度的劃分在此類(lèi)方法中起到至關(guān)重要的作用,然而,如何進(jìn)行尺度的劃分卻沒(méi)有一個(gè)準(zhǔn)確的方法.在基于尺度空間的特征描述方法中,都采用主觀的經(jīng)驗(yàn)來(lái)進(jìn)行較為合理的尺度劃分,并沒(méi)有一種高效的尺度劃分方法.因此,我們提取了一種基于粒子群算法[27]的自適應(yīng)尺度劃分方法,并將其應(yīng)用于ASV描述子提取方法中,最終得到高效的描述子提取方法(AD-ASV).

      在基于多個(gè)采樣尺度的描述提取算法中,λs和λl分別表示最小尺度和最大尺度的縮放比例,兩者的取值直接影響著最終提取的描述子能否有準(zhǔn)確的圖像描述,采用粒子群優(yōu)化算法,來(lái)自適應(yīng)地尋找到能夠準(zhǔn)確描述圖像信息時(shí)λs和λl的值.

      首先,隨機(jī)選取范圍為1到10的值作為λs和λl的初始值,同時(shí)作為粒子群算法的初始值.采用初始的λs和λl值作為初始的尺度劃分方式,通過(guò)ASV-SIFT方法計(jì)算出當(dāng)下的適應(yīng)值,然后對(duì)第i個(gè)粒子的速度和位置進(jìn)行更新,更新方式如下:

      vid=vid+c1r1(pid-xid)+c2r2(pgd-xgd)

      (9)

      xid=xid+vid

      (10)

      其中,vid和xid分別為粒子的速度和位置,pid和pgd分別是第i個(gè)粒子和整個(gè)粒子群迄今為止搜索到的最優(yōu)位置,c1和c2是非負(fù)的學(xué)習(xí)因子,r1和r2是介于0和1之間的隨機(jī)數(shù).

      迭代中止條件根據(jù)粒子群當(dāng)前搜索到的最優(yōu)位置是否大于同等設(shè)置下的ASV的最優(yōu)值.如果大于采用ASV得到的值,則終止迭代并返回當(dāng)前搜索到的最優(yōu)位置對(duì)應(yīng)的λs和λl的值.完整的算法流程見(jiàn)算法1.

      算法1. 基于PSO的自適應(yīng)尺度劃分的描述子生成算法.

      輸入:群體規(guī)模m,加速常數(shù)c1和c2,最大代數(shù)Gm

      輸出:適應(yīng)值mAP,最小尺度的縮放比例λs和最大尺度的縮放比例λl

      Step1. 初始化一群群體規(guī)模為m的粒子,包括每個(gè)粒子初始位置xid和速度vid;

      Step2. 采用ASV描述子提取方法,計(jì)算每個(gè)粒子的適應(yīng)值mAP,即圖像特征點(diǎn)的匹配準(zhǔn)確率;

      Step3. 對(duì)每個(gè)粒子,如果它的適應(yīng)值mAP大于它經(jīng)歷過(guò)的最好位置pbest的適應(yīng)值mAPpb,則將其作為當(dāng)前的最好位置pbest并將其適應(yīng)值更新為mAPpb;

      Step4. 對(duì)每個(gè)粒子,如果它的適應(yīng)值mAP大于全局所經(jīng)歷最好位置gbest的適應(yīng)值mAPgb,則將其作為當(dāng)前全局的最好位置gbest并將其適應(yīng)值更新為mAPgb;

      Step5. 根據(jù)公式(9)和公式(10)來(lái)更新粒子的速度和位置;

      Step6. 如未找到一個(gè)優(yōu)于在相同條件下ASV達(dá)到的mAP或未達(dá)到預(yù)設(shè)最大代數(shù)Gm,返回Step2;反之,則輸出當(dāng)前的適應(yīng)值mAP以及相應(yīng)的λs和λl;

      Step7. 算法結(jié)束.

      4 實(shí)驗(yàn)與結(jié)果

      4.1 數(shù)據(jù)集

      本文將在Oxford[28]和Fischer[24]兩個(gè)圖像匹配數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)來(lái)驗(yàn)證所提算法的有效性.Oxford數(shù)據(jù)集包含模糊、壓縮、視角變化和光照等變換的40個(gè)圖像對(duì);Fischer數(shù)據(jù)集彌補(bǔ)了Oxford數(shù)據(jù)集變換類(lèi)型不足的缺陷,提供了包含模糊、縮放、旋轉(zhuǎn)、視角變化和非線性變換等變換更加多樣的400個(gè)圖像對(duì).

      4.2 實(shí)驗(yàn)設(shè)置與分析

      所有的實(shí)驗(yàn)將在Ubuntu 12.04上進(jìn)行,采用Matlab R2012a編程軟件.采用VLFeat工具箱[29]提取經(jīng)典的描述子,例如SIFT描述子,LIOP描述子等.采用Mikolajczyk和Schmid的結(jié)果評(píng)價(jià)方法[30],計(jì)算各個(gè)算法的匹配和實(shí)際匹配的交除并值(intersection-over-union,IoU),如果超過(guò)50%,就認(rèn)定該匹配是正確的.相比其它基于尺度空間的描述子提取方法,ASV方法由于獲得了更好的匹配結(jié)果,因此,本文提出的自適應(yīng)尺度劃分方法將應(yīng)用在ASV描述子提取方法上.

      圖1 不同的描述子對(duì)應(yīng)的平均準(zhǔn)確率Fig. 1 Mean average precision of different descriptors

      在不同的尺度劃分?jǐn)?shù)目上比較本文所提PSO-ASV方法與多種相關(guān)方法的平均匹配準(zhǔn)確率mAP.在Oxford數(shù)據(jù)集和Fischer數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果如圖1所示.

      表1 不同描述子的平均準(zhǔn)確率比較Table 1 Comparison of mean average precision of different descriptors

      從表1中可以看出,當(dāng)尺度空間的劃分?jǐn)?shù)目達(dá)到10時(shí),本文所提的PSO-ASV方法都優(yōu)于其它方法.其中,SIFT,RAW-PATCH,LIOP都不是基于尺度空間的特征描述子,DSP-SIFT,ASV-SIFT是基于尺度空間的特征描述子.為了能夠進(jìn)一步驗(yàn)證本文所提方法的有效性,本文在Oxford數(shù)據(jù)集上又做了一些對(duì)比實(shí)驗(yàn),在每個(gè)類(lèi)型的圖像對(duì)中選擇變換最大的圖像對(duì)來(lái)繪制出P-R曲線來(lái)評(píng)價(jià)文中所提方法,實(shí)驗(yàn)結(jié)果如圖2所示.

      圖2 Oxford數(shù)據(jù)集的8個(gè)變換最大的圖像對(duì)的P-R曲線Fig. 2 P-R curves of eight extreme pairs in the Oxford dataset

      從圖2可以看出,在多種圖像變換方式中,相比其它方法,PSO-ASV方法大都取得了較好的結(jié)果,只是在對(duì)于視角的變換的wall圖像對(duì)匹配中,效果不明顯.除此之外,本文分析了在不同的圖像變化強(qiáng)度下采用不同的特征描述子實(shí)現(xiàn)的特征點(diǎn)正確匹配數(shù)目,實(shí)驗(yàn)結(jié)果如圖3所示.圖3實(shí)驗(yàn)結(jié)果表明,PSO-ASV方法能夠在模糊、壓縮和光照變化等圖像變換中獲得很好的匹配結(jié)果,但是對(duì)于視角的變換,效果不明顯.

      圖3 在Oxford數(shù)據(jù)集上,不同的描述子在不同的變換強(qiáng)度下的正確特征點(diǎn)匹配數(shù)量Fig. 3 Number of correct correspondences using different descriptors under different transformation magnitudes in the Oxford dataset

      在圖4中,選取其它的基于尺度空間的描述子提取方法與PSO-ASV方法作head-to-head比較,畫(huà)布中的每一個(gè)點(diǎn)代表使用選擇的兩個(gè)特征描述子匹配的其中一個(gè)圖像對(duì)的平均準(zhǔn)確率.從圖4中看到,相比SIFT、DSP-SIFT、ASV-SIFT和1M2M,PSO-ASV能夠取得更好的匹配結(jié)果,也說(shuō)明本文方法獲取了更加精確的圖像描述.

      圖4 PSO-SIFT分別與其它相關(guān)方法的head-to-head比較Fig. 4 Head-to-head comparisons between PSO-SIFT and other relative methods

      5 總 結(jié)

      本文提出了新的圖像尺度空間劃分方法,通過(guò)引入粒子群算法,根據(jù)描述子的提取方式及尺度空間劃分的數(shù)目自適應(yīng)地劃分尺度空間.實(shí)驗(yàn)結(jié)果表明,PSO-ASV方法能夠在任何尺度劃分?jǐn)?shù)目和特征提取方法下,找到更優(yōu)的圖像尺度劃分.雖然PSO-ASV提高了特征匹配的準(zhǔn)確率,但是卻不可避免地增加了時(shí)間的消耗,因此,如何能夠更加高效地自適應(yīng)找尋更優(yōu)的圖像尺度劃分,是我們下一步研究的方向.

      [1] Rubio J,Serrat J,López A,et al.Unsupervised co-segmentation through region matching [C] .Proc of the 25th IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Piscataway,NJ:IEEE,2012:749-756.

      [2] Chen H,Lin Y,Chen B.Co-segmentation guided hough transform for robust feature matching [J].IEEE Transactions on Pattern Analysis and Machine Intelligence(TPAMI),2015,37(12):2388-2401.

      [3] Chen H,Lin Y,Chen B.Robust feature matching with alternate hough and inverted hough transforms [C] .Proc of the 26th IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Piscataway,NJ:IEEE,2013:2762-2769.

      [4] Yang T,Lin Y,Chuang Y.Accumulated stability voting:a robust descriptor from descriptors of multiple scales [C].Proc of the 29th IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Piscataway,NJ:IEEE,2016:327-335.

      [5] Dalal N,Triggs B.Histograms of oriented gradients for human detection [C].Proc of the 18th IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Piscataway,NJ:IEEE,2005,1:886-893.

      [6] Felzenszwalb P,Girshick R,McAllester D,et al.Object detection with discriminatively trained part-based models [J].IEEE Transactions on Pattern Analysis and Machine Intelligence(TPAMI),2010,32(9):1627-1645.

      [7] Liu C,Yuen J,Torralba A.SIFT flow:dense correspondence across scenes and its applications [J].IEEE Transactions on Pattern Analysis and Machine Intelligence(TPAMI),2011,33(5):978-994.

      [8] Hsu K,Lin Y,Chuang Y.Robust image alignment with multiple feature descriptors and matching-guided neighborhoods [C].Proc of the 28th IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Piscataway,NJ:IEEE,2015:1921-1930.

      [9] Harris C,Stephens M.A combined corner and edge detector [C] .Proc of the 4th Alvey Vision Conference,Citeseer,1988:147-151.

      [10] Lowe D.Distinctive image features from scale-invariant keypoints [J].International Journal of Computer Vision(IJCV),2004,60(2):91-110.

      [11] Lazebnik S,Schmid C,Ponce J.Beyond bags of features:spatial pyramid matching for recognizing natural scene categories [C].Proc of the 19th IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Piscataway,NJ:IEEE,2006,2:2169-2178.

      [12] Yang J,Yu K,Gong Y,et al.Linear spatial pyramid matching using sparse coding for image classification [C].Proc of the 22th IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Piscataway,NJ:IEEE,2009:1794-1801.

      [13] Hassner T,Mayzels V,Zelnik-Manor L.On sifts and their scales [C].Proc of the 25th IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Piscataway,NJ:IEEE,2012:1522-1528.

      [14] Dong J,Soatto S.Domain-size pooling in local descriptors:DSP-SIFT [C].Proc of the 28th IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Piscataway,NJ:IEEE,2015:5097-5106.

      [15] Yang T,Lin Y,Chuang Y.Accumulated stability voting:a robust descriptor from descriptors of multiple scales [C] .Proc of the 29th IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Piscataway,NJ:IEEE,2016:327-335.

      [16] Tola E,Lepetit V,F(xiàn)ua P.DAISY:an efficient dense descriptor applied to wide-baseline stereo [J].IEEE Transactions on Pattern Analysis and Machine Intelligence(TPAMI),2010,32(5):815-830.

      [17] Wang Z,F(xiàn)an B,Wu F.Local intensity order pattern for feature description [C] .Proc of the 13th International Conference on Computer Vision(CVPR),Piscataway,NJ:IEEE,2011:603-610.

      [18] Hauagge D,Snavely N.Image matching using local symmetry features [C].Proc of the 25th IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Piscataway,NJ:IEEE,2012:206-213.

      [19] Leutenegger S,Chli M,Siegwart R.BRISK:Binary robust invariant scalable keypoints [C].Proc of the 24th IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Piscataway,NJ:IEEE,2011:2548-2555.

      [20] Rublee E,Rabaud V,Konolige K,et al.ORB:An efficient alternative to SIFT or SURF [C] .Proc of the 13th International Conference on Computer Vision(CVPR),Piscataway,NJ:IEEE,2011:2564-2571.

      [21] Balntas V,Tang L,Mikolajczyk K.BOLD-binary online learned descriptor for efficient image matching [C].Proc of the 28th IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Piscataway,NJ:IEEE,2015:2367-2375.

      [22] Trzcinski T,Christoudias M,F(xiàn)ua P,et al.Boosting binary keypoint descriptors [C].Proc of the 26th IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Piscataway,NJ:IEEE,2013:2874-2881.

      [23] Brown M,Hua G,Winder S.Discriminative learning of local image descriptors[J].IEEE Transactions on Pattern Analysis and Machine Intelligence(TPAMI),2011,33(1):43-57.

      [24] Fischer P,Dosovitskiy A,Brox T.Descriptor matching with convolutional neural networks:a comparison to sift [J].ArXiv Preprint ArXiv:1405.5769,2014

      [25] Han Xu-feng,Leung T,Jia Yang-qing,et al.MatchNet:unifying feature and metric learning for patch-based matching [C] .Proc of the 28th IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Piscataway,NJ:IEEE,2015:3279-3286.

      [26] Zagoruyko S,Komodakis N.Learning to compare image patches via convolutional neural networks[C].Proc of the 28th IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Piscataway,NJ:IEEE,2015:4353-4361.

      [27] Kennedy J,Eberhart R.Particle swarm optimization [C] .Proc of the IEEE International Conference on Neural Networks,Perth,Australia,1995:1942-1948.

      [28] Hua G,Brown M,Winder S.Discriminant embedding for local image descriptors [C].Proc of the11th IEEE International Conference on Computer Vision(ICCV),Piscataway,NJ:IEEE,2007:1-8.

      [29] Vedaldi A,F(xiàn)ulkerson B.VLFeat-an open and portable library of computer vision algorithms [C].Proc of the 18th ACM International Conference on Multimedia,New York:ACM,2010:1469-1472.

      [30] Mikolajczyk K,Schmid C.A performance evaluation of local descriptors [J].IEEE Transactions on Pattern Analysis and Machine Intelligence(TPAMI),2005,27(10):1615-1630.

      猜你喜歡
      尺度空間特征描述尺度
      In the Zoo
      船舶尾流圖像的數(shù)字化處理和特征描述技術(shù)
      基于AHP的大尺度空間域礦山地質(zhì)環(huán)境評(píng)價(jià)研究
      財(cái)產(chǎn)的五大尺度和五重應(yīng)對(duì)
      居住區(qū)園林空間尺度研究
      目標(biāo)魯棒識(shí)別的抗旋轉(zhuǎn)HDO 局部特征描述
      宇宙的尺度
      太空探索(2016年5期)2016-07-12 15:17:55
      基于降采樣歸一化割的多尺度分層分割方法研究
      基于差異的圖像特征描述及其在絕緣子識(shí)別中的應(yīng)用
      基于尺度空間的體數(shù)據(jù)邊界不確定性可視化研究
      西昌市| 黑水县| 庆元县| 南城县| 横山县| 江津市| 大丰市| 文安县| 沁源县| 新蔡县| 从江县| 韩城市| 镇宁| 西充县| 微山县| 汤阴县| 吴堡县| 太原市| 中西区| 黑龙江省| 迭部县| 蓝田县| 晋城| 图片| 松溪县| 新安县| 九寨沟县| 肃北| 湖南省| 墨竹工卡县| 井冈山市| 襄城县| 怀来县| 红安县| 西乌珠穆沁旗| 福泉市| 彩票| 西城区| 通榆县| 镇坪县| 潮安县|