• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      位圖局部敏感哈希的匹配二進(jìn)制特征搜索算法

      2018-06-01 06:25:32楊東升廉夢(mèng)佳王麗娜
      關(guān)鍵詞:圖庫關(guān)鍵字二進(jìn)制

      楊東升,張 展,2,廉夢(mèng)佳,2,王麗娜,2

      (1.中國科學(xué)院 沈陽計(jì)算技術(shù)研究所,沈陽 110168;2.中國科學(xué)院大學(xué),北京 100049)

      0 引 言

      二進(jìn)制特征是圖像特征匹配和識(shí)別的先進(jìn)技術(shù),相對(duì)于SIFT[1,2]和SURF[3,4]特征,其具有有效計(jì)算、快速比較和緊密存儲(chǔ)的優(yōu)點(diǎn)。目前,主要二進(jìn)制特征的提取算法有BRIEF[5]、ORB[6]、BRISK[7]、FREAK[8]和CBD[9]等。二進(jìn)制特征即01字符串,一般使用漢明距離和最近鄰比率算法[10](NNDR)判斷兩個(gè)二進(jìn)制特征是否匹配。

      搜索匹配特征向量的算法有多種,但并不適用于搜索匹配二進(jìn)制特征,因此有人提出了適用于搜索匹配二進(jìn)制特征的哈希技術(shù)。例如:Indyk等[11]提出基于哈希表的近似近鄰搜索算法——局部敏感哈希(LSH)算法,其只適用于歐氏空間特征向量的搜索。Lv等[12]提出多探頭局部敏感哈希(MPLSH),有效地解決了高維特征的相似度搜索問題,且可用于匹配二進(jìn)制特征搜索。Kong等[13]提出將曼哈頓哈希表用于大規(guī)模圖像檢索,把二進(jìn)制特征轉(zhuǎn)化為十進(jìn)制數(shù),根據(jù)曼哈頓距離計(jì)算不相似度進(jìn)行查詢。Shrivastave等[14]通過旋轉(zhuǎn)致密化位排列哈希,實(shí)現(xiàn)了高維二進(jìn)制特征的快速近鄰搜索。Lin等[15]提出在高維數(shù)據(jù)中使用決策樹快速監(jiān)督哈希算法。Liong等[16]提出了基于緊湊二進(jìn)制代碼學(xué)習(xí)的深度哈希算法。Lin等[17]提出了二進(jìn)制哈希編碼的深度學(xué)習(xí)算法,實(shí)現(xiàn)了圖像的快速檢索。Norouzi等[18]在緊湊二進(jìn)制代碼中,給出最小虧損哈希算法;之后,采用多索引實(shí)現(xiàn)了在漢明空間的二進(jìn)制代碼子字符串的快速搜索,使在漢明空間的k近鄰(KNN)搜索成為可能[19]。Muja等[20]在使用自動(dòng)算法配置的快速近鄰搜索中,給出多個(gè)隨機(jī)KD樹算法搜索高維匹配特征,在二進(jìn)制特征快速匹配算法中提出了多層次聚類樹(HCT)算法,在高維數(shù)據(jù)可擴(kuò)展近鄰算法[21]中,對(duì)近似最近鄰算法做出總結(jié),并給出相應(yīng)的近似近鄰快速搜索的函數(shù)庫(FLANN)。文獻(xiàn)[22]提出了位圖索引的近鄰搜索算法,具有占用空間少和搜索速度快的優(yōu)點(diǎn)。

      本文提出了快速計(jì)算位圖(FCBM)算法和位圖局部敏感哈希(BMLSH)算法,搜索兩個(gè)數(shù)據(jù)集中的匹配二進(jìn)制特征或相似的二進(jìn)制代碼,以提高匹配特征搜索效率和增加入圍點(diǎn)數(shù)。本文實(shí)驗(yàn)使用文獻(xiàn)[23]給出的圖像數(shù)據(jù)集提取的ORB二進(jìn)制特征,使用入圍點(diǎn)數(shù)、入圍率、平均查詢時(shí)間、平均投影誤差和空間復(fù)雜度等評(píng)價(jià)標(biāo)準(zhǔn),將本文算法與FLANN函數(shù)庫中的二進(jìn)制特征匹配算法(包括LINEAR、MPLSH和HCT等)進(jìn)行對(duì)比。實(shí)驗(yàn)結(jié)果表明:在相同條件下,本文算法的消耗時(shí)間少、搜索到的入圍點(diǎn)數(shù)多、匹配入圍率與平均投影誤差與其他算法接近、消耗的內(nèi)存空間與多探頭局部敏感哈希算法相當(dāng)。

      1 理論基礎(chǔ)

      1.1 二進(jìn)制特征

      二進(jìn)制特征的提取[5,24,25]是根據(jù)特征點(diǎn)鄰域中,對(duì)應(yīng)的“點(diǎn)對(duì)”之間灰度值大小確定特征0、1狀態(tài)的取值,如式(1)所示:

      (1)

      設(shè)L為二進(jìn)制特征的長(zhǎng)度,F(xiàn)代表二進(jìn)制特征,是依次將多個(gè)T(Pa)按順序移位算出的整型數(shù),如式(2)所示:

      (2)

      二進(jìn)制特征(如BRIEF、ORB、BRISK和FREAK特征)在存儲(chǔ)時(shí),依次將每8個(gè)T(Pa)作為一個(gè)無符號(hào)字符類型(uchar,8 bit)存入內(nèi)存,每個(gè)二進(jìn)制特征長(zhǎng)度為L(zhǎng),則每個(gè)二進(jìn)制特征可以用L/8個(gè)無符號(hào)字符型表示。

      1.2 局部敏感哈希

      (3)

      點(diǎn)積的投影使近鄰特征映射到哈希表中相同的位置,需要的條件如下:

      (1)在Rd空間(d維歐氏空間)中,任意特征向量p和q之間的距離小于等于R1,則特征向量p和q被分到同一個(gè)哈希桶的概率PH大于等于p1,如下所示:

      PH=[h(p)=h(q)]≥p1

      for‖p-q‖≤R1

      (4)

      式中:‖?‖為L(zhǎng)2范數(shù)。

      (2)在Rd空間,任意特征向量p和q之間的距離大于等于R2,則特征向量p和q被分到同一個(gè)哈希桶的概率PH很小,小于等于p2,且p2

      PH=[h(p)=h(q)]≤p2

      for ‖p-q‖≥cR1=R2

      (5)

      注意,由于線性點(diǎn)積,兩特征向量p和q所在哈希桶的距離‖h(p)-h(q)‖擁有的量級(jí)分布與‖p-q‖成比例,因此p1>p2。

      1.3 位圖索引

      位圖索引V是一個(gè)長(zhǎng)度為N的聚集位向量[22],每位的狀態(tài)只能是0或1。在位向量V中第i位的狀態(tài),取決于對(duì)應(yīng)的記錄,如果該位置的記錄是t,則該位為1;否則為0。舉例說明:當(dāng)前的文件中,有6個(gè)記錄,每條記錄是(int,binary)的點(diǎn)對(duì),編號(hào)為1到6,并依次為:(30,101),(30,010),(40,011),(50,101),(40,010),(30,011)。

      例子中,有6條點(diǎn)對(duì)記錄,所以位向量長(zhǎng)度為6,第1條、第2條和第6條的整型記錄為30,所以整型記錄30對(duì)應(yīng)的位向量為110001;同理,整型記錄40和50對(duì)應(yīng)的位向量分別為001010和000100。例子中,第1條和第4條的二進(jìn)制記錄為101,所以二進(jìn)制記錄101對(duì)應(yīng)的位向量為100100;同理,二進(jìn)制記錄010和011對(duì)應(yīng)的位向量分別為010010和001001。

      2 位圖局部敏感哈希

      2.1 計(jì)算二進(jìn)制特征的位圖

      二進(jìn)制特征是高維的位向量,比如BRIEF、ORB特征是256位,BRISK、FREAK特征為512位。本文以O(shè)RB二進(jìn)制特征為例,描述本文FCBM算法。ORB特征以無符號(hào)字符型(uchar)的形式存儲(chǔ)在內(nèi)存,所以256位的ORB特征在內(nèi)存中存儲(chǔ)了32個(gè)無符號(hào)字符型數(shù)。FCBM算法的主要目的是讓近鄰的二進(jìn)制特征獲得相同的或近鄰的位圖,并使計(jì)算位圖的速度更快。

      FCBM算法如下:首先從一個(gè)無符號(hào)字符型數(shù)(8 bit)中選取5 bit,組成一個(gè)5 bit的無符號(hào)字符類型數(shù)Si,Si∈[0,31],則長(zhǎng)度為32個(gè)無符號(hào)類型的ORB特征,經(jīng)過以上處理可以得到32個(gè)Si,將Si按照ORB特征中對(duì)應(yīng)無符號(hào)類型數(shù)的排序,依次編號(hào)為1~32,則每個(gè)ORB特征對(duì)應(yīng)的記錄為S=S1S2…S32;Si∈[0,31],即S的每個(gè)位置上的記錄Si∈[0,31]。然后,按照1.3節(jié)的方法計(jì)算位圖,記錄0~31都有一個(gè)對(duì)應(yīng)的位向量設(shè)為Bj,j∈[0,31],將位向量Bj轉(zhuǎn)化為32 bit無符號(hào)整型數(shù),存儲(chǔ)于內(nèi)存中。最后,將近鄰記錄的位向量按位或得到最終位向量作為ORB二進(jìn)制特征的位圖。ORB特征由32個(gè)無符號(hào)字符型組成,只取前4個(gè)對(duì)FCBM算法進(jìn)行舉例說明。

      表1 無符號(hào)字符型的取位Table 1 Getting bits of unsigned characters

      表2 記錄Si和對(duì)應(yīng)的位向量Table 2 Bit vector of Si and

      2.2 哈希表構(gòu)建和位集優(yōu)化查詢

      將每個(gè)二進(jìn)制特征的位圖或其位圖的一部分作為關(guān)鍵字,將關(guān)鍵字與二進(jìn)制特征的ID作為映射存入每個(gè)哈希表相應(yīng)的桶中。每個(gè)哈希表都有一個(gè)與關(guān)鍵字長(zhǎng)度一致的掩碼,目的是再計(jì)算二進(jìn)制特征的位圖時(shí),避開近鄰特征中不一樣的位和降維。一般構(gòu)建多個(gè)哈希表,哈希表中的一個(gè)哈希桶對(duì)應(yīng)一個(gè)關(guān)鍵字,一個(gè)關(guān)鍵字對(duì)應(yīng)一個(gè)或者多個(gè)二進(jìn)制特征ID。因?yàn)镺RB二進(jìn)制特征是由256位組成,即32個(gè)uchar類型,所以O(shè)RB二進(jìn)制特征位圖是32維的位向量,轉(zhuǎn)化成32 bit的無符號(hào)整型數(shù),保存在內(nèi)存中。

      位集(bitset)是快速查詢關(guān)鍵字是否存在的一種算法。本文使用位集對(duì)匹配二進(jìn)制特征的查詢進(jìn)行優(yōu)化,以快速判斷當(dāng)前查詢特征是否存在于哈希表中。初始化位集為0,首先根據(jù)式(6)將哈希表中所有的關(guān)鍵字key存儲(chǔ)到位集bitset[]中,如下所示:

      bitset[key/32]|=(1<<(key%32))

      (6)

      查詢時(shí),根據(jù)式(7)判斷當(dāng)前查詢關(guān)鍵字是否存在于哈希表中:

      bitset[key/32]&(1<<(key%32))!=0

      (7)

      若當(dāng)前計(jì)算結(jié)果為0,則關(guān)鍵字不存在;若計(jì)算結(jié)果不為0,說明關(guān)鍵字存在,則查詢與當(dāng)前哈希表對(duì)應(yīng)的桶。

      2.3 保存查詢信息與特征匹配判斷

      在位集中,若當(dāng)前關(guān)鍵字存在于哈希表中,則查詢關(guān)鍵字對(duì)應(yīng)的哈希桶中所有ID相應(yīng)的二進(jìn)制特征,計(jì)算當(dāng)前關(guān)鍵字相應(yīng)的二進(jìn)制特征與ID相應(yīng)二進(jìn)制特征的漢明距離,當(dāng)遇到與當(dāng)前查詢二進(jìn)制特征的最近鄰特征和次近鄰特征時(shí),保存相應(yīng)的ID以及最近鄰和次近鄰距離。設(shè)最近鄰距離為d1,次近鄰距離為d2,根據(jù)NNDR算法,判斷當(dāng)前查詢特征與ID相應(yīng)的二進(jìn)制特征是否匹配,如式(8)所示:

      R=d1/d2

      (8)

      若滿足閾值條件R<0.6,則匹配;否則不匹配。

      3 實(shí)驗(yàn)驗(yàn)證

      3.1 實(shí)驗(yàn)設(shè)計(jì)

      實(shí)驗(yàn)包括5個(gè)部分:①計(jì)算位圖:提取左、右兩圖像的二進(jìn)制特征,使用FCBM算法,分段依次計(jì)算每個(gè)二進(jìn)制特征對(duì)應(yīng)的位圖。②構(gòu)建哈希表:使用左圖二進(jìn)制特征對(duì)應(yīng)位圖作為關(guān)鍵字,將關(guān)鍵字與二進(jìn)制特征的ID作為映射,存入每個(gè)哈希表里相應(yīng)的桶中,一個(gè)關(guān)鍵字可以對(duì)應(yīng)多個(gè)二進(jìn)制特征的ID。③位集優(yōu)化搜索:將哈希表中的關(guān)鍵字存到位集中,原因是位集可以快速判斷當(dāng)前查詢關(guān)鍵字是否存在于當(dāng)前哈希表中。④保存查詢信息:若右圖特征對(duì)應(yīng)關(guān)鍵字存在于哈希表中,則計(jì)算左圖關(guān)鍵字對(duì)應(yīng)二進(jìn)制特征與當(dāng)前右圖特征的漢明距離,保存當(dāng)前特征的最近鄰和次近鄰距離以及關(guān)鍵字對(duì)應(yīng)特征的ID。⑤匹配入圍點(diǎn)判斷:使用NNDR算法,判斷左、右兩圖二進(jìn)制特征是否匹配,根據(jù)左、右圖像匹配點(diǎn)集合,計(jì)算左圖轉(zhuǎn)到右圖點(diǎn)的旋轉(zhuǎn)矩陣,旋轉(zhuǎn)矩陣乘以左圖點(diǎn)得到的坐標(biāo)與對(duì)應(yīng)右圖點(diǎn)坐標(biāo)的距離叫投影誤差,根據(jù)投影誤差判斷當(dāng)前點(diǎn)是否是入圍點(diǎn),入圍點(diǎn)數(shù)除以匹配點(diǎn)數(shù)即為匹配入圍率。

      實(shí)驗(yàn)使用Windows7操作系統(tǒng),OPENCV圖像處理函數(shù)庫;使用文獻(xiàn)[23]給出圖像數(shù)據(jù)集所提取的ORB二進(jìn)制特征作為算法評(píng)價(jià)數(shù)據(jù)集。文獻(xiàn)[23]給出的圖像數(shù)據(jù)集中,每個(gè)圖庫有6幅圖像,且每個(gè)圖庫里的圖像都是同一場(chǎng)景在不同情況下拍攝的。實(shí)驗(yàn)時(shí)使用其中的5個(gè)圖庫,包括bike、boat、luven、trees和ubc圖庫,同一圖庫將第1幅圖像提取的ORB特征作為訓(xùn)練特征,其他圖像提取的ORB特征作為匹配查詢二進(jìn)制特征,圖庫中每張圖提取的ORB特征數(shù)如表3所示。使用搜索算法,查詢左圖與右圖的匹配二進(jìn)制特征,計(jì)算兩圖的匹配點(diǎn)數(shù)、入圍點(diǎn)數(shù)、入圍率和平均投影誤差等。將本文算法與FLANN函數(shù)庫中的搜索匹配二進(jìn)制特征的算法進(jìn)行對(duì)比,包括LINEAR、MPLSH和HCT算法等。

      表3 提取不同數(shù)據(jù)集中各圖像的ORB特征個(gè)數(shù)Table 3 Number of ORB features for extracting each image in different dataset

      3.2 實(shí)驗(yàn)數(shù)據(jù)及對(duì)比分析

      3.2.1 哈希表數(shù)目不同

      本文BMLSH算法有兩個(gè)變量,分別是哈希表數(shù)和關(guān)鍵字長(zhǎng)度。如圖1所示,本文算法的定量分析圖,設(shè)置關(guān)鍵字長(zhǎng)度為20,提取bike圖庫中bike1圖的ORB特征為5972個(gè),bike2圖的ORB特征為5067個(gè)。由圖1(a)可以看出:本文算法搜索到的入圍點(diǎn)數(shù)在哈希表數(shù)不少于3個(gè)時(shí),入圍點(diǎn)數(shù)大于2300,并且隨著表數(shù)的增加,入圍點(diǎn)數(shù)先是快速增加隨后趨于穩(wěn)定;由圖1(b)可以看出:本文算法的入圍率高,入圍率隨著哈希表數(shù)的增加先是增加隨后趨于穩(wěn)定;由圖1(c)可以看出:本文算法的平均查詢時(shí)間隨著哈希表數(shù)的增加呈線性增長(zhǎng);由圖1(d)可以看出,本文算法搜索到入圍點(diǎn)的平均投影誤差小于1.5 pixel。

      3.2.2 關(guān)鍵字長(zhǎng)度不同

      圖2為不同關(guān)鍵字長(zhǎng)度時(shí)本文算法的性能,定量設(shè)置哈希表數(shù)為5和12,提取bike圖庫中bike1圖的ORB特征為5972個(gè),bike2圖的ORB特征為5067個(gè)。由于3.2.1節(jié)入圍點(diǎn)數(shù)入圍率在哈希表數(shù)為5時(shí)接近最大,在哈希表數(shù)為12時(shí)趨于穩(wěn)定,所以設(shè)置兩個(gè)定量分析:當(dāng)哈希表數(shù)為5時(shí),設(shè)置關(guān)鍵字長(zhǎng)度為14~25;當(dāng)哈希表數(shù)為12時(shí),設(shè)置關(guān)鍵字長(zhǎng)度為15~27。

      圖1 不同哈希表數(shù)量時(shí)本文算法的性能Fig.1 Performance of proposed method under different number of hash tables

      由圖2(a)(b)(c)可知:隨著關(guān)鍵字長(zhǎng)度的增加,入圍點(diǎn)數(shù)先增加后減小,入圍率逐漸減少,平均查找時(shí)間逐漸減少,在關(guān)鍵字長(zhǎng)度為20左右時(shí),入圍點(diǎn)數(shù)最多,入圍率最高,平均查詢時(shí)間適中;由圖2(d)(e)(f)可知:隨著關(guān)鍵字長(zhǎng)度的增加,入圍點(diǎn)數(shù)先增加后減小,入圍率逐漸減少,平均查詢時(shí)間逐漸減少,在關(guān)鍵字長(zhǎng)度為20左右時(shí),入圍點(diǎn)數(shù)最多,入圍率最高,平均查詢時(shí)間適中。

      3.2.3 不同算法性能的對(duì)比

      圖3 使用bike圖庫時(shí)不同算法的性能Fig.3 Performance of different algorithms test bike dataset

      圖3為L(zhǎng)INEAR、MPLSH和HCT算法,與本文BMLSH算法的性能對(duì)比。其中,提取bike圖庫中6張圖像的ORB特征數(shù),如表3所示。本文以bike1作為源圖像提取ORB特征作為訓(xùn)練特征,其他圖像(bike2、bike3、bike4、bike5和bike6)提取的ORB特征作為查詢特征,bike圖庫中的圖像隨著編號(hào)的增加其模糊程度也增加。在相同的情況下,圖3(a)表明本文算法的入圍點(diǎn)數(shù)比其他算法多40個(gè)以上;圖3(b)表明,隨著查詢特征的增加,本文算法所需查詢時(shí)間的增加程度小,所需的查詢時(shí)間少;圖3(c)表明本文算法的查詢?nèi)雵蚀笥?5.8%,與其他算法相當(dāng);圖3(d)表明本文算法平均投影誤差與其他算法接近。

      圖4為使用boat圖庫,不同算法的性能對(duì)比。提取boat圖庫中6張圖像的ORB特征數(shù),如表3所示。boat1~boat6圖像是不同視角不同旋轉(zhuǎn)角度下拍攝的圖像。在相同的情況下,圖4(a)表明本文算法的入圍點(diǎn)數(shù)多比其他算法至少多11個(gè);圖4(b)表明,在查詢特征數(shù)目一定時(shí),本文算法所需查詢時(shí)間少且穩(wěn)定,為622.899~664.01 μs;圖4(c)表明本文算法的查詢?nèi)雵蚀笥?5%,與其他算法相當(dāng);圖4(d)表明本文算法平均投影誤差與其他算法接近。

      3.2.4 特征匹配效果對(duì)比

      圖5 不同算法的入圍點(diǎn)連線圖Fig.5 Inliers connection diagram of different algorithms

      圖5為本文BMLSH算法與其他算法的入圍點(diǎn)連線效果圖。實(shí)驗(yàn)使用boat圖庫,提取boat1和boat2圖像的ORB特征分別為1500和1497個(gè)。本文BMLSH算法搜索到的入圍點(diǎn)數(shù)為330個(gè),MPLSH算法搜到295個(gè),LINEAR算法搜到239個(gè),HCT算法搜索到267個(gè)。比較入圍點(diǎn)連線圖5(a)與圖5(b)(c)(d)可知,本文BMLSH算法的入圍點(diǎn)連線比較稠密,匹配入圍點(diǎn)數(shù)較多。

      表4為不同算法使用luven圖庫查詢匹配特征的入圍點(diǎn)數(shù),1|2是指luven1和luven2組成的圖像對(duì)。表5為不同算法使用luven圖庫查詢匹配特征的平均查詢時(shí)間。由表5可知:本文BMLSH算法查詢的入圍點(diǎn)數(shù)多,比其他算法多9個(gè)以上,平均查詢時(shí)間短,在666.046 μs以下。表6為不同算法使用trees圖庫查詢匹配特征的入圍點(diǎn)數(shù)。表7是不同算法使用trees圖庫查詢匹配特征的平均查詢時(shí)間。由表7可知:本文BMLSH算法的查詢?nèi)雵c(diǎn)數(shù)多,平均查詢時(shí)間最短,在636.796 μs以下。

      表4 luven 圖庫不同算法的入圍點(diǎn)數(shù)Table 4 Number of inliers for different algorithms under luven dataset

      表5 luven圖庫不同算法的平均查詢時(shí)間Table 5 Average query time by different algorithms under luven dataset μs

      表6 trees圖庫不同算法的入圍點(diǎn)數(shù)Table 6 Number of inliers for different algorithms under trees dataset

      表7 trees圖庫不同算法的平均查詢時(shí)間Table 7 Average query time by different algorithms under trees dataset μs

      4 結(jié)束語

      針對(duì)線性搜索、層次聚類樹等查詢匹配二進(jìn)制特征時(shí),效率低和入圍點(diǎn)數(shù)少的問題,本文提出了快速計(jì)算位圖(FCBM)算法以及位圖局部敏感哈希(BMLSH)算法。本文算法可用于匹配二進(jìn)制特征的搜索、二進(jìn)制特征識(shí)別、圖像定位和拼接等領(lǐng)域。實(shí)驗(yàn)證明:在相同條件下,本文算法的消耗時(shí)間少,搜索到的入圍點(diǎn)數(shù)多,入圍率和平均重投影誤差與其他算法接近,消耗的內(nèi)存空間與多探頭局部敏感哈希算法相當(dāng)。

      參考文獻(xiàn):

      [1] Lowe D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision,2004,60(2):91-110.

      [2] 聶海濤,龍科慧,馬軍,等. 基于快速SIFT算法和模糊控制的人臉識(shí)別[J]. 吉林大學(xué)學(xué)報(bào):工學(xué)版,2016,46(2):549-555.

      Nie Hai-tao,Long Ke-hui,Ma Jun,et al. Face recognition based on fast scale invariant feature algorithm and fuzzy control[J]. Journal of Jilin University (Engineering and Technology Edition),2016,46(2):549-555.

      [3] Bay H,Ess A,Tuytelaars T,et al. Speeded-up robust features (surf)[J]. Computer Vision and Image Understanding,2008,110(3):346-359.

      [4] 郭清達(dá),全燕鳴,姜長(zhǎng)城,等. 應(yīng)用攝像機(jī)位姿估計(jì)的點(diǎn)云初始配準(zhǔn)[J]. 光學(xué)精密工程,2017,25(6):1635-1651.

      Guo Qing-da,Quan Yan-ming,Jiang Chang-cheng,et al. Initial registration of point clouds using camera pos estimation[J]. Optics and Precision Engineering,2017,25(6):1635-1651.

      [5] Calonder M, Lepetit V, Strecha C,et al. BRIEF:binary robust independent elementary features[J/OL].[2017-03-22]. http:∥icwww.epfl.ch/~lepetit/papers/calonder_eccv10.pdf.

      [6] Rublee E, Rabaud V, Konolige K, et al. ORB:an efficient alternative to SIFT or SURF[J/OL].[2017-03-25].http:∥www.cs.zju.edu.cn/~gpan/course/materials/ORB.pdf.

      [7] Leutenegger S, Chli M, Siegwart R Y. BRISK: binary robust invariant scalable keypoints[J/OL].[2017-03-23]. http:∥www.robots.ox.ac.uk/~vgg/rg/papers/brisk.pdf.

      [8] Alahi A, Ortiz R, Vandergheynst P. FREAK:fast retina keypoint[J/OL].[2017-03-24]. https:∥infoscience.epfl.ch/record/175537/files/2069.pdf.

      [9] 張展,楊東升. 圓周二進(jìn)制描述符的圖像點(diǎn)特征提取方法[J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2017,29(8):1465-1476.

      Zhang Zhan,Yang Dong-sheng. Image point feature extraction algorithm of circumferential binary descriptor[J]. Journal of Computer-Aided Design & Computer Grphics,2017,29(8):1465-1476.

      [10] Richard Szeliski. 計(jì)算機(jī)視覺-算法與應(yīng)用[M]. 艾海舟,興軍亮譯. 北京:清華大學(xué)出版社,2012:175-176.

      [11] Indyk P, Motwani R. Approximate nearest neighbor: towards removing the curse of dimensionality[J/OL].[2017-03-23]. http:∥www.cs.princeton.edu/courses/archive/spr04/cos598B/bib/IndykM-curse.pdf.

      [12] Lv Qin, Josephson William, Wang Zhe, et al. Multi-probe LSH: efficient indexing for high-dimensional similarity search[J/OL].[2017-03-24]. http://www.cs.princeton.edu/cass/papers/mplsh_vldb07.pdf.

      [13] Kong Wei-hao,Li Wu-jun,Guo Min-yi. Manhattan hashing for large-scale image retrieval[C]∥Proceedings of the 35th International ACM SIGIR Conference on Research and Development in Information Retrieval, New York, NY, USA,2012:45-54.

      [14] Shrivastave Anshumali, Li Ping. Densifying one permutation hashing via rotation for fast near neighbor search[J/OL].[2017-03-23]. http:∥proceedings.mlr.press/v32/shrivastava14.pdf.

      [15] Lin Guo-sheng,Shen Chun-hua,Shi Qin-fen,et al. Fast supervised hashing with decision trees for high-dimensional data[C]∥IEEE Conference on Computer Vision& Pattern Recognition, Columbus, OH, USA, 2014:1971-1978.

      [16] Liong Venice Erin, Lu Ji-wen, Wang Gang, et al. Deep hashing for compact binary codes learning[J/OL]. [2017-03-23].https://www.cv-foundation.org/openaccess/content_cvpr_2015/papers/Liong_Deep_Hashing_for_2015_CVPR_paper.pdf.

      [17] Lin Kevin, Yang Huei-fang, Hsiao Jen-hao, et al. Deep learning of binary hash codes for fast image retrieval[J/OL].[2017-03-22]. http:∥www.iis.sinica.edu.tw/~kevinlin311.tw/cvprw15.pdf.

      [18] Norouzi M, Fleet D J. Minimal loss hashing for compact binary codes[C]∥Proceedings of the 28th International Conference on Machine Learning, Bellevue, Washington, USA,2011:353-360.

      [19] Norouzi M, Punjani A, Fleet D J. Fast search in hamming space with multi-index hashing[J/OL].[2017-03-25]. https:∥www.cs.toronto.edu/~norouzi/research/papers/multi_index_hashing.pdf.

      [20] Muja M, Lowe D G. Fast matching of binary features[C]∥2012 Ninth Conference on Computer and Robot Vision, Toronto, ON, Canada,2012:404-410.

      [21] Muja M, Lowe D G. Scalable nearest neighbor algorithms for high dimensional data[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence,2014,36(11):2227-2240.

      [22] Garcia-Molina H, Ullman J D, Widom J. 數(shù)據(jù)庫系統(tǒng)實(shí)現(xiàn)[M]. 楊冬青,吳愈青,包小源譯. 2版. 北京:機(jī)械工業(yè)出版社,2010:688-693.

      [23] Mikolajczyk K, Schmid C. A performance evaluation of local descriptors[J]. IEEE Transactions on Pattern Analysis &Machine Intelligence,2005,27(10):1615-1630.

      [24] 鄒瑜,梁斌,王學(xué)謙,等. 基于旋轉(zhuǎn)投影二進(jìn)制描述符的空間目標(biāo)位姿估計(jì)[J]. 光學(xué)精密工程,2017,25(11):2958-2967.

      Zou Yu,Liang Bin,Wang Xue-qian,et al. Spacetarget pose estimation based on binary rotational projection histogram[J]. Optics and Precision Engineering,2017,25(11):2958-2967.

      [25] 崔少輝,謝征,王剛,等. 二進(jìn)制魯棒不變尺度特征匹配電子穩(wěn)像[J]. 光學(xué)精密工程,2015,23(9):2715-2723.

      Cui Shao-hui,Xie Zheng,Wang Gang,et al. Feature matching electronic image stabilization based on binary robust in variant scalable keypionts[J]. Optics and Precision Engineering,2015,23(9):2715-2723.

      [26] 羅家祥,林暢赫,王加朋,等.結(jié)合深度卷積網(wǎng)絡(luò)與加速魯棒特征配準(zhǔn)的圖像精準(zhǔn)定位[J].光學(xué)精密工程,2017,25(2):469-476.

      Luo Jia-xiang,Lin Chang-he,Wang Jia-peng,et al. Accurate image positioning combining deep convolution network with SURF registering[J]. Optics and Precision Engineering,2017,25(2):469-476.

      [27] 熊昌鎮(zhèn),單艷梅,郭芬紅.結(jié)合主體檢測(cè)的圖像檢索方法[J].光學(xué)精密工程,2017,25(3):792-798.

      Xiong Chang-zhen, Shan Yan-mei, Guo Fen-hong. Image retrieval method based on image principal part detection[J]. Optics and Precision Engineering,2017,25(3):792-798.

      猜你喜歡
      圖庫關(guān)鍵字二進(jìn)制
      金山農(nóng)民畫矢量圖庫的建設(shè)與應(yīng)用
      履職盡責(zé)求實(shí)效 真抓實(shí)干勇作為——十個(gè)關(guān)鍵字,盤點(diǎn)江蘇統(tǒng)戰(zhàn)的2021
      用二進(jìn)制解一道高中數(shù)學(xué)聯(lián)賽數(shù)論題
      有趣的進(jìn)度
      成功避開“關(guān)鍵字”
      二進(jìn)制在競(jìng)賽題中的應(yīng)用
      視圖庫在AI浪潮里的發(fā)展應(yīng)用
      Photoshop CC圖庫面板的正確打開方法
      圍繞“四個(gè)全面”戰(zhàn)略布局 譜寫偉大復(fù)興宏偉篇章
      基于用戶反饋的關(guān)系數(shù)據(jù)庫關(guān)鍵字查詢系統(tǒng)
      白沙| 衡阳县| 太和县| 衡山县| 广宗县| 静宁县| 刚察县| 北京市| 读书| 大化| 元谋县| 中阳县| 本溪市| 双辽市| 汉沽区| 涡阳县| 雷山县| 鸡西市| 彭泽县| 北安市| 秦安县| 莆田市| 察哈| 个旧市| 乌拉特后旗| 阿城市| 福安市| 怀仁县| 三江| 新乡县| 德令哈市| 尉犁县| 玛曲县| 赤水市| 平舆县| 新干县| 壤塘县| 弋阳县| 临洮县| 泸西县| 吴江市|