• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      結(jié)合快速魯棒性特征改進(jìn)ORB的特征點(diǎn)匹配算法

      2016-07-19 20:09:39白雪冰車進(jìn)牟曉凱張英
      計(jì)算機(jī)應(yīng)用 2016年7期
      關(guān)鍵詞:特征描述鄰域像素點(diǎn)

      白雪冰 車進(jìn) 牟曉凱 張英

      摘要:針對(duì)定向二進(jìn)制簡(jiǎn)單描述符(ORB)算法不具備尺度不變性的問(wèn)題,提出一種結(jié)合快速魯棒性特征(SURF)算法和ORB的改進(jìn)算法。首先,利用Hessian矩陣檢測(cè)特征點(diǎn)的方法,使得提取出的特征點(diǎn)具有尺度不變性;然后,用ORB生成特征描述子;接著采用K近鄰算法進(jìn)行粗匹配;最后,通過(guò)比率測(cè)試、對(duì)稱測(cè)試、最小平方中值(LMedS)定理全文中,“最小中值定理”是否應(yīng)該為“最小平方中值定理”或“最小中值平方定理”更為規(guī)范些?請(qǐng)明確?;貜?fù):“最小中值定理”統(tǒng)一改為“最小平方中值定理”,英文翻譯不用動(dòng)進(jìn)行提純。尺度變化時(shí),該算法比ORB的匹配精度提高了74.3個(gè)百分點(diǎn),比SURF的匹配精度提高了4.8個(gè)百分點(diǎn);旋轉(zhuǎn)變化時(shí),該算法比ORB的匹配精度提高了6.6另外,根據(jù)表2的數(shù)據(jù),此處是6.6吧?請(qǐng)明確。個(gè)百分點(diǎn);匹配時(shí)間高于SURF低于ORB。實(shí)驗(yàn)結(jié)果表明,改進(jìn)算法不僅保持了ORB的旋轉(zhuǎn)不變性,而且具備了尺度不變性,在不失速度的前提下,匹配精度得到較大提高。

      關(guān)鍵詞:

      特征點(diǎn)匹配;尺度不變性;旋轉(zhuǎn)不變性;比率測(cè)試;對(duì)稱測(cè)試;最小平方中值定理

      中圖分類號(hào): TP391.9 文獻(xiàn)標(biāo)志碼:A

      0引言

      圖像特征點(diǎn)匹配是計(jì)算機(jī)視覺(jué)的關(guān)鍵技術(shù)之一,廣泛應(yīng)用于三維重建、圖像拼接、目標(biāo)識(shí)別等領(lǐng)域[1-4]。Lowe[5]于2004年正式提出了尺度不變特征變換(Scale Invariant Feature Transform, SIFT)算法,其獨(dú)特性好,信息量豐富;但該算法的計(jì)算量大、匹配速度較慢。此后,Bay等[6]于2006年提出了快速魯棒性特征(Speeded Up Robust Feature, SURF)算法,不僅簡(jiǎn)化了SIFT算法,而且在重復(fù)性、獨(dú)特性和魯棒性三個(gè)方面均超過(guò)或接近SIFT算法,計(jì)算速度也顯著提高。隨著計(jì)算機(jī)視覺(jué)技術(shù)的發(fā)展對(duì)特征點(diǎn)匹配精度和速度的要求越來(lái)越高,Roblee等[7]在2011年的 計(jì)算機(jī)視覺(jué)國(guó)際會(huì)議(Internation Conference on Computer Vision, ICCV)提出了定向二進(jìn)制簡(jiǎn)單描述符(Oriented fast and Rotated Brief,ORB)算法,其計(jì)算速度比SURF快一個(gè)數(shù)量級(jí),比SIFT快兩個(gè)數(shù)量級(jí),匹配性能也不遜于SURF和SIFT。

      ORB是一種局部不變特征描述子,對(duì)圖像的平移、旋轉(zhuǎn)具有不變性;但卻并不具備尺度不變性[8-9]。文獻(xiàn)[10]利用ORB進(jìn)行匹配時(shí),采用改進(jìn)的隨機(jī)采樣一致性(RANdom Sample Consensus, RANSAC)進(jìn)行提純,使得匹配精度得到了提高;文獻(xiàn)[11]同樣在運(yùn)用ORB匹配時(shí),結(jié)合隨機(jī)采樣一致性方法,剔除錯(cuò)誤匹配,并利用最小二乘估計(jì)變換參數(shù),對(duì)圖像進(jìn)行矯正;文獻(xiàn)[12]結(jié)合SIFT的算法思想對(duì)ORB進(jìn)行改進(jìn),實(shí)現(xiàn)了尺度不變性。以上研究解決了一些問(wèn)題,但是在使用RANSAC算法中,判定內(nèi)外點(diǎn)距離閾值、隨機(jī)抽樣本集的次數(shù)和一致性集合的大小這3個(gè)參數(shù)需要根據(jù)不同的圖像設(shè)置不同的值,頻繁地設(shè)置參數(shù),極大地影響了計(jì)算效率;并且文獻(xiàn)[12]結(jié)合SIFT的算法思想會(huì)降低計(jì)算速度,匹配精度也不高。針對(duì)上述情況,結(jié)合SURF檢測(cè)子和ORB描述子,并利用比率測(cè)試和對(duì)稱測(cè)試進(jìn)行篩選,最后運(yùn)用最小平方中值(Least Median Squares, LMedS)定理再次提純,從而克服了ORB不具有尺度不變性和RANSAC設(shè)置的參數(shù)較多的缺陷,并且匹配精度得到進(jìn)一步提高。

      1ORB算法原理

      1.1特征點(diǎn)提取

      ORB算法采用加速分割測(cè)試特征(Features from Accelerated Segment Test, FAST)算子來(lái)提取特征點(diǎn),F(xiàn)AST角點(diǎn)檢測(cè)定義為:若某像素點(diǎn)具有與其鄰域內(nèi)一定數(shù)量的像素點(diǎn)不同的特征時(shí),該像素點(diǎn)被檢測(cè)為角點(diǎn),例如在灰度圖像,某像素點(diǎn)周圍有足夠多像素點(diǎn)的灰度值均高于或低于該點(diǎn)的灰度值[13-14]。選取像素點(diǎn)H,并設(shè)該點(diǎn)的像素值為HP,考慮該像素點(diǎn)周圍的16個(gè)像素點(diǎn),若在以H點(diǎn)為圓心,16個(gè)像素點(diǎn)組成的圓上有N(一般取9或者12)個(gè)連續(xù)的像素點(diǎn),它們的像素點(diǎn)比HP+T (T為選取的閾值)大,或者比HP-T小,那么該像素點(diǎn)就是角點(diǎn)。FAST角點(diǎn)檢測(cè)速度快,但卻不具備旋轉(zhuǎn)尺度不變性和旋轉(zhuǎn)不變性。

      FAST角點(diǎn)主方向運(yùn)用亮度中心算法,以特征點(diǎn)為中心;同時(shí)作為坐標(biāo)原點(diǎn),在其鄰域U內(nèi)計(jì)算質(zhì)心位置,然后以特征點(diǎn)為起點(diǎn),質(zhì)心為終點(diǎn)構(gòu)造向量,此向量的方向即為特征點(diǎn)的方向,計(jì)算過(guò)程如下所示。

      區(qū)域U的矩定義為式(1):

      Mp,q=∑(x,y)∈UxpyqI(x,y)(1)

      其中I(x,y)為點(diǎn)(x,y)處的灰度值,灰度矩設(shè)為C=(Cx,Cy)。其中:Cx=M1,0/M0,0,Cy=M0,1/M0,0,那么,F(xiàn)AST角點(diǎn)主方向?yàn)椋?/p>

      θ=arctan(M0,1/M1,0)(2)

      1.2ORB特征描述子

      ORB采用二進(jìn)制的魯棒性獨(dú)立基本特征(Binary Robust Independent Elementary Feature, BRIEF)生成特征描述子[15],BRIEF用二進(jìn)制的方式描述圖像區(qū)域,大幅度減少像素間的對(duì)比量。定義S×S大小的圖像鄰域P的測(cè)試準(zhǔn)則τ為:

      τ(p;x,y)=1,p(x)

      0,p(x)≥p(y)(3)

      其中P(x)是圖像鄰域P在x后面的上標(biāo)T是否表示轉(zhuǎn)置?那么,此處的x是否是矢量、向量或矩陣?請(qǐng)明確。另外,后面的x,哪個(gè)是矢量、向量或矩陣?也請(qǐng)一一指出。=(u,v)T處的灰度值

      原內(nèi)容為:“P(x)是圖像鄰域P在x=(u,v)T 處的灰度值”?,F(xiàn)改為:“P(x)是圖像鄰域P在像素點(diǎn)x=(u,v) 處的灰度值,同理可知P(y)為圖像鄰域P在像素點(diǎn)y處的灰度值”

      P(x)是圖像鄰域P在像素點(diǎn)x=(u,v) 處的灰度值,同理可知P(y)為圖像鄰域P在像素點(diǎn)y處的灰度值

      。選擇n個(gè)(x,y)測(cè)試點(diǎn)對(duì)時(shí),通過(guò)二進(jìn)制測(cè)試準(zhǔn)則生成n維二進(jìn)制比特串的描述子,如式(4)所示:

      fn(p)=∑1≤i≤n2i-1τ(p;xi,yi)(4)

      其中n的選值需綜合比較計(jì)算速度、識(shí)別率和存儲(chǔ)效率,一般選擇64,128,256等。

      由于BRIEF鄰域準(zhǔn)則測(cè)試時(shí)僅通過(guò)單一像素進(jìn)行計(jì)算,容易受噪聲影響。為了解決噪聲影響問(wèn)題,ORB的測(cè)試點(diǎn)均采用31×31像素鄰域內(nèi)的5×5子窗口,通過(guò)高斯分布選擇子窗口,再對(duì)圖像進(jìn)行積分以加速計(jì)算。

      上述生成的特征描述子是沒(méi)有方向的,因此使用1.1節(jié)求得的特征點(diǎn)質(zhì)心方向作為BRIEF的主方向,使得描述子具備旋轉(zhuǎn)不變性。對(duì)于(xi,yi)處任意n個(gè)二進(jìn)制準(zhǔn)則集,定義一個(gè)2×n的矩陣:

      M=x1x2…xny1y2…yn(5)

      使用特征點(diǎn)質(zhì)心方向θ對(duì)應(yīng)的旋轉(zhuǎn)矩陣Rθ,構(gòu)建M的一個(gè)有向形式Mθ=RθM,此時(shí)旋轉(zhuǎn)不變的BRIEF如式(6)所示:

      gn(p,θ)=fn(p)|(xi,yi)∈Mθ(6)

      通過(guò)貪心法則進(jìn)行搜索,從計(jì)算得到的全部像素塊中選擇n個(gè)相關(guān)性最低的作為rBRIEF此處的“rBRIEF”,是否應(yīng)該為“BRIEF”?請(qǐng)明確。旋轉(zhuǎn)不變的二進(jìn)制魯棒性獨(dú)立基本特征(Rotation invariance Binary Robust Independent Elementary Feature, RBRIEF)。

      1.3特征點(diǎn)匹配

      ORB生成的特征描述子為二進(jìn)制碼串形式,使用 Hamming 距離實(shí)現(xiàn)對(duì)特征點(diǎn)的匹配比較合適。

      2結(jié)合SURF改進(jìn)ORB的算法

      由以上ORB算法原理可以看出,ORB雖然具有旋轉(zhuǎn)不變性,但卻并不具備尺度不變性,其根本原因在于FAST檢測(cè)出的特征點(diǎn)不含尺度不變信息,從而使得描述子不具備尺度不變性,因此,解決的辦法是使檢測(cè)出的特征點(diǎn)具備尺度不變信息。

      2.1Hessian矩陣檢測(cè)特征點(diǎn)

      設(shè)圖像I中某點(diǎn)P=(x,y),則尺度為σ的Hessian矩陣定義為:

      H(P,σ)=Lxx(P,σ)Lxy(P,σ)Lxy(P,σ)Lyy(P,σ)(7)

      其中Lxx(P,σ)是高斯濾波后的圖像點(diǎn)P在x方向的二階導(dǎo)數(shù);同理,可求得Lxy(P,σ)、Lyy(P,σ)。

      由于求Hessian時(shí)要先高斯濾波,然后求二階導(dǎo)數(shù),在離散的像素點(diǎn)中,可以用一個(gè)模板代替,如圖1所示。此模板可以極大程度地提高計(jì)算速度,圖1頂行分別為L(zhǎng)xx、Lyy和Lxy;底行中用模板近似為Dxx、Dyy和Dxy表示。

      圖1中白色部分的權(quán)值設(shè)為-1,黑色部分設(shè)為1,其他區(qū)域不設(shè)置權(quán)值,則計(jì)算Hessian矩陣行列式的比較精確的近似公式為:

      det(H)=DxxDxx-(0.9Dxy)2(8)

      其中0.9為實(shí)驗(yàn)測(cè)得的比較準(zhǔn)確的參數(shù),進(jìn)而得到每個(gè)像素點(diǎn)的Hessian矩陣行列式的近似值。

      改變模板的大小,重復(fù)上述步驟,可以得到不同尺度下的像素點(diǎn)的Hessian矩陣行列式的近似值。將經(jīng)過(guò)Hessian矩陣處理過(guò)的每個(gè)像素點(diǎn)與其三維領(lǐng)鄰域此處是否應(yīng)該為“鄰域”?請(qǐng)明確。的26個(gè)點(diǎn)進(jìn)行大小比較,如果它是這26個(gè)點(diǎn)中的最大值或者最小值,則保留下來(lái),當(dāng)作初步的特征點(diǎn)。

      接著采用三維線性插值法得到亞像素級(jí)的特征點(diǎn),此時(shí)的特征點(diǎn)即具備尺度不變性。

      2.2生成特征點(diǎn)描述子

      首先采用求FAST角點(diǎn)主方向的方法,計(jì)算出通過(guò)Hessian矩陣行列式求得的特征點(diǎn)的主方向,接著使用1.2節(jié)中求ORB特征描述子的方法,計(jì)算出特征描述子,由于2.1節(jié)求得的特征點(diǎn)具備了尺度不變性,并且特征描述子是在特征點(diǎn)的基礎(chǔ)上生成的,因此此時(shí)的特征描述子不僅具有旋轉(zhuǎn)不變性,而且具有尺度不變性。

      2.3特征點(diǎn)匹配

      簡(jiǎn)單地說(shuō),K近鄰算法采用測(cè)量不同特征值之間的距離方法進(jìn)行分類。令K=2,即對(duì)于每個(gè)特征點(diǎn),在另一幅圖像中找到兩個(gè)候選的匹配點(diǎn),其中一個(gè)是最優(yōu)匹配點(diǎn),另一個(gè)為次優(yōu)匹配點(diǎn)。

      2.4剔除錯(cuò)誤匹配點(diǎn)

      首先采用比率測(cè)試,其原理為:如果最優(yōu)匹配點(diǎn)的測(cè)量距離非常小,而次優(yōu)匹配點(diǎn)的測(cè)量距離相對(duì)較大,那么最優(yōu)匹配點(diǎn)無(wú)疑是安全可靠的;如果兩個(gè)候選匹配點(diǎn)的測(cè)量距離相近,那么如果選擇其中之一作為匹配點(diǎn)很可能出錯(cuò),是不可靠的。比率測(cè)試正是檢查這兩個(gè)距離的比值,以除去不安全的匹配,因此對(duì)當(dāng)前的匹配進(jìn)行篩選,去除最有匹配和次優(yōu)匹配強(qiáng)度響應(yīng)強(qiáng)度大于設(shè)定閾值的匹配以及孤立的匹配。

      接著采用對(duì)稱測(cè)試,令左匹配為待匹配的兩張圖從左圖到右圖的匹配,右匹配為待匹配的兩張圖從右圖到左圖的匹配,對(duì)稱測(cè)試即為對(duì)左匹配和右匹配進(jìn)行檢查,輸出對(duì)稱的匹配。

      最后采用最小平方中值定理提純,文獻(xiàn)[10]中提出使用RANSAC算法進(jìn)行提純,RANSAC是一種隨機(jī)參數(shù)估計(jì)算法,性能良好,經(jīng)常被采用,但其內(nèi)部的3個(gè)參數(shù)需要人為設(shè)置,因此本文采用最小平方中值(Least Median Square, LMedS)算法。LMedS隨機(jī)抽選樣本中的一個(gè)子集,首先通過(guò)最小方差計(jì)算子集參數(shù),然后計(jì)算全部樣本與該子集模型的偏差。區(qū)別于RANSAC,LMedS記錄偏差值大小居中的那個(gè)樣本的偏差,以及本次計(jì)算得到的模型參數(shù),因此LMedS無(wú)需設(shè)定閾值來(lái)區(qū)分內(nèi)點(diǎn)和外點(diǎn)。重復(fù)N次上述過(guò)程,選擇N個(gè)偏差中值最小的一個(gè),該偏差對(duì)應(yīng)的模型參數(shù)作為最終的模型參數(shù)估計(jì)值。樣本子集中樣本的個(gè)數(shù)、期望的模型誤差決定了迭代次數(shù)N的大小。最小平方中值定理克服了RANSAC的缺點(diǎn),但其也存在缺點(diǎn),當(dāng)外點(diǎn)的個(gè)數(shù)占總樣本數(shù)目的比例超過(guò)50%時(shí),就無(wú)法得到正確的模型參數(shù),而比率測(cè)試和對(duì)稱測(cè)試經(jīng)過(guò)篩選后,這個(gè)缺點(diǎn)也就克服了。

      3實(shí)驗(yàn)結(jié)果與分析

      為驗(yàn)證算法性能,所用電腦的處理器為Intel Core i54200,64位操作系統(tǒng),內(nèi)存為4.00GB,并使用Visual Studio 2013進(jìn)行仿真實(shí)驗(yàn)。

      3.1尺度不變性實(shí)驗(yàn)

      為了驗(yàn)證本文提出的算法的尺度不變性,以尺度變化的圖像作對(duì)比測(cè)試。其中:用ORB測(cè)試的結(jié)果如圖2所示,可以明顯看出,在尺度發(fā)生變化的時(shí)候,ORB的匹配效果并不是很好,匹配點(diǎn)過(guò)于集中某一部分,并且在尾巴和頭部等地方存在一些明顯的錯(cuò)誤匹配;而使用本文算法測(cè)試的結(jié)果如圖3所示,得到了較為理想的實(shí)驗(yàn)效果。對(duì)比圖2和圖3可以發(fā)現(xiàn),本文算法克服了ORB不具備尺度不變性的缺陷,在圖像發(fā)生較大尺度變化時(shí),仍能取得較好的匹配效果。

      為了驗(yàn)證本文算法在尺度變化時(shí)具有較高的匹配成功率,即匹配精度,用ORB、SURF以及本文算法分別隨機(jī)統(tǒng)計(jì)實(shí)驗(yàn)中的5組匹配數(shù)據(jù),如表1所示。

      從表1可以看出,在尺度變化時(shí),本文算法的匹配精度遠(yuǎn)高于ORB的匹配精度,本文算法的平均匹配精度約為97.2%,比ORB的平均匹配精度提高了74.3個(gè)百分點(diǎn),說(shuō)明了該算法在尺度不變性方面的優(yōu)勢(shì)。同時(shí),本文算法比SURF的平均匹配精度提高了4.8個(gè)百分點(diǎn),這要得益于提出的提純算法的優(yōu)越性能。

      3.2旋轉(zhuǎn)不變性實(shí)驗(yàn)

      本文提出的算法和ORB算法都具備旋轉(zhuǎn)不變性,為了驗(yàn)證本文算法的旋轉(zhuǎn)不變性以及提出的比率測(cè)試、對(duì)稱測(cè)試和最小平方中值定理在匹配提純方面的優(yōu)越性能,以旋轉(zhuǎn)圖像作為測(cè)試圖像進(jìn)行比較。其中圖4是使用ORB的匹配效果,可以看出,ORB雖然具有旋轉(zhuǎn)不變性,但是由于其只是簡(jiǎn)單地使用Hamming 距離實(shí)現(xiàn)特征點(diǎn)的匹配,因此存在錯(cuò)誤匹配,例如在左下角出現(xiàn)了錯(cuò)誤匹配。而使用本文算法進(jìn)行匹配時(shí),不僅具有旋轉(zhuǎn)不變性,而且經(jīng)過(guò)有效的提純后,匹配精度得到了提高,其匹配效果如圖5所示。

      為了驗(yàn)證本文算法在旋轉(zhuǎn)變化時(shí)仍然具有較高的匹配精度,隨機(jī)統(tǒng)計(jì)實(shí)驗(yàn)中的5組匹配數(shù)據(jù),如表2所示。

      從表2可以看出,圖像旋轉(zhuǎn)時(shí),本文算法的平均匹配精度約為98.1%,比ORB的平均匹配精度提高了約6.9%6.6個(gè)百分點(diǎn)此處改為“提高了6.6個(gè)百分點(diǎn)”,通過(guò)98.1-91.5得來(lái),或改為“提高了7.2%,通過(guò)(98.1-91.5)/91.5得來(lái)”,是否符合表達(dá)?請(qǐng)明確。也包括前面的中文摘要中的描述。,說(shuō)明了本文算法在旋轉(zhuǎn)不變性方面同樣具有良好性能。

      3.3匹配時(shí)間對(duì)比實(shí)驗(yàn)

      為了驗(yàn)證本文算法的實(shí)時(shí)性,隨機(jī)統(tǒng)計(jì)實(shí)驗(yàn)中的5組匹配時(shí)間數(shù)據(jù),如表3所示。

      從表3可以看出,本文算法的平均匹配時(shí)間約為180.3ms,比ORB的平均匹配時(shí)間慢了約154.8ms;但卻比SURF快了約100.6ms,說(shuō)明了本文算法在實(shí)時(shí)性方面同樣具有良好性能,但是提純算法會(huì)耗費(fèi)一點(diǎn)時(shí)間,使得匹配速度比ORB略慢。從以上實(shí)驗(yàn)可以看出,本文算法具備了尺度不變性和旋轉(zhuǎn)不變性,匹配精度得到進(jìn)一步提高,滿足實(shí)時(shí)性需求,有一定的實(shí)用性。

      4結(jié)語(yǔ)

      本文提出了一種結(jié)合SURF和ORB的算法,該算法克服了ORB不具備尺度不變性的缺陷,并采用比率測(cè)試、對(duì)稱測(cè)試、最小平方中值定理進(jìn)一步提純,通過(guò)實(shí)驗(yàn)驗(yàn)證了算法的通用性以及在匹配精度方面的優(yōu)越性能。由于ORB計(jì)算速度本身就很快,同時(shí)SURF提取特征點(diǎn)也比較快,使得匹配點(diǎn)經(jīng)過(guò)提純后,計(jì)算速度也基本能滿足實(shí)時(shí)性的需求,但其速度不如ORB,這也是接下來(lái)要進(jìn)一步研究的地方。

      參考文獻(xiàn):

      [1]

      朱琳,王瑩,劉淑云,等.基于改進(jìn)快速魯棒特征的圖像快速拼接算法[J].計(jì)算機(jī)應(yīng)用,2014,34(10):2944-2947.(ZHU L, WANG Y, LIU S Y, et al. Fast image mosaic algorithm based on improved fast robust feature [J]. Journal of Computer Applications, 2014, 34(10): 2944-2947.)

      [2]

      劉海燕,楊昌玉,劉春玲,等.基于梯度特征和顏色特征的運(yùn)動(dòng)目標(biāo)跟蹤算法[J].計(jì)算機(jī)應(yīng)用,2012,32(5):1265-1268.(LIU H Y, YANG C Y, LIU C L, et al. Moving target tracking algorithm based on gradient feature and color feature [J]. Journal of Computer Applications, 2012, 32(5): 1265-1268.)

      [3]

      侯毅,周石琳,雷琳,等.基于ORB的快速完全仿射不變圖像匹配[J]. 計(jì)算機(jī)工程與科學(xué),2014,36(2):303-310.(HOU Y, ZHOU S L, LEI L, et al. Fast fully affine invariant image matching based on ORB [J]. Computer Engineering & Science, 2014, 36(2): 303-310.)

      [4]

      童宇,蔡自興.基于特征匹配的全景圖的生成[J].華中科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2004,32(S1):77-79.(TONG Y, CAI Z X. Generation of panoramic image based on feature matching [J]. Journal of Huazhong University of Science and Technology (Nature Science Edition), 2004, 32(S1): 77-79.)

      [5]

      LOWE D G. Object recognition from local scaleinvariant features [C]// Proceedings of the 1999 IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 1999: 1150-1157.

      [6]

      BAY H, ESS A, TUYTELAARS T, et al. SURF: speeded up robust feature [J]. Computer Vision and Image Understanding, 2008, 110(3): 346-359.

      [7]

      RUBLEE E, RABAUD V, KONOLIGE K, et al. ORB: an efficient alternative to SIFT or SURF [C]// Proceedings of the 2011 IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 2011: 2564-2571.

      [8]

      劉銘.基于ORB算法的雙目視覺(jué)測(cè)量與跟蹤研究[D]. 哈爾濱:哈爾濱工業(yè)大學(xué),2014:25.(LIU M. Binocular computer vision measurement and tracking research based on the ORB algorithm [D]. Harbin: Harbin Institute of Technology, 2014: 25.)

      [9]

      孟凡清.基于背景差分法與ORB算法的運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤算法研究[D].北京:北京印刷學(xué)院,2014:30-33.(MENG F Q. Study on the moving object detection and tracking based on background subtraction and ORB algorithm [D]. Beijing: Beijing Printing Institute, 2014: 30-33.)

      [10]

      佘建國(guó),徐仁桐,陳寧.基于ORB和改進(jìn)RANSAC算法的圖像拼接技術(shù)[J].江蘇科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2015,29(2):164-169.(YU J G, XU R T, CHEN N. Image stitching technology based on ORB and improved RANSAC algorithm [J]. Journal of Jiangsu University of Science and Technology (Nature Science Edition), 2015, 29(2): 164-169.)

      [11]

      張?jiān)粕u崢嶸.基于改進(jìn)ORB算法的遙感圖像自動(dòng)配準(zhǔn)方法[J].國(guó)土資源遙感,2013,25(3):20-24.(ZHANG Y S, ZOU Z R. Automatic registration method for remote sensing images based on improved ORB algorithm [J]. Remote Sensing for Land and Resources, 2013, 25(3): 20-24.)

      [12]

      許宏科,秦嚴(yán)嚴(yán),陳會(huì)茹.基于改進(jìn)ORB的圖像特征點(diǎn)匹配[J].科學(xué)技術(shù)與工程,2014,14(18):105-109.(XU H K, QIN Y Y, CHEN H R. Feature points matching in images based on improved ORB [J]. Science Technology and Engineering, 2014, 14(18): 105-109.)

      [13]

      ROSTEN E, DRUMMOND T. Fusing points and lines for high performance tracking [C]// Proceedings of the 2005 IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 2005: 1508-1515.

      [14]

      ROSTEN E, DRUMMOND T. Machine learning for high speed corner detection [C]// ECCV06: Proceedings of the 9th European Conference on Computer Vision. Berlin: Springer, 2006: 430-443.

      [15]

      CALONDER M, LEPETIT V, STRECHA C, et al. BRIEF: binary robust independent elementary features [C]// ECCV10: Proceedings of the 11th European Conference on Computer vision. Berlin: Springer, 2010: 778-792.

      猜你喜歡
      特征描述鄰域像素點(diǎn)
      In the Zoo
      船舶尾流圖像的數(shù)字化處理和特征描述技術(shù)
      稀疏圖平方圖的染色數(shù)上界
      基于鄰域競(jìng)賽的多目標(biāo)優(yōu)化算法
      基于canvas的前端數(shù)據(jù)加密
      目標(biāo)魯棒識(shí)別的抗旋轉(zhuǎn)HDO 局部特征描述
      基于逐像素點(diǎn)深度卷積網(wǎng)絡(luò)分割模型的上皮和間質(zhì)組織分割
      關(guān)于-型鄰域空間
      基于差異的圖像特征描述及其在絕緣子識(shí)別中的應(yīng)用
      基于Node-Cell結(jié)構(gòu)的HEVC幀內(nèi)編碼
      盈江县| 香格里拉县| 从江县| 金昌市| 城步| 西城区| 通许县| 徐水县| 梅州市| 金昌市| 邯郸县| 横峰县| 柞水县| 莆田市| 开鲁县| 屏南县| 南漳县| 台南县| 河东区| 漳州市| 五莲县| 西充县| 炉霍县| 顺平县| 股票| 淮南市| 永安市| 高青县| 思茅市| 广元市| 平度市| 汽车| 长沙县| 保定市| 泸溪县| 麻栗坡县| 龙山县| 鄂尔多斯市| 闸北区| 潮安县| 永和县|