張勵(lì)揚(yáng) 趙逢禹 劉亞
摘 要:針對(duì)現(xiàn)有視頻識(shí)別算法對(duì)不同幀中同一對(duì)象反復(fù)分類、反復(fù)識(shí)別問題,提出一種基于特征匹配的預(yù)處理算法。該算法將前一幀中已識(shí)別物體的圖像特征與下一幀畫面提取出的特征相比較,找出下一幀中已經(jīng)被分類或識(shí)別過的物體,并將其剔除,達(dá)到壓縮輸入視頻畫面尺寸、提升視頻處理效率的目的。為了驗(yàn)證算法的預(yù)處理效果,對(duì)兩組道路圖形進(jìn)行實(shí)驗(yàn),結(jié)果表明,該算法平均降低85%的畫面尺寸,視頻畫面處理時(shí)間平均降低5%。
關(guān)鍵詞:視頻預(yù)處理;特征提取;畫面切割
DOI:10. 11907/rjdk. 191578
中圖分類號(hào):TP317.4?? 文獻(xiàn)標(biāo)識(shí)碼:A??????????????? 文章編號(hào):1672-7800(2020)003-0225-05
Video Preprocessing Method Based on Feature Extraction
ZHANG Li-yang,ZHAO Feng-yu,LIU Ya
(School of Optical-Electrical and Computer Engineering, University of Shanghai for Science and Technology,Shanghai 200093,China)
Abstract: Aiming at the problem of repeated classification and recognition of the same object in different frames in existing video recognition algorithms, we propose a preprocessing algorithm based on feature matching in this paper. This algorithm compares the image features of the recognized objects in the previous frame with those extracted from the next frame and finds out the objects that have been classified or recognized in the next frame and removes those objects that have been recognized so as to compress the size of the input video picture and improve the efficiency of video processing. In order to verify the preprocessing effect of the algorithm, two groups of road graphics are experimented. The results show that the proposed algorithm can reduce the average size of the picture by 85%, and the average processing time of the video picture by 5%.
Key Words: video preprocessing; feature extraction; picture cut
0 引言
在視頻處理中,預(yù)處理指在主處理之前預(yù)先通過一系列操作對(duì)視頻進(jìn)行處理,以提升主處理效果,如畫面去噪、畫質(zhì)提升和碼率壓縮等[1-5]。在畫面去噪方面,文獻(xiàn)[1]提出基于塊和低秩張量恢復(fù)視頻原始效果并去除噪聲的方法。在畫質(zhì)提升方面,文獻(xiàn)[2]提出一種全新的插值預(yù)處理算法以提升畫面效果。在碼率壓縮方面,文獻(xiàn)[3]提出一種基于計(jì)算、通信和緩存相結(jié)合的框架,以去除視頻畫面中的冗余部分。該方法可以在一定程度上去除視頻中的冗余信息,但這種去除主要是為了壓縮視頻在信道傳輸過程中的信息冗余,經(jīng)過處理之后的視頻數(shù)據(jù)無法被識(shí)別算法直接計(jì)算,而壓縮后的數(shù)據(jù)在解碼后實(shí)際上還會(huì)還原成原始圖像。因此,對(duì)于識(shí)別算法來說,這種方法并不能提升運(yùn)算速度。
在對(duì)視頻進(jìn)行識(shí)別時(shí),將每幀畫面視作單獨(dú)存在的一整幅圖進(jìn)行輸入,并分別進(jìn)行獨(dú)立的識(shí)別操作依然是大量采用的一種策略[6-12],這種策略的特點(diǎn)是,當(dāng)識(shí)別算法完成對(duì)一幀畫面識(shí)別并輸出結(jié)果之后,算法并不會(huì)保存該次識(shí)別結(jié)果,也不會(huì)嘗試重復(fù)利用該次識(shí)別所獲取的信息。當(dāng)下一幀畫面?zhèn)魅霑r(shí),算法會(huì)對(duì)整幅畫面重新掃描,重新識(shí)別。這一特點(diǎn)使每識(shí)別一幀畫面都無法利用之前已經(jīng)計(jì)算過的結(jié)果,在識(shí)別視頻過程中做了大量的重復(fù)工作。
對(duì)于視頻信息而言,相鄰兩幀之間甚至相近的很多幀之間都存在很強(qiáng)的關(guān)聯(lián)性和相似性,如果能夠利用這種前后幀之間的關(guān)聯(lián),則可幫助識(shí)別算法在處理視頻時(shí)少做很多重復(fù)性工作,從而節(jié)省計(jì)算資源、提高處理效率。
本文提出一種新的算法,通過前后比較相鄰兩幀畫面的特征點(diǎn)信息,找出視頻中連續(xù)出現(xiàn)的冗余物體,并在隨后剔除那些在前一幀畫面中已經(jīng)出現(xiàn)過的物體,達(dá)到去除冗余,壓縮畫面,提升視頻識(shí)別算法運(yùn)行效率的目的。由于本算法的核心目的是壓縮圖像尺寸并提升視頻識(shí)別算法效率,因此實(shí)驗(yàn)采用處理后的畫面尺寸和視頻識(shí)別算法處理時(shí)間指標(biāo)判定預(yù)處理效果。將本文算法和不壓縮情況下視頻的尺寸和處理效果對(duì)比,發(fā)現(xiàn)本文算法可小幅提升視頻識(shí)別算法效率。
1 基于特征提取的視頻預(yù)處理方法
本文主要通過匹配前后兩幀的特征值過濾冗余信息,如圖1所示。
視頻預(yù)處理算法基本步驟如下:當(dāng)處理第k幀圖像時(shí),需要同時(shí)輸入第k-1幀和第k幀圖像。算法首先對(duì)第k-1幀圖像進(jìn)行特征提取,使用FAST[13]特征檢測提取第k-1幀畫面中的特征點(diǎn),并使用BRIEF算法[14]進(jìn)行特征點(diǎn)描述。將旋轉(zhuǎn)FAST算法作為特征提取算法,是因?yàn)槲墨I(xiàn)[15]在比較多種特征提取算法之后發(fā)現(xiàn)FAST是時(shí)間最優(yōu)的選擇。由于第k-1幀畫面已經(jīng)在上一輪循環(huán)中被識(shí)別過,因此從第k-1幀畫面中提取出的特征點(diǎn)認(rèn)為已經(jīng)被識(shí)別而無需再次識(shí)別,這些特征點(diǎn)將視為冗余元素被從畫面中剔除。在提取到第k-1幀圖像特征之后,算法會(huì)用同樣的方法提取第k幀圖像特征,并在這兩幀畫面間作圖像特征匹配。如果在第k幀畫面中出現(xiàn)了此前沒有出現(xiàn)過的新物體,或是畫面中某個(gè)部分出現(xiàn)了較大變化,那么在這些改變的區(qū)域會(huì)出現(xiàn)大量新增的在第k-1幀畫面中無法匹配的特征點(diǎn)。通過分析這些無法匹配的特征點(diǎn),找出哪些需要重新識(shí)別。因此,在預(yù)處理時(shí)如果第k幀畫面中的某個(gè)小區(qū)域內(nèi)出現(xiàn)了超過某個(gè)數(shù)量而無法正常匹配的特征點(diǎn),就可認(rèn)為這個(gè)區(qū)域的畫面內(nèi)容出現(xiàn)了較大變化,需要利用識(shí)別算法重新進(jìn)行識(shí)別。此時(shí)預(yù)處理算法會(huì)將這個(gè)區(qū)域截取下來作為一副單獨(dú)的圖像,并將截取下的畫面?zhèn)魅胱R(shí)別算法。而如果兩幀畫面在某個(gè)對(duì)應(yīng)的小區(qū)域內(nèi)特征點(diǎn)都匹配成功,則說明該小區(qū)域內(nèi)前后兩幀畫面沒有顯著變化,無需再次識(shí)別,可以剪裁掉。
對(duì)于視頻來說,變化區(qū)域往往遠(yuǎn)小于畫面總面積,因此這種方法可以大大節(jié)省識(shí)別算法處理時(shí)間。
2 核心計(jì)算方法
2.1 幀間特征匹配
圖1的算法中,幀間特征匹配主要負(fù)責(zé)對(duì)比兩幀視頻特征,找出畫面出現(xiàn)改變的部分。本文使用一個(gè)經(jīng)過改進(jìn)的ORB算法[16]尋找視頻中出現(xiàn)變化的部分。參考最新改進(jìn)的ORB算法[17-20]和SURF算法的最新改進(jìn)方式[21],使用FAST角點(diǎn)檢測算法提取角點(diǎn)。在計(jì)算角點(diǎn)時(shí),本文采用FAST-9進(jìn)行特征點(diǎn)提取,算法會(huì)在假定判定點(diǎn)周圍選擇16個(gè)采樣點(diǎn),并將采樣閾值設(shè)定為9。當(dāng)判定點(diǎn)周圍超過9個(gè)點(diǎn)且與判定點(diǎn)的灰度值差距大于可接受范圍時(shí),判定該點(diǎn)為特征點(diǎn)。判斷公式如下:
式(1)和式(2)中, p表示位于采樣中心的判定點(diǎn),x表示在特征點(diǎn)周邊選取的一個(gè)像素點(diǎn),I(p),I(x)表述這兩個(gè)像素點(diǎn)的灰度值。若某一點(diǎn)計(jì)算出的N大于9,說明這一點(diǎn)即特征點(diǎn)。
在提取全部特征點(diǎn)之后,使用BRIEF算法對(duì)特征點(diǎn)進(jìn)行描述。計(jì)算時(shí),算法會(huì)在需要描述的特征點(diǎn)周圍隨機(jī)選取n個(gè)像素對(duì)并比較,記錄這些像素對(duì)大小。一個(gè)特征點(diǎn)I的BRIEF特征值計(jì)算公式f(I)為:
[T(xi,yi)]表示這兩個(gè)像素值大小比較的結(jié)果,公式(4)給出[T(xi,yi)]的計(jì)算方法:
在計(jì)算每一個(gè)特征點(diǎn)的BRIEF值時(shí),會(huì)在特征點(diǎn)周圍按照高斯分布隨機(jī)選取128對(duì)像素點(diǎn)作為采樣點(diǎn)。
本文采用公式(5)計(jì)算第k-1幀特征點(diǎn)Si和第k幀特征點(diǎn)Tj模糊相似度[μ(Si,Tj)]:
公式(5)中,[B(Si)][f(Si)]和[B(Tj)][f(Tj)]分別表示第k-1幀特征點(diǎn)和第k幀特征點(diǎn)的BRIEF特征值, [⊙]表示同或運(yùn)算,Sum(n)表示將數(shù)字n轉(zhuǎn)化為二進(jìn)制并按位求和所得的值。由公式(3)可以看出,由于每個(gè)特征點(diǎn)的BRIEF值只有128位,因此每一對(duì)特征點(diǎn)對(duì)的模糊相似度[μ(Si,Tj)]取值范圍將在0~1之間。[μ(Si,Tj)]=1表示兩個(gè)點(diǎn)的特征完全匹配,是對(duì)應(yīng)點(diǎn)的概率很高。[μ(Si,Tj)]=0表示兩個(gè)特征點(diǎn)的特征完全不同,是對(duì)應(yīng)點(diǎn)的概率很低。至此,對(duì)于屬于原始圖像特征點(diǎn)集S的點(diǎn)S1,S2,S3……Sn,和屬于目標(biāo)圖像的特征點(diǎn)集T的點(diǎn)T1,T2,T3……Tn,可以定義一個(gè)特征點(diǎn)相似度集合:
接下來計(jì)算兩幀圖像的特征點(diǎn)最佳匹配方案。
假定第k-1幀圖像中提取到M個(gè)特征點(diǎn),第k幀中提取到N個(gè)特征點(diǎn),為不失一般性,可以假定M≥N。需要在第k幀中找到一組不重復(fù)的特征點(diǎn)x1,x2,x3…xn,組成點(diǎn)集X,并在第k-1幀中找到另一組數(shù)量相同的不重復(fù)特征點(diǎn)y1,y2,y3…yn,組成點(diǎn)集Y,使得兩個(gè)集合中的點(diǎn)滿足如下條件:①集合X和集合Y大小相同;②集合X、集合Y中的特征點(diǎn)都是不重復(fù)且唯一的;③兩個(gè)集合中,序號(hào)相同的兩個(gè)點(diǎn)之間的模糊匹配度應(yīng)當(dāng)大于0.5。
把滿足上面條件的集合X和集合Y稱為第k-1幀及第k幀的一個(gè)匹配方案,接下來計(jì)算這兩個(gè)點(diǎn)集的總匹配度Smatch:
式(7)中,n表示集合的長度??梢钥闯?,第k幀和第k-1幀中的點(diǎn)可以有很多種匹配方案,這些匹配方案中,總匹配度Smatch是最大的一個(gè)組合,視作第k幀和第k-1幀的最佳特征點(diǎn)匹配方案并輸出。
2.2 切割畫面
2.2.1 畫面分區(qū)
切割畫面時(shí),首先將目標(biāo)畫面網(wǎng)格化,將畫面分割成一張棋盤裝網(wǎng)絡(luò),除了最右側(cè)一列和最底部一行外,網(wǎng)絡(luò)剩余位置的每一個(gè)網(wǎng)格都是邊長為D的正方形。
邊長D計(jì)算公式:
式(8)中,w表示圖像的整體寬度,h表示圖像的整體高度,D表示將圖像切割成棋盤狀網(wǎng)格之后每個(gè)矩形網(wǎng)格的邊長。
2.2.2 計(jì)算不匹配特征點(diǎn)占比
通過畫面分區(qū)得到多個(gè)D*D的網(wǎng)格圖像,進(jìn)一步計(jì)算哪些網(wǎng)格的內(nèi)容發(fā)生了較大變化。依次統(tǒng)計(jì)每個(gè)網(wǎng)格中沒有正確匹配的特征點(diǎn)所占比例,當(dāng)這個(gè)比例大于一定閾值時(shí)即可認(rèn)為這個(gè)網(wǎng)格在第k幀中發(fā)生了較大變化,應(yīng)當(dāng)重新識(shí)別。這個(gè)閾值的值可以由使用者結(jié)合需求自行擬定,因?yàn)椴煌淖R(shí)別算法對(duì)這個(gè)閾值的要求會(huì)有所不同。根據(jù)經(jīng)驗(yàn),用第k-1幀中不可匹配特征點(diǎn)的平均密度作這個(gè)閾值較好。
不匹配特征點(diǎn)占比計(jì)算公式如下:
式(9)中,P表示不匹配特征點(diǎn)占比, m表示正在計(jì)算的D*D網(wǎng)格中特征點(diǎn)總數(shù),[Ci]表示網(wǎng)格中第i個(gè)點(diǎn)的匹配情況,Ci計(jì)算方法如下:
若第i個(gè)點(diǎn)已經(jīng)有匹配對(duì)象,則取0;若沒有匹配對(duì)象,則取1。若計(jì)算后,P值超過指定閾值,則認(rèn)為其是大變動(dòng)區(qū)域。
2.2.3 網(wǎng)格合并
找出所有需要重新識(shí)別的大變動(dòng)區(qū)域后,再將所有相鄰的大變動(dòng)區(qū)域編為一組,計(jì)算這組網(wǎng)格的寬度和高度,然后用一個(gè)矩形從這個(gè)區(qū)間里將這個(gè)大變動(dòng)區(qū)域切割下來,傳入識(shí)別算法。
3 實(shí)驗(yàn)結(jié)果與分析
為驗(yàn)證本文算法在視頻處理時(shí)的效果,構(gòu)建兩個(gè)實(shí)驗(yàn):①采用一段空曠街道道路視頻,檢驗(yàn)算法在畫面主體變動(dòng)不大,只有畫面平移時(shí)的預(yù)處理效果;②采用衛(wèi)星圖像數(shù)據(jù),檢驗(yàn)遇到大尺寸圖像時(shí)算法的預(yù)處理效果。
仿真實(shí)驗(yàn)環(huán)境為Windows7操作系統(tǒng),C++語言,使用OpenCV作基本圖像處理。硬件平臺(tái)i5-3470CPU,6GB內(nèi)存,受客觀條件限制,本實(shí)驗(yàn)沒在真機(jī)上實(shí)施。實(shí)驗(yàn)采用VMware 9虛擬機(jī),識(shí)別算法的卷積過程沒有使用顯卡。
3.1 空曠街道車輛識(shí)別實(shí)驗(yàn)
以一個(gè)第三方車輛識(shí)別算法為主算法,這是一個(gè)被訓(xùn)練專門用作車輛識(shí)別的YOLO算法。數(shù)據(jù)集采用leftImg8bit道路交通數(shù)據(jù)集,該數(shù)據(jù)集包括2 899幀的道路交通視頻數(shù)據(jù)。試驗(yàn)中,依次傳入各幀數(shù)據(jù)并記錄預(yù)處理和不預(yù)處理的情況下圖像識(shí)別算法性能。圖2是實(shí)驗(yàn)節(jié)選的部分畫面,其中圖2(a)是本組測試的第一幀畫面,圖2(b)是本組測試的第二幀畫面,圖2(c)是對(duì)第二幀畫面進(jìn)行畫面分區(qū)之后的效果,圖2(d)是對(duì)前兩幀畫面進(jìn)行特征匹配之后的結(jié)果,這里使用線段連接匹配成功的兩個(gè)點(diǎn), 圖2(e)是對(duì)第二幀畫面進(jìn)行畫面切割之后的結(jié)果。
比較圖2 (c)、圖2 (d)后發(fā)現(xiàn),第二幀畫面與第一幅圖重復(fù)的部分在經(jīng)過預(yù)處理之后,被預(yù)處理算法成功刪除,畫面尺寸有了一定的縮小。同時(shí),雖然第二幀畫面整個(gè)左側(cè)的狹窄部分都是新增畫面,但由于下半部分的街道并沒有可提取的特征點(diǎn),因此認(rèn)為無需再次識(shí)別而裁掉。
從表1可以看出,本文的算法顯著壓縮了畫面尺寸,主算法運(yùn)行時(shí)間有了一定的減少。由于實(shí)驗(yàn)條件限制,本實(shí)驗(yàn)在虛擬機(jī)中使用CPU處理視頻畫面,因此處理單幅圖像所用時(shí)間遠(yuǎn)遠(yuǎn)高于直接使用GPU的時(shí)間消耗。
3.2 衛(wèi)星識(shí)別實(shí)驗(yàn)
以一個(gè)第三方人造衛(wèi)星的視頻識(shí)別算法為主算法,采用NASA Apollo7 3-M數(shù)據(jù)集,包括Apollo 7向地球拍攝46幀畫面,每幀畫面寬4 400像素,高4 600像素。實(shí)驗(yàn)方法是向主算法傳入第一幀衛(wèi)星畫面之后,獲取第一幀識(shí)別結(jié)果,然后繼續(xù)將第一幀畫面、第二幀畫面和剛剛得到的識(shí)別結(jié)果作為輸入,傳入預(yù)處理算法,如圖3所示。
圖3展示了人造衛(wèi)星視頻畫面的預(yù)處理結(jié)果。實(shí)驗(yàn)中人造衛(wèi)星始終處于畫面中間位置,變化的部分主要是背景中的云層。從圖中可以看出,雖然圖中間和靠左部分的云層出現(xiàn)變化,但這些變化不是很大,并沒有顯著改變云層形態(tài),因此實(shí)驗(yàn)認(rèn)為不必傳入識(shí)別算法。但畫面右上角在第二幀忽然多出了一片云,這一畫面顯著改變了圖像右上角的紋理結(jié)構(gòu),因此算法將這一部分單獨(dú)裁剪出來。
通過表2對(duì)比可以看出,本文的算法大幅壓縮了畫面尺寸,主算法運(yùn)行時(shí)間有了一定減少。與此前幾個(gè)實(shí)驗(yàn)不同,該實(shí)驗(yàn)在顯著壓縮畫面尺寸的同時(shí)還顯著縮短了運(yùn)算時(shí)間。導(dǎo)致這一現(xiàn)象的原因是,裁剪之后的畫面剛好裁掉了紋理特征最復(fù)雜的人造衛(wèi)星,剩下部分的顏色變得很簡單,只有黑白藍(lán)3種顏色,紋理特征復(fù)雜度相比之前有了顯著下降,因此整體效率大大提升。
4 結(jié)語
本文研究了一種視頻預(yù)處理方案,通過切割視頻畫面中的一些區(qū)域達(dá)到縮小視頻流尺寸的目的。這種預(yù)處理方法可以減小后面視頻識(shí)別算法的運(yùn)算量,最終達(dá)到加快識(shí)別速率的目的。
實(shí)驗(yàn)表明,本文方法可以在保證畫面計(jì)算的同時(shí)大幅度壓縮畫面整體尺寸,節(jié)約視頻處理時(shí)間,提高主算法的執(zhí)行效率。由于視頻處理算法運(yùn)行時(shí)間還受到模型結(jié)構(gòu)的影響,因此針對(duì)不同的視頻處理算法,本文提出的預(yù)處理算法效果會(huì)有一定的變動(dòng),但平均能夠提升5%左右的性能。
由于視頻預(yù)處理是整個(gè)視頻識(shí)別算法中的一步,盡管在預(yù)處理過程中可以過濾掉80%到90%的多余畫面,但后面的識(shí)別算法性能并不會(huì)隨之發(fā)生線性提升,特別對(duì)于一些復(fù)雜度較高的深度神經(jīng)網(wǎng)絡(luò)算法,由于運(yùn)算深度很大,因此減小輸入畫面尺寸帶來的性能提升比較有限。同時(shí),由于預(yù)處理算法本身也需要耗費(fèi)一定的時(shí)間,因此相應(yīng)地有所降低預(yù)處理效果。
參考文獻(xiàn):
[1]李小利, 楊曉梅, 陳代斌. 基于塊和低秩張量恢復(fù)的視頻去噪方法[J]. 計(jì)算機(jī)應(yīng)用研究, 2017(4):86-91.
[2]羅斌. 斷層圖象插值的二維形變法[J]. 中國圖象圖形學(xué)報(bào), 2018, 3(8):675-678.
[3]LIU C,TIAN L,ZHOU Y,et al. Video content redundancy elimination based on the convergence of computing, communication and Cache[C]. Global Communications Conference. IEEE, 2017.
[4]PHAM T Q,VLIET L J V. Separable bilateral filtering for fast video preprocessing[C]. 2005 IEEE International Conference on Multimedia and Expo, 2005.
[5]WANG S,ZHANG X,LIU X, et al. Utility-driven adaptive preprocessing for screen content video compression[J]. IEEE Transactions on Multimedia, 2017, 19(3):660-667.
[6]REDMON J,F(xiàn)ARHADI A. YOLOv3: an incremental improvement[J]. Computer Vision-ECCV,2018(9):1824-1831.
[7]王辰,老松楊,胡曉峰. 視頻中的文字探測[J]. 小型微型計(jì)算機(jī)系統(tǒng),2002,23(4): 478-481.
[8]YANG J,REN P,ZHANG D,et al. Neural aggregation network for video face recognition[C]. IEEE 2017 IEEE Conference on Computer Vision and Pattern Recognition,2017(2):5216-5225.
[9]李超凡,陳慶奎. 基于學(xué)習(xí)算法SSD的實(shí)時(shí)道路擁堵檢測[J]. 軟件導(dǎo)刊,2018,17(6):12-16.
[10]殷鶴楠, 佟國香. 一種基于CNN-AE特征提取的目標(biāo)跟蹤方法[J]. 軟件導(dǎo)刊, 2018,17(6):2,26-30,35.
[11]李輝,石波. 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別算法[J]. 軟件導(dǎo)刊, 2017,16(3):65-71.
[12]匡青. 基于卷積神經(jīng)網(wǎng)絡(luò)的商品圖像分類研究[J]. 軟件導(dǎo)刊, 2017,16(2):120-125.
[13]ROSTEN E,DRUMMOND T. Machine learning for high-speed corner detection[C]. Heidelberg:European Conference on Computer Vision,2006.
[14]CALONDER M,LEPETIT V,STRECHA C,et al. BRIEF binary robust independent elementary features[EB/OL]. https://blog.csdn.net/u010682375/article/details/72824212.
[15]王鵬,趙汗青. 基于結(jié)構(gòu)光的特征點(diǎn)提取方法研究[J]. 軟件導(dǎo)刊,2017,16(12):30-33.
[16]RUBLEE E,RABAUD V,KONOLIGE K,et al. ORB: an efficient alternative to SIFT or SURF[EB/OL]. https://wenku.baidu.com/view/ab34a69e51e79b896802264c.html.
[17]MA D,LAI H C. Remote sensing image matching based improved ORB in NSCT domain[J]. Journal of the Indian Society of Remote Sensing, 2019(10):461-468.
[18]WANG M,NIU S,YANG X. A novel panoramic image stitching algorithm based on ORB[C]. Sapporo:International Conference on Applied System Innovation. IEEE,2017.
[19]YING Z,F(xiàn)AN Y,YING G,et al. Fast image stitching algorithm based on ORB algorithm and OECF model[J]. Computer Engineering & Applications, 2017(3):1240-1249.
[20]HE S W,WEI Z G,HONG L Q. Robot vision navigation based on improved ORB algorithm[C]. International Conference on Intelligent and Interactive Systems and Applications, 2017:134-140.
[21]YANSHAN L,CONGZHU Y,LI Z,et al. A novel surf based on a unified model of appearance and motion-variation[J]. IEEE Access, 2018(6):1-2.
(責(zé)任編輯:杜能鋼)
收稿日期:2019-04-21
基金項(xiàng)目:國家自然科學(xué)基金青年項(xiàng)目(61402288)
作者簡介:張勵(lì)揚(yáng)(1991-),男,上海理工大學(xué)光電信息與計(jì)算機(jī)工程學(xué)院碩士研究生,研究方向?yàn)閳D像處理;趙逢禹(1963-),男,博士,上海理工大學(xué)光電信息與計(jì)算機(jī)工程學(xué)院教授、碩士生導(dǎo)師,研究方向?yàn)橛?jì)算機(jī)軟件與軟件系統(tǒng)安全、軟件工程與軟件質(zhì)量控制、軟件可靠性;劉亞(1963-),女,博士,上海理工大學(xué)光電信息與計(jì)算機(jī)工程學(xué)院講師,研究方向?yàn)檐浖煽啃?。本文通訊作者:趙逢禹。