石祥濱,鐘劉倍,張德園
(1.沈陽航空航天大學 計算機學院,沈陽 110136;2.遼寧大學 信息學院,沈陽 110036)
信息科學與工程
Hadoop環(huán)境下圖像內容檢索方法的研究
石祥濱1,2,鐘劉倍1,張德園1
(1.沈陽航空航天大學 計算機學院,沈陽 110136;2.遼寧大學 信息學院,沈陽 110036)
近年來,隨著互聯網技術的發(fā)展,圖像數據呈現爆炸式增長,圖像檢索已成為廣泛關注的熱點問題。提出一種基于Hadoop和ElasticSearch的多特征融合圖像檢索方案。為實現分布檢索,該方案給出了視覺詞典生成、圖片向量化和多維倒排索引的構建方法。為了提高檢索精度,設計了RootSIFT、顏色矩、Gabor特征,給出了三種特征融合方法。在Corel-1000標準圖像庫和ILSVRC2015數據集上的實驗結果表明,該方案在分布式平臺上具有較快的響應速度以及較高的檢索精度。關鍵詞: 云平臺;特征融合;CBIR;分布式計算
作為一種常見的、內容豐富的數據存儲形式,圖像中所蘊含的信息往往比文字描述所包含的信息要更豐富直觀。隨著互聯網和多媒體技術的不斷發(fā)展,圖像數據呈現爆發(fā)式增長態(tài)勢,圖像檢索技術[1]已成為大數據時代的重要課題。傳統(tǒng)單一節(jié)點圖像檢索方法的研究對精度和速度都有所提高,如文獻[2]中結合了反映局部區(qū)域變化的像素點顏色復雜度,對子塊顏色直方圖進行加權處理;文獻[3]中提出一種使用改進的倒排索引、相關性反饋和區(qū)域加權的基于區(qū)域的圖像表示和比較的框架。但隨著數據規(guī)模的爆發(fā)式增長,單節(jié)點架構的圖像檢索系統(tǒng)出現并發(fā)性差、速度慢、穩(wěn)定性和實時性無法保障等問題[4]。因此,一種能夠實現海量圖像中精確而快速檢索的圖像檢索技術成為研究熱點。
云計算的發(fā)展過程一直與大數據處理密切相關,因此利用云計算平臺來實現大規(guī)模的圖像檢索技術是一個非常有潛力的方向[5]。王梅等人提出一種基于Hadoop的圖像檢索方法,將圖像檢索技術與MapReduce框架相結合,圖像特征庫存儲于分布式文件系統(tǒng)HDFS(Hadoop Distributed File System)中,計算節(jié)點采用基于Hadoop的分布式存儲調度算法,增強對多數據的并發(fā)處理能力[6]。Raju[7]等基于MapReduce框架實現了LTrPs(Local Tetra Patterns)算法,提高了檢索效率。但Hadoop強大的分布式計算能力更加適合離線數據的處理,在實時檢索方面有所欠缺,文獻[6-7]中都沒有充分發(fā)揮集群分布式的效果,如文獻[6]中當數據量達到80萬圖像時,4個節(jié)點的檢索效率為單節(jié)點的2.21倍,與理論上最高效率4.0倍有不少差距。針對這個問題,本文在Hadoop中引入了ElasticSearch,共享HDFS分布式文件系統(tǒng),實現分布式的實時檢索。
單一特征很難表達出圖像所包含的豐富信息,如顏色特征對圖像本身尺寸、方向、視角依賴較小,但是只能描述圖像的顏色分布,忽略了其他信息。綜合利用顏色、紋理、形狀和空間關系等特征可以有效解決這個問題。Kong[8]提出的基于顏色直方圖特征和顏色共生矩陣紋理特征的融合算法與Sudhir等[9]提出的基于小波變換組合顏色特征和紋理特征,都是在特征級進行融合,提高了檢索精度。張永庫等[10]提出一種基于底層特征綜合分析算法(CAUC,Comprehensive Analysis based on the Underlying Characteristics)的特征融合算法,在保證較高檢索速度的同時提高查準率與查全率。雖然這些特征融合方案提高了檢索效率,但是在融合生成新的特征過程中對原特征信息有所破壞,對此本文提出一種基于決策層的圖像特征融合算法,主要研究多特征融合過程中權值分配的問題。朱為盛[11]等人使用SURF(Speeded Up Robust Features)特征,提出了一種基于傳統(tǒng)視覺詞袋模型和MapReduce計算模型的大規(guī)模圖像檢索方案,該方案具有優(yōu)良的加速比、擴展率以及數據伸縮率。史亞東[12]等人使用SIFT(Scale Invariant Feature Transform)特征,實現了基于Hadoop的并行化圖像檢索方法,相對于傳統(tǒng)圖像檢索在效率上有所提高。
綜上,針對圖像檢索問題,為了在檢索精度較高的情況下提高圖像檢索的效率,本文提出一種基于Hadoop+ElasticSearch云計算平臺的多特征融合圖像檢索方案。
本文圖像檢索系統(tǒng)結構如圖1所示,主要分為兩個部分,分別是MapReduce圖片特征預處理和ElasticSearch構建多維倒排索引實現檢索。檢索前對圖片庫中的圖片提取RootSIFT特征、顏色矩特征、Gabor特征;對提取的特征分別聚類生成各自的視覺詞典并且對圖片進行向量化;然后利用ElasticSearch建立三維倒排索引,每一維對應一種圖像特征,在索引的層次上進行特征融合。檢索時,先利用視覺詞典將待檢索圖片向量化,然后通過倒排索引返回相似圖片的結果。
圖1 系統(tǒng)結構
特征的質量和匹配識別能力對圖像檢索的性能有很大的影響,為了提高檢索精度,本文設計使用多特征融合的檢索方案,采用RootSIFT特征、顏色矩特征、Gabor小波變換分別表示圖像的梯度、顏色和紋理,在決策層進行特征融合。
2.1 RootSIFT特征
David G.Lowe提出了一種具有尺度不變性、旋轉不變性、亮度不變性的局部圖像特征,即尺度不變特征轉換SIFT[13-14]。SIFT特征是一個比較成熟的圖像局部特征,能夠描述圖像的局部梯度信息分布,在圖像檢索與分類、目標跟蹤、圖像拼接等領域都有著出色的表現。
針對傳統(tǒng)的SIFT特征,在相似度度量的過程中使用歐氏距離的計算方式,在圖像檢索時會造成一定的匹配偏差和性能損失的問題。Arandjelovic和Zisserman[15]提出了一種SIFT特征的變體,即RootSIFT特征,RootSIFT特征向量在歐氏距離空間內的計算等價于SIFT特征在Hellinger核空間的巴氏距離計算,更具魯棒性且具有更優(yōu)的視覺匹配性能。SIFT特征到RootSIFT特征的轉換可以簡單方便地實現,計算算法如下所示。
Step 1:計算SIFT描述符
Step 2:L1歸一化每個SIFT特征向量。
Step 3:取SIFT向量中每個元素的平方根。
Step4:L2歸一化所得向量。
最終得到的RootSIFT特征是一個128維的向量,其表示形式為TR=(k1,k2,…,k128)。
本文采用歐式距離作為兩個RootSIFT特征向量之間的相似性度量。
2.2 顏色矩特征
顏色矩[16]是由Stricker和Orengo所提出的一種非常簡單而有效的顏色特征。其思想是圖片的顏色信息主要集中在低階矩中,故用顏色的一階均值矩、二階方差矩和三階斜度矩表示圖像的顏色分布。三個顏色矩的數學定義如公式(1)~(3)所示。
(1)
(2)
(3)
其中,pi,j表示彩色圖像第i個顏色通道分量中灰度為j的像素出現的概率,N表示圖像中的像素個數。相對于其他顏色空間,HSV顏色空間更能表達出人類肉眼觀察到的主觀色彩信息,本文采用HSV顏色空間下的顏色矩作為顏色特征,三個顏色分量的三階矩組成的特征形式為Tc=(μ1,σ1,s1,μ2,σ2,s2,μ3,σ3,s3)。本文使用曼哈頓距離進行顏色矩相似度度量。
提取顏色矩特征時,為了解決顏色空間分布較散的問題,本文將圖像分為5*5個子圖像,然后每個子圖像分別計算顏色矩作為局部特征。每一個子圖像的特征反映了顏色的局部分布信息,而所有塊的空間分布,又反映了圖像內容的顏色結構,相對于使用全局的顏色矩特征,分塊顏色矩更能反映出圖像的顏色布局。
2.3 Gabor小波變換的紋理特征
對于圖像紋理內容,本文選擇使用頻譜法提取圖像的紋理特征,主要以傅里葉變換、小波變換、Gabor變換等頻域變換為基礎,在頻域中使用能量分布相關屬性形成紋理特征向量,以此來描述圖像的紋理特征。傅里葉變換只能從整體上分析信號的特征,缺乏對局部特征的分析能力,而Gabor變換可以很好地獲取圖像時域信號的局部特征,也能更好地符合人類的視覺感知,有助于提高圖像檢索的準確性。
因此本文使用具有多分辨率分析能力的Gabor濾波器提取紋理特征,用于特征融合以獲取更多的圖像內容信息。本文實驗中,考慮了5種不同的尺度和6種不同的方向,最后形成的紋理特征向量為TG=(μ00,σ00,μ01,σ01,…,μ45,σ45)。
其中,μmn和σmn表示變換系數能量分布的均值和標準差,m∈[0,M-1],n∈[0,N-1]。本文中,M=5和N=6分別對應5種尺度和6種方向。每張圖像提取Gabor紋理特征時,都先幾何分塊,分為4*4個子圖像,然后分別進行Gabor濾波提取特征作為圖像的局部特征。
(4)
針對大規(guī)模圖像檢索問題,本文在傳統(tǒng)Hadoop基礎上引入ElasticSearch,實現基于Hadoop+ElasticSearch的多特征融合系統(tǒng)。
3.1 視覺詞典生成
通常圖像特征都是多維的,如RootSIFT特征128維,而每張圖像通常包含成百上千甚至上萬個局部特征向量,在進行相似度度量時,計算量非常龐大。為了簡化計算,提高運算效率,通過聚類算法對特征向量數據進行聚類,用聚類中的一個簇表示視覺單詞,所有聚類中心簇的集合表示視覺詞典[17](碼本),然后每一張圖像用一個碼本矢量來描述。本文采用K-means算法分別對三個特征進行聚類,生成各自的特征庫。目標函數如公式(5)所示。
(5)
其中E表示最小化誤差,E值越小則簇類特征相似度越高。dist(ci,x)表示聚類中心集合中第i個聚類中心與待聚類點x的距離,實驗中即表現為兩個特征之間的距離度量。不同的特征之間度量方式不同,具體如第4節(jié)所示。
算法的流程主要包括,首先隨機選擇集合中的k個點作為初始的聚簇中心,再根據將集合中的每個點分配到距離它最近的聚簇中,最后根據每個聚簇中的數據點更新聚簇中心,如此反復地執(zhí)行后兩個步驟直到算法收斂。通過調用MapReduce任務來實現重復的迭代過程,每調用一次Map/Reduce計算對應一次迭代。K-means聚類的MapReduce算法如算法1所示:
算法1K?means聚類的MapReduce算法 輸入:圖片庫中提取的任意一種特征向量集 輸出:圖片包含特征及其特征所屬聚類中心的描述文件a和視覺詞典描述文件b step1:Map每讀取一個特征向量與所有中心點(初始中心點為隨機選取的K個特征向量)對比,求出該向量對應的中心點,輸出
其中cluster_id代表視覺單詞編號,簇中心cluster_vector即代表視覺單詞,所有的cluster_vector合在一起構成視覺詞典。
3.2 圖片的向量化
圖片的向量化就是將每一張圖片表示成一個向量,向量的每一個分量對應視覺詞典中的視覺單詞,分量的值表示該視覺單詞在該圖片中出現的次數。利用聚類后生成的描述文件通過Map/Reduce實現不斷的迭代將原始文件中的每個特征用其所屬的視覺單詞表示,并用類似直方圖統(tǒng)計的方式用一個K維的向量表示一張圖片。
算法2圖片的向量化 輸入:圖片任意一種特征向量集及相應描述文件a 輸出:相應特征的圖片特征庫 step1:Map讀取圖片向量及算法1中生成的描述文件a,找出該向量對應的視覺單詞; step2:用視覺單詞向量替換原特征向量,輸出
3.3 ES構建索引
ElasticSearch[18-19]用倒排索引的結構來做快速的全文搜索。倒排索引由在文檔中出現的唯一的單詞列表,以及對于每個單詞在文檔中的位置組成。
算法3ES創(chuàng)建索引 輸入:視覺詞典描述文件b和圖片向量化后文件 輸出:索引文件 step1:從HDFS中獲取視覺詞典描述文件b和圖片向量化后文件; step2:對視覺詞典分詞解析生成Field對象; step3:對圖片向量化后文件構建Document對象; step4:IndexWriter使用addDocument方法創(chuàng)建索引。
索引分片依賴于集群狀態(tài),會對查詢效率造成影響。本文設計為分片個數與集群節(jié)點數相同,分片均勻分配至各節(jié)點中。索引副本個數設計為2,保證系統(tǒng)的可靠性、數據的安全性。考慮到三個特征向量需要分別計算相似度,故采用三維倒排索引,每個維度對應一種特征的視覺單詞。
3.4 多特征融合
本文實現的是決策級的圖像特征融合,即在檢索時對待檢索的圖像提取三種圖像特征,與特征庫中相應的特征向量分別計算相似度,最后對三種特征的相似度計算結果進行加權整合,得到綜合的相似度。對于RootSIFT特征、顏色矩特征、Gabor紋理特征,設待檢索圖片Q和圖像庫中圖片I之間的相似度分別是DistR(Q,I)、DistC(Q,I)、DistG(Q,I)。
考慮到不同圖像特征所描述的圖像內容和物理意義各不相同,因此在特征融合之前需對DistR(Q,I)、DistC(Q,I)、DistG(Q,I)進行歸一化操作,以消除不同特征量綱之間的差異對檢索結果所造成的干擾。
研究結果表明,單個特征作用于圖像檢索時,RootSIFT特征的識別與匹配能力最強,顏色矩特征其次,Gabor紋理特征的區(qū)辨能力較弱。為了突出不同種類的圖像特征對檢索重要程度的差異性,本文在圖像特征融合時加以權重,對應于每種特征的重要性,特征的融合權重越大,說明該特征的匹配能力越強,對于檢索越重要。相似度融合公式如公式(6)所示。
Dist(Q,I)=w1×DistR(Q,I)×DistC(Q,I)+w2×DistG(Q,I)
(6)
其中w1+w2=1。公式(6)中的DistR(Q,I)、DistC(Q,I)采用相乘的方式是為了限制匹配的條件,如果兩個圖像是相似的,很大程度上必須要求這兩張圖像同時在RootSIFT特征和顏色矩特征上都是相似的。本文中之所以DistG(Q,I)以相加而不是相乘的方式融合其他兩種特征,是因為考慮到圖像紋理特征的匹配較弱,造成錯誤匹配的概率大,同時圖像中紋理特征信息一般也沒有梯度信息和顏色信息豐富。如果DistG(Q,I)也采用相乘的方式進行融合,那么這樣的圖像匹配的條件則過于苛刻,會導致圖像檢索的召回率過低的問題。
為了使得檢索精度達到最大求得合適權重值,針對權重w1進行分析,觀察權重w1取值的變化對平均檢索精度的影響,由于w1與w2相互約束,w2的取值隨之相應變化。本次使用Corel-1000標準圖像庫[20]作為測試,實驗結果表明隨著w1的取值從0,0.1,0.2,到1.0的變化,平均檢索精度呈現出先上升后下降的趨勢,求得最合適權重值即求平均檢索精度最高時對應的w1。
從Corel-1000標準圖像庫的10類圖片中,每類圖片隨機選取30張共300張作為預處理測試圖片,設定初始w1值,通過不斷迭代和反饋,調整w1值,直至達到最優(yōu)或者局部最優(yōu)的w1值為止,實驗得權重分配值w1=0.768,w2=0.232。
不同的實驗數據集采用特征融合公式時對應不同的權值分配,對于不同的數據集,應采用上面的方法對其進行預處理,求出相應的合適權值。
本文構建了基于Hadoop+ElasticSearch的多特征融合檢索原型系統(tǒng)。實驗數據集為Corel-1000標準圖像庫和ILSVRC2015數據集,分別在查準率、檢索效率和加速比三個方面對原型系統(tǒng)進行了分析。
4.1 實驗環(huán)境
本實驗硬件配置為兩臺Intel Xeon CPU、32G內存的電腦,為實現多節(jié)點的分布式環(huán)境,實驗時在每臺電腦上安裝兩個虛擬機,共四個虛擬節(jié)點。每個節(jié)點都采用64位CentOS系統(tǒng),內存設置為16G,Hadoop版本采用hadoop2.6.2,ElasticSearch版本為elasticsearch1.4.4,JDK為jdk1.7.0_80。
4.2 查準率
在圖像檢索領域,精度(又叫查準率)是非常重要的檢索性能評價指標。精度的數學表達形式如公式(7)所示:
(7)
其中,TP表示相關且被正確返回的圖像數,FP表示不相關但被錯誤返回的圖像數。
本次實驗采用Corel-1000標準圖像庫,Corel-1000分為人臉、沙灘、建筑等10類,其中每類中各包含100張相似圖像,共1 000張圖片,取數據集的30%作為測試數據,即每類30張圖片,共300張。然后統(tǒng)計本類別圖像的平均查準率作為檢索性能的評價指標,檢索結果按相似度降序排序,每次檢索時向用戶返回NR張最相似的圖像作為檢索結果,本次實驗中NR設置為20。
從圖2中觀察可得,單個特征檢索時,RootSIFT特征在三個特征中的識別能力最強,顏色矩特征其次,Gabor紋理特征最弱,特征融合后的檢索精度明顯有所提升。本文中設計的特征融合方案能夠較好地發(fā)揮各個特征的特性,在圖像檢索方面性能優(yōu)異。
圖2 單一特征與多特征融合圖像檢索的查準率對比
4.3 時間性能
實驗數據來源于ILSVRC2015數據集,ILSVRC2015分為1 000類,130萬張訓練圖片集,10萬張測試圖片集。本次實驗分別從中隨機選取10萬、20萬、40萬、60萬、80萬作為訓練數據集。根據不同規(guī)模的圖像庫及節(jié)點數的情況,圖像檢索消耗的時間如圖3所示。
圖3 不同節(jié)點下的檢索時間對比
加速比定義為同一任務在單個計算節(jié)點運行時間與多個計算節(jié)點運行時間之比,用來衡量并行系統(tǒng)或程序并行化的性能和效果,即在計算節(jié)點個數相同時,加速比越大表示系統(tǒng)的并行化效率越高。文獻[6]中同樣實現了在四個節(jié)點的Hadoop集群上的圖像檢索,表1表示的是文獻[6]中hadoop框架下圖像檢索的加速比和本文中引入ElasticSearch后的分布式檢索算法加速比的比較。
表1 本文方法與文獻[6]中方法加速比比較
從圖3觀察可得,隨著數據集的增大,分布式計算平臺相對于單節(jié)點計算的檢索效率優(yōu)勢越發(fā)明顯。數據量為10萬時,四個節(jié)點檢索消耗的時間為單節(jié)點消耗時間的52.17%,隨著數據量增長到80萬,檢索時間對比為35.33%,這說明本文設計方案能大幅度提升圖像檢索的效率;從表1可觀察出,兩種方法的加速比均隨著數據集的增大而有所增加,但是本文中設計的方法在各個大小的數據集中均表現出比文獻[6]中的方法加速比更大,即本文中引入ElasticSearch的云計算平臺相對于傳統(tǒng)的hadoop框架在圖像檢索方面更能發(fā)揮集群分布式并行計算的優(yōu)勢。
隨著圖像數據量的不斷增長,傳統(tǒng)圖像檢索方式在處理海量圖像時存在效率低、可靠性差等缺陷,基于此提出了基于hadoop+ElasticSearch的多特征融合圖像檢索方法。實驗結果表明,在Hadoop中引入ElasticSearch實現分布式的多特征融合算法,提高了檢索效率,獲得較好的加速比且相對于傳統(tǒng)Hadoop框架下的分布式圖像檢索算法更能發(fā)揮集群的優(yōu)勢。由于hadoop是為海量數據處理做的平臺,使得系統(tǒng)處理海量數據成為可能,受實驗條件所限,對更大規(guī)模的數據分析有待于進一步研究。未來的工作重點將根據圖像檢索需求進一步優(yōu)化多特征融合算法,提高檢索精度,并從改善集群本身的性能入手,進一步提高檢索效率。
[1]DATTA R,JOSHI D,LI J,et al.Image retrieval:ideas,influences,and trends of the new age[J].ACM Computing Surveys(Csur),2008,40(2):1-6.
[2]JING F,LI M,ZHANG H J,et al.An efficient and effective region-based image retrieval framework[J].IEEE Transactions on Image Processing,2004,13(5):699-709.
[3]王向陽,楊紅穎,鄭宏亮,等.基于視覺權值的分塊顏色直方圖圖像檢索算法[J].自動化學報,2010,36(10):1489-1492.
[4]WANG F,ERCEGOVAC V,SYEDA-MAHMOOD T,et al.Large-scale multimodal mining for healthcare with mapreduce[C]//Proceedings of the 1st ACM International Health Informatics Symposium.ACM,2010:479-483.
[5]DEAN J,GHEMAWAT S.MapReduce:simplified data processing on large clusters[J].Communications of the ACM,2008,51(1):107-113.
[6]王梅,朱信忠,趙建民,等.基于Hadoop的海量圖像檢索系統(tǒng)[J].計算機技術與發(fā)展,2013(1):204-208.
[7]RAJU U S N,GEORGE S,PRANEETH V S,et al.Content based image retrieval on Hadoop framework[C]//Big Data(BigData Congress),2015 IEEE International Congress on.IEEE,2015:661-664.
[8]KONG F H.Image retrieval using both color and texture features[C]//Machine Learning and Cybernetics,2009 International Conference on.IEEE,2009,4:2228-2232.
[9]SUDHIR R.An Efficient CBIR Technique with YUV Color Space and Texture Features[J].Computer Engineering & Intelligent Systems,2011,2(6):78-84.
[10]張永庫,李云峰,孫勁光.基于多特征融合的圖像檢索[J].計算機應用,2015,35(2):495-498.
[11]朱為盛,王鵬.基于Hadoop云計算平臺的大規(guī)模圖像檢索方案[J].計算機應用,2014,34(3):695-699.
[12]史亞東,李勛.基于Hadoop平臺的圖像檢索方法研究[J].蘭州交通大學學報,2016,35(1):30-35.
[13]LOWE D G.Object recognition from local scale-invariant features[C]//Computer Vision,1999.The proceedings of the seventh IEEE international conference on.IEEE,1999,2:1150-1157.
[14]LOWE D G.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.
[16]STRICKER M A,ORENGO M.Similarity of color images[C]//IS&T/SPIE's Symposium on Electronic Imaging:Science & Technology.International Society for Optics and Photonics,1995:381-392.
[17]ZHENG L,WANG S,ZHOU W,et al.Bayes merging of multiple vocabularies for scalable image retrieval[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.2014:1955-1962.
[18]GORMLEY C,TONG Z.Elasticsearch:The Definitive Guide[M].Sebastopol:O′Reilly Media,Inc,2015.
[19]DIVYA M S,GOYAL S K.ElasticSearch:An advanced and quick search technique to handle voluminous data[J].Compusoft,2013,2(6):171.
[20]LI J,WANG J Z.Automatic linguistic indexing of pictures by a statistical modeling approach[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2003,25(9):1075-1088.
(責任編輯:劉劃 英文審校:趙亮)
Research on the method of retrieval of image content based on Hadoop
SHI Xiang-bin1,2,ZHONG Liu-bei1,ZHANG De-yuan1
(1.College of Computer Science,Shenyang Aerospace University,Shenyang 110136,China;2.School of Information,Liaoning University,Shenyang 110036,China)
In recent years,with the development of internet technology,the image data shows explosive growth while the image retrieval has become hot in research field.In this paper,an image retrieve scheme based on cloud platform and multi-feature fusion was proposed.In order to achieve distributed parallel retrieval,the construct methods such as visual dictionary generation,image vectorization and multi-dimensional inverted index were provided by this scheme.To increase the accuracy of retrieval,we applied the RootSIFT feature,color matrix feature and Gabor feature by using a new method to fuse these three features.The experimental results on the Corel-1000 standard image library and the ILSVRC2015 dataset show that the proposed scheme can provide fast response speed and high retrieval precision on the distributed platform.
cloud platform;multi-feature fusion;CBIR;distributed computing
2017-02-20
國家自然科學基金(項目編號:61170185、61602320);遼寧省博士啟動基金(項目編號:20121034、201601172);遼寧省教育廳科學研究一般項目(項目編號:L2014070、L201607)
石祥濱(1963-),男,遼寧大連人,教授,主要研究方向:分布式虛擬和現實、圖像與視頻理解、無人機協同感知與控制,E-mail:199630824@qq.com。
2095-1248(2017)03-0063-07
TP391.9
A
10.3969/j.issn.2095-1248.2017.03.009