• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      一種圖像感興趣區(qū)域提取方法研究

      2017-09-01 15:54:44范向陽
      關(guān)鍵詞:像素點(diǎn)灰度區(qū)間

      王 誠,范向陽

      (南京郵電大學(xué) 通信與信息工程學(xué)院,江蘇 南京 210003)

      一種圖像感興趣區(qū)域提取方法研究

      王 誠,范向陽

      (南京郵電大學(xué) 通信與信息工程學(xué)院,江蘇 南京 210003)

      關(guān)于圖像感興趣區(qū)域(ROI)提取,改進(jìn)的Stentiford視覺模型方法與傳統(tǒng)的Stentiford視覺模型方法以及其他視覺模型方法相比,具有提取的圖像區(qū)域清晰、邊緣明顯、效率高等優(yōu)點(diǎn),但在圖像背景較為復(fù)雜時(shí),會(huì)提取到目標(biāo)區(qū)域以外的區(qū)域。鑒于實(shí)際研究中對(duì)準(zhǔn)確度的要求,需要從已提取區(qū)域中挑選出目標(biāo)區(qū)域。為此,在所涉及的圖像處理過程中,提出了多種圖像新特征的提取方法,并引入數(shù)據(jù)挖掘領(lǐng)域中的經(jīng)典FP-Growth算法,在改進(jìn)的Stentiford視覺模型方法對(duì)訓(xùn)練集圖像處理后,提取圖像顯著熵、顯著熵密度等眾多圖像特征,并應(yīng)用FP-Growth算法挖掘圖像特征和目標(biāo)區(qū)域的關(guān)聯(lián)規(guī)則,同時(shí)將獲取到的規(guī)則應(yīng)用于測試集的大量實(shí)驗(yàn)驗(yàn)證之中。實(shí)驗(yàn)結(jié)果表明,采用了所提出的方法后,提取到的圖像區(qū)域準(zhǔn)確度有顯著提高,表明該方法是可行有效的。

      圖像感興趣區(qū)域;Stentiford視覺模型;FP-Growth算法;圖像特征

      0 引 言

      基于人眼視覺模型的人眼感興趣區(qū)域提取有多種經(jīng)典方法,例如Itti視覺模型[1]、GBVS視覺模型[2]、譜剩余模型[3]、Stentiford模型[4-5]等。通過對(duì)比,Stentiford模型提取的效果最為清晰和準(zhǔn)確。但是Stentiford模型有提取結(jié)果隨機(jī)性過大,對(duì)圖片細(xì)節(jié)過于敏感,計(jì)算量大造成耗時(shí)等問題。為此,對(duì)Stentiford方法加以改進(jìn)。

      雖然改進(jìn)的Stentiford方法明顯提高了圖像提取的質(zhì)量和效率,使得提取的圖像區(qū)域清晰,邊緣明顯,但同時(shí)也帶來了新的問題。當(dāng)圖像背景不單一、不均勻時(shí),會(huì)得到眾多的與目標(biāo)無關(guān)的區(qū)域,這些區(qū)域大小不一,分布無規(guī)律,簡單的去噪操作達(dá)不到要求。因此,在以上方法得到提取區(qū)域的基礎(chǔ)上,需要挑選出目標(biāo)區(qū)域,即區(qū)域選擇的過程,來進(jìn)一步精確提取。主要步驟如下:

      (1)將訓(xùn)練集圖像通過改進(jìn)Stentiford方法生成顯著圖,作為特征提取的研究對(duì)象。

      (2)將顯著圖進(jìn)行分割,得到獨(dú)立的分割區(qū)域。這里選用了經(jīng)典的圖像分割算法—Otsu算法[6]進(jìn)行處理。

      (3)為了解決噪聲,在微小無關(guān)細(xì)節(jié)區(qū)域干擾的前提下,提取位置等相關(guān)特征,提取分割圖像骨架,生成骨架圖像,作為特征提取研究對(duì)象。

      (4)生成的骨架圖像結(jié)合輸入的訓(xùn)練集圖像和分割的顯著圖大量提取圖像特征,包括首次引入的顯著度熵、顯著度熵密度的特征。

      (5)通過FP-Growth算法挖掘頻繁項(xiàng)集。

      (6)將提取的頻繁項(xiàng)集應(yīng)用到測試集中,與其他方法進(jìn)行對(duì)比。

      1 理論基礎(chǔ)

      1.1 改進(jìn)的Stentiford模型

      (1)通過灰度變換將輸入的彩色圖像轉(zhuǎn)變成灰度圖像。

      (2)對(duì)灰度圖像的像素點(diǎn)進(jìn)行雙線性插值,得到像素點(diǎn)八鄰域值。

      (3)計(jì)算圖像的Uniform LBP[7-9]矩陣:根據(jù)像素點(diǎn)八鄰域值,對(duì)比Uniform LBP的59模式,從而得到Uniform LBP矩陣。

      (4)對(duì)得到的矩陣進(jìn)行直方圖統(tǒng)計(jì):以等級(jí)、像素值、坐標(biāo)點(diǎn)作為參數(shù),構(gòu)建三維數(shù)組。

      (5)計(jì)算顯著度矩陣,根據(jù)統(tǒng)計(jì)的個(gè)數(shù)比例生成顯著度矩陣。

      (6)生成顯著圖。將顯著度矩陣按比例轉(zhuǎn)換到灰度空間,以取得較好的視覺效果。

      1.2 Otsu算法二值化

      假設(shè)一幅圖像共有K個(gè)灰度級(jí)(0,1,…,K-1),用N(m)表示灰度值為m的像素點(diǎn)數(shù)。

      則圖像總的像素?cái)?shù)為:

      N=N0+N1+…+NK-1

      (1)

      灰度值為m的點(diǎn)的概率為:

      (2)

      門限t將整幅圖像分為暗區(qū)S1和亮區(qū)S2,類間方差σ是t的函數(shù):

      σ=A1×A2(U1-U2)2

      (3)

      其中,Aj(j∈[1,2])為類Sj的面積與圖像總面積之比。

      A1=SUM(P(m))m→t

      (4)

      A2=1-A1

      (5)

      Uj為類Sj的均值。

      (6)

      (7)

      取σ最大值時(shí)t的值,令U=U1-U2,有:

      σ=max{A1(t)×A2(t)U2}

      (8)

      1.3 顯著度熵、顯著度熵密度、顯著度熵和

      引入顯著度熵的概念,并將其值作為圖像眾多特征之一。由于顯著度矩陣代表著感興趣度,點(diǎn)值在區(qū)間(0,1)內(nèi),數(shù)值與興趣度成反比,也就是說數(shù)值越小表示興趣度越高,數(shù)值越大興趣度越低,這是將其計(jì)算熵的前提,也符合熵的概念。因此,為了定量分析興趣度與顯著度的關(guān)系,通過式(9)獲得顯著度熵。由于要解決圖像區(qū)域選擇的問題,在此基礎(chǔ)上,為了表征分割后的區(qū)域興趣度的和及平均興趣度,分別按式(10)、式(11)計(jì)算。

      H(x,y)=log2p(x,y)

      (9)

      其中,p(x,y)為ImageB的點(diǎn)值;(x,y)為坐標(biāo);H(x,y)為ImageD的點(diǎn)值。

      (10)

      (11)

      其中,S為對(duì)應(yīng)圖像各個(gè)分割后的區(qū)域。

      1.4 頻繁項(xiàng)目集

      頻繁項(xiàng)集的相關(guān)概念出自于數(shù)據(jù)挖掘中的關(guān)聯(lián)規(guī)則算法[10-11],而關(guān)聯(lián)規(guī)則[12]相關(guān)概念如下:

      設(shè)D是事務(wù)數(shù)據(jù)庫,n個(gè)不同的項(xiàng)目元素組成集合I={i1,i2,…,in},I中項(xiàng)目的集合構(gòu)成具體的每一個(gè)事務(wù)T,即T?I,記為TID{T}。事務(wù)TID{Ti}組成事務(wù)數(shù)據(jù)庫D={T1,T2,…,Tn}。對(duì)于項(xiàng)目集X∈I,若X∈T,則稱T支持X。如果X中有k個(gè)項(xiàng)目,X可以稱為k-項(xiàng)目集。

      項(xiàng)集X?T的支持度表示為:

      (12)

      關(guān)聯(lián)規(guī)則表示數(shù)據(jù)間的隱含關(guān)系。例如,X→Y,X?I,Y?I,X∩Y≠?,則X→Y的支持度為:

      (13)

      X→Y的置信度為:

      (14)

      根據(jù)實(shí)際需要,人為設(shè)定最小支持度Minsup和最小置信度Minconf兩個(gè)閾值。若Sup(X)≥Minsup,則稱項(xiàng)集X是頻繁項(xiàng)集。對(duì)于任意Y?X,Sup(Y)≥Minsup恒成立,則此時(shí)的X可稱為最大頻繁項(xiàng)集。

      1.5 FP-Growth算法

      FP-Growth算法[13-15]描述如下:

      (1)掃描數(shù)據(jù)庫,對(duì)1項(xiàng)項(xiàng)目集次數(shù)降序排列,刪除小于最小支持度的項(xiàng)。

      (2)分別對(duì)新構(gòu)建的FP-tree重復(fù)此過程,直到新構(gòu)造的FP-tree只包含一條路徑,或者為空。

      (3)若構(gòu)造的FP-tree為空,其前綴即為頻繁模式;若FP-tree只包含單一路徑,枚舉所有可能組合并與此樹的前綴。

      2 算法應(yīng)用

      2.1 改進(jìn)模型

      設(shè)原圖像為ImageA,通過改進(jìn)的Stentiford模型進(jìn)行計(jì)算處理:

      (1)將輸入的彩色圖像灰度變換為灰度圖像,對(duì)灰度圖像的像素點(diǎn)進(jìn)行雙線性插值,得到像素點(diǎn)八鄰域值;

      (2)計(jì)算圖像的Uniform LBP矩陣;

      (3)對(duì)得到的矩陣進(jìn)行直方圖統(tǒng)計(jì);

      (4)計(jì)算顯著度矩陣,根據(jù)統(tǒng)計(jì)的個(gè)數(shù)比例生成顯著度矩陣ImageB;

      (5)生成顯著圖ImageC。

      2.2 圖像分割

      針對(duì)ImageC,通過Otsu算法獲取閾值,對(duì)于大于閾值的區(qū)域?yàn)榘咨?,?duì)于小于閾值的區(qū)域變?yōu)楹谏罱K圖像被分割成多個(gè)黑白相間區(qū)域。也就是黑色區(qū)域較白色有較高的興趣度,接下來就是實(shí)現(xiàn)從眾多分割后的黑色區(qū)域中挑選出目標(biāo)區(qū)域。

      2.3 圖像骨架提取

      在圖像ImageE的起始處,適當(dāng)大小矩形模塊(長l,寬w)表示如下:

      (15)

      (16)

      其中,L、W分別為ImageE的長和寬的像素點(diǎn)數(shù);理論上c取值沒有嚴(yán)格限制,但取值過小,使得圖像骨架提取過于粗糙,過大會(huì)使骨架過于敏感,沒有較好回避噪聲點(diǎn)干擾。

      這里c=20,逐行掃描,處理ImageE,按式(17)計(jì)算:

      (17)

      其中,N為模塊大小,單位像素點(diǎn);K為當(dāng)前模塊下像素點(diǎn)為0的個(gè)數(shù)。

      設(shè)定閾值t=0.5:

      Ifλ>t記為0

      Else記為1

      得到矩陣ImageF。對(duì)ImageF分兩次進(jìn)行四鄰域分塊處理,最終得到分割矩陣ImageG。

      2.4 圖像特征提取

      I1:ImageA目標(biāo)區(qū)域顏色x1,x1由{紅、橙、黃、綠、青、藍(lán)、紫}組成;

      I2:圖像結(jié)構(gòu)(通過計(jì)算ImageG中目標(biāo)區(qū)域、背景區(qū)域的面積、位置關(guān)系分為四類,對(duì)于圖像主要目標(biāo)區(qū)域和單一背景組成的可分為三類:包含,半包含,上下左右,記為I2a、I2b、I2c。背景不均勻單一的圖像,統(tǒng)計(jì)為I2d);

      I3:ImageA背景區(qū)域顏色(這里將除目標(biāo)以外的圖像所有部分認(rèn)作背景區(qū)域);

      I4:ImageA目標(biāo)區(qū)域Red顏色分量總和占整幅圖像比例區(qū)間,將區(qū)間等分為3段 [0,1/3),[1/3,2/3),[2/3,1],標(biāo)記為I4a、I4b、I4c;

      I5:ImageA目標(biāo)區(qū)域Green顏色分量總和占整幅圖像比例,將區(qū)間等分為3段 [0,1/3),[1/3,2/3),[2/3,1],標(biāo)記為I5a、I5b、I5c;

      I6:ImageA目標(biāo)區(qū)域Blue顏色分量總和占整幅圖像比例,將區(qū)間等分3段 [0,1/3),[1/3,2/3),[2/3,1],標(biāo)記為I6a、I6b、I6c;

      I7:三個(gè)顏色分量占比最大值,區(qū)間等分為3段 [0,1/3),[1/3,2/3),[2/3,1],標(biāo)記為I7a、I7b、I7c;

      I8:圖像的一階顏色矩:

      (18)

      其中,i代表顏色通道數(shù),由于是彩色圖像所以i∈[1,3],依次對(duì)應(yīng)(Red,Green,Blue);pij代表第j個(gè)點(diǎn),第i個(gè)顏色通道的顏色值;N代表圖像總像素點(diǎn)數(shù)。

      i=1,將區(qū)間(0,255)等分為3段,(0,85),(85,170),(170,255),標(biāo)記為I8a、I8b、I8c;

      I9:圖像的一階顏色矩i=2,將區(qū)間(0,255)等分為3段,(0,85),(85,170),(170,255),標(biāo)記為I9a、I9b、I9c;

      I10:圖像的一階顏色矩i=3,將區(qū)間(0,255)等分為3段,(0,85),(85,170),(170,255),標(biāo)記為I10a、I10b、I10c;

      I11:圖像的一階顏色矩最大值,將區(qū)間(0,255)等分為3段,(0,85),(85,170),(170,255),標(biāo)記為I11a、I11b、I11c;

      I12:圖像的二階顏色矩[16]:

      (19)

      i=1,將取值區(qū)間(0,125)等分為3段(0,42),(42,84),(84,125),標(biāo)記為I12a、I12b、I12c;

      I13:圖像的二階顏色矩i=2,將取值區(qū)間(0,125)等分為3段(0,42),(42,84),(84,125),標(biāo)記為I13a、I13b、I13c;

      I14:圖像的二階顏色矩i=3,將取值區(qū)間(0,125)等分為3段(0,42),(42,84),(84,125),標(biāo)記為I14a、I14b、I14c;

      I15:圖像的二階顏色矩最大值,將取值區(qū)間(0,125)等分為3段(0,42),(42,84),(84,125),標(biāo)記為I15a、I15b、I15c;

      I16:圖像的三階顏色矩:

      (20)

      i=1,將取值絕對(duì)值區(qū)間(0,125)等分為3段(0,42),(42,84),(84,125),標(biāo)記為I16a、I16b、I16c;

      I17:圖像的三階顏色矩i=2,將取值絕對(duì)值區(qū)間(0,125)等分為3段(0,42),(42,84),(84,125),標(biāo)記為I17a、I17b、I17c;

      I18:圖像的三階顏色矩i=3,將取值絕對(duì)值區(qū)間(0,125)等分為3段(0,42),(42,84),(84,125),標(biāo)記為I18a、I18b、I18c;

      I19:圖像的三階顏色矩最大值,將取值區(qū)間(0,125)等分為3段(0,42),(42,84),(84,125),標(biāo)記為I19a、I19b、I19c;

      I20:由于ImageD是ImageB的骨架,也是一種映射,而ImageD是已分割的圖像,所以,對(duì)ImageD已分割的塊,通過式(21)計(jì)算各個(gè)塊對(duì)應(yīng)在ImageB區(qū)域的熵,求取全局平均熵密度。

      H(x,y)=log2p(x,y)

      (21)

      由于概率范圍[0,1]對(duì)應(yīng)熵1區(qū)間[0,+∞],所以等分概率區(qū)間[0,1/3],[1/3,2/3],[2/3,1],從而得到熵密度區(qū)間(0,log23),(log21.5,log23),(log23,+∞)。

      (22)

      (23)

      其中,S為對(duì)應(yīng)在ImageB區(qū)域的區(qū)域;N為S的點(diǎn)數(shù)。

      I21:ImageD圖像,分割得到的區(qū)域塊數(shù)x21,x21∈N*;

      I22:求取各個(gè)塊平均的熵密度,目標(biāo)熵密度的排名x22,x22∈N*:

      I23:目標(biāo)區(qū)域熵密度;

      I24:目標(biāo)區(qū)域熵密度,平均熵密度兩者的大小關(guān)系,大于、小于、等于分別標(biāo)記為I24a、I24b、I24c;

      I25:目標(biāo)區(qū)域熵密度,在大于平均熵密度的熵和的排名x25,x25∈N*;

      I26:目標(biāo)區(qū)域熵密度,在小于平均熵密度的熵和的排名x26i,i∈N*;

      I27:目標(biāo)區(qū)域熵和的排名,x27,x27∈N*。

      對(duì)圖片填入數(shù)據(jù)庫,以圖1為例。

      圖1 示例圖

      I1:a:黃、青;b:黃

      I2:a:包含,記為I2a;b:背景復(fù)雜,記為I2d

      I3:a:綠;b:藍(lán)、白

      I4:a:0.36,0.36∈(1/3,2/3)記I4b;b:0.285,0.285∈(0,1/3)記I4a

      I5:a:0.65,0.65∈(1/3,2/3)記I5b;b:0.67,0.67∈(2/3,1)記I5c

      I6:a:0.347,0.347∈(1/3,2/3)記I6b;b:0.57,0.57∈(1/3,2/3)記I6b

      I7:a:0.65,0.65∈(1/3,2/3)記I7b;b:0.67,0.67∈(2/3,1)記I7c

      I8:a:98,98∈(85,170)記I8b;b:107,107∈(85,170)記I8b

      I9:a:160,160∈(85,170)記I9b;b:98,98∈(85,170)記I9b

      I10:a:108,108∈(85,170)記I10b;b:227,227∈(170,255)記I10c

      I11:a:160,160∈(85,170)記I11b;b:227,227∈(170,255)記I11c

      I12:a:90.5,90.5∈(84,125)記I12c;b:115.9,115.9∈(84,125)記I12c

      I13:a:36,36∈(0,42)記I13a;b:87,87∈(84,125)記I13c

      I14:a:37.3,37.3∈(0,42)記I14a;b:34.8,34.8∈(0,42)記I14a

      I15:a:90.5,90.5∈(84,125)記I15c;b:115.9,115.9∈(84,125)記I15c

      I16:a:95.2,95.2∈(84,125)記為I16c;b:88.4,88.4∈(84,125)記I16c

      I17:a:40.5,40.5∈(0,42)記I17a;b:-34,34∈(0,42)記I17a

      I18:a:36.6,36.6∈(0,42)記I18a;b:34.1,34.1∈(0,42)記I18a

      I19:a:95.2,95.2∈(84,125)記為I19c;b:88.4,88.4∈(84,125)記I19c

      I20:a:0.76,0.76∈(log21.5,log23)記I20b;b:0.79,0.79∈(log21.5,log23)記I20b

      I22:a:12,記I2212;b:3,記I223

      I23:a:1.92,1.92∈(log23,log250)記I21c;b:1.81,1.81∈(log23,log250)記I21c

      I24:a:大于,記I24a;b:大于,記I24a

      I25:a:1,記I251;b:1,記I251

      I26:a:null,記I26φ;b:null,記I26φ

      I27:a:2,記I272;b:1,記I271

      2.5 FP-Growth應(yīng)用

      按照FP-Growth[17-18]算法步驟,依次將200幅測試集圖像存入數(shù)據(jù)庫D,構(gòu)造FP樹階段:

      掃描數(shù)據(jù)庫D,獲取1項(xiàng)頻繁項(xiàng)目集L,并對(duì)L降序排列。

      部分?jǐn)?shù)據(jù)見表1。

      表1 降序排列表 次

      創(chuàng)建FP-tree樹的根節(jié)點(diǎn),記為“null”,按照獲取的L中的排序,對(duì)每個(gè)事務(wù)進(jìn)行插入FP-tree操作,從而完成FP-tree構(gòu)建過程。

      FP-Growth通過對(duì)FP-tree的搜索遍歷,實(shí)現(xiàn)函數(shù)FP_Growth(FP_tree,null)的詳細(xì)過程如下:

      FP_Growth(FP_tree,α),α為條件基,初始為空。

      if FP-tree含有單個(gè)路徑為P

      then{

      for路徑中節(jié)點(diǎn)的所有組合(記作β)

      可以產(chǎn)生的模式是m=β∪α,支持度計(jì)數(shù)等于用β中節(jié)點(diǎn)最小支持度計(jì)數(shù)supmin=20,如果其超過最小閾值,將其輸出到集合M={m0…mk},k表示個(gè)數(shù)

      }

      else{

      for FP_tree的頭表中每個(gè)αi{

      產(chǎn)生模式β=αi∪α,αi的支持?jǐn)?shù)為其支持?jǐn)?shù)

      然后,建立β的條件模式基,構(gòu)造β的條件FP-treeβ;

      ifFP-treeβ≠? then

      FP_Growth(FP-treeβ,α)

      }

      對(duì)M={m0…mk}集合每個(gè)元素計(jì)算

      conf(X→Y)=supp(X∪Y)/supp(X)=P(Y|X)

      (24)

      其中,Y:I251;X:條件模式基βk。

      mk=βk∪I251

      (25)

      取閾值conf=70%

      輸出到集合H。

      滿足條件的項(xiàng)集見表2。

      表2 滿足條件的項(xiàng)集

      頻繁模式支持度置信度I2d、I7c、I15c、I24a、I251、I26φ480.83I2b、I24a、I251、I26φ360.89I2a、I24a、I251、I26φ320.88I2c、I24a、I251、I26φ320.88

      按照以上規(guī)則:

      (1)規(guī)則I2d、I7c、I15c、I24a、I251、I26φ,可以理解為:對(duì)圖像結(jié)構(gòu)比較復(fù)雜,背景不單一,不均勻,其I7、I15比值較高,表明目標(biāo)區(qū)域在圖像中有足夠大小,圖像中某種顏色集中在目標(biāo)區(qū)域,I24a、I251說明目標(biāo)區(qū)域顯著熵密度大于平均,并在大于平均的分類中熵和最大。

      (2)規(guī)則I2a、I24a、I251、I26φ理解為:對(duì)于結(jié)構(gòu)為半包圍的背景單一、均勻圖像,目標(biāo)區(qū)域顯著熵密度大于平均,并在大于平均的分類中熵和最大。

      (3)規(guī)則I2b、I24a、I251、I26φ理解為:對(duì)于結(jié)構(gòu)為半包圍的背景單一、均勻圖像,目標(biāo)區(qū)域顯著熵密度大于平均,并在大于平均的分類中熵和最大。

      (4)規(guī)則I2c、I24a、I251、I26φ理解為:對(duì)于結(jié)構(gòu)為半包圍的背景單一、均勻圖像,目標(biāo)區(qū)域顯著熵密度大于平均,并在大于平均的分類中熵和最大。

      根據(jù)上述頻繁項(xiàng)集制定下述規(guī)則:

      (1)若I2d、I15c成立,圖像某一區(qū)域滿足I7c、I24a、I251,則將該塊區(qū)域作為目標(biāo)區(qū)域;

      (3)若I2a成立,圖像某一區(qū)域滿足I24a、I251,則將該塊區(qū)域作為目標(biāo)區(qū)域;

      (3)若I2b成立,圖像某一區(qū)域滿足I24a、I251,則將該塊區(qū)域作為目標(biāo)區(qū)域;

      (4)若I2c成立,圖像某一區(qū)域滿足I24a、I251,則將該塊區(qū)域作為目標(biāo)區(qū)域(關(guān)于I2的特征取值研究對(duì)象為ImageG)。

      將上述規(guī)則應(yīng)用到測試集上。

      3 實(shí)驗(yàn)結(jié)果及其分析

      算法在Matlab仿真實(shí)現(xiàn),機(jī)器處理器為I3,RAM=2 G。

      選取Corel數(shù)據(jù)庫中花、牛、蝴蝶、車等20類形色各異的圖像,每類20幅,共計(jì)400幅進(jìn)行測試。其中圖像(b)是通過人工的方法,把圖像目標(biāo)區(qū)域手工設(shè)置為1,將背景手工設(shè)置為0的二值圖像。為了對(duì)比各算法的視覺效果,分別在改進(jìn)的Itti視覺模型[19]、GBVS視覺模型[2]、譜剩余模型[3]得到的顯著圖基礎(chǔ)上,將顯著圖像灰度區(qū)間由[0,1]按比例轉(zhuǎn)換到[0,255],并將得到的圖像進(jìn)行如下變換:

      S=255-S*

      (26)

      從而最終顯著圖是[0,255]區(qū)間的灰度圖像,目標(biāo)區(qū)域?yàn)楹谏?區(qū)域越深表示顯著度越高。結(jié)果圖分別對(duì)應(yīng)(e)、(f)、(g)。最終各類對(duì)比圖如圖2所示。

      圖2 效果對(duì)比圖

      通過觀察效果圖可知,圖(c)方法效果整體顯著優(yōu)于其他方法。與圖(d)的效果對(duì)比,表明改進(jìn)方法較好地實(shí)現(xiàn)了區(qū)域選擇的問題。為了定量對(duì)比各類算法的處理效果,參照文獻(xiàn)[20]進(jìn)行計(jì)算。

      (1)計(jì)算圖像Precision、Recall和F-measure(簡單起見分別記為P,R,F)。

      P=∑((1-S)×B)/∑(1-S)

      (27)

      R=∑((1-S)×B)/∑B

      (28)

      F=2×P×R/(P+R)

      (29)

      其中,S為各類算法生成的(0,255)灰度顯著圖按比例轉(zhuǎn)換到(0,1)區(qū)間的顯著圖;B為人工分割圖;∑代表所有像素點(diǎn)灰度值求和;(1-S)×B為兩圖像像素點(diǎn)值相乘得到的灰度圖。

      可以理解為F值越大,顯著圖顯示目標(biāo)效果越理想。各類算法通過計(jì)算數(shù)據(jù)庫每幅圖像的Precision、Recall、F-measure,統(tǒng)計(jì)并求平均值,具體結(jié)果見圖3。

      圖3 結(jié)果對(duì)比圖

      4 結(jié)束語

      為了解決圖像背景較復(fù)雜時(shí)改進(jìn)Stentiford方法提取圖像多個(gè)非目標(biāo)區(qū)域中存在的問題,提出了一種感興趣區(qū)域提取方法。該方法從圖像中提取一些新的特征和大量常見的特征,并應(yīng)用FP-Growth算法數(shù)據(jù)挖掘特征與目標(biāo)區(qū)域的關(guān)聯(lián)規(guī)則。將得到的規(guī)則應(yīng)用在測試集上,同時(shí)與多種經(jīng)典的視覺模型方法分別進(jìn)行定性和定量的對(duì)比實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明:該方法的視覺效果和性能數(shù)據(jù)指標(biāo)都優(yōu)于其他方法,實(shí)現(xiàn)了多區(qū)域中選取目標(biāo)區(qū)域,提高圖像提取準(zhǔn)確度的目標(biāo)。未來,可以提取更多的圖像特征、增大數(shù)據(jù)庫樣本容量、細(xì)化相關(guān)數(shù)據(jù)指標(biāo)分段來增加提取規(guī)則,研究具有廣闊的前景。

      [1] 黃傳波,金 忠.基于視覺注意的彩色圖像檢索方法[J].光子學(xué)報(bào),2011,40(7):1025-1030.

      [2] 王 星,邵振峰.基于視覺顯著點(diǎn)特征的遙感影像檢索方法[J].測繪科學(xué),2014,39(4):34-38.

      [3] 尹春霞,徐 德,李成榮,等.基于顯著圖的SIFT特征檢測與匹配[J].計(jì)算機(jī)工程,2012,38(16):189-191.

      [4] Stentiford F W M. An estimator for visual attention through competitive novelty with application to image compression[C]//Picture coding symposium.[s.l.]:[s.n.],2001:1-4.

      [5] Stentifold F W M.Automatic identification of interest with application to the quantification of DNA damage in cell[C]//Proceeding of SPIE.[s.l.]:[s.n.],2002:244-253.

      [6] 陳文達(dá),白瑞林,吉 峰,等.基于機(jī)器視覺的軸承防塵蓋表面缺陷檢測[J].計(jì)算機(jī)工程與應(yīng)用,2014,50(6):250-254.

      [7] Arasteh S,Hung C C.Color and texture image segmentation using uniform local binary patterns[J].International Journal of Machine Graphics & Vision,2006,15(3):265-274.

      [8] Fehr J.Rotational invariant uniform local binary patterns for full 3D volume texture analysis[C]//Finnish signal processing symposium.[s.l.]:[s.n.],2007.

      [9] Lahdenoja O,Poikonen J,Laiho M.Towards understanding the formation of uniform local binary patterns[J].Machine Vision,2013,2013:1-20.

      [10] 鐘 曉,馬少平,張 鈸,等.數(shù)據(jù)挖掘綜述[J].模式識(shí)別與人工智能,2001,14(1):48-55.

      [11] 王光宏,蔣 平.數(shù)據(jù)挖掘綜述[J].同濟(jì)大學(xué)學(xué)報(bào):自然科學(xué)版,2004,32(2):246-252.

      [12] 文 拯.關(guān)聯(lián)規(guī)則算法的研究[D].長沙:中南大學(xué),2009.

      [13] 張 健.基于頻繁模式挖掘的不良消息文本檢測方法研究與實(shí)現(xiàn)[D].上海:復(fù)旦大學(xué),2012.

      [14] 李曉卿.數(shù)據(jù)流中閉頻繁項(xiàng)集挖掘算法的研究[D].沈陽:東北大學(xué),2009.

      [15] 李仁澤.基于數(shù)據(jù)挖掘方法的綜合癥—藥物關(guān)系挖掘[D].南京:南京大學(xué),2013.

      [16] 張少博,全書海,石 英,等.基于顏色矩的圖像檢索算法研究[J].計(jì)算機(jī)工程,2014,40(6):252-255.

      [17] 彭佳紅.一種新的多層關(guān)聯(lián)規(guī)則算法[J].計(jì)算機(jī)工程,2006,32(9):70-71.

      [18] 徐 龍.基于約束的最大頻繁項(xiàng)目集挖掘算法與實(shí)現(xiàn)[D].西安:西安科技大學(xué),2008.

      [19] 宋 侃.基于改進(jìn)視覺注意模型的顯著區(qū)域區(qū)檢測[J].計(jì)算機(jī)技術(shù)與發(fā)展,2015,25(7):234-236.

      [20] 馬儒寧,涂小坡,丁軍娣,等.視覺顯著性凸顯目標(biāo)的評(píng)價(jià)[J].自動(dòng)化學(xué)報(bào),2012,38(5):870-876.

      Investigation on Extraction of Interests Region in Image

      WANG Cheng,F(xiàn)AN Xiang-yang

      (College of Telecommunications & Information Engineering,Nanjing University of Posts and Telecommunications,Nanjing 210003,China)

      Concerning extraction of Region Of Interest (ROI) for image,the enhanced Stentiford visual modeling method has the advantages of clear image regions,obvious edges,and high efficiency compared with traditional Stentiford or other visual modeling methods.However,when the image background is relatively complex,regions outside the target would be extracted.Because of requirements on accuracy in actual research,it is necessary to pick out target regions from extracted regions.For this reason,during image processing,an extraction method with multiple new image features has been proposed and the classic FP-Growth algorithm in data mining has been introduced.After the training set have been processed by the enhanced Stentiford visual modeling method,image features such as significant entropy and significant entropy density are extracted and the FP-Growth algorithm is employed to find the association rules between image features and target regions.The obtained rules have been applied to a lot of experimental for verifications.The experimental results show that after the enhanced method,the accuracy of the extracted image regions have been improved significantly which indicates its feasibility and effectiveness.

      ROI;Stentiford visual model;FP-Growth algorithm;image features

      2016-06-16

      2016-09-29 網(wǎng)絡(luò)出版時(shí)間:2017-06-05

      國家自然科學(xué)基金資助項(xiàng)目(61071167)

      王 誠(1970-),男,碩士,副教授,碩導(dǎo),研究方向?yàn)閿?shù)據(jù)挖掘、嵌入式技術(shù);范向陽(1991-),男,碩士研究生,研究方向?yàn)閳D像處理與多媒體通信。

      http://kns.cnki.net/kcms/detail/61.1450.TP.20170605.1506.030.html

      TP391

      A

      1673-629X(2017)08-0030-07

      10.3969/j.issn.1673-629X.2017.08.007

      猜你喜歡
      像素點(diǎn)灰度區(qū)間
      解兩類含參數(shù)的復(fù)合不等式有解與恒成立問題
      你學(xué)會(huì)“區(qū)間測速”了嗎
      采用改進(jìn)導(dǎo)重法的拓?fù)浣Y(jié)構(gòu)灰度單元過濾技術(shù)
      基于灰度拉伸的圖像水位識(shí)別方法研究
      基于canvas的前端數(shù)據(jù)加密
      基于最大加權(quán)投影求解的彩色圖像灰度化對(duì)比度保留算法
      基于逐像素點(diǎn)深度卷積網(wǎng)絡(luò)分割模型的上皮和間質(zhì)組織分割
      基于灰度線性建模的亞像素圖像抖動(dòng)量計(jì)算
      區(qū)間對(duì)象族的可鎮(zhèn)定性分析
      基于Node-Cell結(jié)構(gòu)的HEVC幀內(nèi)編碼
      巫溪县| 西昌市| 屏山县| 长子县| 长兴县| 舟山市| 漯河市| 全州县| 邢台市| 乌海市| 金湖县| 朝阳县| 太和县| 通河县| 梨树县| 霍州市| 吉林市| 丹东市| 申扎县| 元阳县| 湘潭市| 高州市| 聂拉木县| 湘阴县| 德保县| 三台县| 滨海县| 宣化县| 榆林市| 民县| 龙游县| 南宁市| 郸城县| 临颍县| 马尔康县| 桐城市| 大理市| 宿迁市| 西峡县| 梅河口市| 全州县|