郭少軍,婁樹理,劉 峰
(海軍航空工程學(xué)院 控制科學(xué)與工程系,山東 煙臺 264001)
?
應(yīng)用顏色聚類圖像塊的多艦船顯著性檢測
郭少軍*,婁樹理,劉峰
(海軍航空工程學(xué)院 控制科學(xué)與工程系,山東 煙臺 264001)
由于多艦船目標(biāo)顯著性檢測過程容易將邊界像素作為背景處理, 本文提出了應(yīng)用顏色聚類圖像塊的多艦船顯著性檢測方法。該方法首先檢測鄰域 像素是否具有顏色相似性,并將臨近的具有相似顏色的像素聚集在一起作為一個圖像塊。接著,對獲得的圖像塊進(jìn)行擴(kuò)展,使圖像塊包含很多其他圖像塊的像素以提高圖像塊內(nèi)像素間的對比強(qiáng)度;對邊緣像素進(jìn)行背景索引標(biāo)記,計算圖像塊中像素的顯著性強(qiáng)度,采用閾值分割方法獲得目標(biāo)顯著性區(qū)域。最后,基于顏色聚類的圖像塊存在部分重疊的特點(diǎn),利用權(quán)值對存在疊加的顯著性圖像進(jìn)行融合,從而獲得多艦船目標(biāo)整幅圖像的顯著性檢測結(jié)果。對獲得的多艦船目標(biāo)圖像進(jìn)行了實驗測試,并對本文算法結(jié)果和當(dāng)前比較先進(jìn)的其它顯著性檢測算法進(jìn)行了效果對比。結(jié)果顯示:提出的利用顏色聚類圖像塊的艦船顯著性檢測方法的查全率達(dá)到78%以上,準(zhǔn)確率達(dá)到92%以上,綜合評價指標(biāo)Fβ≥0.7;無論考慮單個指標(biāo)還是整體指標(biāo),本文算法均優(yōu)于其他對比算法。
多目標(biāo)檢測;顯著性檢測;艦船;圖像塊;顏色聚類
顯著性檢測用于識別場景中最重要最具信息價值的部分,已廣泛應(yīng)用于圖像分割[1],目標(biāo)識別[2],圖像壓縮[3],基于內(nèi)容的圖像檢索[4]等。通常用方框?qū)@著性區(qū)域標(biāo)記出來[5-6],同時將背景與前景進(jìn)行二值化[7-10]。Liu[8]等提出結(jié)合圖像特征訓(xùn)練條件隨機(jī)場來估計顯著性二值化模型;Wang[10]等人在統(tǒng)一能量最小化框架下分析多重索引,并利用圖模型[11]進(jìn)行顯著性計算;Lu[9]等提出了分層圖模型,并利用模型計算圖節(jié)點(diǎn)之間的權(quán)值;Achanta[12]等通過計算每個像素與其周邊像素的對比強(qiáng)度獲得顯著性值;Cheng[13]等改進(jìn)了Achanta等人的工作,計算每個像素與整幅圖像其它像素的對比強(qiáng)度來評估顯著性;Goferman[1]等基于人眼視覺注意機(jī)制,提出通過場景感知和K散度[14]計算提取目標(biāo)的顯著性區(qū)域;Xie[15]等人結(jié)合中低等級的索引,利用貝葉斯框架構(gòu)建一種自下而上的顯著性檢測模型;Sun[16]等人改進(jìn)了Xie等人的模型,引入了邊界軟分割的概念;文獻(xiàn)[17]中利用高維高斯濾波器來計算顯著性強(qiáng)度;Itti[18]等提出了基于視覺注意機(jī)制的顯著性模型;Hou[19]等提出稀疏顯著性區(qū)域提取算法; Koch[20]等人結(jié)合神經(jīng)系統(tǒng)工作原理和視覺注意機(jī)制提出了顯著性計算模型;Chen MM[21]通過檢測場景中的圖像顯著性和相似性進(jìn)行場景分析,并提出了基于直方圖的全局對比度分析方法;Achanta[22]提出了基于頻率調(diào)諧的顯著性區(qū)域檢測算法,該算法根據(jù)顯著性區(qū)域在頻域中的不同進(jìn)行顯著性檢測;在文獻(xiàn)[23]中,Hou等人提出了基于光譜殘留法進(jìn)行顯著性區(qū)域檢測;Guo[24]等人通過計算傅里葉變換相位譜來進(jìn)行顯著性檢測;Castelhano[25]等人提出了一種基于自然統(tǒng)計數(shù)據(jù)的自上而下的顯著性檢測方法。在文獻(xiàn)[26]中,Chen MM提出了一種基于全局對比度的顯著性區(qū)域檢測方法;文獻(xiàn)[27]中,Zhang等人提出了一種基于布爾方法的顯著性檢測算法。Chuan Yang[28]等人基于超像素理論[29]和圖論生成了全分辨率的顯著性映射圖像,該算法能夠檢測到圖像中較大的目標(biāo)但是容易將小目標(biāo)吞沒,在多艦船目標(biāo)檢測中無法應(yīng)用;文獻(xiàn)[30]提出構(gòu)建多個測量區(qū)域來計算顯著性區(qū)域;文獻(xiàn)[31]提出了一種自動顯著性檢測方法,其結(jié)合了自底而上和目標(biāo)形狀優(yōu)先的顯著性方法的優(yōu)點(diǎn)。為了滿足海面多艦船目標(biāo)的顯著性檢測,本文首先檢測圖像中相似的色彩圖像塊,然后擴(kuò)展圖像塊區(qū)域并利用圖模型計算區(qū)域顯著性映射,最后將圖像塊顯著性映射加權(quán)融合獲得最終多目標(biāo)顯著性區(qū)域。另外,還進(jìn)行了實驗,實驗結(jié)果見第5節(jié)。
在一幅數(shù)字圖像中,邊緣輪廓通常具有較強(qiáng)的梯度值或者較強(qiáng)的顏色變化。對于多艦船圖像,背景通常為藍(lán)色,艦船的邊緣顏色和背景明顯不同。當(dāng)艦船在海上編隊航行時,艦船之間是存在間隙的。所以具有強(qiáng)梯度值的像素可以認(rèn)為是艦船的邊界或者輪廓區(qū)域,而在強(qiáng)梯度像素之間的像素應(yīng)該是艦體或者艦橋等部位。本節(jié)將通過計算區(qū)域內(nèi)的顏色相似性來獲得小圖像塊,并通過重構(gòu)小圖像塊的顯著性圖像獲得大圖像的目標(biāo)顯著性映射圖像。流程圖如圖1所示。
圖1 算法流程圖
輸入一幅數(shù)字圖像,對每一個顏色通道都以0~255作為遞增閾值進(jìn)行分割,獲得各個小圖像塊,當(dāng)閾值遞增到某個值時,小圖像塊的面積不再變化,則認(rèn)為這個圖像塊中的所有像素具有顏色相似性,將這個圖像塊作為一個顯著性計算候選區(qū)域,圖2(彩圖見期刊電子版)是對圖像塊的說明。如果圖像塊面積不再變化或變化極小時,圖像塊內(nèi)的灰度值的總和將不會發(fā)生大的變化。
(a)圖像塊(a)Image block
(b)圖像塊邊緣(藍(lán)色)(b)Image block boundary
設(shè)灰度值和的變化率為GT,每個圖像塊中像素為E={e1,e2,…,eN},則像素灰度和可表示為等式(1):
(1)
其中Gray(*)是像素的灰度值,灰度值和的變化可表示為ΔGT。
ΔGT=GT+1-2×GT+GT-1.
(2)
在一系列閾值T{t|T1,T2,…,Tk}中,圖像塊應(yīng)該滿足ΔGT 3.1圖像塊顯著性等級與索引優(yōu)化 (3) 將數(shù)據(jù)集元素按照顯著性進(jìn)行等級排序的過程實質(zhì)上是一個優(yōu)化過程,優(yōu)化問題可表示為等式(4): (4) 其中μ用來平衡平滑約束。等式(4)可以變形為等式 (5)。 f*=(I-αS)-1y, (5) 其中:I是識別矩陣,α=1/(1+μ),S是標(biāo)準(zhǔn)化拉普拉斯矩陣,S=D-1/2WD-1/2,代入等式(5)得到等式(6)。 f*=(D-αW)-1y. (6) 本文在實驗中利用等式(6)進(jìn)行圖像塊像素顯著性等級計算,令A(yù)=(D-αW)-1,f*=Ay。f*(i)是第i個像素或數(shù)據(jù)點(diǎn)相對所有索引點(diǎn)的相關(guān)強(qiáng)度值的和。由于索引點(diǎn)的標(biāo)記可能出錯,因此需要計算索引點(diǎn)的可信度。首先將矩陣A的對角線元素都置為0以消除索引點(diǎn)自身相關(guān)性造成的影響,進(jìn)一步,將索引點(diǎn)中與其他索引點(diǎn)相關(guān)值低的數(shù)據(jù)點(diǎn)從索引點(diǎn)集中去除。通過這一步驟可以完成對索引點(diǎn)集的優(yōu)化,因為標(biāo)記點(diǎn)中大部分是正確的,如果索引點(diǎn)集中出現(xiàn)與其它索引點(diǎn)綜合相關(guān)值低的情況,則這個索引點(diǎn)可能是目標(biāo)數(shù)據(jù)點(diǎn),將其標(biāo)記為背景索引則是錯誤的。 3.2圖像塊顯著性檢測 首先對每一個圖像塊進(jìn)行一定范圍的擴(kuò)展,使其擴(kuò)展后能夠包含一部分其他圖像塊的內(nèi)容,將擴(kuò)展圖像塊中靠近邊界的一定范圍內(nèi)的像素作為背景索引點(diǎn)。大部分像素或數(shù)據(jù)點(diǎn)之間是沒有直接聯(lián)系的,因此W中大部分元素值為0,按照等式(7)計算數(shù)據(jù)點(diǎn)之間的邊的權(quán)值。 (7) 其中:ci,cj是第i,j個像素點(diǎn)在CIELAB顏色空間中的坐標(biāo),權(quán)值按照像素點(diǎn)之間的顏色空間距離進(jìn)行計算[32-34]。σ是權(quán)重控制因子。本文將每個圖像塊中4個邊界附近的像素標(biāo)記為4組背景索引點(diǎn)集,因為每組索引點(diǎn)集間存在的特征不同,所以針對每一組邊界背景索引點(diǎn)集圖像塊都會獲得相對應(yīng)的顯著性映射圖像。將對應(yīng)4組索引點(diǎn)集的顯著性映射圖像分別記為ST(頂部),SB(底部),SL(左側(cè)),SR(右側(cè)),計算4個顯著性映射矩陣的點(diǎn)積作為圖像塊的最終顯著性映射Sbq,如等式(8)所示。 Sbq(i)=ST(i)×SB(i)×SL(i)×SR(i), (8) 其中:Sbq(i)表示第i個像素基于背景索引的綜合顯著性值,ST(i),SB(i),SL(i),SR(i)表示第i個像素和對應(yīng)的索引組的顯著性強(qiáng)度,取值在0~1之間。基于背景索引的顯著性映射為Sbq,則基于前景的顯著性映射為Sfq=1-Sbq。 在艦船顯著性檢測時,統(tǒng)計分析Sfq的值域發(fā)現(xiàn),顯著性映射圖像中的大部分像素屬于背景像素,本文根據(jù)文獻(xiàn)[35]進(jìn)行圖像背景擬合,擬合閾值公式如等式(9)所示。 T=Cu+σ(C=1,2,2.5), (9) 其中:C的取值越大,獲得的圖像顯著性精確度越高,但是查全率會相應(yīng)降低。u的值在數(shù)值上略小于圖像顯著性的均值,為了計算簡便,本文按式(10)計算閾值。 T=C·mean(Sfq)(C=1,2,2.5). (10) 當(dāng)圖像中的目標(biāo)在整幅圖像占較大比例,為大目標(biāo)時,由于目標(biāo)顏色的多樣性,每個小圖像塊包含的區(qū)域邊界可能是不同顏色的另一塊目標(biāo)區(qū)域,顏色距離與空間距離都不如與背景像素的差距大,因此獲得的顯著性區(qū)域面積會相應(yīng)變大。適當(dāng)增大閾值能夠提高檢測精度。 圖3給出了本文算法的大目標(biāo)顯著性檢測結(jié)果圖。從結(jié)果來看,當(dāng)閾值過小時,顯著性結(jié)果會包含大量背景像素,隨著閾值增大,背景像素被過濾,閾值過大則會造成目標(biāo)像素丟失。 在本文實驗中,對所有艦船目標(biāo)均取C=2。圖像塊顯著性檢測示例結(jié)果如圖4所示。 圖3 不同閾值下大艦船目標(biāo)顯著性檢測結(jié)果 圖4 目標(biāo)真實位置與顯著性檢測結(jié)果 在每個圖像塊獲得顯著性映射結(jié)果中往往只包含目標(biāo)艦船的一部分。如圖4所示,而多目標(biāo)顯著性檢測的目標(biāo)是檢測更多更完整的目標(biāo)顯著性區(qū)域。 圖 5 擴(kuò)展的圖像塊 圖5中方框是對圖像中顏色相似區(qū)域擴(kuò)展后的標(biāo)記,圖像塊之間存在共同區(qū)域,如果認(rèn)為在共同區(qū)域,每個圖像塊的顯著性值具有相同的貢獻(xiàn),則共同區(qū)域中每個圖像塊的權(quán)重為Wx,y=1/nx,y,nx,y是共同區(qū)域中圖像塊的個數(shù),則圖像中某像素點(diǎn)(x,y)的顯著性值可通過等式(11)來求取。 (11) 其中:n是對最終顯著性值有貢獻(xiàn)的圖像塊個數(shù),wi是第i個圖像塊的貢獻(xiàn)權(quán)重。Si是第i個圖像塊的顯著性值。實驗結(jié)果表明,通過本文對圖像塊顯著性區(qū)域的融合能夠獲得較好的多目標(biāo)顯著性區(qū)域,并且包含很少的背景區(qū)域。本文算法概述為算法1. 算法1多艦船目標(biāo)顯著性檢測 輸入:圖像和相應(yīng)參數(shù) (1)計算圖像塊的超像素,以超像素為數(shù)據(jù)點(diǎn)構(gòu)造圖G。計算圖的相關(guān)對角矩陣D和邊的權(quán)重矩陣W; (2)計算(D-αW)-1并將對角元素設(shè)置為0; (3)將圖像塊的4個邊緣像素分為4個背景索引組,計算圖像塊對應(yīng)4組索引的顯著性映射; (4)計算圖像塊4個顯著性映射矩陣的點(diǎn)積,獲得每個圖像塊的顯著性映射矩陣Sbq; (5)計算圖像塊的前景顯著性矩陣Sfq=1-Sbq; (6)利用權(quán)值矩陣W融合圖像塊的前景顯著性映射矩陣獲得Sfinal; 輸出:多艦船目標(biāo)顯著性映射圖像。 5.1顯著性結(jié)果對比 實驗在互聯(lián)網(wǎng)上獲得的一系列多艦船目標(biāo)圖像中進(jìn)行,并將本文算法結(jié)果和當(dāng)前比較先進(jìn)的其它顯著性檢測算法進(jìn)行了效果對比。對比的方法主要有GBMR[28], ITTI[18], GB[11], IR[19], AIM[20], RC, HC, LC[21], FT[22], SR[23], PQFT[24], SUN[25], GC[26], CA[1], BMS[27],圖6,圖7和圖8是處理圖像集中具有代表性的部分結(jié)果對比。 (a)原始圖像(a)Original images (b)真實目標(biāo)(b)Real targets (c)ITTI(c)ITTI (d)AIM(d)AIM (e)RC(e)RC (f)HC(f)HC (a)原始圖像(a)Original images (b)LC(b)LC (c)FT(c)FT (d)SR(d)SR (e)PQFT(e)PQFT (f)GBMR(f)GBMR (a)原始圖像(a)Original images (b)SUN(b)SUN (c)GC(c)GC (d)CA(d)CA (e)BMS(e)BMS (f)Ours(f)Ours 由于ITTI[18]利用像素鄰域內(nèi)的對比度進(jìn)行顯著性計算,漏檢了較多目標(biāo)顯著性像素;AIM[20]是基于視覺注意機(jī)制進(jìn)行計算的,對所有造成視覺差異的像素都進(jìn)行保留,故包含了很多背景像素; RC[21]首先采用Grabcut進(jìn)行目標(biāo)區(qū)域獲取,然后進(jìn)行顯著性檢測,當(dāng)目標(biāo)間存在較大間隙時,具有較好的表現(xiàn),然而對于較小目標(biāo)Grabcut存在嚴(yán)重漏檢;FT[22]在頻域上對圖像像素進(jìn)行分類,具有高頻率的像素區(qū)域?qū)⒈槐A簦繕?biāo)邊界位置保留較好,但平滑目標(biāo)區(qū)域存在大量漏檢;PQFT[24]是基于FT的一種改進(jìn)算法,存在和FT同樣的弱點(diǎn),即對頻域變換較為敏感,顯著性結(jié)果存在大量零散碎片,目標(biāo)間的區(qū)分度也不明顯;GBMR[28]將整幅圖像作為一個檢測區(qū)域,只利用了圖像中4個邊界的像素作為背景索引,對多目標(biāo)圖像中顏色多樣性利用不足,容易將邊界目標(biāo)作為背景處理,從而造成嚴(yán)重漏檢;SUN[25]以空間場景作為引導(dǎo),利用人眼運(yùn)動機(jī)制對圖像中顯著性像素進(jìn)行檢測,對噪聲異常敏感;GC[26]利用圖像全局區(qū)域內(nèi)的像素做顯著性對比計算,能夠很好地檢測圖像中的顯著區(qū)域,但是對于大片背景區(qū)域,顯著性計算值同樣較大,易將大片背景作為目標(biāo)顯著性區(qū)域;CA[1]算法利用上下文感知進(jìn)行顯著性檢測,而海面艦船場景中,天空與海面的高亮部分內(nèi)容感知與目標(biāo)區(qū)域十分相似,從檢測結(jié)果來看,顯著性檢測結(jié)果并不理想;BMS[27]首先利用隨機(jī)閾值對圖像進(jìn)行二值化,獲得二值化圖像序列并對序列圖像進(jìn)行顯著性檢測,再將顯著性結(jié)果加權(quán)疊加獲得圖像顯著性結(jié)果。算法降低了目標(biāo)與周邊目標(biāo)差異的重要性,導(dǎo)致弱小目標(biāo)在二值化過程中被濾除從而漏檢,如圖8中BMS處理結(jié)果所示,邊緣目標(biāo)幾乎沒有檢測到。 從對比實驗結(jié)果來看,本文算法考慮到了圖像不同區(qū)域顏色的多樣性,并有效結(jié)合了圖的結(jié)構(gòu)進(jìn)行像素相關(guān)性計算,能夠很好地檢測到圖像中的多目標(biāo)顯著性區(qū)域,盡管在多目標(biāo)顯著性檢測結(jié)果中帶有少量的背景像素,但相比其他算法來說這些像素的數(shù)量少之又少。在所有對比方法中,本文算法獲得了最好的結(jié)果。 本文還采用檢測準(zhǔn)確率(Precision),召回率(Recall)和綜合評測方法(F-score)來評價算法的優(yōu)劣,設(shè)參數(shù)σ2=0.1,α=0.99。檢測準(zhǔn)確率定義為檢測到的顯著性區(qū)域中屬于目標(biāo)的像素占所有顯著性區(qū)域像素數(shù)的比例,如等式(12)所示: (12) 其中:Precision是檢測準(zhǔn)確率,NStarget是顯著性區(qū)域中屬于目標(biāo)的像素數(shù),Nsalience為顯著性區(qū)域中所有像素數(shù)的總和。召回率函數(shù)如等式(13)所示: (13) Ntarget是真實目標(biāo)位置所包含的像素總數(shù)量。 在實際實驗中,檢測結(jié)果的準(zhǔn)確率與召回率是一對矛盾體,準(zhǔn)確率高召回率就低,而理想結(jié)果應(yīng)該是兩者都高,本文提出用F-score來進(jìn)行綜合評價,表達(dá)式如等式(14)所示。 (14) 本文更強(qiáng)調(diào)檢測的準(zhǔn)確率,參考文獻(xiàn)[34],設(shè)β=0.3。 圖9(a)(彩圖見期刊電子版)給出了各種對比方法的準(zhǔn)確率與召回率對應(yīng)值曲線,圖9(b)(彩圖見期刊電子版)展示了各種方法正確檢測與錯誤檢測的對應(yīng)曲線圖。從曲線結(jié)果來看,本文算法具有最優(yōu)秀的表現(xiàn)。圖10(a)(彩圖見期刊電子版)給出了幾種對比方法在實驗圖像集的準(zhǔn)確率Precision,召回率Recall與F-score的柱狀圖。從對比結(jié)果來看,本文算法準(zhǔn)確率高達(dá)92%以上,回調(diào)率在78%以上,F(xiàn)-score評價值大于0.7,綜合對比,本文算法的效果最優(yōu)。同時,圖10(b)(彩圖見期刊電子版)給出的各種對比方法的平均誤差值柱狀圖也顯示,本文算法的誤差值最低,低于0.05。文中其他幾種方法的3種參數(shù)的數(shù)值對比結(jié)果如表1所示,其中RC,SR,AIM,PQFT,SUN等幾種方法在正確率上較本文算法稍高,但這幾種算法的查全率最高為66.7%,較本文算法的78.2%低了11.5%,綜合能力不如本文算法。 表1 對比方法參數(shù)評價值 (a)Precision-recall曲線 (a)Precision-recall curves (b)False-positive 曲線 (a) Precision, recall and F-score柱狀圖 (b)顯著性檢測結(jié)果平均誤差柱狀圖 5.2運(yùn)行時間 影響本文算法運(yùn)行時間的因素有兩個,一是圖像中目標(biāo)的數(shù)量,數(shù)量越多耗時越多,二是可能提取的背景圖像塊,比如對于光照和艦船航行造成的海雜波形成的圖像塊同樣需要時間進(jìn)行處理。本文實驗使用CPU Intel(R) Core(TM) i5-3317U CPU @1.70GHz的計算機(jī)和MATLAB2014a進(jìn)行計算。幾種對比方法耗時如表1所示。 從耗時表來看,運(yùn)算速度最快的是HC[21]算法,HC的不足之處是其多艦船目標(biāo)顯著性檢測結(jié)果包含的背景像素過多。盡管本文算法對每幅圖像的平均處理時間為10.91 s,但是本文算法具有最好的顯著性檢測結(jié)果及參數(shù)曲線和最低的平均誤差。從準(zhǔn)確性優(yōu)先來考慮,利用本文算法對多艦船目標(biāo)進(jìn)行顯著性檢測具有更加實際意義。本文算法主要利用Matlab代碼進(jìn)行計算,優(yōu)化成C++代碼并利用多線程運(yùn)算能夠獲得更快的運(yùn)算速度。這也是下一步需要進(jìn)行的工作。 表2 顯著性檢測方法耗時,代碼類型及來源 5.3算法適應(yīng)性 由于處于海天線上的艦船由于受到天空與海面背景的雙重影響,而且海面環(huán)境又復(fù)雜多變,這些都為艦船目標(biāo)的顯著性檢測增加了難度,并且天氣和光照的不同都會對算法結(jié)果有影響,本節(jié)對不同天氣條件下海天線附近艦船進(jìn)行了顯著性檢測實驗,實驗參數(shù)和其它圖像實驗一致,實驗結(jié)果如圖11所示。 圖11本文算法對海天線附近艦船顯著性檢測結(jié)果 Fig.11Saliency results of ships near sea-sky line by proposed method 從圖11中發(fā)現(xiàn),利用本文算法在不同天氣條件下對海天線附近艦船進(jìn)行顯著性檢測時,目標(biāo)顯著性區(qū)域的檢測效果較好,然而對于海天線上目標(biāo)過小且存在多目標(biāo)重疊的情況,存在一定程度的漏檢,而且無法將多目標(biāo)區(qū)分開,但顯著性檢測區(qū)域覆蓋率較全,目標(biāo)區(qū)域檢測精度較高(如圖11第4行第一列圖像處理結(jié)果)。實驗結(jié)果表明本文算法具有較強(qiáng)的適應(yīng)性,這主要源于算法核心思想是計算圖像塊內(nèi)目標(biāo)區(qū)域與4組邊界像素之間的相關(guān)性,即使圖像存在一定程度的模糊或不清晰,只要目標(biāo)與背景存在顏色和亮度差異,本文算法就能夠有效區(qū)分背景與目標(biāo)像素,完成顯著性區(qū)域檢測。 本文提出了一種針對多艦船目標(biāo)的顯著性區(qū)域檢測算法,首先利用顏色相似性將圖像中的相鄰區(qū)域聚類為多個圖像塊,然后對各圖像塊進(jìn)行區(qū)域擴(kuò)展,將邊緣像素進(jìn)行背景索引標(biāo)記,并計算圖像塊中像素的顯著性強(qiáng)度,采用閾值分割方法獲得目標(biāo)顯著性區(qū)域。最后,利用圖像塊之間存在相互重疊的特點(diǎn),采用加權(quán)融合多個顯著性圖像塊的方法進(jìn)行顯著性結(jié)果融合,獲得多艦船目標(biāo)顯著性圖像結(jié)果。 本文算法準(zhǔn)確率達(dá)到92.6%以上,查全率達(dá)到78%以上,F(xiàn)-score評價得分為0.7,平均誤差低于0.05,幾種指數(shù)均滿足多艦船目標(biāo)顯著性檢測的各方面要求。然而本文耗時相對較多,每幅圖像的平均處理時間約為10 s,這是下一步需要改進(jìn)的地方,設(shè)想利用C++重新編碼并引入并行多線程處理方法對算法進(jìn)行優(yōu)化,以提高算法運(yùn)行效率。 [1]GOFERMAN S, ZELNIK-MANOR L, TAL A. Context-aware saliency detection[J].IEEETransactionsonSoftwareEngineering, 2012,34(10):1915-1926. [2]RAMIK D M, SABOURIN C, MORENO R,etal.. A machine learning based intelligent vision system for autonomous object detection and recognition[J].AppliedIntelligence, 2014, 40(2):358-375. [3]ITTI L. Automatic foveation for video compression using a neurobiological model of visual attention[J].IEEETransactionsonImageProcessingAPublicationoftheIEEESignalProcessingSociety, 2004,13(10):1304-1318. [4]CHEN T, CHENG M M, TAN P,etal.. Sketch2Photo: internet image montage[J].ACMTransactionsonGraphics, 2010, 28(5):89-97. [5]RUAN X C O C. Image saliency map determination device, method, program, and recording medium: EP2797051[P]. 2014. [6]WEI Y, FENG J, TAO L,etal.. Salient object detection by composition: US, US8989437[P]. 2015. [7]GOPALAKRISHNAN V HU YQ, RAJAN D. Random walks on graphs for salient object detection in images[J].IEEETransactionsonImageProcessing, 2011,19(12):3232-3242. [8]LIU T, YUAN Z J, SUN J,etal.. Learning to detect a salient object[J].PatternAnalysis&MachineIntelligence, 2010,33(2):353-367. [9]LU Y, ZHANG W,LU H,etal.. Salient object detection using concavity context[C].IEEEInternationalConferenceonComputerVision.Milpitas,CA,2011:233-240. [10]WANG L, XUE R, ZHENG N N,etal.. Automatic salient object extraction with contextual cue[C].IEEEInternationalConferenceonComputerVision(ICCV),Barcelona,Spain, 2011:105-112. [11]HAREL J, KOCH C, PERONA P: Graph-based visual saliency[J].AdvancesinNeuralInformationProcessingSystems, 2006,19:545-552. [12]ACHANTA R, ESTRADA F, WILS P,etal.. Salient region detection and segmentation[J].LectureNotesinComputerScience, 2008:66-75. [13]CHENG M M, ZHANG G X, MITRA N J,etal.. Global contrast based salient region detection[C].IEEEInternationalConferenceonComputerVision.Milpitas,CA, 2011:409-416. [14]ECONOMOU P, TZAVELAS G. Kullback-Leibler divergence measure based tests concerning the biasness in a sample[J].StatisticalMethodology, 2014, 21(11):88-108. [15]XIE Y L, LU H C, YANG M H. Bayesian saliency via low and mid level cues[J].IEEETransactionsonImageProcessing, 2012,22(5):1689-1698. [16]FRANCOIS A R J,SCHULTZ J. Image processing based on depth information and color data of a scene:US, US8823745[P]. 2014. [17]WU B, XU L. Integrating bottom-up and top-down visual stimulus for saliency detection in news video[J].MultimediaTools&Applications, 2014, 73(3):1053-1075. [18]ITTI L, KOCH C, NIEBUR E. A model of saliency-based visual attention for rapid scene analysis[J].IEEETransactionsonPatternAnalysis&MachineIntelligence, 1998,20(11):1254-1259. [19]HOU X D, HAREL J, KOCH C. Image signature: highlighting sparse salient regions[J].IEEETransactionsonPatternAnalysis&MachineIntelligence, 2012,34(1):194-201. [20]ITTI L, KOCH C. Computational modelling of visual attention.NatureReviewsNeuroscience[J],2001, 2:194-203. [21]CHENGM M.Saliencyandsimilaritydetectionforimagesceneanalysis[D]. [Ph.D. dissertation], Tianjin:Nan Kai University, 2012: 33-56. [22]ACHANTA R, HEMAMI S, ESTRADA F,etal.. Frequency tuned salient region detection[C].IEEEInternationalConferenceonComputerVisionandPatternRecognition,Miami,F(xiàn)lorida,USA,2009:1597-1604. [23]HOU X, ZHANG L. Saliency detection: a spectral residual approach[C].IEEEConferenceonComputerVisionandPatternRecognition.Portland,Oregon,USA, 2013:1-8. [24]GUO C, MA Q, ZHANG L. Spatio-temporal Saliency detection using phase spectrum of quaternion fourier transform [C].IEEEComputerSocietyConferenceonComputerVisionandPatternRecognition,Anchorage,Alaska,USA,2008: 1-8. [25]CASTELHANO M S, HEAVEN C. Scene context influences without scene gist: Eye movements guided by spatial associations in visual search [J].PsychonomicBulletin&Review, 2011, 18(5):890-896. [26]CHENG M M, ZHANG G X, MITRA N J,etal.. Global contrast based salient region detection [J].IEEETransactionsonPatternAnalysisandMachineIntelligence, 2015, 37(3):409-416. [27]ZHANG J, SCLAROFF S. Exploiting surroundedness for saliency detection: a boolean map approach [J].IEEETransactionsonPatternAnalysis&MachineIntelligence, 2015:1-1. [28]YANG C, ZHANG L H, LU H C,etal.. Saliency detection via graph-based manifold ranking [C].IEEEConferenceonComputerVisionandPatternRecognition.,Portland,Oregon,USA, 2013:3166-3173. [29]ZHANG X, CAHILL N D. SLIC superpixels for efficient graph-based dimensionality reduction of hyper spectral imagery [C].SPIEDefense+Security,InternationalSocietyforOpticsandPhotonics,Baltimore, USA. 2015:1-4. [30]BAHETI P K, BARMAN K K, KRISHNAMOORTHI R,etal.. Identifying a maximally stable extremal region by skipping comparison of pixels in the region, WO 2014014687 A1[P]. 2014:23-35. [31]XU M, ZHANG H. Saliency detection with color contrast based on boundary information and neighbors[J].VisualComputer, 2014, 31(3):355-364. [32]LI B, LI R H, KING I,etal.. A topic-biased user reputation model in rating systems [J].Knowledge&InformationSystems, 2015, 44(3):581-607. [33]ANDREW Y NG, MICHAEL I. Jordan and YAIR Weiss. on spectral clustering: analysis and an algorithm [P]. 2002,2:849C856.[34]ZHANG W J, XIONG Q Y. Image salient region detection algorithm based on contrast and spatial location[J].JoumalofUniversity:EngineeringandTechnologyEdition, 2015, 45(5):1709-1716. [35]陳維真, 張春華, 周曉東. 基于局部直方圖高斯擬合的星圖背景性質(zhì)研究[J]. 紅外技術(shù), 2008, 30(4):230-233. CHEN W ZH,ZHANG CH H, ZHOU X D. Study of star-sky image background characteristics based on local-histogram gaussian fitting method[J].InfraredTechnology, 2008, 30(4):230-233.(in Chinese) 郭少軍(1985-),男,湖南洞口人,助理工程師,博士研究生,2008年、2011年于海軍航空工程學(xué)院分別獲得學(xué)士、碩士學(xué)位,主要從事目標(biāo)檢測與識別,計算機(jī)視覺等方面的研究。E-mial: guoba2000@163.com 婁樹理(1976-),男,山東蒙陰人,博士,副教授,2004年、2011于海軍航空工程學(xué)院分別獲得碩士、博士學(xué)位,主要從事多源目標(biāo)成像技術(shù),目標(biāo)檢測與識別等研究。E-mail:shulilou@sina.com. (版權(quán)所有未經(jīng)許可不得轉(zhuǎn)載) Multi-ship saliency detection via patch fusion by color clustering GUO Shao-jun*, Lou Shu-li, LIU Feng (DepartmentofControlEngineering,NavyAeronauticalEngineeringUniversity,Yantai264001,China) *Correspondingauthor,E-mail:guoba2000@163.com Because the boundary pixels are easy to be classified as a background in the multi ship target detecting processing, this paper proposes a multi-ship saliency detection method based on patch fusion by color clustering. Firstly, this method detects the color similarity of the pixels in the neighbourhood, and the adjacent pixels with the similar color are gathered as an image patches. Then, the image patches are expanded to make them include some pixels of other patches, so as to enhance the contrast value of the pixels of patches. Then, edge pixels are marked in the background index to calculate the saliency ability of the pixels in image patches and the threshold segmentation method is used to obtain the saliency region of the target. As the image patches have the features of partial overlap, the weight values are used to fuse the saliency images with the partial overlaps, so that the saliency detection results on a whole image for the multi-ship targets are obtained. The experimental tests are carried out for the multi-ship target images, and the results from the proposed algorithm in this paper and the current advanced detection algorithms are compared. The results show that the proposed method based on patch fusion by color clustering has the recall rate more than 78%, the accurate above 92%, and its comprehensive evaluation indexFβis more than 0.7. Both for comparisons of the single index or the entire indexes in this experiments, the algorithm is superior to other methods. multi-target detection; saliency detection; ships; image patch; color clustering 2016-04-27; 2016-05-31. 國家自然科學(xué)基金資助項目(No.61303192) 1004-924X(2016)07-1807-11 TP391 Adoi:10.3788/OPE.20162407.18073 圖像塊的顯著性檢測
4 多艦船目標(biāo)的顯著性檢測
5 實驗與分析
6 結(jié) 論