于 明,邳艷芹
(河北工業(yè)大學(xué)信息工程學(xué)院,天津 300401)
責(zé)任編輯:任健男
在視覺上,人們總是能迅速地把目光集中在自己感興趣的方面。顯著區(qū)域是圖像中最能引起人們的興趣且是最能表現(xiàn)圖像內(nèi)容的區(qū)域[1]。圖像的顯著區(qū)域提取即尋找圖像中可能引起人眼視覺關(guān)注的區(qū)域。雖然人們的感興趣區(qū)域是相當(dāng)主觀的,但由于人的視覺系統(tǒng)和注意機(jī)制存在著共性,使得圖像中的一些區(qū)域總能對人眼產(chǎn)生刺激。
視覺關(guān)注是人類視覺系統(tǒng)捕獲外界場景中有意義部分的一種機(jī)制。對于視覺注意機(jī)制,目前大部分的研究是如何建立自底向上的模型,其中最具影響力的是Itti和Koch等人提出的Saliency模型[2],利用人的視覺感受野、側(cè)抑制神經(jīng)網(wǎng)絡(luò)模擬了人的視覺注意力機(jī)制。但該模型最終的顯著區(qū)域的范圍是固定的形狀,不利于后期的處理并且存在漏檢測和檢測順序不合乎人類視覺注意特征的情況。
本文借鑒Itti模型算法的思想提出一種改進(jìn)的模型算法,該模型采用Achanta等人[3]提出的頻域調(diào)和(Frequency-tuned)的顯著性檢測方法來提取圖像的顏色特征,避免出現(xiàn)顯著區(qū)域反轉(zhuǎn)現(xiàn)象;加入形狀低層特征提取,采用倒數(shù)函數(shù)來代替方向提取時的Gabor函數(shù)濾波,以達(dá)到改善顯著圖的目的。
Itti模型分為顯著圖的計算和注意區(qū)域的選擇與轉(zhuǎn)移兩大部分。圖1為Itti算法的模型框圖。該模型分別選取了3個低層的屬性作為圖像的特征即圖像的亮度、顏色和方向。整個過程可敘述如下:首先將輸入的圖像分解為9層高斯金字塔形成多尺度的圖像,再用函數(shù)濾波器依次濾波各個尺度的圖像,然后應(yīng)用中央—周邊算子算法得到各個特征的特征圖,通過跨尺度合并以及歸一化計算得到三個特征的顯著圖,將得到的三幅顯著圖進(jìn)行線性融合得到總的顯著圖,最后通過神經(jīng)網(wǎng)絡(luò)勝者取全的方法得到注意區(qū)域。
文獻(xiàn)[4]中在生成方向特征函數(shù)時提到了一種利用倒數(shù)函數(shù)來代替Gabor特征函數(shù),顯著目標(biāo)投影的顯著度明顯的低于顯著目標(biāo)自身的顯著度,在很大程度上減少了對顯著目標(biāo)誤判的可能,取得了較好的效果。文獻(xiàn)[3]中提出了頻域調(diào)和的顯著性檢測方法,用所得到的圖像的高頻信息來作為圖像的顯著信息。人眼對物體的輪廓形狀信息會有較強(qiáng)的感知能力,即便是在根據(jù)顏色、亮度和方向信息對物體進(jìn)行注意后,輪廓也能提供重要的特征信息,它是幫助判斷物體整體形態(tài)的重要依據(jù)[5]。本文在此基礎(chǔ)上借鑒Itti模型的思想,提出了一種改進(jìn)的Itti模型的方法。該模型具體框圖如圖2所示。
想要更加全面的描述一幅自然圖像,就要針對其各個方面的視覺屬性選擇多種簡單圖像特征。本文基于Itti模型[2]的基本方法提取圖像的顏色、亮度、方向和形狀4個低層特征來獲得圖像各個特征的特征圖。
2.1.1 亮度特征的提取
設(shè)r(t),g(t)和b(t)分別表示原始圖像中的紅色、綠色和藍(lán)色通道,其中t表示圖像的尺度,將原始圖像的尺度設(shè)置為0,則亮度特征圖的計算方法公式為
高斯金字塔的結(jié)構(gòu)非常形象準(zhǔn)確地模擬了人眼的多分辨特性。采用中央—周邊算法跨尺度合并計算不同分辨力圖像之間的差來提取特征圖。亮度特征計算為
式中:c是非線性尺度空間中表示的高分辨力的尺度因子,s是對應(yīng)的低分辨力下的尺度,c∈{2,3,4},s=c+δ,δ∈{3,4}。將上述特征圖進(jìn)行合并得到亮度顯著圖,公式為
式中:⊕表示多個尺度下相應(yīng)的特征顯著圖經(jīng)線性插值調(diào)整到同一大小后相加,N為分別將各個顯著圖的顯著值標(biāo)準(zhǔn)歸一化到(0,1)區(qū)間。
2.1.2 方向特征的提取
Itti模型中方向特征是對輸入圖像采用Gabor濾波后得到 O(σ,θ),θ∈ {0°,45°,90°,135°},經(jīng)過大量實(shí)驗(yàn)證明發(fā)現(xiàn)該方法產(chǎn)生的方向顯著圖不能準(zhǔn)確地突出整個顯著性目標(biāo)而僅僅突出了顯著目標(biāo)的邊緣。借鑒文獻(xiàn)[5]的思想,本文利用倒數(shù)函數(shù)替代Gabor函數(shù)來提取方向特征,倒數(shù)函數(shù)表達(dá)式為
參照文獻(xiàn)[5]中的參數(shù)設(shè)置,將倒數(shù)濾波函數(shù)中的參數(shù)設(shè)置為:γ=1,δ=2.33(經(jīng)驗(yàn)值)。
方向特征是對輸入的圖像采用上述倒數(shù)函數(shù)濾波后得到 O(σ,θ),其中 θ∈ {0°,45°,90°,135°},方向特征計算為
將上述特征圖進(jìn)行合并,得到方向顯著圖公式為
從圖3中可以看出,使用倒數(shù)函數(shù)生成的方向顯著圖可以有效地補(bǔ)充原方法生成的方向顯著圖中顯著目標(biāo)內(nèi)部空虛的現(xiàn)象。
2.1.3 顏色特征的提取
顯著區(qū)域即為變化強(qiáng)烈的區(qū)域,也就是頻譜中的高頻成分。由于Itti模型在提取顏色特征時可能會出現(xiàn)顯著區(qū)域反轉(zhuǎn)現(xiàn)象,因此可以通過過濾掉圖像中的低頻部分,提取其高頻部分作為圖像的顯著區(qū)域。
這里采用Achanta等人[3]提出的頻域調(diào)和的顯著性檢測方法。先將顏色變化到均勻的CIELab顏色空間,再對變換后的圖像進(jìn)行高斯低通濾波,最后求原圖與濾波后的圖像的差的平方,即為顏色的顯著圖,記為
圖3 方向圖
式中:Iu為像素值的算術(shù)平均;Iwhc為原始圖像經(jīng)過高斯模糊得到的。
從圖4中可以看出,利用頻域調(diào)和的方法得到的顏色顯著圖,省去了Itti算法中的中央—周邊算法,該算法得到的顏色顯著圖中塊效應(yīng)有所減少,并且能較好地避免顯著區(qū)域反轉(zhuǎn)現(xiàn)象。
圖4 顏色圖
2.1.4 形狀特征的提取
本文在Itti模型的基礎(chǔ)上加入了輪廓特征提取,添加形狀通道的目的是用來提取目標(biāo)物體的整體輪廓。目前雖然有Canny,Sobel以及Roberts等算子用來提取圖像邊緣,但提取結(jié)果有的過于精細(xì)有的又過于粗略,容易對最終結(jié)果造成干擾。本文借鑒文獻(xiàn)[5]采用Sobel算子進(jìn)行邊緣提取。其形狀特征計算為
將上述特征圖進(jìn)行合并得到形狀顯著圖,公式為
在各特征圖中的顯著信息都是互補(bǔ)的,對通過計算得到的4個特征圖相繼提取出了不同類型的顯著圖,將它們用線性方法結(jié)合起來,適應(yīng)不同類型圖像的顯著區(qū)域提取。將4個顯著圖進(jìn)行線性相加得到
本文在 Intel Pentium 1.6 GHz、內(nèi)存1 Gbyte、MATLAB 7.6.0(R2008a)的實(shí)驗(yàn)環(huán)境下進(jìn)行。采用文獻(xiàn)[5]應(yīng)用的圖像庫中的圖像,選擇幾幅場景圖為本文的實(shí)驗(yàn)圖。圖5為兩種模型提取的效果對比圖。圖5a表示原始圖像,圖5b表示利用Itti得到的顯著圖,圖5c表示用本文的模型方法得到的顯著圖。從圖5可以看到,本文改進(jìn)的模型算法所得到的顯著圖較為清晰,塊效應(yīng)也有所降低且顯著區(qū)域也較為突出,本文的模型算法要優(yōu)于經(jīng)典的Itti模型算法。
圖5 兩種模型提取的顯著圖
本文基于Itti的模型算法提出了改進(jìn)的模型算法。由于目標(biāo)物體的輪廓能夠提供重要的信息,因此加入了邊緣特征的提取;在方向特征圖提取時引入倒數(shù)函數(shù)來代替Gabor函數(shù),這樣可以改善采用Gabor函數(shù)提取方向特征圖時帶來的顯著目標(biāo)內(nèi)部空虛的現(xiàn)象。在顏色特征圖提取上采用了頻域調(diào)和的顯著性檢測方法,這樣不僅簡化了程序、提高了效率,更避免了顯著區(qū)域反轉(zhuǎn)現(xiàn)象的出現(xiàn)。綜合分析得知,本文算法較Itti模型算法在效率上有所提高,精度上更加準(zhǔn)確。但同時也存在明顯的不足:當(dāng)圖像較小、圖像中的顯著目標(biāo)也較小時,提取出來的顯著目標(biāo)的輪廓不是很清晰,且模型算法的效率也不高。
[1]王國營,梁春迎.一種圖像顯著區(qū)域的提取方法[J].計算機(jī)應(yīng)用,2010,30(6):1619-1621.
[2] ITTI L,KOUCH C.Computational modeling of visual attention[J].Nature Reviews Neuroscience,2001,2(3):194-230.
[3] AEHANTA R,HEMAMI S,ESTRADA F,et al.Frequency-tuned salient region detection[C]//Proc.IEEE Conference on Computer Vision and Pattern Recognition(CVPR2009).[S.l.]:IEEE Press,2009:1597-1604.
[4]李志強(qiáng).視覺顯著性模型研究及其在影像處理中的應(yīng)用[D].上海:上海交通大學(xué),2009.
[5]彭素靜.基于視覺感知機(jī)理的顯著區(qū)域研究[D].重慶:重慶大學(xué),2009.