周 姣,辛云宏
(陜西師范大學(xué)物理與信息技術(shù)學(xué)院,陜西 西安710119)
紅外探測系統(tǒng)已被廣泛地應(yīng)用于紅外警戒領(lǐng)域中,準(zhǔn)確快速地識別出來襲目標(biāo),是紅外探測技術(shù)的核心所在。由于紅外目標(biāo)所處環(huán)境信噪比低,對比度差[1]。所以,紅外目標(biāo)檢測是一個挑戰(zhàn)性較大的關(guān)鍵課題。目前,國內(nèi)外學(xué)者針對此問題做了諸多研究:如文獻(xiàn)[2]通過頻域相關(guān)系數(shù)及貝葉斯概率檢測紅外目標(biāo),該方法可準(zhǔn)確地識別出強(qiáng)背景下的目標(biāo),但若初始化位置選取不恰當(dāng)將會影響檢測結(jié)果;文獻(xiàn)[3]利用多子圖通道的全局與局部顯著性;接著計算三種顏色空間內(nèi)的顯著區(qū)域圖;最后通過均值優(yōu)化及高斯平滑,得到最終的顯著目標(biāo)圖,此方法能清晰的凸顯目標(biāo),對邊緣的顯著檢測較為突出,不足的是算法計算量較大;文獻(xiàn)[4]在自下而上的模式中加入圖像的頻域幅值信息以及結(jié)合多尺度熵來重構(gòu)顯著目標(biāo)圖,以此來達(dá)到目標(biāo)檢測,該方法檢測效果佳,但工程實時性不好;文獻(xiàn)[5]利用尺度空間濾波來優(yōu)化骨骼細(xì)化算法,該方法抗噪性穩(wěn)健且自適應(yīng)強(qiáng),有效地提高了預(yù)處理速度;文獻(xiàn)[6]采用改進(jìn)的二維自適應(yīng)最小均方濾波窗口獲得預(yù)測背景,再利用背景減法差分出紅外小目標(biāo),該算法有較強(qiáng)的背景抑制能力,可在調(diào)節(jié)自適應(yīng)尺度窗口時較為繁復(fù);文獻(xiàn)[7]提出了適用于目標(biāo)環(huán)境信息變化的檢測算法,該方法能有效地檢測出無先驗知識的目標(biāo),不足的是對多目標(biāo)檢測效果不好;文獻(xiàn)[8]先利用梯度算子來處理圖像,再將其小波分解,用多尺度互能量交叉函數(shù)進(jìn)行背景雜波抑制并通過區(qū)域生長來分割出紅外目標(biāo),此方法檢測效率高,可小波算法本身比較復(fù)雜;文獻(xiàn)[9]提出了利用曲率極大值,定義了hat-transform描述符并建立其尺度空間的算法,其目標(biāo)識別率較高,但程序耗時較長;文獻(xiàn)[10]利用多步長梯度融合三次確認(rèn)法來檢出目標(biāo),該方法簡單有效,不足的是閾值選取是靠經(jīng)驗來定;文獻(xiàn)[11]提出RD-LBRF濾波結(jié)合拉普拉斯尺度空間理論與最優(yōu)化信雜比模型的方法,該算法可有效地抑制背景雜波,具有較低的誤檢率;文獻(xiàn)[12]提出多結(jié)構(gòu)形態(tài)學(xué)濾波和二維熵的檢測方法,該算法可有效的檢測出前景目標(biāo)。
基于以上分析,本文提出了一種基于顯著性與尺度空間的紅外弱小目標(biāo)檢測算法。不同場景下的實驗結(jié)果表明,所提方法可有效檢測出紅外弱小目標(biāo),且運(yùn)算簡單,工程實時性好。
紅外弱小目標(biāo),顧名思義就是在紅外圖像上呈現(xiàn)為亮度較弱,所占尺寸與面積極小的點狀光斑,其所含像元數(shù)目少,缺乏結(jié)構(gòu)、形狀等信息。一幅含有紅外弱小目標(biāo)的圖像依照點擴(kuò)散原理,可將其目標(biāo)模型表示為[13]:
其中,(xm,ym)為目標(biāo)的中心坐標(biāo);d是目標(biāo)的直徑;σ為目標(biāo)擴(kuò)散尺度函數(shù);Iv為目標(biāo)的峰值強(qiáng)度。當(dāng)目標(biāo)的中心坐標(biāo)確定后,目標(biāo)的灰度峰值也隨之平穩(wěn)。
一般來講,紅外小目標(biāo)的背景通常為云團(tuán)、海面等大面積變化緩慢的中低頻成分,與高頻成分的目標(biāo)之間具有顯著的差異?;诖颂匦裕覀兙拖葟膱D像差異問題入手,通過顯著性區(qū)域檢測來預(yù)處理原始紅外圖像,得到潛在的目標(biāo)范圍,再運(yùn)用DoG算子生成的尺度空間來準(zhǔn)確定位紅外小目標(biāo)。算法流程圖如圖1所示。
圖1 算法流程圖Fig.1 Flowchart of the algorithm
眾所周知,紅外弱小目標(biāo)通常是一個亮斑或亮點,其本身是顯著的。同時,圖像中的背景雜波區(qū)域,也是顯而易見的。鑒于此,就先將紅外圖像的顯著性區(qū)域包括紅外目標(biāo)及其高頻背景等干擾檢測出來,然后在凸顯出來的顯著區(qū)域內(nèi)進(jìn)行雜波抑制與紅外小目標(biāo)的定位。圖像的顯著檢測算法眾多,本文將用頻域殘差法[14]來實現(xiàn)顯著區(qū)域的提取。由于人眼系統(tǒng)對突出變化的敏感,因此,變動的區(qū)域就是本文所需的顯著區(qū)域。若輸入圖像為I(x,y),那么,本文圖像顯著區(qū)域S(x,y)的檢測過程如下表示:
其中,A(f)表示為振幅譜;P(f)為相位譜;L(f)為log振幅譜;R(f)為譜殘差;S(x,y)為顯著圖;Z、R分別表示為在頻域中復(fù)數(shù)的模與相位;fft指的是傅里葉變換;ifft為反傅里葉變換;log,*表示對數(shù)與卷積運(yùn)算;hn(f),g(x,y)表示均值與高斯濾波模板。
頻域殘差法僅用傅里葉變換與反變換,及高斯模糊濾波等簡單步驟就可得到圖像所需要的顯著區(qū)域,其算法易懂,運(yùn)算方便,由該方法所得的預(yù)處理后顯著性區(qū)域效果如圖2所示。
圖2 預(yù)處理后的顯著性區(qū)域效果圖Fig.2 Effect of salient region after preprocessing
圖2 中(a),(d)是原始圖,(b),(e)是其三維圖,(c)圖像經(jīng)上述步驟預(yù)處理后,潛在目標(biāo)區(qū)域被檢測到,但同時也將圖像中的云團(tuán)當(dāng)做了前景目標(biāo)誤檢了出來;而(f)圖經(jīng)顯著性檢測后,不僅縮小了目標(biāo)的范圍,還將云層背景雜波也濾除,可不足的是右側(cè)干擾很強(qiáng)的建筑物部分也被當(dāng)做顯著區(qū)域凸現(xiàn)。因此,要準(zhǔn)確無誤地識別出目標(biāo),就必須將預(yù)處理后的圖像通過尺度空間理論,做進(jìn)一步地目標(biāo)檢測。
3.2.1 DoG尺度空間
尺度空間理論[15]的基本原理是用不同參數(shù)的高斯核函數(shù)對圖像進(jìn)行不同尺度下的變換,從而獲得多尺度的圖像序列[16]。DoG尺度空間,便由多尺度下的DoG算子與圖像卷積生成。那么,一幀原始圖像的DoG尺度空間可表示為[17]:
其中,σ為尺度空間的縮放因子;n為尺度空間的層數(shù);DoG(x,y,σ)表示為可變尺度是σ的DoG算子與原始圖像的卷積,即:
式中,f(x,y)為原始紅外圖像;*為卷積運(yùn)算符;(1/2πσ2)e-(x2+y2)/2σ2是二維高斯函數(shù)。對于本文小目標(biāo)而言,相鄰尺度間的大小直接影響了生成尺度空間的連續(xù)性,因此令相鄰尺度因子σ間的關(guān)系為σn=knσ1。其中,初始尺度因子σ0的最小值為0.7,k取值為1.2,所生成的尺度空間數(shù)n的取值為1~8,那么可得出σn的取值范圍是[0.70 0.94 1.21 1.45 1.99 2.09 2.51 3.01]。
3.2.2 真實目標(biāo)檢測
在完成上述步驟后,通常會選擇DoG尺度空間的某個關(guān)鍵像素點與8個臨近像素點以及上下相鄰尺度下的2×9個像素共計26個點來進(jìn)行比較,若該關(guān)鍵像素點在此尺度下有極大值點,那它就為潛在目標(biāo)點。因此,DoG尺度空間的極大值點檢測可用下式來表示:
但因為在多尺度下,目標(biāo)局部細(xì)節(jié)會隨著尺度增大而減少,且在使用高斯核函數(shù)濾波時,部分目標(biāo)像素會被濾除。所以,為了保留更多的目標(biāo)信息,本文將采取加權(quán)融合多尺度空間特征圖像的方法。若DoG特征圖用Gs表示,而令每三層DoG尺度空間生成一幅特征值點圖像,再設(shè)融合權(quán)值為w,那么多尺度空間融合的目標(biāo)圖Tn可用公式(10)來表示:
在本文的仿真實驗過程中,我們將取Scale的范圍為8個尺度下,一共可生成7層DoG尺度空間,所生成的特征圖共5幅,圖像的融合系數(shù)為[7 6 5 4 3]。
紅外目標(biāo)的準(zhǔn)確檢測是需要對所得到的全部目標(biāo)進(jìn)行正確驗證的。文中采用Renyi熵對圖像做閾值分割。定義圖像的前景像素級區(qū)域為T,背景為B,q為熵的階數(shù)。若設(shè)目標(biāo)與背景的概率為:Pi(T)、Pi(B),那么Renyi熵表示為[18]:
式中,k(0~255)為圖像當(dāng)前所取像素灰度級,若有t的取值能使式(13)成為最大值時,就會得到最佳閾值,那么t即為圖像分割閾值,而經(jīng)閾值處理后,前景目標(biāo)凸顯。
本文實驗部分使用了兩組紅外視頻序列,序列1的分辨率為288×384,序列2為288×288。算法采用Matlab語言編程,實驗中的高斯模板大小為5×5,信息熵分割時的q值取為2。文中2個序列圖中的小目標(biāo)作為被檢測對象,為了突出本文優(yōu)越性,將與文獻(xiàn)[10]和[12]中的多步長梯度算法及多尺度下的形態(tài)學(xué)方法做了對比分析。
圖3中,(a)圖目標(biāo)上方有云團(tuán)圍繞,右側(cè)有建筑物干擾;(b)中斜建筑的起伏較為明顯,目標(biāo)與背景對比度低;(c)呈現(xiàn)為斷斷續(xù)續(xù)的小白點是建筑物邊緣被當(dāng)做顯著區(qū)域檢測出來;(d)是文獻(xiàn)[10]算法而出的效果圖,建筑物部分不能很好的被消除,且由于閾值選取原因,目標(biāo)會隨著閾值大而像素點減少,閾值小又出現(xiàn)太多的虛警點;(e)是文獻(xiàn)[12]的結(jié)果,目標(biāo)雖然被凸現(xiàn)出來,但在圖上仍然還有噪聲點存在;由(f)圖可看出,本文能抑制背景雜波,較為容易的檢測出目標(biāo),且結(jié)果圖像很清晰。
圖3 序列1的實驗結(jié)果Fig.3 Experimental results of video 1
如圖4所示,原始圖(a)中有三個目標(biāo),尤其是位于中間的目標(biāo)被大量云團(tuán)圍繞;(b)是其三維圖;(c)圖的顯著結(jié)果表明圖像的左下角處有背景像素被凸顯出來;(d)與(e)是文獻(xiàn)[10]和文獻(xiàn)[12]的檢測結(jié)果圖,在用文獻(xiàn)[10]的方法來處理多目標(biāo)時,圖中間的部分目標(biāo)像素被漏檢;而在(e)中,前景像素周圍出現(xiàn)了過多的偽目標(biāo)點;(f)圖是本文方法,三個目標(biāo)被識別出來,且去噪去雜方面比較徹底,相比文獻(xiàn)方法而言,具有較強(qiáng)的實際意義。
圖4 序列2的實驗結(jié)果Fig.4 Experimental results of video 2
綜上所述,本文算法在有效檢測出目標(biāo)的基礎(chǔ)上,使周圍的背景雜波得到抑制,并優(yōu)于文獻(xiàn)[10]和文獻(xiàn)[12]算法。由于以上的定性分析是靠主觀辨識,故以文獻(xiàn)及本文算法所得單目標(biāo)預(yù)處理后灰度值以及多目標(biāo)圖像像素點SCR值來作定量對比。
表1是圖3中,單目標(biāo)原始圖像經(jīng)預(yù)處理后,目標(biāo)所占6個像素點的灰度值。在目標(biāo)的顯著性檢測中,圖像經(jīng)傅里葉變換可清晰的提取出目標(biāo)輪廓,其頻域是圖像灰度劇烈變化的指標(biāo),而視覺對目標(biāo)的識別是由局部灰度決定[10],所以目標(biāo)的灰度值越大,目標(biāo)越易凸顯??偟膩碚f,本文方法所得的目標(biāo)灰度值優(yōu)于文獻(xiàn)方法,對于目標(biāo)檢測具有較強(qiáng)的實際意義。
表1 各像素點灰度值對照表Tab.1 gray value comparison of each pixel
表2是圖4中多目標(biāo)像素點信雜比對照表,由表2知,本文目標(biāo)的信雜比明顯高于原始圖像與文獻(xiàn)[10]和文獻(xiàn)[12]梯度及形態(tài)學(xué)方法的信雜比,這是因為圖像在尺度空間的平滑濾波處理后,抑制了背景雜波,所以本文方法在紅外弱小目標(biāo)的檢測上具有一定的優(yōu)勢。
表2 各像素點信雜比對照表Tab.1 SCR comparison of each pixel
本文提出了基于顯著性與尺度空間的紅外弱小目標(biāo)檢測算法,該方法先采用頻域殘差法縮小目標(biāo)范圍,然后將預(yù)處理后的圖像進(jìn)行尺度空間擴(kuò)展,之后對生成的DoG尺度空間實行關(guān)鍵點檢測,再加權(quán)融合特征點圖,最終通過信息熵分割出準(zhǔn)確的前景目標(biāo)點。該方法不但能有效的檢測出復(fù)雜背景下的紅外弱小目標(biāo),還能有效的增強(qiáng)圖像信雜比。本文在后續(xù)方面,會將其與紅外小目標(biāo)跟蹤結(jié)合起來,期望能達(dá)到好的效果。
[1] Charlene E C,Jerry S.Optimization of point target tracking filters[J].IEEE Trans.Aerosp.Electron.Syst.,2000,36(1):15-25.
[2] JShaik,K M Iftekharuddin.Detection and tracking of targets in infrared images using Bayesian techniques[J].Optics&Laser Technology,2009,41(6):832-842.
[3] Ali Borji,Laurent Itti.Exploiting local and global patch rarities for saliency detection[J].IEEE Conference on Computer Vision and Pattern Recognition,2012:478-485.
[4] Li J,Martin D L,An X J,et al.Visual saliency based on scale-space analysis in the frequency domain[J].IEEE Transactions on Pattern Analysis and Machine Inteligence,2013,35(4):996-1010.
[5] Houssem Chatbri,Keisuke Kameyama.Using scale space filtering to make thinning algorithms robust against noise in sketch images[J].Pattern Recognition Letters,2014,42(4):1-10.
[6] Tae-Wuk Bae,F(xiàn)ei Zhang,In-So Kweon.Edge directional 2DLMSfilter for infrared small target detection[J].Infrared physics&Technology,2012,55(1):137-145.
[7] Cattleya Duanggate,Bunyarit Uyyanonvara,Stanislav S.Object detection with feature stability over scale space[J].J.Vis.Commun.Image R.,2011,22(4):345-352.
[8] Chengjun L,Ying W,Zeling S.A small target detection algorithm based on multi-scale energy cross[J].Proc IEEE Int Conf Robotics Intell Syst Signal Process,2003,2:1191-1196.
[9] A C Jalba,M H F Wilkinson,J B T M Roerdink.Shape representation and recognition through morphological curvature scale spaces[J].IEEE Transactions on Image Processing,2006,15(2):331-341.
[10]WAN Ming,ZHANG Fengming,HU Shuang.Novel infrared dim and small target detection algorithm based on multi-scale gradient[J].Acta Optica Sinica,2011,31(10):98-103.(in Chinese)萬明,張鳳鳴,胡雙.基于多步長梯度特征的紅外弱小目標(biāo)檢測算法[J].光學(xué)學(xué)報,2011,31(10):98-103.
[11]Sungho Kim,Joohyoung Lee.Scale invariant small target detection by optimizing signal-to-clutter ratio in heterogeneous background for infrared search and track[J].Pattern Recognition,2012,45(1):393-406.
[12]WANG Yingying,ZHANG Yongshun,HE Ping.Research on IR target-detecting method based on morphology and entropy[J].Laser&Infrared,2012,42(5):513-517.(in Chinese)王瑩瑩,張永順,何蘋.基于形態(tài)學(xué)和信息熵的紅外目標(biāo)檢測算法[J].激光與紅外,2012,42(5):513-517.
[13]JPArdouin.Point source detection based on point spread function symmetry[J].Opt.Eng.,1993,32(9):2156-2164.
[14]Hou X D,Zhang L Q.Saliency detection:a spectral residual approach[J].IEEE Conference on Computer Vision and Pattern Recognition,2007,800:1-8.
[15]D GLowe.Distinctive image features from scale-invariant keypoints[J].Int.J.Computer Vision,2004,(60)2:91-110.
[16]Tony Lindeberg.Feature detection with automatic scale selection[J].Int.J.Computer Vision,1998,30(2):79-116.
[17]K Mikolajczyk,C Schmid.Indexing based on scale invariant interest points[C].Eighth IEEE International Conference on Computer Vision(ICCV),2001,1:525-531.
[18]Leila Golshani,Einollah Pasha,Gholamhossein Yari.Some properties of Rényi entropy and Rényi entropy rate original research article[J].Information Sciences,2009,179(14):2426-2433.