朱兆彤 彭石寶 許 稼 許肖梅*
合成孔徑聲吶(SAS)能夠獲取水下觀測場景和目標高分辨率的圖像,在民用和軍事領(lǐng)域均得到了廣泛的應(yīng)用,如在水下考古、海底資源勘探、海底情報偵察等水下目標識別場所。高分辨率SAS圖像成功應(yīng)用的關(guān)鍵,在于對檢測到的目標進行快速而準確的識別。
針對聲吶圖像目標自動識別問題,目前國內(nèi)外都已積極展開研究,提出了許多有效的目標識別方法。文獻[1]提出采用先驗環(huán)境信息實現(xiàn)目標特征魯棒提取的分類方法。文獻[2]則提出通過融合多個分類器結(jié)果,提升目標識別準確性。文獻[3-6]通過實測數(shù)據(jù)或?qū)δ繕私7抡?,產(chǎn)生目標在多個觀測角度下的仿真聲吶圖像,之后與實測圖像進行匹配,實現(xiàn)水下目標識別。
合成孔徑聲吶成像與合成孔徑雷達(SAR)成像原理相同,圖像具有許多共同的特性,如相干斑、陰影、透視效應(yīng)等,因此SAR目標識別方法與SAS目標識別方法可相互借鑒。近年來,針對合成孔徑圖像目標識別,提出了許多有效的方法??傮w而言,現(xiàn)有研究思路可歸納為兩類,一類為基于模板識別的方法[110]-,該類方法通過實際實驗或者仿真預(yù)先得到目標在各種條件下的先驗的模板圖像[37]-或特征矢量[1,2,810]-,每個模板提供一種分類假設(shè),分類時通過選擇候選目標的圖像或特征矢量與模板的最佳匹配來完成的。另一類是基于模型的識別方法[11,12],該類方法數(shù)據(jù)庫中存儲的是目標物理或概念的模型,無需實際的先驗?zāi)0鍞?shù)據(jù)。通過對分類圖像或特征矢量估計目標姿態(tài)、配置條件、觀測幾何,實時或近實時產(chǎn)生對應(yīng)的待分類目標圖像。通過合成孔徑聲吶圖像仿真器產(chǎn)生模板時可通過智能地修正目標類型、姿態(tài)等的假設(shè),直到它和測量圖像,或由測量圖像提取的特征矢量匹配得足夠好為止。相比基于模板的方法,本文采用的基于模型的方法無需存儲大量不同姿態(tài)下目標圖像,增加或刪除備選目標靈活性高。目前,在合成孔徑聲吶或雷達方面,已有一些公開的仿真算法[1315]-,然而大多數(shù)方法較為注重仿真圖像的準確性,對于仿真算法的實時性則考慮不多,這也限制了基于模型的識別算法發(fā)展。
現(xiàn)有基于模型的方法大都是針對光學(xué)和合成孔徑雷達(SAR)圖像,本文對基于模型的聲吶圖像識別方法的兩個問題進行了改進,進一步提高了基于模型識別方法的運算效率。具體的改進思路如下:首先,提出了基于構(gòu)造凸殼的目標姿態(tài)角快速估計方法,實現(xiàn)了成像幾何的快速估計;其次,提出了改進的基于隱藏點移除的目標圖像快速仿真方法,近實時產(chǎn)生備選模型的仿真SAS圖像模板。仿真實驗表明,相比于現(xiàn)有的基于模型的識別方法,該方法在基本不損失識別率條件下,可顯著提高目標識別的實時性。文章第2節(jié)將詳細介紹算法實現(xiàn)方法,第3節(jié)將通過仿真說明算法的有效性,第4節(jié)將給出全文結(jié)論。
基于模型的SAS圖像目標識別方法流程如圖 1所示,包括如下幾個步驟:(1)對輸入圖像進行預(yù)處理,標記目標區(qū)域和陰影區(qū)域;(2)提取目標參數(shù),主要是估計目標的姿態(tài)角;(3)輸入聲吶系統(tǒng)參數(shù)和備選目標模型至仿真系統(tǒng),產(chǎn)生備選目標的仿真模板;(4)計算備選目標圖像與輸入目標圖像的評價函數(shù),判斷是否滿足匹配要求,若不滿足,則更換備選目標模型,重復(fù)步驟(3),若滿足,則輸出識別結(jié)果。本文在該方法的基礎(chǔ)上,主要工作體現(xiàn)在兩個方面。一是針對目標姿態(tài)角估計,提出采用基于構(gòu)造凸殼的目標姿態(tài)角快速估計方法;二是針對仿真模板的生成,提出了改進的基于隱藏點移除的快速圖像仿真方法。通過以上兩個步驟的優(yōu)化改進,顯著提高了基于模型目標識別算法的效率。具體步驟將在2.1節(jié)至2.4節(jié)中詳細敘述。
圖1 識別方法主要流程
與光學(xué)圖像不同,通常SAS圖像沒有清晰的邊緣,因此,對SAS圖像進行預(yù)處理的主要目的就是將目標主體和目標陰影部分從背景噪聲中分割出來。本文中輸入待識別圖像先通過標準直方圖均衡方法[9],讓圖像幅度均歸一化至 (,) [0,1]I x y∈ 。為了降低SAS圖像相干噪聲的影響,將圖像通過一個均值濾波器平滑,之后設(shè)定1θ,2θ作為分割目標、背景和陰影區(qū)域的閾值。設(shè)分割后圖像為(,)I'x y,可表示為
最后,分別在目標區(qū)域和陰影區(qū)域中選擇最大連通區(qū)域,若目標最大連通區(qū)域大于給定閾值,則視為檢測到目標,完成圖像預(yù)處理。預(yù)處理過程見圖2。
對于SAS圖像,現(xiàn)有基于直接模板和模型的目標識別方法都受限于目標姿態(tài)多變帶來的不確定性。為了消除“千姿百態(tài)”圖像的不確定性,最有效的方法是對目標的成像幾何進行有效估計。
最小外接矩形方法是一種有效的目標姿態(tài)角估計方法(Minimum Bounding Rectangle, MBR)[16],一般包括以下步驟:如圖 3所示,首先在目標周圍畫一個邊長為l1×l2的矩形,保證該矩形與目標相切。之后,每次都以一定的角度α旋轉(zhuǎn)該矩形,直到符合一定的準則。判定的準則有目標-背景面積比最大、周長最小和邊界相交點數(shù)最多等。通常認為,邊界點數(shù)最多準則精度較高[9,16],因此本文采用邊界相交點數(shù)最多為MBR方法為判定準則。
圖2 圖像預(yù)處理過程
圖3 基于最小外接矩形的目標姿態(tài)角估計
為提高姿態(tài)角估計速度,本文假設(shè)最小外接矩形的一條邊必然與目標凸殼的一邊重合[17]?;谶@個假設(shè),搜索 MBR時,可以避免遍歷所有可能的角度帶來的大運算量,將 MBR搜索數(shù)量減小到目標凸殼的邊的數(shù)量,同時保證估計精度沒有下降。為驗證算法的有效性,本文分別對傳統(tǒng)旋轉(zhuǎn)實現(xiàn)MBR的方法[9]和基于構(gòu)造凸殼實現(xiàn)MBR的方法進行了仿真,其中,基于旋轉(zhuǎn)實現(xiàn)的方法每次旋轉(zhuǎn)間隔分別設(shè)置為2°和5°。仿真時分別對同一目標不同姿態(tài)角下的72幅仿真模板進行姿態(tài)角估計。具體仿真結(jié)果見表 1。從表 1可以看出,基于構(gòu)造凸殼實現(xiàn)MBR方法相比于傳統(tǒng)基于旋轉(zhuǎn)的MBR方法,精度和效率均得到了提高。需要說明的是,由于姿態(tài)角的估計范圍為 θ ∈ [ 0°, 180°),假定最終估計得到的角度是θ,則可能的目標姿態(tài)角為兩個,分別為θ和θ+ 1 80°。
在圖1所示的基于模型的識別算法中,影響算法效率的另一個關(guān)鍵節(jié)點是“仿真模板生成”。文獻[13]中提出了一種基于隱藏點移除的SAR目標圖像快速仿真方法,為了進一步快速得到目標的仿真模板,本文在文獻[13]的基礎(chǔ)上,提出基于點響應(yīng)截斷的快速仿真方法,進一步提高算法的運算速度。包括以下4個主要步驟:
表1 3種姿態(tài)角估計方法性能比較
(1)仿真產(chǎn)生3維場景,其中背景部分為高斯隨機分布的粗糙表面,目標可輸入任意物體的3維模型。之后通過插值,獲得整個場景的點云模型;
(2)通過隱藏點移除(HPR)[18]算法估計散射點可視性;
(3)估計可見散射點的強度;
(4)根據(jù)聲吶成像參數(shù)、可見散射點的強度將 3維場景投影到2維成像平面。理想的SAS點目標響應(yīng)可以用一個2維sinc函數(shù)描述,由于SAS成像是一個線性系統(tǒng),因而,最終的SAS仿真模板可以由所有可見散射點的響應(yīng)相加得到。
在步驟(3)中,SAS成像理想點目標可表示為
其中,rect(.)為矩形窗函數(shù),定義為式(3),xi, yi為第i個散射點的位置,A為目標強度函數(shù),?v為等效平臺速度,c為水中聲速,λ為波長, Br為發(fā)射信號帶寬, Bd為多普勒帶寬,可通過式(4)得到,其中D為聲吶基陣孔徑,T為合成孔徑總時間,T為距離向采樣時間,為方位向慢時間,?t為距離向快時間。假定目標共有L個可視散射點,方位向采樣點數(shù)為M,距離向采樣點數(shù)為N。這樣,將所有散射點響應(yīng)函數(shù)進行累加時需要進行L×M×N次復(fù)數(shù)加法,計算量巨大。
考慮到 2維sinc函數(shù)主要能量集中在主瓣附近,因而,如果對點目標響應(yīng)函數(shù)的副瓣部分進行適當?shù)慕財?,只會對最終成像結(jié)果造成有限的影響,同時,可將總運算量降低至2LK×次復(fù)數(shù)加法,其中K為截斷后2維sinc函數(shù)長度,為保證截斷響應(yīng)函數(shù)的對稱性,K通常取奇數(shù)。截斷后,理想點目標可表示如下:
圖4所示為完整2維sinc函數(shù)和截斷2維sinc函數(shù)對比示意圖,如圖可見截斷2維sinc函數(shù)保留了完整2維sinc函數(shù)的大部分能量,兩函數(shù)的相關(guān)系數(shù)為0.9886。仿真中 M = N = 2 56, K = 6 3。
對于SAS圖像,其高光部分和陰影部分均包含目標的重要特征,因此,本文引入文獻[3]中提出的歸一化回波-陰影聯(lián)合匹配(Normalized Shadow-Echo Matching, NSEM)方法。首先,基于2.1節(jié)中結(jié)果,目標圖像I( x, y)經(jīng)過預(yù)處理,得到I'(x, y) 。同時根據(jù)2.3節(jié)內(nèi)容產(chǎn)生的仿真模板J( x, y),經(jīng)過同樣的預(yù)處理方法,得到目標模板J'(x, y)。之后將I'(x, y), J'(x, y) 的高光部分和陰影部分進行分割,得到高光部分(x, y ) = max(J'(x, y ),0),(x, y)=max(I'(x, y ) ,0) ,陰影部分(x, y ) = min(J'(x, y ),0),(x, y ) = |min(I'(x, y ),0)|。 同 時 定 義 補 模 板(complementary templates),其中高光部分補模板定義為
構(gòu)造目標圖像(,)I x y和模板圖像(,)J x y的匹配度評價函數(shù),該函數(shù)可以通過式(7)計算:
式(7)中?運算符表示進行互相關(guān)運算。易知,當I( x, y ) = J ( x, y) 時, f( I, J)= 1 。式(7)相對公平地估計了高光區(qū)域和陰影區(qū)域?qū)τ趦煞鶊D像相關(guān)性的貢獻。
由于 2.2節(jié)的方法估計目標姿態(tài)角時,對于每個目標,都存在兩個可能的姿態(tài)角,因而,若存在N類備選目標,需要仿真產(chǎn)生2N個模板圖像與目標圖像匹配,計算f( I, J)并設(shè)定閾值ρ,構(gòu)造分類函數(shù)為
當沒有模板能超過閾值時,分類器輸出為0,否則,輸出分類結(jié)果。
為了實現(xiàn)SAS圖像的目標識別算法,需要建立一個包含多種模型的仿真及訓(xùn)練樣本庫。在合成孔徑雷達(SAR)圖像的識別算法研究中,MSTAR數(shù)據(jù)庫為公認的算法測試庫。然而,目前在針對SAS圖像的識別算法研究領(lǐng)域,還沒有這樣一個公開的測試集。因此,通過2.3節(jié)提出的仿真方法產(chǎn)生3類目標的仿真模板作為測試樣本集,每類目標的數(shù)據(jù)集各包含 72幅圖像,姿態(tài)角設(shè)置為(0°,5°,1 0°,…,355°),每幅圖像大小為256×256像素。仿真參數(shù)如表 2所示。仿真時,成像區(qū)域大小約為25.6 m× 2 5.6 m,3類仿真潛艇目標長度均設(shè)置為12 m。仿真結(jié)果如圖5所示,圖5中每個目標只給出了一個姿態(tài)角下的仿真模板。
圖4 完整2維sinc函數(shù)和截斷2維sinc函數(shù)對比
圖5 3類潛艇目標3維模型與仿真圖像
表2 仿真參數(shù)
為了驗證本文提出的基于截斷2維sinc函數(shù)快速仿真算法的性能,分別通過常規(guī)完整2維sinc函數(shù)方法和基于截斷2維sinc函數(shù)的方法來仿真產(chǎn)生圖像,結(jié)果對比見表 3。仿真結(jié)果表明,相比常規(guī)完整2維sinc函數(shù)方法,基于截斷2維sinc函數(shù)方法得到的圖像與未截斷情況下得到的仿真模板的相關(guān)系數(shù)為 0.9830,兩圖像幾乎完全一致,而截斷后仿真時間相比于未截斷情況下的仿真時間減少了到原來的 1/12.69。同時,兩次仿真中L相同,M×N / A2= 1 6.51。仿真結(jié)果與理論預(yù)期結(jié)果接近。仿真平臺為CPU: Intel Core I5, 3.0 GHz,內(nèi)存:8 GB,操作系統(tǒng):Windows 7 64位,軟件平臺:Matlab 2012a。
采用本文方法與角度估計時固定角度間隔的方法[9]和仿真中采用完整 2維點響應(yīng)函數(shù)方法分別作為對比。本文方法與固定角度間隔的方法的不同之處在于目標姿態(tài)角估計方法不同,目標仿真模板均采用本文提出的改進的隱藏點移除快速仿真方法;完整2維點響應(yīng)函數(shù)方法與本文方法的不同,在于目標仿真模板的產(chǎn)生方法不同,完整2維點響應(yīng)函數(shù)仿真方法目標可見點投影時沒有進行截斷處理,而本文方法采用點響應(yīng)函數(shù)截斷處理。仿真中計算了 3種算法的混淆矩陣和平均每幅圖像的分類時間,混淆矩陣描述了目標分類算法的分裂程度。3種算法的仿真混淆矩陣見表 4,仿真結(jié)果表明,相對另外兩種算法,本文方法在正確識別率上接近固定步長旋轉(zhuǎn)模板相關(guān)的方法達到 93.5%,較固定步長旋轉(zhuǎn)姿態(tài)角估計方法識別準確率更高,與完整 2維sinc函數(shù)識別結(jié)果相同;但本文方法運算效率要略快于固定步長旋轉(zhuǎn)模型相關(guān)方法,遠快于完整 2維點響應(yīng)函數(shù)模型圖像仿真方法。
表3 常規(guī)完整2維sinc函數(shù)方法和基于截斷2維sinc函數(shù)方法的仿真結(jié)果對比
本文提出了一種改進的基于模型實時仿真的高分辨率SAS圖像目標識別算法。針對傳統(tǒng)的基于模型的識別方法,在兩個方面進行了改進。一是通過改進的目標姿態(tài)角估計算法,快速估計目標的成像幾何參數(shù);二是提出改進的基于隱藏點移除的目標圖像快速仿真方法,通過點響應(yīng)函數(shù)的截斷降低仿真過程中的運算量,實現(xiàn)目標仿真模板的快速生成。另外,在仿真模板生成方面考慮了SAS背景場景的影響,提高了模板生成的逼真度。仿真結(jié)果顯示,本文提出的SAS圖像目標識別方法保證了較高識別率的同時顯著地降低了運算量,提高了算法的實時性。
表4 3種方法混淆矩陣
[1] Williams D P and Fakiris E. Exploiting environmental information for improved underwater target classification in sonar imagery[J]. IEEE Transactions on Geoscience and Remote Sensing, 2014, 52(10): 6284-6297.
[2] Tai F, Kraus D, and Zoubir A M. Contributions to automatic target recognition systems for underwater mine classification[J]. IEEE Transactions on Geoscience and Remote Sensing,2015, 53(1): 505-518.
[3] Myers V and Fawcett J. A template matching procedure for automatic target recognition in synthetic aperture sonar imagery[J]. IEEE Signal Processing Letters, 2010, 17(7):683-686.
[4] Myers V and Williams D P. Adaptive multiview target classification in synthetic aperture sonar images using a partially observable markov decision process[J]. IEEE Journal of Oceanic Engineering, 2012, 37(1): 45-55.
[5] Groen J, Coiras E, Del Rio Vera J, et al.. Model-based sea mine classification with synthetic aperture sonar[J]. IET Radar, Sonar & Navigation, 2010, 4(1): 62-73.
[6] Williams D P. Bayesian data fusion of multiview synthetic aperture sonar imagery for seabed classification[J]. IEEE Transactions on Image Processing, 2009, 18(6): 1239-1254.
[7] Dobeck G J and Hyland J C. Automated detection and classification of sea mines in sonar imagery[J]. SPIE, 1997,Vol. 3097: 90-110.
[8] Zhang H, Nasrabadi N M, Zhang Y, et al.. Multi-view automatic target recognition using joint sparse representation[J]. IEEE Transactions on Aerospace and Electronic Systems, 2012, 48(3): 2481-2497.
[9] Sun Y, Liu Z, Todorovic S, et al.. Adaptive boosting for SAR automatic target recognition[J]. IEEE Transactions on Aerospace and Electronic Systems, 2007, 43(1): 112-125.
[10] Xing X, Ji K, Zou H, et al.. Sparse representation based SAR vehicle recognition along with aspect angle[J]. The Scientific World Journal, 2014, 2014(1): 1-10.
[11] Dong G, Wang N, and Kuang G. Sparse representation of monogenic signal: with application to rarget recognition in SAR images[J]. IEEE Signal Processing Letters, 2014, 21(8):952-956.
[12] Huang Y, Peia J, Yanga J, et al.. Neighborhood geometric center scaling embedding for SAR ATR[J]. IEEE Transactions on Aerospace and Electronic Systems, 2014,50(1): 180-192.
[13] Zhu Z, Peng S, Xu J, et al.. A fast SAS image simulator based on HPR algorithm[C]. Oceans - San Diego, 2013, San Diego,CA, USA, 2013: 1-5.
[14] 劉維, 張春華, 劉紀元. 合成孔徑聲吶三維數(shù)據(jù)仿真研究[J].系統(tǒng)仿真學(xué)報, 2008, 20(14): 3838-3841.Liu Wei, Zhang Chun-hua, and Liu Ji-yuan. Research on synthetic aperture sonar 3-D data simulation[J]. Journal of System Simulation, 2008, 20(14): 3838-3841.
[15] 熊文昌, 王宏琦, 唐侃. 基于面元投影模型的 SAR 建筑物快速圖像仿真[J]. 電子與信息學(xué)報, 2014, 36(5): 1062-1068.Xiong Wen-chang, Wang Hong-qi, and Tang Kan. Fast SAR imaging simulation for urban structures based on facet projection model[J]. Journal of Electronics & Information Technology, 2014, 36(5): 1062-1068.
[16] 倪心強. SAR圖像分類與自動目標識別技術(shù)研究[D]. [博士論文], 中國科學(xué)院大學(xué), 2007.Ni Xin-qiang. Research of classification and automatic target recognition using SAR imagery[D]. [Ph.D. dissertation],University of Chinese Academy of Sciences, 2007.
[17] 程鵬飛, 閆浩文, 韓振輝. 一個求解多邊形最小面積外接矩形的算法[J]. 工程圖學(xué)學(xué)報, 2008, 29(1): 122-126.Cheng Peng-fei, Yan Hao-wen, and Han Zhen-hui. An algorithm for computing the minimum area bounding rectangle of an arbitrary polygon[J]. Journal of Engineering Graphics, 2008, 29(1): 122-126.
[18] Katz S, Tal A, and Basri R. Direct visibility of point sets[J].ACM Transactions on Graphics, 2007, 26(3): 1-24.