武軍安,郭 銳,劉榮忠,柯尊貴
(1.南京理工大學(xué) 智能彈藥技術(shù)國(guó)防重點(diǎn)學(xué)科實(shí)驗(yàn)室,江蘇 南京 210094;2.西南技術(shù)物理研究所,四川 成都 610041)
末敏彈是一種將復(fù)合探測(cè)、穩(wěn)態(tài)掃描與爆炸成形彈丸技術(shù)應(yīng)用于子母彈的靈巧化彈藥,其中的復(fù)合探測(cè)技術(shù)是其核心技術(shù)??v觀國(guó)內(nèi)外已裝備的末敏彈,主要以點(diǎn)元紅外敏感器、主動(dòng)毫米波雷達(dá)和被動(dòng)毫米波輻射計(jì)作為探測(cè)器,并將幾種探測(cè)器進(jìn)行組合實(shí)現(xiàn)復(fù)合探測(cè)體制。探測(cè)信號(hào)大多是以一維的數(shù)據(jù)形式對(duì)掃描區(qū)域進(jìn)行描述,對(duì)目標(biāo)的細(xì)節(jié)特征描述有限[1]。然而隨著現(xiàn)代戰(zhàn)場(chǎng)環(huán)境的復(fù)雜化以及干擾、隱身等對(duì)抗技術(shù)的發(fā)展,基于點(diǎn)元探測(cè)器的末敏彈越來(lái)越難以滿足現(xiàn)代戰(zhàn)場(chǎng)環(huán)境下的作戰(zhàn)要求。因此需要對(duì)掃描區(qū)域進(jìn)行更為精細(xì)化的成像式探測(cè)來(lái)提高末敏彈在復(fù)雜戰(zhàn)場(chǎng)環(huán)境下的適應(yīng)能力。線陣紅外與激光雷達(dá)探測(cè)器是將像元以線列形式排列的探測(cè)器,成像需要結(jié)合掃描運(yùn)動(dòng)才能實(shí)現(xiàn)。而末敏彈工作時(shí)恰好做螺旋穩(wěn)態(tài)掃描運(yùn)動(dòng),因此利用線陣探測(cè)器可以很容易地實(shí)現(xiàn)對(duì)地面目標(biāo)的掃描成像,將二者進(jìn)行復(fù)合式探測(cè)既能獲取較高分辨率的紅外輻射信息,也能獲取對(duì)目標(biāo)三維幾何描述的距離信息,對(duì)末敏彈的目標(biāo)判斷和場(chǎng)景分析提供了更加全面、完整和豐富的特征信息[2-3]。
基于卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)的識(shí)別算法避免了傳統(tǒng)識(shí)別算法中復(fù)雜的目標(biāo)分割、特征提取等過(guò)程,是一種將原圖像直接作為輸入的端到端的識(shí)別模型。2015年HE等[4]提出的ResNet在ImageNet數(shù)據(jù)集上的分類誤差降低到了3.57%,其性能已經(jīng)遠(yuǎn)遠(yuǎn)超過(guò)傳統(tǒng)特征提取的識(shí)別算法,由此可見(jiàn)CNN對(duì)復(fù)雜環(huán)境下的目標(biāo)識(shí)別具有明顯優(yōu)勢(shì),這也為末敏彈在復(fù)雜環(huán)境下的目標(biāo)識(shí)別提供了新的研究方向。CNN強(qiáng)大的圖像特征提取能力使其在目標(biāo)識(shí)別領(lǐng)域得到了廣泛的運(yùn)用,一些學(xué)者已經(jīng)將CNN運(yùn)用在異源圖像的目標(biāo)識(shí)別任務(wù)中。劉峰等[5]在AlexNet基礎(chǔ)上提出了一種CNN融合識(shí)別模型,先利用CNN對(duì)三波段的可見(jiàn)光圖像、長(zhǎng)波紅外圖像和短波紅外圖像分別進(jìn)行特征提取,然后采用基于互信息特征選擇的方法對(duì)特征量進(jìn)行壓縮,最后再利用全連接層完成了海上目標(biāo)分類任務(wù)。Gao等[6]同樣利用AlexNet將可見(jiàn)光圖像與激光雷達(dá)上采樣后的距離圖像拼接構(gòu)成4通道的RGB-D數(shù)據(jù),實(shí)現(xiàn)了車輛目標(biāo)分類識(shí)別任務(wù)。江澤濤等[7]對(duì)可將光圖像與紅外圖像利用加權(quán)融合規(guī)則進(jìn)行融合,將融合后的圖像作為CNN的輸入,實(shí)現(xiàn)了對(duì)不同場(chǎng)景的識(shí)別,經(jīng)實(shí)驗(yàn)驗(yàn)證,融合后的圖像比單獨(dú)使用源圖像的識(shí)別準(zhǔn)確率更高。
雖然利用CNN對(duì)異源圖像進(jìn)行目標(biāo)識(shí)別取得了較好的效果,但對(duì)紅外像和距離像上的研究較少,同時(shí)還需滿足彈載對(duì)實(shí)時(shí)性的要求對(duì)CNN網(wǎng)絡(luò)需要輕量化設(shè)計(jì),來(lái)減少模型量計(jì)算量。因此,本文根據(jù)彈載應(yīng)用場(chǎng)景以及距離像和紅外像的成像特點(diǎn),提出了一種分布式融合輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)(distributed fusion convolutional neural net,DF-Net),通過(guò)圖像融合、分布式卷積和深度可分離卷積實(shí)現(xiàn)了CNN的輕量化設(shè)計(jì),并利用縮比場(chǎng)景的自建數(shù)據(jù)集對(duì)本文所提方法及網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行實(shí)驗(yàn)分析與討論。
彈載線陣探測(cè)器的掃描成像是借助末敏彈的穩(wěn)態(tài)旋轉(zhuǎn)掃描運(yùn)動(dòng)來(lái)實(shí)現(xiàn)的,其成像示意圖如圖1所示。圖中,β為末敏彈的掃描角;γ為線陣探測(cè)器俯仰方向上的視場(chǎng)角,線陣紅外與線陣激光的視場(chǎng)角相同并且被像元等分;τ為轉(zhuǎn)動(dòng)角,即子彈在一段時(shí)間內(nèi)繞回轉(zhuǎn)軸轉(zhuǎn)過(guò)的角度;ρi為視場(chǎng)中線陣探測(cè)器第i個(gè)像元光路與鉛錘方向的夾角。
圖1 線陣掃描成像模型示意圖
為了保證兩幅圖像的配準(zhǔn),紅外與激光接收端為同視場(chǎng),并且在同一時(shí)刻采集。線陣激光雷達(dá)通過(guò)計(jì)算每個(gè)像元的激光發(fā)射與接收回波之間的時(shí)間差來(lái)實(shí)現(xiàn)測(cè)距,設(shè)APD的像元數(shù)量為M,當(dāng)掃描線轉(zhuǎn)過(guò)τ時(shí)會(huì)在地面形成一個(gè)局部掃描區(qū)域Ω,區(qū)域Ω由N次掃描的掃描線數(shù)據(jù)構(gòu)成,將掃描線數(shù)據(jù)按先后順序進(jìn)行拼接可獲得一個(gè)大小為M×N的二維距離矩陣D′:
D′=(dij)M×N
(1)
式中:i=1,2,…,M;j=1,2,…,N。線陣紅外探測(cè)器則直接通過(guò)接收熱輻射得到紅外輻射灰度信息R:
R=(rij)M×N
(2)
式中:dij和rij分別為第i個(gè)激光與紅外像元在第j次采樣時(shí)測(cè)得的距離值和紅外強(qiáng)度值。
由于獲得的紅外數(shù)據(jù)R本身就是8 bit量化后的灰度值,因此R可直接作為紅外圖像。而對(duì)于掃描得到的距離數(shù)據(jù)則需要進(jìn)行一步處理。首先將距離數(shù)據(jù)轉(zhuǎn)換為激光腳點(diǎn)與子彈的相對(duì)高度數(shù)據(jù)H′:
H′=D′cosρi
(3)
然后選擇合適的量化區(qū)間S,對(duì)H′進(jìn)行8 bit量化即可作為本文CNN與圖像融合算法所需的距離灰度像D:
(4)
式中:“[·]”表示取整,hmax為H′中的最大值,h′ij為H′中的元素。
在本文中將融合圖像作為前級(jí)卷積神經(jīng)網(wǎng)絡(luò)的輸入數(shù)據(jù),目的是增加輸入特征的多樣性,提高輕量化CNN對(duì)目標(biāo)分類的準(zhǔn)確率,因此對(duì)融合圖像,希望能在充分反映互補(bǔ)特征的同時(shí)具有較低的算法復(fù)雜度,以滿足彈載環(huán)境對(duì)實(shí)時(shí)性的要求。本文融合算法的具體過(guò)程如下。
①源圖像分解。
首先通過(guò)高斯濾波對(duì)圖像進(jìn)行平滑處理得到圖像的低頻分量LD和LR:
LD=D*g,LR=R*g
(5)
式中:g為高斯平滑核;“*”表示卷積。高斯核參數(shù)的選取應(yīng)保證盡可能濾除細(xì)節(jié)特征。獲得圖像的低頻分量后得到高頻分量HD和HR:
HD=D-LD,HR=R-LR
(6)
對(duì)于小尺寸、紋理特征不豐富的圖像經(jīng)一次低通濾波就可以得到很平滑的低頻圖像,因此本文對(duì)源圖像只進(jìn)行了一次分解。
②低頻融合系數(shù)的構(gòu)建。
圖像的低頻子圖保留了原圖像的近似特征,對(duì)于本文的低頻子圖而言,由于只進(jìn)行了一次非降采樣的分解,直接使用平均融合容易導(dǎo)致圖像邊緣模糊、對(duì)比度降低,因此對(duì)低頻融合系數(shù)進(jìn)行如下處理:首先建立2個(gè)與源圖像尺寸一致且系數(shù)均為0.5的初始融合系數(shù)矩陣mR和mD;然后將源圖像作為引導(dǎo)圖對(duì)初始系數(shù)進(jìn)行導(dǎo)向?yàn)V波,即:
(7)
(8)
根據(jù)導(dǎo)向?yàn)V波的特性可知[12],若圖像中某一區(qū)域的局部方差較小,則認(rèn)為處于引導(dǎo)圖像的平坦區(qū)域,此時(shí)濾波器的輸出即為相鄰像素的平均值;若局部方差較大,此時(shí)只有一邊的權(quán)重會(huì)被平均,從而保證了邊緣不被模糊,因此初始權(quán)重經(jīng)導(dǎo)向?yàn)V波后保證了空間上的連續(xù)性。
③高頻融合系數(shù)的構(gòu)建。
在高頻子圖中主要包含了場(chǎng)景中邊緣特征、目標(biāo)紋理特征、邊界變化特征等灰度值變化較為強(qiáng)烈的區(qū)域,為了在融合圖像中更好地體現(xiàn)上述特征,對(duì)于高頻分量通常選用“絕對(duì)值取大”的方法進(jìn)行融合,首先構(gòu)建初始融合權(quán)重CR,CD:
(9)
CD=1-CR
(10)
同理,為了讓融合權(quán)重具有空間連續(xù)性,與低頻分量處理一樣,使用導(dǎo)向?yàn)V波對(duì)初始權(quán)重進(jìn)行處理,即:
(11)
經(jīng)歸一化后得到高頻融合系數(shù):
(12)
④重建融合圖像。
利用②和③獲得的融合系數(shù)分別對(duì)高頻子圖和低頻子圖進(jìn)行加權(quán)求和,則融合后的高頻圖HF和低頻圖LF分別為
(13)
式中:“·”表示矩陣元素點(diǎn)積運(yùn)算。最終的融合圖像F只需將融合高頻圖HF和融合低頻圖LF相加即可獲得,即:
F=HF+LF
(14)
本文設(shè)計(jì)的DF-Net網(wǎng)絡(luò)框架從整體上將網(wǎng)絡(luò)分為:前級(jí)的分布式特征提取網(wǎng)絡(luò)和后級(jí)融合網(wǎng)絡(luò)。在前級(jí)網(wǎng)絡(luò)中,距離像、紅外像以及融合像各自擁有獨(dú)立的卷積網(wǎng)絡(luò),同時(shí)卷積操作并未使用傳統(tǒng)卷積加池化下采樣或者直接利用深度可分離卷積進(jìn)行提取,而是由2組步長(zhǎng)為2步長(zhǎng)(s=2)的3×3卷積(3×3 Conv)和1×1卷積(1×1 Conv)構(gòu)成。這種方式雖然比深度可分離卷積的計(jì)算量大,但學(xué)習(xí)特征能力更強(qiáng);與傳統(tǒng)卷積加池化下采樣的方式相比,省去池化操作(Pool)的同時(shí)進(jìn)一步降低網(wǎng)絡(luò)的計(jì)算復(fù)雜度。圖2是以上3種結(jié)構(gòu)的實(shí)現(xiàn)方式,設(shè)輸入特征圖為M×N×Cin,輸出特征圖均為(M/2)×(N/2)×2Cin,圖中N1為本文卷積結(jié)構(gòu),N2為深度可分離卷積結(jié)構(gòu),N3為帶有池化下采樣的卷積結(jié)構(gòu),所有網(wǎng)絡(luò)均使用了批次歸一化層(batch normalizing,BN)[11],表1為3種網(wǎng)絡(luò)結(jié)構(gòu)的計(jì)算量和參數(shù)量,表中,Cin為輸入的通道數(shù),P為輸入圖像大小。通過(guò)表1中計(jì)算量與參數(shù)量的對(duì)比,本文結(jié)構(gòu)雖然比N2結(jié)構(gòu)計(jì)算復(fù)雜度高,但相比N3的傳統(tǒng)結(jié)構(gòu)計(jì)算量下降了約79.6%,參數(shù)量下降了37.5%。
表1 不同卷積結(jié)構(gòu)計(jì)算復(fù)雜度對(duì)比
圖2 3種結(jié)構(gòu)的實(shí)現(xiàn)方式
網(wǎng)絡(luò)的后級(jí)則是對(duì)上述特征量進(jìn)行融合、提取與壓縮,并最終給出分類結(jié)果。對(duì)前級(jí)的特征融合,利用雙尺度卷積核進(jìn)行融合,首先對(duì)3個(gè)通道的特征圖進(jìn)行首尾拼接;然后利用3×3卷積核和1×1卷積核分別對(duì)拼接后的特征圖進(jìn)行卷積以實(shí)現(xiàn)特征間的融合。最后再將卷積后的特征圖進(jìn)行拼接并送入后續(xù)卷積層中。對(duì)融合后的特征圖利用深度可分離卷積模塊進(jìn)行卷積,根據(jù)文獻(xiàn)[11]指出的深層特征對(duì)網(wǎng)絡(luò)性能的貢獻(xiàn)高于淺層網(wǎng)絡(luò)特征,因此在融合卷積層后面又增加了多組深度可分離卷積模塊來(lái)提高網(wǎng)絡(luò)對(duì)特征的學(xué)習(xí)能力。表2給出了本文DF-Net網(wǎng)絡(luò)具體的結(jié)構(gòu)設(shè)計(jì)參數(shù),輸入的距離像、紅外像以及融合圖像先經(jīng)13層CNN卷積得到4×4×528的特征圖,最后利用全局平均池化將特征圖變?yōu)?×528的一維特征向量,并與輸出分類數(shù)量一致的神經(jīng)元構(gòu)成全連接層,并利用SoftMax層得到每種類別的分類概率。網(wǎng)絡(luò)在每個(gè)卷積層和激活層之間增加了批次歸一化層,用于加快網(wǎng)絡(luò)的訓(xùn)練收斂速度和防止過(guò)擬合的發(fā)生。每個(gè)卷積層之間選用RL6作為網(wǎng)絡(luò)的激活函數(shù),即:
RL6=min(max(0,x),6)
(15)
表2中,C表示普通卷積;GC表示可分離卷積;B表示批次歸一化操作;RL6為ReLU6激活函數(shù)層,No為最終的分類數(shù)。
表2 DF-Net 網(wǎng)絡(luò)設(shè)計(jì)參數(shù)及計(jì)算復(fù)雜度
實(shí)驗(yàn)所用數(shù)據(jù)集通過(guò)實(shí)驗(yàn)室搭建的縮比實(shí)驗(yàn)平臺(tái)獲得。在模擬場(chǎng)景搭建時(shí)考慮了裝甲目標(biāo)在真實(shí)戰(zhàn)場(chǎng)環(huán)境下的工作情況,為了讓數(shù)據(jù)更加真實(shí),模擬了在不同坡度、不同地形、不同高度、目標(biāo)存在局部遮擋以及目標(biāo)周圍存在障礙物情況下的實(shí)驗(yàn)場(chǎng)景。裝甲目標(biāo)選取了主戰(zhàn)坦克、裝甲運(yùn)兵車、自行火炮等多種模擬目標(biāo),目標(biāo)縮比比例為1∶24(平均長(zhǎng)、寬、高分別約為36 cm,13 cm,10 cm),探測(cè)器最大探測(cè)高度3 m,同時(shí)為了模擬紅外特征在裝甲目標(biāo)發(fā)熱處內(nèi)部設(shè)計(jì)了電子恒溫加熱裝置,保證與地面溫差大于10 ℃。樣本的獲取首先利用縮比模擬場(chǎng)景共獲取4 000組樣本,樣本中圖像大小為64×64,然后利用翻轉(zhuǎn)、平移、旋轉(zhuǎn)和隨機(jī)裁剪等方法對(duì)樣本進(jìn)行增廣,最后將樣本數(shù)據(jù)分為4類裝甲目標(biāo)(坦克目標(biāo)、運(yùn)兵車目標(biāo)、自行火炮和導(dǎo)彈車,每類各11 000)和非裝甲目標(biāo)(由不含裝甲目標(biāo)的背景構(gòu)成共44 000)。對(duì)裝甲目標(biāo)樣本進(jìn)行分類后,CNN網(wǎng)絡(luò)不僅可以建立目標(biāo)識(shí)別的二分類網(wǎng)絡(luò)(裝甲目標(biāo)44 000和非裝甲目標(biāo)40 000),也可建立目標(biāo)分類的五分類網(wǎng)絡(luò)(4類裝甲目標(biāo)各11 000個(gè),非裝甲目標(biāo)從40 000中隨機(jī)抽取11 000作為樣本),從而驗(yàn)證網(wǎng)絡(luò)對(duì)裝甲目標(biāo)分類判別的能力。在數(shù)據(jù)集劃分上,選取總數(shù)據(jù)集的80%作為訓(xùn)練集,剩下的20%作為測(cè)試集,分別用于網(wǎng)絡(luò)的訓(xùn)練和測(cè)試階段。圖3為數(shù)據(jù)集中部分樣本示例,數(shù)據(jù)集中包含裝甲目標(biāo)的部分紅外圖像、距離圖像和融合圖像。
圖3 數(shù)據(jù)集中部分樣本示例
在實(shí)驗(yàn)中所有網(wǎng)絡(luò)均采用了帶動(dòng)量的小批量隨機(jī)梯度下降算法作為網(wǎng)絡(luò)模型訓(xùn)練的優(yōu)化算法,訓(xùn)練一次的樣本量(Batch size)根據(jù)GPU內(nèi)存容量設(shè)置為100,為了保證網(wǎng)絡(luò)訓(xùn)練的穩(wěn)定收斂,學(xué)習(xí)率的調(diào)整策略選用階梯式(STEP)策略,設(shè)初始學(xué)習(xí)率α0=0.01,每經(jīng)過(guò)一次階躍步長(zhǎng)k新的學(xué)習(xí)率α衰減為
α=α0×ω?t/k」
(16)
式中:ω為衰減系數(shù);“?·」”為向上取整符號(hào);t為當(dāng)前迭代訓(xùn)練次數(shù)。在本文中k=10 000,ω=0.1,即網(wǎng)絡(luò)每進(jìn)行10 000次的迭代訓(xùn)練,學(xué)習(xí)率衰減為原來(lái)的10%,總迭代次數(shù)為50 000次。實(shí)驗(yàn)在PC機(jī)上進(jìn)行,主要配置如下:CPU Intel I7-8700k,GPU NVIDIA GeForce GTX1080Ti(顯存8G),內(nèi)存 DDR4 16G,網(wǎng)絡(luò)模型在Caffe開(kāi)源架構(gòu)上進(jìn)行訓(xùn)練與測(cè)試,操作系統(tǒng)運(yùn)行環(huán)境為Ubuntu 16.04。
實(shí)驗(yàn)結(jié)果如下:
①不同網(wǎng)絡(luò)結(jié)構(gòu)對(duì)性能的影響。 將本文網(wǎng)絡(luò)與流行的輕量化網(wǎng)絡(luò)Mobilenet128[10]以及將DF-Net中前級(jí)分布式卷積改為N3結(jié)構(gòu)的DF-Net(2)進(jìn)行了性能對(duì)比,結(jié)果如表3所示,可以看出:雖然DF-Net準(zhǔn)確率較Mobilenet128降低了1.3%,但計(jì)算量?jī)H為Mobilenet128的12%;對(duì)本文圖像,前級(jí)網(wǎng)絡(luò)使用深度可分離卷積不利于網(wǎng)絡(luò)對(duì)特征的學(xué)習(xí),以N1和N3作為網(wǎng)絡(luò)前級(jí)效果較好,二者性能相當(dāng),在準(zhǔn)確率上只高了0.3%,但從計(jì)算量和參數(shù)量上來(lái)看N1結(jié)構(gòu)更具有優(yōu)勢(shì)。
表3 測(cè)試集準(zhǔn)確率與計(jì)算量對(duì)比
②融合圖像對(duì)網(wǎng)絡(luò)性能的影響。 當(dāng)刪除融合圖像時(shí)網(wǎng)絡(luò)在測(cè)試集上的準(zhǔn)確率為94%,下降了2.1%,可以看出,引入融合圖像可以提高網(wǎng)絡(luò)對(duì)特征的提取能力。
③DF-Net在復(fù)雜環(huán)境下的網(wǎng)絡(luò)性能。 利用模擬場(chǎng)景采集背景環(huán)境較為復(fù)雜的距離圖像和紅外圖像樣本,并利用樣本增強(qiáng)方法將數(shù)據(jù)擴(kuò)充到400組(包含4類裝甲目標(biāo)的樣本每類50組,其余為不含裝甲目標(biāo)的樣本),來(lái)驗(yàn)證網(wǎng)絡(luò)模型的泛化能力以及對(duì)復(fù)雜背景環(huán)境下的目標(biāo)識(shí)別能力,并用混淆矩陣對(duì)性能進(jìn)行評(píng)估。圖4(a)是五分類預(yù)測(cè)的混淆矩陣(TANK坦克,APC運(yùn)兵車,SPG自行火炮,MV導(dǎo)彈車),圖4(b)是二分類混淆矩陣(T裝甲目標(biāo),N無(wú)目標(biāo)),混淆矩陣中縱坐標(biāo)表示真實(shí)樣本分類,橫坐標(biāo)表示預(yù)測(cè)樣本分類,矩陣中數(shù)字均為百分比。
圖4 DF-Net網(wǎng)絡(luò)模型目標(biāo)分類混淆矩陣
從混淆矩陣可以看出,五分類的總體準(zhǔn)確率為86.8%,二分類為90.5%,相比之前在測(cè)試集上的實(shí)驗(yàn)結(jié)果有所降低,但總體上看,DF-Net模型依然具有較強(qiáng)的目標(biāo)識(shí)別和分類能力。在圖4(a)中可以發(fā)現(xiàn),五分類任務(wù)的準(zhǔn)確率要低于二分類任務(wù),而且在對(duì)4類裝甲進(jìn)行預(yù)測(cè)時(shí)均出現(xiàn)了少部分目標(biāo)被誤判為非目標(biāo)的情況,同時(shí)裝甲運(yùn)兵車(APC)和反坦克導(dǎo)彈車(MV)之間還出現(xiàn)了一定程度的混淆。出現(xiàn)上述情況主要有以下兩方面原因:①實(shí)驗(yàn)環(huán)境的局限使得訓(xùn)練樣本無(wú)法包括所有可能性,導(dǎo)致模型訓(xùn)練不夠充分;②不同類裝甲目標(biāo)的車身主體存在相似的情況(例如裝甲運(yùn)兵車和反坦克導(dǎo)彈車),當(dāng)只掃描到目標(biāo)局部或者目標(biāo)遮擋較為嚴(yán)重時(shí),模型無(wú)法得到準(zhǔn)確的判定信息從而造成分類混淆,或者探測(cè)高度較高時(shí)目標(biāo)在低分辨的圖像上特征丟失嚴(yán)重也可能造成分類混淆。
圖5是從數(shù)據(jù)集中選取的8組實(shí)驗(yàn)樣本并利用DF-Net分別進(jìn)行2分類和5分類的結(jié)果,圖5(a)為假目標(biāo)樣本,圖5(b)~圖5(d)為目標(biāo)四周有障礙物或者局部遮擋的情況,圖5(e)、圖5(f)為目標(biāo)局部掃描樣本,圖5(g)為在高處探測(cè)時(shí)目標(biāo)四周有大量干擾的樣本,圖5(h)為目標(biāo)超過(guò)50%被遮擋的樣本。
圖5 部分樣本識(shí)別結(jié)果
從實(shí)驗(yàn)結(jié)果上可以看出:網(wǎng)絡(luò)在樣本a~e中均準(zhǔn)確識(shí)別出了目標(biāo),樣本a是長(zhǎng)寬高與裝甲目標(biāo)相似的矩形偽目標(biāo),由于在訓(xùn)練樣本中加入了此類偽目標(biāo),因而未產(chǎn)生虛警,樣本b~d是目標(biāo)周圍有障礙物或者存在局部遮擋的情況,此時(shí)網(wǎng)絡(luò)也做出了正確識(shí)別;樣本e和f是車體相似的兩類不同的目標(biāo),由于是局部圖像,兩個(gè)目標(biāo)的特征較為相似,因此在五分類任務(wù)中將反坦克導(dǎo)彈車錯(cuò)誤分類成了運(yùn)兵車,但是在二分類的裝甲目標(biāo)識(shí)別任務(wù)中被準(zhǔn)確分類;對(duì)樣本e進(jìn)行分類時(shí),雖然此時(shí)目標(biāo)在視場(chǎng)中比例較小,周圍還存在熱源與障礙物干擾,但DF-Net依然給出了正確分類;對(duì)于樣本h,由于此時(shí)目標(biāo)被大面積遮擋,其特征不能被充分描述,從而導(dǎo)致目標(biāo)分類錯(cuò)誤。
本文為了提高末敏彈在復(fù)雜背景環(huán)境下對(duì)裝甲目標(biāo)的識(shí)別能力,利用CNN在圖像處理上的優(yōu)勢(shì),提出了一種適用于低分辨距離像和紅外圖像的融合-分布式輕量化卷積神經(jīng)網(wǎng)絡(luò)模型DF-Net。通過(guò)實(shí)驗(yàn)表明:
①融合圖像的引入可以提高網(wǎng)絡(luò)對(duì)特征的提取能力,在相同網(wǎng)絡(luò)層數(shù)下能夠獲得更好的識(shí)別精度,對(duì)于低分辨的紅外圖像和距離像應(yīng)盡可能選取計(jì)算量小、更好保留邊緣紋理特征的算法來(lái)提高系統(tǒng)的實(shí)時(shí)性;
②DF-Net通過(guò)前級(jí)N1結(jié)構(gòu)的分布式卷積處理和后級(jí)的深度可分離卷積,讓網(wǎng)絡(luò)具有更少計(jì)算量,同時(shí)也具有優(yōu)異的目標(biāo)識(shí)別性能;
③CNN具有強(qiáng)大的特征提取能力,因此本文方法適用于背景環(huán)境復(fù)雜以及對(duì)抗環(huán)境干擾要求較高的戰(zhàn)場(chǎng)環(huán)境。