• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于CFAR和CNN的SAR圖像目標(biāo)識別技術(shù)

      2022-07-15 01:44:24張官榮王建軍
      電光與控制 2022年7期
      關(guān)鍵詞:卷積閾值分類

      張官榮, 趙 玉, 陳 相, 李 波, 王建軍, 劉 丹

      (1.空軍工程大學(xué)航空工程學(xué)院,西安 710000; 2.西北工業(yè)大學(xué)電子信息學(xué)院,西安 710000; 3.中國人民解放軍93046部隊(duì),沈陽 110000)

      0 引言

      合成孔徑雷達(dá)(Synthetic Aperture Radar,SAR)技術(shù)是一種主動式微波遙感探測技術(shù),它利用脈沖壓縮和合成孔徑同時(shí)提高雷達(dá)距離向和方位向的分辨率,從而獲得全天候、全天時(shí)、大面積、高分辨率SAR圖像[1]。SAR圖像自動目標(biāo)識別(Automatic Target Recognition,ATR)技術(shù)旨在自動從輸入SAR圖像中判斷出有無目標(biāo)信息,提高SAR圖像解譯效率和精度。近年來,SAR ATR技術(shù)已經(jīng)在全世界得到廣泛研究,并形成了固定的三級流程,即檢測、鑒別和分類[2]。檢測模塊主要基于檢測算法獲取包含SAR圖像目標(biāo)的切片;鑒別模塊用于剔除目標(biāo)切片虛警值;分類模塊選取最佳決策機(jī)制判斷類別。

      隨著深度學(xué)習(xí)在機(jī)器視覺中的飛速發(fā)展,其模型實(shí)現(xiàn)了從海量的樣本數(shù)據(jù)中自主學(xué)習(xí)數(shù)據(jù)的內(nèi)在規(guī)律。在圖像的分類識別任務(wù)中,研究人員提出了眾多典型的深度學(xué)習(xí)網(wǎng)絡(luò)模型,如AlexNet[3],VGG[4],Googlenet[5], ResNet[6],DenseNet[7]等,這些網(wǎng)絡(luò)模型在大規(guī)模視覺識別挑戰(zhàn)賽上取得了卓越的成績。

      為了加速實(shí)現(xiàn)深度學(xué)習(xí)在SAR目標(biāo)的高效分類和識別,國內(nèi)外眾多學(xué)者對其展開了一系列的研究。文獻(xiàn)[8]聯(lián)合卷積神經(jīng)網(wǎng)絡(luò)和支持向量機(jī)對MSTAR數(shù)據(jù)庫中10類目標(biāo)分類,最終得到98.6%的識別率;文獻(xiàn)[9]采用8層深度卷積神經(jīng)網(wǎng)絡(luò)(Deep Convolutional Neural Network,DCNN)結(jié)構(gòu)對10類車輛目標(biāo)分類,其網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)與AlexNet類似,最終識別率為92.3%;文獻(xiàn)[10]以VGG為參考對象,設(shè)計(jì)了一個具有大卷積核、全卷積映射的5層CNN網(wǎng)絡(luò)(A-ConvNet),從MSTAR數(shù)據(jù)集的目標(biāo)切片中裁剪并作為訓(xùn)練樣本,在標(biāo)準(zhǔn)環(huán)境下識別率達(dá)到99%,17°~30°擴(kuò)展環(huán)境下識別率為96%;文獻(xiàn)[11]研究了SAR仿真數(shù)據(jù)集和真實(shí)數(shù)據(jù)集之間的遷移學(xué)習(xí)效果,通過在聚焦之前對單個點(diǎn)散射體的地物模型中添加仿真目標(biāo)雷達(dá)反射特性來獲得仿真數(shù)據(jù)集,實(shí)驗(yàn)結(jié)果表明,用仿真數(shù)據(jù)集預(yù)訓(xùn)練的網(wǎng)絡(luò)比僅用真實(shí)數(shù)據(jù)訓(xùn)練的網(wǎng)絡(luò)具有更好的測試識別率和更快的收斂速度;文獻(xiàn)[12]提出基于卷積自編碼器(Convolutional Auto-Encoder,CAE)學(xué)習(xí)卷積核和偏置,將學(xué)習(xí)結(jié)果輸入CNN結(jié)構(gòu),該方法在保證識別率較高的情況下,識別速度大約是單獨(dú)采用CNN結(jié)構(gòu)的27倍;文獻(xiàn)[13]研究了SAR圖像中相干斑對CNN用于SAR目標(biāo)識別的影響,在此基礎(chǔ)上提出了一種雙極耦合CNN結(jié)構(gòu),先利用去噪子網(wǎng)絡(luò)進(jìn)行去噪,然后通過分類子網(wǎng)絡(luò)學(xué)習(xí)剩余散斑特性和目標(biāo)信息,該結(jié)構(gòu)可以提高網(wǎng)絡(luò)的噪聲魯棒性。

      雖然SAR圖像目標(biāo)識別技術(shù)已經(jīng)取得了較大進(jìn)展,但在實(shí)際應(yīng)用場景中,SAR圖像識別精度容易受到噪聲干擾、目標(biāo)多尺度變換等因素影響,為了獲取有效的戰(zhàn)場態(tài)勢感知信息,研究先進(jìn)的SARATR技術(shù)意義重大。本文基于深度學(xué)習(xí)提出新穎的模型框架研究SAR圖像自動目標(biāo)識別技術(shù),通過改進(jìn)恒虛警率(Constant False-Alarm Rate,CFAR)檢測算法和卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)目標(biāo)的高效識別。實(shí)驗(yàn)結(jié)果表明,本文方法相比于傳統(tǒng)算法識別效果更好。

      1 SAR圖像目標(biāo)識別方法

      1.1 深度卷積自編碼網(wǎng)絡(luò)

      卷積自編碼器(CAE)[14]將自編碼器中的全連接神經(jīng)元替換為卷積神經(jīng)元,自編碼網(wǎng)絡(luò)由編碼器與解碼器兩部分組成,編碼器用于提取圖像特征,解碼器用于生成圖像。在編碼過程中,保存圖像的特征信息,刪除冗余信息[15]。特征提取能力隨著網(wǎng)絡(luò)層數(shù)的加深而增強(qiáng),因此,深度卷積自編碼網(wǎng)絡(luò)應(yīng)用于圖像任務(wù)時(shí),通常將編碼器和解碼器的層數(shù)同時(shí)加深,對輸入特征進(jìn)行提取、編碼與解碼。

      1.2 CFAR目標(biāo)檢測和識別

      目標(biāo)檢測算法主要利用感興趣目標(biāo)的幾個簡單特征或特征組合,在分割的結(jié)果中剔除虛假目標(biāo),盡可能地降低目標(biāo)虛警率。恒虛警率(CFAR)算法[16-18]是指保持目標(biāo)虛警率不變的情況下采用數(shù)理統(tǒng)計(jì)理論對檢測模型進(jìn)行參數(shù)估計(jì),不但減小了算法的計(jì)算量,而且在復(fù)雜背景環(huán)境中可自適應(yīng)調(diào)整閾值。

      CFAR算法對目標(biāo)圖像進(jìn)行目標(biāo)檢測時(shí)通常采用滑窗法遍歷檢測估計(jì)目標(biāo)尺度。以雙參數(shù)CFAR算法為例[15],若用H0表示假設(shè)背景窗口中雜波像素值的統(tǒng)計(jì)分布為高斯分布,即

      (1)

      式中:σ為高斯分布的標(biāo)準(zhǔn)差;μ為均值;xi為雜波背景中的像素點(diǎn)的值。由此可以得出雙參數(shù)CFAR的虛警率算式為

      (2)

      (3)

      當(dāng)虛警率Pfa給定時(shí),令φ(α)=1-Pfa,可以計(jì)算α,即閾值因子。雙參數(shù)CFAR對應(yīng)的閾值VT為

      VT=μ+ασ。

      (4)

      式(4)同時(shí)滿足恒虛警率條件。高斯分布統(tǒng)計(jì)量μ和σ的估計(jì)值為

      (5)

      (6)

      (7)

      在使用CFAR檢測器對目標(biāo)進(jìn)行檢測識別時(shí),需要對待檢測圖像的背景雜波進(jìn)行建模,估計(jì)背景雜波的統(tǒng)計(jì)分布模型。

      2 SAR目標(biāo)識別

      為了有效提高SAR圖像自動識別目標(biāo)系統(tǒng)的效率,本文將深度學(xué)習(xí)技術(shù)應(yīng)用于SAR圖像識別領(lǐng)域?qū)崿F(xiàn)模型優(yōu)化,提出了一套完整、有效的SAR圖像目標(biāo)識別框架,如圖1所示。

      圖1 SAR圖像自動識別框架Fig.1 Automatic SAR image recognition framework

      2.1 基于卷積自編碼網(wǎng)絡(luò)的SAR圖像相干斑抑制

      由于許多基本散射體反射的雷達(dá)波的相干干擾,SAR圖像自身受到相干斑噪聲的影響,這將降低圖像的空間分辨率,模糊了圖像的邊緣和紋理特征,極大地影響了SAR圖像的解譯工作[19]。因此,對SAR圖像進(jìn)行相干斑噪聲建模和抑制是目標(biāo)識別中的重要組成部分。

      本文提出的SAR圖像相干斑抑制網(wǎng)絡(luò)是一個深度卷積自編碼結(jié)構(gòu),如圖2(a)所示,其算法流程主要分為訓(xùn)練階段和預(yù)測階段。訓(xùn)練階段基于相干斑統(tǒng)計(jì)模型和無噪光學(xué)圖像模擬SAR相干斑圖像,用于訓(xùn)練相干斑抑制網(wǎng)絡(luò);預(yù)測階段通過仿真數(shù)據(jù)訓(xùn)練好的相干斑抑制網(wǎng)絡(luò)對真實(shí)的SAR圖像進(jìn)行相干斑抑制。

      圖2 相干斑抑制算法流程和網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Flow chart of speckle suppression algorithm and network structure

      針對SAR圖像中存在的與信號相關(guān)的噪聲,深度卷積自編碼網(wǎng)絡(luò)的SAR圖像相干斑噪聲抑制模型的網(wǎng)絡(luò)結(jié)構(gòu)如圖2(b)所示,模型為一個帶殘差連接的深度卷積自編碼網(wǎng)絡(luò)。圖中,Conv表示卷積層,ReLU表示線性整流激活函數(shù),Maxpooling表示最大池化層,UpSampling表示上采樣層,Deconv表示反卷積層。

      由于SAR圖像相干斑抑制一般無法獲取噪聲水平,為了使網(wǎng)絡(luò)泛化性能提升,本文采取混合噪聲的仿真相干斑數(shù)據(jù)對網(wǎng)絡(luò)進(jìn)行訓(xùn)練,然后通過softmax分類層對權(quán)重進(jìn)行微調(diào),既有效地避免網(wǎng)絡(luò)過擬合,又使模型能夠更好地適應(yīng)SAR圖像分類去噪任務(wù)。微調(diào)優(yōu)化代價(jià)函數(shù)為

      (8)

      L=LCoAE+β·Lsoftmax

      (9)

      2.2 基于CFAR算法和卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)特征提取

      SAR圖像目標(biāo)場景區(qū)域提取旨在提取待檢測圖像上一系列感興趣區(qū)域列表。本文針對待檢測圖像提取感興趣區(qū)域問題提出CFAR檢測算法和圖像形態(tài)學(xué)處理生成區(qū)域列表,設(shè)計(jì)用于SAR圖像分類特征提取的卷積神經(jīng)網(wǎng)絡(luò),并通過分類任務(wù)從訓(xùn)練數(shù)據(jù)中自動學(xué)習(xí)有效的分類特征。針對數(shù)據(jù)多樣性不足帶來的網(wǎng)絡(luò)過擬合和泛化性能差的問題,此處設(shè)計(jì)Fisher損失函數(shù)對網(wǎng)絡(luò)權(quán)重進(jìn)行微調(diào),實(shí)現(xiàn)網(wǎng)絡(luò)映射的特征空間的聚集。訓(xùn)練好的網(wǎng)絡(luò)模型可以作為一個有效的分類特征提取器。

      2.2.1 CFAR檢測算法

      CFAR算法檢測圖像后輸出一個與待檢測圖像大小相同的邏輯矩陣,圖像掩模的像素值為0表示背景,值為1表示目標(biāo)。

      實(shí)際環(huán)境中,SAR圖像的目標(biāo)檢測背景環(huán)境較為復(fù)雜,且目標(biāo)相對于雜波而言所占像素?cái)?shù)目比較小,因此需要設(shè)計(jì)自適應(yīng)調(diào)整閾值的CFAR檢測算法,本文對整幅SAR圖像通過滑窗法遍歷像素點(diǎn)檢測背景和目標(biāo),滑窗大小根據(jù)估計(jì)的目標(biāo)尺度獲取。檢測算法首先計(jì)算背景區(qū)域的雜波統(tǒng)計(jì)特性,建立背景雜波分布概率密度函數(shù);然后自適應(yīng)估計(jì)目標(biāo)檢測的閾值,最后對待檢測像素點(diǎn)進(jìn)行類別判斷,判別標(biāo)準(zhǔn)為:當(dāng)像素值大于或等于閾值時(shí)被判定為目標(biāo),反之則被判定為背景。

      2.2.2 形態(tài)學(xué)處理

      對掩模圖像進(jìn)行圖像形態(tài)學(xué)處理主要目的是去除CFAR檢測圖像掩模中的孤立虛警點(diǎn),包括腐蝕、膨脹和去除小連通域技術(shù)。對圖像掩模進(jìn)行腐蝕處理可以切斷掩模中相鄰目標(biāo)的細(xì)小連接。膨脹處理能夠彌補(bǔ)圖像掩模中目標(biāo)的細(xì)小空洞。去除小連通域利用先驗(yàn)知識對可能存在目標(biāo)的連通域大小進(jìn)行估計(jì),小于一定閾值的連通域可以判斷為虛警目標(biāo),應(yīng)該去除該連通域。本文通過先腐蝕后膨脹(圖像開運(yùn)算),最后進(jìn)行小連通域去除孤立虛警點(diǎn)。

      2.2.3 生成感興趣區(qū)域

      感興趣區(qū)域生成包括目標(biāo)聚類、虛假目標(biāo)剔除和感興趣區(qū)域獲取。由于SAR圖像中目標(biāo)的像素值大小不一定連續(xù),同時(shí)受噪聲影響可能出現(xiàn)目標(biāo)區(qū)域內(nèi)存在像素值低于CFAR檢測閾值的像素點(diǎn),導(dǎo)致一個目標(biāo)被檢測為幾個小目標(biāo),因此,通過目標(biāo)聚類將多個小目標(biāo)組合成一個大目標(biāo)使目標(biāo)特征更加明顯,目標(biāo)分割更為準(zhǔn)確。本文通過歐氏距離小于某個閾值的像素被判斷為目標(biāo)來實(shí)現(xiàn)聚類,目標(biāo)像素的鄰域集合為

      Ni={j∈S|dist(i,j)≤dmax}

      (10)

      式中:dist(i,j)為像素點(diǎn)(xi,yi)和像素點(diǎn)(xj,yj)之間的歐氏距離;S為像素點(diǎn)(xi,yi)的空間鄰域集合;dmax為判斷兩個像素點(diǎn)是否屬于同一個目標(biāo)的歐氏距離閾值,若像素間距離小于該閾值則兩點(diǎn)屬于同一個目標(biāo),反之則不是同一個目標(biāo)的點(diǎn)。dmax根據(jù)目標(biāo)先驗(yàn)信息設(shè)定,通常取目標(biāo)的最大尺度所占像素?cái)?shù),即

      (11)

      式中:H為目標(biāo)的長度所占像素?cái)?shù);W為目標(biāo)的寬度所占像素?cái)?shù)。

      虛警目標(biāo)剔除是通過聚類生成目標(biāo)區(qū)域,根據(jù)先驗(yàn)知識估計(jì)目標(biāo)尺寸,判別像素點(diǎn)超出聚類的閾值時(shí)剔除虛假目標(biāo)。此模塊先獲得目標(biāo)區(qū)域的中心點(diǎn)位置,然后以該中心點(diǎn)為感興趣區(qū)域的中心點(diǎn),從待檢測圖像中切片出固定大小區(qū)域,并輸出感興趣區(qū)域的坐標(biāo)信息。

      2.3 SAR圖像自動目標(biāo)分類識別

      2.3.1 基于Fisher判別約束的網(wǎng)格優(yōu)化

      一般而言,CNN網(wǎng)絡(luò)通過softmax交叉熵?fù)p失進(jìn)行優(yōu)化,在訓(xùn)練樣本有限或者多樣性不足時(shí),網(wǎng)絡(luò)很容易過擬合,導(dǎo)致模型泛化能力差。將Fisher判別分析的類內(nèi)散度矩陣和類間散度矩陣融合到網(wǎng)絡(luò)優(yōu)化的目標(biāo)方程中,用于微調(diào)整個網(wǎng)絡(luò)權(quán)重,提高在訓(xùn)練樣本有限的情況下,特征空間的類內(nèi)緊湊性和類間可分性,提高整個網(wǎng)絡(luò)的泛化性能。

      Fisher約束分類網(wǎng)絡(luò)優(yōu)化流程如圖3所示。

      圖3 Fisher約束分類網(wǎng)絡(luò)優(yōu)化流程圖Fig.3 Flow chart of Fisher constrained classification network optimization

      分類網(wǎng)絡(luò)訓(xùn)練的損失函數(shù)由softmax分類損失和Fisher判別約束組成,即

      L=Lsoftmax+λLFisher

      (12)

      式中:Lsoftmax表示分類交叉熵?fù)p失;LFisher為約束類間和類內(nèi)距離的Fisher損失。

      2.3.2 目標(biāo)分類識別

      本文基于CNN提出了一個SAR圖像目標(biāo)分類特征學(xué)習(xí)框架,通過分類任務(wù)訓(xùn)練網(wǎng)絡(luò)模型。訓(xùn)練好的網(wǎng)絡(luò)對SAR圖像中感興趣的區(qū)域進(jìn)行特征提取,最終將特征信息輸入到分類器內(nèi)實(shí)現(xiàn)目標(biāo)分類。分類器類別概率算式為

      P=max(softmax(wi·n+bi))i=1,2,…,K

      (13)

      式中:wi為全連接層第i個神經(jīng)元與輸入連接的權(quán)重向量;n為輸入向量;b為偏置向量;K為類別數(shù)。

      2.3.3 后處理技術(shù)

      后處理的功能主要是剔除一些虛假目標(biāo),主要由于檢測模塊輸入到目標(biāo)分類識別模塊的感興趣區(qū)域中存在虛假目標(biāo)。訓(xùn)練分類器時(shí)沒有設(shè)置負(fù)樣本,分類器輸出數(shù)目等于所有樣本的類別數(shù),導(dǎo)致虛假目標(biāo)也會被分類器判定為某一個真實(shí)目標(biāo)。因此,通過設(shè)定概率閾值PT作為判定是否為真實(shí)目標(biāo)的條件,即當(dāng)P

      3 實(shí)驗(yàn)結(jié)果與分析

      為了評估本文所提出的SAR圖像目標(biāo)識別框架的有效性,本文實(shí)驗(yàn)部分主要利用提出的識別系統(tǒng)對合成的待檢測目標(biāo)場景SAR圖像進(jìn)行目標(biāo)識別并對實(shí)驗(yàn)結(jié)果進(jìn)行分析。

      3.1 實(shí)驗(yàn)數(shù)據(jù)

      本節(jié)實(shí)驗(yàn)數(shù)據(jù)使用MSTAR數(shù)據(jù)集,包括10類目標(biāo)的SAR圖像切片和同一區(qū)域的背景圖。因?yàn)楸尘皥D和目標(biāo)切片中的背景可以看作是同質(zhì)區(qū)域且二者通過同一個雷達(dá)成像,所以MSTAR數(shù)據(jù)集推薦利用目標(biāo)切片和背景合成含有目標(biāo)的場景圖。

      實(shí)驗(yàn)合成了2張待檢測場景圖,合成流程如圖4(a)所示;圖4(b)為帶有標(biāo)簽的合成場景1,包含10類總計(jì)34個目標(biāo),圖像尺寸為1478×1784(單位為像素);圖4(c)為合成場景2,包含10類總計(jì)17個目標(biāo),圖像尺寸為1474×1784(單位為像素)。

      圖4 場景圖像合成流程和合成場景圖Fig.4 Process of scene image synthesis and the results

      3.2 實(shí)驗(yàn)結(jié)果與分析

      3.2.1 相干斑抑制

      圖5所示為相干斑抑制結(jié)果。

      圖5 相干斑抑制結(jié)果Fig.5 Results of speckle suppression

      圖5(a)中海域數(shù)據(jù)分辨率比較低,紅框部分為局部放大圖,包括農(nóng)田和馬路,農(nóng)田的邊緣較為清晰。圖5(b)的農(nóng)田數(shù)據(jù)是經(jīng)過直方圖匹配合成的結(jié)果圖,去噪前的圖像(左)中存在著密密麻麻的相干斑噪聲,去噪后的圖像(右)中斑點(diǎn)被平滑,圖像整體對比度得到提升。圖5(c)為兩個場景圖相干斑抑制后的結(jié)果,相比于圖5(b),其區(qū)域更加平滑,目標(biāo)和背景區(qū)對比更明顯,有利于降低目標(biāo)檢測虛警率。

      3.2.2 目標(biāo)特征學(xué)習(xí)和檢測結(jié)果

      圖6所示為場景1目標(biāo)識別結(jié)果。

      圖6 場景1目標(biāo)識別結(jié)果Fig.6 Target detection results in Scenario 1

      圖6(a)為場景1的目標(biāo)檢測結(jié)果以及對應(yīng)的圖像掩模,實(shí)驗(yàn)結(jié)果表明,總共檢測出了43個目標(biāo)區(qū)域,其中包括6個虛警目標(biāo),無漏檢。

      圖7所示為場景2目標(biāo)識別結(jié)果。圖7(a)為場景2的目標(biāo)檢測結(jié)果和對應(yīng)圖像掩模,圖中共檢測出33個目標(biāo),其中包含14個虛警目標(biāo),無漏檢,幾乎所有的虛警目標(biāo)都出現(xiàn)在灌木叢內(nèi),由于灌木叢的灰度值比較大,且在整個場景中灌木叢的比例較高,因此導(dǎo)致較多虛警。

      圖7 場景2目標(biāo)識別結(jié)果Fig.7 Target detection results in Scenario 2

      圖6(b)和圖7(b)分別為場景1和場景2輸入到目標(biāo)檢測模塊通過后處理輸出的感興趣區(qū)域(ROI)以及對應(yīng)的圖像掩模,可以看出,此時(shí)的感興趣區(qū)域形狀為正方形,目標(biāo)之間有重疊。

      3.2.3 目標(biāo)識別結(jié)果

      識別結(jié)果如圖8所示。通過對分類器設(shè)置閾值來判別虛警,閾值為0.5,即當(dāng)前類別的概率大于0.5時(shí)判斷為真實(shí)類別,否則為虛警。結(jié)果顯示,場景1中虛警數(shù)量為0,且所有類別成功識別,場景2中虛警數(shù)量為1,僅左下角的樹叢識別有誤,其他類別全部準(zhǔn)確識別。

      圖8 識別結(jié)果圖Fig.8 Diagram of detection results

      本文對比了傳統(tǒng)CFAR算法,其實(shí)驗(yàn)結(jié)果如表1所示,通過比較2個場景下的檢測類別數(shù)量和真實(shí)類別數(shù)量,結(jié)果表明,本文提出的算法在識別不同場景下的目標(biāo)效果較好。傳統(tǒng)的CFAR算法在場景1和場景2中均出現(xiàn)虛警,而本文提出的算法在場景2中虛警數(shù)量為1,無漏警,達(dá)到了較好的識別效果。

      表1 不同檢測識別算法結(jié)果對比Table 1 Results of different detection algorithms

      4 總結(jié)與展望

      本文針對SAR圖像自動目標(biāo)識別問題展開了較為深入的研究,設(shè)計(jì)出一種基于深度卷積自編碼CNN的SAR圖像分類特征提取網(wǎng)絡(luò)框架,采用CFAR算法檢測出目標(biāo)位置的一系列感興趣區(qū)域,通過分類任務(wù)從訓(xùn)練數(shù)據(jù)中自動學(xué)習(xí)有效的分類特征。對于因數(shù)據(jù)多樣性不足帶來的網(wǎng)絡(luò)過擬合和泛化性能差的問題,基于Fisher判別準(zhǔn)則設(shè)計(jì)損失函數(shù),利用該損失函數(shù)對網(wǎng)絡(luò)權(quán)重進(jìn)行微調(diào),可以使網(wǎng)絡(luò)映射的特征空間中不同類別樣本之間的距離更離散,同類樣本更加聚集。訓(xùn)練好的網(wǎng)絡(luò)模型可以作為一個有效的分類特征。

      隨著深度學(xué)習(xí)技術(shù)的不斷深入發(fā)展,在普通圖像自動目標(biāo)識別領(lǐng)域已有諸多發(fā)展成熟的端到端優(yōu)化識別系統(tǒng),如何將這些算法和SAR圖像自動目標(biāo)識別結(jié)合起來是一個值得期待的研究方向。

      猜你喜歡
      卷積閾值分類
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      分類算一算
      小波閾值去噪在深小孔鉆削聲發(fā)射信號處理中的應(yīng)用
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      分類討論求坐標(biāo)
      基于自適應(yīng)閾值和連通域的隧道裂縫提取
      數(shù)據(jù)分析中的分類討論
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      教你一招:數(shù)的分類
      比值遙感蝕變信息提取及閾值確定(插圖)
      河北遙感(2017年2期)2017-08-07 14:49:00
      新邵县| 焦作市| 绵竹市| 大荔县| 志丹县| 靖江市| 鸡西市| 吴旗县| 忻城县| 教育| 广平县| 胶南市| 延川县| 凤山县| 尚义县| 东平县| 惠来县| 吉隆县| 土默特左旗| 台山市| 西林县| 彝良县| 南华县| 那曲县| 泊头市| 炎陵县| 柘城县| 焦作市| 南投县| 遂平县| 儋州市| 临夏县| 兴仁县| 博白县| 淳化县| 盐城市| 交口县| 澜沧| 凭祥市| 北流市| 册亨县|