湯浩+何楚
摘 要:傳統合成孔徑雷達(SAR)圖像基于粗分割像素塊提取相關特征,后接支持向量機(SVM)和馬爾可夫隨機場(MRF)或條件隨機場(CRF)進行分類,該方法存在同一像素塊內部不同類別像素的誤差,而且只考慮鄰近區(qū)域未充分用到全局信息和結構信息。故考慮基于像素點引入全卷積網絡(FCN),以ESAR衛(wèi)星圖像為樣本,基于像素點級別構建卷積網絡進行訓練,得到各像素的初始類別分類概率。為了考慮全局像素類別的影響后接CRF-循環(huán)神經網絡(CRF-RNN),利用FCN得到的初始概率,結合CRF結構得到全局像素類別轉移結果,之后進行RNN的迭代進一步優(yōu)化實驗結果。由于基于像素點和考慮了全局信息與結構信息,克服了傳統分類的部分缺點,使正確率較傳統SVM或CRF方法平均提高了約6.5個百分點。由于CRF-RNN的距離權重是用高斯核人為擬合的,不能隨實際訓練樣本來改變和確定,故存在一定誤差,針對該問題提出可訓練的全圖距離權重卷積網絡來改進CRF-RNN,最終實驗結果表明改進后方法的正確率較未改進的CRF-RNN又提高了1.04個百分點。
關鍵詞:全卷積網絡;條件隨機場循環(huán)神經網絡;全局信息;全圖距離權重
中圖分類號: TN957.52
文獻標志碼:A
文章編號:1001-9081(2016)12-3436-06