• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于深度學(xué)習(xí)的遙感影像小目標(biāo)檢測

      2020-06-22 01:09:44張青華谷國太李彩林王佳文
      河南水利與南水北調(diào) 2020年5期
      關(guān)鍵詞:特征提取卷積目標(biāo)

      張青華 谷國太 李彩林 王佳文

      (1山東理工大學(xué)建筑工程學(xué)院;2河南省新聞出版學(xué)校)

      1 引 言

      隨著航天事業(yè)的不斷發(fā)展,高分辨率遙感衛(wèi)星的數(shù)量越來越多,中國獲取遙感影像的方式越來越便捷,并且遙感影像因其較高的視角,包含十分豐富的位置信息、特征信息等。面對如此豐富的影像源,如何產(chǎn)生有效的社會效益是科研工作者面臨的一個挑戰(zhàn),其中遙感影像目標(biāo)檢測領(lǐng)域的研究一直都是研究熱點,在軍事偵察、城市規(guī)劃、環(huán)境檢測、智能交通、資源勘測等領(lǐng)域均有涉及。

      傳統(tǒng)的遙感影像目標(biāo)檢測方法:通常使用人工設(shè)計的特征描述子提取特征,然后訓(xùn)練一個分類器來達(dá)到目標(biāo)識別的任務(wù)。經(jīng)典的人工設(shè)計的特征主要有Harr 特征、局部二值模式(Local Binary Pattern,LBP)、尺度不變特征變化(Scale-invariant feature transform,SIFT)、方向梯度直方圖(Histogram of Oriented Gardient,HOG)等。常見的分類器有支持向量機(jī)(Support Vector Machine,SVM)、提升模型(Boosting)和AdaBoost 算法等。

      傳統(tǒng)的目標(biāo)檢測算法存在兩個主要弊端:第一,檢測效果的性能主要依賴于人工設(shè)計的特征描述子,但是特征描述子的設(shè)計存在很大的瓶頸;第二,傳統(tǒng)方法的滑動窗口算法對待檢測區(qū)域沒有針對性,存在大量的對檢測任務(wù)無效的冗余窗口,時間復(fù)雜度高。這兩個缺點制約了目標(biāo)檢測的精度與檢測速度,隨著海量數(shù)據(jù)的獲取越來越便利和GPU(Graphics Processing Unit,GPU)算力的顯著提升,基于深度學(xué)習(xí)的目標(biāo)檢測方法應(yīng)運(yùn)而生,并且在檢測性能方面超越傳統(tǒng)檢測算法,目前基于深度學(xué)習(xí)的目標(biāo)檢測算法主要分為基于候選區(qū)域和基于回歸思想的兩種檢測策略,基于候選區(qū)域思想的代表算法有R-CNN、SPP-Net、Fast R-CNN 和Faster R-CNN 等,基于回歸思想的代表算法有YOLO系列和SSD系列。

      隨著通用目標(biāo)檢測算法的發(fā)展,深度學(xué)習(xí)的目標(biāo)檢測方法在遙感影像的應(yīng)用也取得了較好的發(fā)展。文獻(xiàn)使用具有去噪能力的卷積神經(jīng)網(wǎng)絡(luò)對遙感影像中的車輛目標(biāo)進(jìn)行檢測。文獻(xiàn)利用改進(jìn)后的Faster R-CNN目標(biāo)檢測算法完成遙感影像中的車輛目標(biāo)檢測任務(wù)。文獻(xiàn)提出使用U-Net 卷積神經(jīng)網(wǎng)絡(luò)對遙感影像中的建筑物進(jìn)行檢測。文獻(xiàn)提出將ResNet網(wǎng)絡(luò)結(jié)構(gòu)作為特征提取網(wǎng)絡(luò)提取不同層級范圍的特征完成目標(biāo)檢測任務(wù)。文獻(xiàn)利用全卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)對遙感影像中的飛機(jī)目標(biāo)進(jìn)行檢測。文獻(xiàn)提出利用數(shù)據(jù)擴(kuò)充和上下文信息完成對遙感影像中的飛機(jī)目標(biāo)檢測任務(wù)。雖然目前深度學(xué)習(xí)的目標(biāo)檢測方法在遙感影像中已有較多的研究,但是針對遙感影像中的小目標(biāo)問題,存在漏檢和誤檢問題難以解決。

      綜合以上研究方法,文章以SSD目標(biāo)檢測框架為基礎(chǔ)進(jìn)行改進(jìn),完成高分辨率遙感影像的小目標(biāo)檢測任務(wù)。首先對特征提取網(wǎng)絡(luò)在公共數(shù)據(jù)集進(jìn)行預(yù)訓(xùn)練,然后增加SSD目標(biāo)檢測多尺度特征圖的檢測層級,同時采用Adam 的訓(xùn)練方法,使模型具有更好的擬合能力。

      2 特征提取網(wǎng)絡(luò)與模型

      2.1 VGG-16特征提取網(wǎng)絡(luò)

      VGG-16 網(wǎng)絡(luò)結(jié)構(gòu)最早由牛津大學(xué)Visual Geometry Group團(tuán)隊提出,并且在ImageNet2014奪得亞軍。該網(wǎng)絡(luò)結(jié)構(gòu)最大的特點就是使用了較小的卷積核和較為規(guī)整的網(wǎng)絡(luò)結(jié)構(gòu),網(wǎng)絡(luò)結(jié)構(gòu)包含5個大的卷積結(jié)構(gòu)(Block)和3個大的全連接層,而且所有的卷積層均使用3×3的卷積核,這樣不僅減少了網(wǎng)絡(luò)訓(xùn)練的參數(shù)量,而且可以堆疊出更深的網(wǎng)絡(luò)模型,提高網(wǎng)絡(luò)的分類能力,同時結(jié)合Dropout層來防止過擬合。整體的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

      圖1 VGG-16網(wǎng)絡(luò)結(jié)構(gòu)圖

      文章使用VGG-16網(wǎng)絡(luò)結(jié)構(gòu)作為特征提取網(wǎng)絡(luò),不僅可以獲得抽象能力更強(qiáng)的非線性特征,而且VGG-16網(wǎng)絡(luò)規(guī)整的網(wǎng)絡(luò)結(jié)構(gòu),更有利于進(jìn)行改進(jìn),嵌入完整的目標(biāo)檢測架構(gòu)。

      2.2 模型預(yù)訓(xùn)練與遷移學(xué)習(xí)

      根據(jù)卷積神經(jīng)網(wǎng)絡(luò)分層提取特征的特性,使用遷移學(xué)習(xí)的方式對特征提取網(wǎng)絡(luò)進(jìn)行預(yù)訓(xùn)練,可降低整體目標(biāo)檢測網(wǎng)絡(luò)的訓(xùn)練時間。文章的VGG-16 基礎(chǔ)網(wǎng)絡(luò)首先在ImageNet(A Large-Scale Hierarchical Image Database)數(shù)據(jù)集進(jìn)行預(yù)訓(xùn)練,獲得的預(yù)訓(xùn)練基礎(chǔ)網(wǎng)絡(luò)具有很好的圖像特征提取能力,然后將預(yù)訓(xùn)練完成的特征提取網(wǎng)絡(luò)嵌入整體目標(biāo)檢測架構(gòu),并作為遷移訓(xùn)練的初始模型參數(shù),然后通過DOTA數(shù)據(jù)集迭代回歸四個參數(shù)變量(Δcx,Δcy,Δw,Δh),達(dá)到目標(biāo)檢測的目的。

      在遷移訓(xùn)練過程中包括兩個損失函數(shù):一個是位置損失函數(shù)Lloc,進(jìn)行目標(biāo)的精確定位,;另一個是置信度損失Lconf,判斷預(yù)測框的分類概率。代價函就是上述兩類損失函數(shù)的加權(quán)平方和,具體計算公式如式(1):

      其中,N 是正樣本數(shù)量,λ為權(quán)重,如果N=0,則損失為0。x是所有默認(rèn)框的標(biāo)簽,如果第i個默認(rèn)框匹配到了第j個標(biāo)簽框,則xij=1,否則xij=0。定位損失Lloc為L1 平滑損失(Smooth L1):

      置信度損失Lconf是基于多個類別的置信度的softmax 損失。參數(shù)c代表某一類別的目標(biāo)與非目標(biāo)的置信度。

      式中字母含義同上。

      2.3 改進(jìn)后的SSD目標(biāo)檢測模型

      SSD 目標(biāo)檢測網(wǎng)絡(luò)的整體策略是在特征提取網(wǎng)絡(luò)不同尺度的特征提取層進(jìn)行分類回歸,完成對不同尺度大小的目標(biāo)進(jìn)行識別定位的任務(wù)。原始的SSD 檢測架構(gòu)是將VGG-16 基礎(chǔ)網(wǎng)絡(luò)在最后的全連接層處截斷,并添加Conv6、Conv7、Conv8_2、Conv9_2、Conv10_2、Conv11_2 卷積層,根據(jù)卷積神經(jīng)網(wǎng)絡(luò)分層提取特征的特性,原始SSD 檢測框架使用Conv4_3、Conv7、Conv8_2、Conv9_2、Conv10_2、Conv11_2 作為檢測層,由于小目標(biāo)在影像中的占比較小,隨著層層卷積的結(jié)構(gòu),容易出現(xiàn)小目標(biāo)特征信息的流失,因此原始SSD 目標(biāo)檢測網(wǎng)絡(luò)中僅僅使用Conv4_3作為特征檢測層是不夠的,改進(jìn)后的SSD目標(biāo)檢測算法增加Conv3_2作為特征檢測層,提高整體算法對小目標(biāo)的檢測能力。改進(jìn)后的整體網(wǎng)絡(luò)架構(gòu)如圖2所示。

      圖2 改進(jìn)后SSD目標(biāo)檢測模型圖

      2.4 基于Adam算法的損失函數(shù)優(yōu)化

      算法訓(xùn)練的目的是為了使損失函數(shù)值不斷減小進(jìn)而得到最佳訓(xùn)練模型。原始SSD算法使用SGD算法進(jìn)行損失函數(shù)的優(yōu)化,SGD是一種常用的損失函數(shù)優(yōu)化算法,但該算法的缺點是下降速度較慢,并可能收斂于某一局部最優(yōu)而不是全局最優(yōu)點。Adam算法相較于SGD主要優(yōu)勢在于可利用梯度的一階矩估計和二階矩估計動態(tài)調(diào)整每個參數(shù)的學(xué)習(xí)率,在經(jīng)過偏置校正后可使每一次迭代學(xué)習(xí)率都有個確定范圍,因此參數(shù)比較平穩(wěn),有利于收斂于全局最優(yōu)點。因此文章引入Aadm算法用于優(yōu)化損失函數(shù)。主要公式如下:

      3 實驗與分析

      3.1 實驗數(shù)據(jù)

      3.1.1 數(shù)據(jù)描述

      文章實驗數(shù)據(jù)集主要包括兩個數(shù)據(jù)集:ImageNet 數(shù)據(jù)集、DOTA數(shù)據(jù)集。

      ImageNet 數(shù)據(jù)集具有140 萬張標(biāo)記圖片,1 000 種不同類別,是針對圖像識別的全球最大公開數(shù)據(jù)集之一,利用該數(shù)據(jù)集進(jìn)行模型預(yù)訓(xùn)練可以使模型具有更好的泛化能力,并且加快遷移訓(xùn)練的速度。

      DOTA 數(shù)據(jù)集是包含2 806 張航空影像的公開數(shù)據(jù)集,由JL-1 衛(wèi)星、JL-2 衛(wèi)星和Google Earth 遙感拍攝所得,影像幅度很大,尺寸大約為800×800~4 000×4 000,主要包含兩大類目標(biāo):大型場地和各種可移動物體兩種類別;其中大型場地包含:游泳池、足球場、操場、環(huán)形交通樞紐、港口、棒球場、網(wǎng)球場、籃球場、橋等9 種場地;可移動物體包括:飛機(jī)、直升機(jī)、船舶、大型車輛、小型車輛和儲油罐等6個類別,共計15種類別,188 282個實例,由于拍攝高度較高,可移動物體多為中小目標(biāo)。

      3.1.2 數(shù)據(jù)預(yù)處理

      由于原始數(shù)據(jù)尺寸不一,首先將原始數(shù)據(jù)裁剪為512×512大小的圖像,數(shù)據(jù)增強(qiáng)采取隨機(jī)擾動、隨機(jī)裁剪、隨機(jī)擴(kuò)張及縮放等操作方式,然后將數(shù)據(jù)集劃分為訓(xùn)練集和測試集,訓(xùn)練集和測試集數(shù)據(jù)量比例滿足9:1的比例。

      3.2 實驗描述

      3.2.1 實驗環(huán)境

      實驗硬件環(huán)境為Intel Xeon E3-1220 v5 處理器、GTX1070 8G 顯卡、16G 內(nèi)存;實驗軟件環(huán)境為Ubuntu18.04 系統(tǒng)、tensorflow深度學(xué)習(xí)框架。

      3.2.2 精度評估方法

      使用平均精度(average precision,AP)來評估訓(xùn)練所得目標(biāo)檢測模型,計算公式如式(5):AP 的幾何意義即P-R 曲線與坐標(biāo)軸所圍面積,其中P(precision)表示訓(xùn)練精準(zhǔn)率,R(recall)表示訓(xùn)練召回率,具體計算公式如式(6):

      式中:TP表示正確識別為標(biāo)簽?zāi)繕?biāo)數(shù)量,F(xiàn)P 表示錯誤識別為標(biāo)簽?zāi)繕?biāo)數(shù)量,F(xiàn)N表示錯誤識別為非標(biāo)簽?zāi)繕?biāo)數(shù)量。

      3.2.3 速度評估方法

      使用每秒幀速(Frame Per Second,F(xiàn)PS)進(jìn)行評估,每秒幀速即每秒內(nèi)處理的影像數(shù)量,F(xiàn)PS 越大,速度越快。計算公式如式(7):

      式中:F為處理影像數(shù),S為處理時間,單位為s。

      3.2.4 超參數(shù)設(shè)定

      學(xué)習(xí)率策略采用Warm Up,初始學(xué)習(xí)率設(shè)置為0.01,batchsize為2,epoch設(shè)置為400。

      3.3 實驗對比分析

      3.3.1 改進(jìn)SSD算法訓(xùn)練分析

      分別進(jìn)行A、B兩組實驗:A組實驗為直接在DOTA數(shù)據(jù)集進(jìn)行訓(xùn)練得到的模型;B 組為首先將VGG-16 網(wǎng)絡(luò)在ImageNet數(shù)據(jù)集進(jìn)行預(yù)訓(xùn)練,然后在DOTA數(shù)據(jù)集進(jìn)行遷移訓(xùn)練得到的模型;最后將得到的模型分別在DOTA 測試集進(jìn)行檢測,具體檢測結(jié)果:A 組模型AP 值為7.06×10-1;B 組模型AP 值為7.53×10-1。分析可知,經(jīng)過模型預(yù)訓(xùn)練的模型在DOTA 數(shù)據(jù)集中具有更好的訓(xùn)練效果,該實驗充分說明了卷積神經(jīng)網(wǎng)絡(luò)在圖像特征提取中逐層提取特征的特性,同時證明了遷移學(xué)習(xí)的有效性。

      模型訓(xùn)練策略采用Adam 算法取代原來的SGD 算法進(jìn)行損失函數(shù)優(yōu)化。為分析Adam算法的有效性,文章分別用Adam和SGD兩種訓(xùn)練策略對SSD算法進(jìn)行訓(xùn)練,并在DOTA數(shù)據(jù)測試集進(jìn)行精度評定,結(jié)果如表1所示:

      表1 不同優(yōu)化算法性能對比

      由表1 中第一行數(shù)據(jù)和第二行數(shù)據(jù)的AP 值對比可知:在損失函數(shù)一致的情況下,使用Adam優(yōu)化算法的SSD512模型精度要高于使用SGD優(yōu)化算法的SSD512模型的精度,由此得出使用Adam 優(yōu)化算法得到的模型精度高于使用SGD 優(yōu)化算法得到的模型精度。

      3.3.2 改進(jìn)SSD算法性能分析

      為更好分析改進(jìn)后SSD算法的性能,同時利用訓(xùn)練集訓(xùn)練了原始SSD算法和YOLO算法作為對比,并在測試集進(jìn)行精度評定,檢測結(jié)果見表2。

      表2 不同算法在DOTA測試集檢測結(jié)果表

      通過對表2 中AP 數(shù)據(jù)分析可知,文章改進(jìn)后的檢測模型有效提高了模型的檢測精度,原因是將原始SSD檢測模型中的6 層特征檢測層增加了Conv3_2 特征提取層。對比表2 中FPS數(shù)據(jù)可知,改進(jìn)后的SSD 模型對比原始SSD 模型,檢測速度略有下降,可能原因是由于添加了新的檢測層,增加了模型的計算量,但總體而言模型對遙感影像的小目標(biāo)檢測具有一定程度的提升。

      圖3為經(jīng)過改進(jìn)后的SSD算法在DOTA測試集上的檢測效果。由圖3可知,針對飛機(jī)、船舶等小目標(biāo),該算法仍具有一定的檢測精度。對比圖3中的(a)和(d),容易發(fā)現(xiàn)船舶目標(biāo)的檢測精度沒有飛機(jī)目標(biāo)的檢測精度高,通過分析可知,船舶目標(biāo)與背景顏色十分相似,因此檢測難度更大。

      圖3 (a~c)檢測結(jié)果圖

      4 結(jié) 語

      文章通過對SSD算法進(jìn)行改進(jìn),將改進(jìn)后的SSD目標(biāo)檢測算法應(yīng)用于遙感影像小目標(biāo)檢測領(lǐng)域。針對遙感影像數(shù)據(jù)量不足的問題,采用遷移學(xué)習(xí)的方式,首先將特征提取網(wǎng)絡(luò)在ImageNet數(shù)據(jù)集上進(jìn)行模型預(yù)訓(xùn)練,得到具有較好特征提取能力的特征提取網(wǎng)絡(luò);然后將訓(xùn)練好的特征提取網(wǎng)絡(luò)嵌入改進(jìn)后的SSD目標(biāo)檢測架構(gòu)進(jìn)行遷移訓(xùn)練,同時在損失函數(shù)優(yōu)化過程中使用Adam算法取代SGD算法,最終使得檢測模型具有更好的檢測精度和檢測速度。實驗表明,改進(jìn)后SSD算法在遙感影像目標(biāo)較小的情況下,仍可以有效識別,一定程度解決了遙感影像中的小目標(biāo)檢測問題。但是算法存在對于遮擋目標(biāo)會出現(xiàn)漏檢、檢測精度低的問題,而且特征提取網(wǎng)絡(luò)對整體模型的檢測精度影響較大,因此如何設(shè)計更加有效的特征提取網(wǎng)絡(luò)將是以后的研究方向之一。

      猜你喜歡
      特征提取卷積目標(biāo)
      基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      基于Daubechies(dbN)的飛行器音頻特征提取
      電子制作(2018年19期)2018-11-14 02:37:08
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      Bagging RCSP腦電特征提取算法
      我們的目標(biāo)
      基于MED和循環(huán)域解調(diào)的多故障特征提取
      一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
      Walsh變換在滾動軸承早期故障特征提取中的應(yīng)用
      軸承(2010年2期)2010-07-28 02:26:12
      新目標(biāo)七年級(下)Unit?。尘毩?xí)(一)
      天等县| 甘洛县| 盐边县| 曲周县| 保康县| 兴海县| 土默特右旗| 芮城县| 陵川县| 明溪县| 于田县| 噶尔县| 道孚县| 怀远县| 浮梁县| 中卫市| 栖霞市| 张北县| 厦门市| 阿拉善盟| 台安县| 信阳市| 精河县| 肥西县| 平果县| 黄龙县| 内江市| 泾阳县| 娱乐| 合作市| 噶尔县| 南充市| 北川| 建德市| 乐平市| 东城区| 浠水县| 内乡县| 清流县| 连南| 隆尧县|