• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于視覺顯著性和卷積神經(jīng)網(wǎng)絡(luò)的機(jī)場目標(biāo)快速檢測

      2021-07-19 02:29:30張一民韓現(xiàn)偉張世超高偉
      航天返回與遙感 2021年3期
      關(guān)鍵詞:機(jī)場卷積直線

      張一民 韓現(xiàn)偉 張世超 高偉

      基于視覺顯著性和卷積神經(jīng)網(wǎng)絡(luò)的機(jī)場目標(biāo)快速檢測

      張一民 韓現(xiàn)偉*張世超 高偉

      (河南大學(xué)物理與電子學(xué)院,開封 475000)

      針對現(xiàn)有的機(jī)場目標(biāo)檢測算法用于大幅面遙感圖像時檢測速度慢、準(zhǔn)確率低的問題,文章提出了一種基于視覺顯著性和卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合的高效、精確的機(jī)場目標(biāo)檢測方法。首先,根據(jù)機(jī)場形狀特征,采用基于直線分布特征的視覺顯著性檢測方法提取候選區(qū)域,對機(jī)場的可能位置進(jìn)行粗定位;然后,設(shè)計(jì)了一種改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)分類模型判斷候選區(qū)域是否為機(jī)場;最后,使用非極大值抑制的方法去除冗余的預(yù)測框,獲得最終的檢測結(jié)果。利用從谷歌地球收集的圖像數(shù)據(jù)集對該神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練和測試,結(jié)果表明其在精準(zhǔn)率和召回率上均具有較大優(yōu)勢。此外,文章所提算法在來自不同衛(wèi)星平臺的大量大幅面遙感圖像上進(jìn)行了機(jī)場目標(biāo)檢測,結(jié)果顯示其適應(yīng)性強(qiáng)且檢測效率有大幅度提升。

      遙感圖像 機(jī)場目標(biāo) 視覺顯著性 卷積神經(jīng)網(wǎng)絡(luò) 遷移學(xué)習(xí) 遙感應(yīng)用

      0 引言

      近年來,機(jī)場目標(biāo)檢測作為遙感應(yīng)用的一個重要分支,在軍事偵察和民用導(dǎo)航領(lǐng)域均體現(xiàn)出較大的應(yīng)用價值。隨著科學(xué)技術(shù)的不斷發(fā)展,衛(wèi)星遙感圖像地面分辨率越來越高[1],圖像尺寸越來越大,靠人眼分析和解譯的難度也越來越高,另外對地觀測的遙感信息又有著較高的識別難度和時效性,所以借助于高性能計(jì)算機(jī)實(shí)現(xiàn)對遙感圖像快速準(zhǔn)確的識別成為了關(guān)鍵。目前,國內(nèi)外學(xué)者在機(jī)場目標(biāo)檢測領(lǐng)域已經(jīng)開展了大量的研究工作,得到多種有效的算法。這些算法大致可分為三類:一類是基于傳統(tǒng)特征匹配算法技術(shù)[2],另一類則是基于深度學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)特征識別提取,第三類是利用傳統(tǒng)方法進(jìn)行特征提取并利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行目標(biāo)識別[3-7]?;谔卣髌ヅ涞膫鹘y(tǒng)目標(biāo)識別技術(shù)存在很多弊端,受不同天氣、地域等環(huán)境因素的影響,待識別目標(biāo)常常與目標(biāo)模板圖像存在較大差異;利用傳統(tǒng)圖像匹配、定位的方法很難確保匹配的精度和識別的正確性。卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展起源于人工神經(jīng)網(wǎng)絡(luò),是處理圖像信息的一種多層感知器。近年來,基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測算法如RCNN[8]、Fast RCNN[9]在高分辨率圖像中的大目標(biāo)檢測領(lǐng)域取得了突破性的提升,該方法會對每個候選區(qū)域使用卷積神經(jīng)網(wǎng)絡(luò)提取特征,尤其對復(fù)雜圖像特征的提取?;谏疃葘W(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)特征識別提取算法通過低層的濾波器來獲取圖像的局部特征,利用高層的濾波器將這些局部特征組合成全局特征,整個過程都是通過網(wǎng)絡(luò)訓(xùn)練來獲得,不需要人工提取、設(shè)計(jì)目標(biāo)特征。第三類算法利用傳統(tǒng)方法對候選區(qū)域進(jìn)行特征篩選和提取,減少預(yù)測網(wǎng)絡(luò)的輸入數(shù)量,再利用卷積神經(jīng)網(wǎng)絡(luò)對提取的候選區(qū)域進(jìn)行識別、分類,使檢測速度得到進(jìn)一步加快。如文獻(xiàn)[10]、[11]對候選區(qū)域提取流程進(jìn)行了改進(jìn),利用機(jī)場的線性特征進(jìn)行了篩選,然后利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行目標(biāo)識別、提取;文獻(xiàn)[12]采用AdaBoost分類器代替RCNN,選擇性搜索目標(biāo)框來獲取候選區(qū)域;文獻(xiàn)[10]、[11]與文獻(xiàn)[12]都是通過減少候選框的輸入數(shù)量來加快卷積神經(jīng)網(wǎng)絡(luò)的檢測速度,以提高對應(yīng)的算法性能,但上述方法依然存在機(jī)場分類檢測準(zhǔn)確率低、耗時長等問題。

      針對大幅面遙感圖像機(jī)場檢測準(zhǔn)確率低、耗時長的問題,本文提出了一種基于視覺顯著性[13-14]和卷積神經(jīng)網(wǎng)絡(luò)的機(jī)場檢測算法。利用機(jī)場的直線顯著性特征替代Fast RCNN中選擇性搜索(Selective Search)候選區(qū)域生成方法,從而大大降低候選區(qū)域數(shù)量。采用VGG-16[15]作為主干特征提取網(wǎng)絡(luò),并改進(jìn)全連接層以更好的檢測機(jī)場目標(biāo)。相比其他同類機(jī)場檢測算法,本文算法在準(zhǔn)確性和效率方面有了大幅度提升。

      1 機(jī)場目標(biāo)檢測算法

      本文的機(jī)場目標(biāo)檢測算法以Fast RCNN為基本模型框架,以基于機(jī)場直線顯著性特征的候選框提取算法取代Fast RCNN中選擇性搜索候選區(qū)域生成方法對大幅面遙感圖像進(jìn)行候選區(qū)域提取;以改進(jìn)的VGG-16模型作為分類模型,實(shí)現(xiàn)機(jī)場目標(biāo)的分類;最后,將機(jī)場目標(biāo)在原遙感圖像中進(jìn)行映射定位。本文算法主要由2部分組成:首先,利用基于直線段加權(quán)長度密度分布的視覺顯著性[14]進(jìn)行機(jī)場可能區(qū)域的粗提取,得到大大減少的候選區(qū)域。然后,以VGG-16卷積神經(jīng)網(wǎng)絡(luò)[16]為基礎(chǔ),保持模型主干特征提取網(wǎng)絡(luò)的結(jié)構(gòu)不變,分別對全連接層的層數(shù)、神經(jīng)元個數(shù)、分類數(shù)進(jìn)行調(diào)整;利用遷移學(xué)習(xí)[17]思想,保持主干特征網(wǎng)絡(luò)參數(shù)不變,對改進(jìn)的全連接層進(jìn)行參數(shù)訓(xùn)練。算法整體流程如圖1所示,下文將分別論述基于視覺顯著性的候選區(qū)域定位和改進(jìn)的VGG-16卷積神經(jīng)網(wǎng)絡(luò)。

      圖1 本文算法流程

      1.1 基于視覺顯著性的機(jī)場區(qū)域定位

      高分辨遙感圖像由于數(shù)據(jù)量大、背景復(fù)雜,且待識別的目標(biāo)通常只占很少比例。采用選擇性搜索方法在每幅圖像上提取約2000個目標(biāo)候選區(qū)域[18],這些區(qū)域中只有非常少的一部分包含目標(biāo),并且大部分候選區(qū)域與目標(biāo)差異較大,利用簡單的目標(biāo)特征就能排除。RCNN、Fast RCNN等模型針對大幅面遙感圖像機(jī)場檢測時存在耗時長、計(jì)算量大、效率低等問題。針對機(jī)場所具有的直線特征,本文采用以直線加權(quán)長度密度分布為基礎(chǔ)的視覺顯著性模型來檢測圖像中的顯著性區(qū)域,以減少目標(biāo)候選框,提高目標(biāo)識別效率。

      遙感圖像的空間分辨率對不同類型目標(biāo)檢測的準(zhǔn)確性有著很大的影響[19-21]。對于機(jī)場目標(biāo)而言,當(dāng)分辨率較高時,很多小地物目標(biāo)的直線特征會突顯,從而增加候選區(qū)域的數(shù)量,增大后期目標(biāo)判別的計(jì)算量,降低算法效率。因此,本文首先對輸入的高分辨率遙感圖像根據(jù)圖像進(jìn)行降采樣,使圖像的空間分辨率達(dá)到10m左右,這樣既可以有效檢測機(jī)場目標(biāo),又能夠提高算法效率。將降采樣后的圖像進(jìn)行預(yù)處理,采用多通道融合算法[22]進(jìn)行去噪、灰度化,根據(jù)機(jī)場跑道灰度值較高的特征,選擇伽馬變換對圖像進(jìn)行增強(qiáng),以強(qiáng)化圖像高灰度部分的邊緣信息。對預(yù)處理后的圖像進(jìn)行直線段提取,然后再利用直線段加權(quán)長度分布密度顯著性進(jìn)行機(jī)場可能區(qū)域提取。具體步驟如圖2所示。

      圖2 基于直線段分布密度的顯著圖提取流程

      1.1.1 基于直線特征的顯著性檢測

      (1)直線段檢測與連接

      2)共線性。當(dāng)兩條直線段的傾斜角度1、2差值Δ小于某一閾值2時,認(rèn)為它們可能共線。

      圖3 直線擬合誤差定義

      當(dāng)上述三個條件同時滿足時,可認(rèn)為直線段1、2屬于同一條直線段,將它們連接起來形成一條新的直線段。

      (2)顯著圖計(jì)算

      直線段檢測、連接完成之后,利用式(1)構(gòu)造加權(quán)線段長度分布圖w

      式中map(,)為圖像各像素點(diǎn)的梯度值;map(,)為圖像中大于設(shè)定閾值長度的直線段構(gòu)造出的直線段檢測圖;L為各線段長度數(shù)組。

      式中為鄰域半徑;(,)為線段w上任意一點(diǎn)。

      計(jì)算直線w上所有像素點(diǎn)的能量值,并對能量值進(jìn)行歸一化,即用各點(diǎn)能量值除以能量值的最大值。為了以灰度圖像(一般灰度圖像最大灰度值為255)來顯示該歸一化結(jié)果,將歸一化的值再乘以255,得到最終的直線段長度密度分布顯著圖S(,),即

      1.1.2 候選區(qū)域生成

      得到顯著圖之后,機(jī)場目標(biāo)候選區(qū)域按照如下步驟獲得:1)將顯著圖S進(jìn)行閾值分割,得到二值圖像mark;2)對二值圖像mark進(jìn)行連通區(qū)域標(biāo)記(以白色為目標(biāo)區(qū)域),去除面積較小的目標(biāo)區(qū)域,得到顯著二值圖像ROI;3)根據(jù)直線段連接的結(jié)果,查看顯著二值圖像ROI中每個目標(biāo)區(qū)域的外接矩形Rect中所包含的直線段端點(diǎn),找出這些端點(diǎn)所對應(yīng)的所有直線段,將這些直線段和Rect外接矩形作為一個候選區(qū)域。

      1.2 基于改進(jìn)VGG-16的機(jī)場識別

      VGG-16是由牛津大學(xué)的K.Simonyan和A.Zisserman提出的卷積神經(jīng)網(wǎng)絡(luò)模型,該模型詮釋了隱藏層增多對預(yù)測精度的提高有幫助,在ImageNet數(shù)據(jù)集中達(dá)到了92.7%的測試精度。ImageNet數(shù)據(jù)集的圖像超過1 400萬幅,共1 000個類別。VGG-16是一個包含多個隱藏層的深度卷積神經(jīng)網(wǎng)絡(luò),其所有卷積層有相同的配置,即卷積核大小為3×3,步長為1,共有5個最大池化層,大小都為2×2,步長為2;共有三個全連接層,前兩層都有4 096個神經(jīng)元,第三層共1 000個神經(jīng)元代表1 000個標(biāo)簽類別。

      獲得候選區(qū)域之后,本文采用VGG-16網(wǎng)絡(luò)作為Fast RCNN的分類網(wǎng)絡(luò)進(jìn)行區(qū)域特征提取并分類識別。保持VGG-16卷積層和池化層網(wǎng)絡(luò)模型參數(shù)不變,對全連接層網(wǎng)絡(luò)模型進(jìn)行參數(shù)調(diào)整。本文將VGG-16網(wǎng)絡(luò)第一層全連接層神經(jīng)元個數(shù)由4 096改為1 024,添加dropout層,防止過擬合,并去掉第二層全連接層,最后的預(yù)測層神經(jīng)元個數(shù)為2,只對機(jī)場進(jìn)行單一目標(biāo)識別和判斷。

      全連接層模型是通過有標(biāo)簽樣本學(xué)習(xí)來確定自定義全連接層層數(shù)、神經(jīng)元個數(shù)。在監(jiān)督式學(xué)習(xí)中,機(jī)器學(xué)習(xí)算法通過學(xué)習(xí)多個樣本,并不斷嘗試找出可以最大限度減少損失的模型,這一過程稱之為經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化。保持VGG-16的卷積層和池化層模型結(jié)構(gòu)、參數(shù)不變,利用遷移學(xué)習(xí)方法對全連接層進(jìn)行參數(shù)訓(xùn)練。通過自定義訓(xùn)練過程可視化函數(shù),獲取訓(xùn)練過程的可視化準(zhǔn)確率,以該數(shù)據(jù)判斷網(wǎng)絡(luò)是否存在過擬合等情況,對網(wǎng)絡(luò)模型進(jìn)行改進(jìn)調(diào)整以確定最終的全連接層。當(dāng)前自定義模型改進(jìn)調(diào)整方式主要采用增加全連接層層數(shù)和增加全連接層的神經(jīng)元個數(shù)兩種方式。模型訓(xùn)練具體流程如圖4所示。當(dāng)其損失值和準(zhǔn)確率達(dá)到預(yù)期要求,并且隨著全連接層和神經(jīng)元個數(shù)變化,損失值和準(zhǔn)確率沒有明顯改善時,即可將模型應(yīng)用于實(shí)際目標(biāo)分類。

      圖4 模型訓(xùn)練過程

      2 試驗(yàn)結(jié)果與分析

      本文選用大幅面高分辨率遙感衛(wèi)星圖像來評估提出方法的性能。試驗(yàn)數(shù)據(jù)源包括Google Earth、WorldView-3衛(wèi)星和“高景一號”衛(wèi)星,其中從Google Earth上收集1000張遙感衛(wèi)星圖像,用于卷 積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練、驗(yàn)證和測試;收集來自Google Earth、WorldView-3衛(wèi)星和“高景一號”衛(wèi)星的100張包含機(jī)場的全色圖像,用于評估本文算法對不同衛(wèi)星平臺、不同位深度和不同分辨率圖像的適用性。

      2.1 顯著性區(qū)域提取實(shí)驗(yàn)

      將Google Earth上收集的1000張分辨率為10m、圖像大小在1500×1500像素到3000×3000像素之間的包含機(jī)場的遙感衛(wèi)星圖像,進(jìn)行基于視覺顯著性算法候選區(qū)域的提取。其中直線段連接采用的規(guī)則為:1)鄰近性,兩條直線段4個端點(diǎn)之間的最短距離st1<15像素;2)共線性,兩條直線段的傾斜角度1、2差值Δ<0.4;3)擬合誤差,st2=max(1,2)<2像素。對加權(quán)線段長度w>20像素的線段進(jìn)行提取,并根據(jù)式(2)計(jì)算像素能量值,根據(jù)式(3)對像素值進(jìn)行歸一化,得到直線段長度密度分布顯著圖,最后進(jìn)行二值化等相關(guān)操作獲得候選區(qū)域,并將候選區(qū)域提取結(jié)果在原圖上進(jìn)行標(biāo)注。圖5為某一提取實(shí)例關(guān)鍵環(huán)節(jié)的處理結(jié)果,其中圖5(d)為檢測獲得的顯著圖,顯著圖中的顏色越亮,表示顯著性越高。圖6為對應(yīng)圖5的候選區(qū)域檢測結(jié)果,可以發(fā)現(xiàn)機(jī)場區(qū)域在顯著圖中表現(xiàn)出較高的顯著性而被準(zhǔn)確地提取處理。根據(jù)機(jī)場不同的地理位置,以及周圍的環(huán)境,候選區(qū)域個數(shù)也會有所差別。1000張包含機(jī)場的遙感圖像集經(jīng)過基于直線的顯著性提取得到約18 400個候選區(qū)域。不同大小的圖像提取的平均候選區(qū)域個數(shù)如表1所示,由表1可知候選區(qū)域個數(shù)隨著圖像的大小的提升也會相應(yīng)的增加。

      圖5 直線段密度分布顯著性檢測

      圖6 顯著性線性目標(biāo)提取

      表1 候選區(qū)域個數(shù)

      Tab.1 Number of candidate regions

      2.2 本文神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練與測試

      2.2.1 數(shù)據(jù)準(zhǔn)備

      采用谷歌第二代機(jī)器學(xué)習(xí)系統(tǒng)TensorFlow 提供的tf.data模塊,進(jìn)行數(shù)據(jù)集構(gòu)建,數(shù)據(jù)集分為訓(xùn)練集、驗(yàn)證集和測試集。具體步驟為:1)讀取圖像文件,采用one hot編碼方式構(gòu)建標(biāo)簽數(shù)據(jù)集,設(shè)置機(jī)場區(qū)域的one hot標(biāo)簽為1,背景區(qū)域的one hot標(biāo)簽為0;2)將圖片尺寸歸一化為224像素×224像素大小,并標(biāo)準(zhǔn)化,以防止圖像像素值差別過大而導(dǎo)致無法進(jìn)行特征訓(xùn)練;3)亂序,將數(shù)據(jù)集打亂,以便模型網(wǎng)絡(luò)可以更好的提取特征;4)將數(shù)據(jù)集按照訓(xùn)練集、驗(yàn)證集和測試集所占比例進(jìn)行劃分。經(jīng)過以上4步,數(shù)據(jù)集準(zhǔn)備完成。

      2.2.2 確定VGG-16網(wǎng)絡(luò)結(jié)構(gòu)

      使用上述數(shù)據(jù)集構(gòu)建方法,進(jìn)行小樣本數(shù)據(jù)集構(gòu)建,對不同全連接層的神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,以確定全連接層結(jié)構(gòu)。在相同的數(shù)據(jù)樣本(訓(xùn)練集480張、驗(yàn)證集120張、測試集50張)、不同的全連接層神經(jīng)元個數(shù)和層數(shù)條件下,通過試驗(yàn)得到模型的準(zhǔn)確率結(jié)果如表2所示。

      表2 不同條件訓(xùn)練結(jié)果

      Tab.2 Training results under different conditions

      由表2可知,當(dāng)模型的準(zhǔn)確率較高時,通過增加全連接層數(shù)和增加神經(jīng)元個數(shù)對模型進(jìn)行改善,其改善作用較小,甚至?xí)斐蛇^擬合。

      2.2.3 模型訓(xùn)練與驗(yàn)證

      將視覺顯著性提取得到的18 400個候選區(qū)域,按照機(jī)場和非機(jī)場區(qū)域1∶1的比例選出1000張圖像,進(jìn)行數(shù)據(jù)集構(gòu)建,其中訓(xùn)練集、驗(yàn)證集和測試集數(shù)量分別是600、200、200。對確定好的VGG-16卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,圖7是經(jīng)過50次訓(xùn)練后的損失函數(shù)和準(zhǔn)確率曲線。由圖7可知,模型驗(yàn)證集的準(zhǔn)確率在96%上下波動。將測試集數(shù)據(jù)傳入神經(jīng)網(wǎng)絡(luò),得到的識別準(zhǔn)確率為98.0%。

      圖7 損失值和準(zhǔn)確率曲線

      2.3 機(jī)場檢測算法測試

      將來自不同衛(wèi)星平臺的100張遙感圖像使用本文的機(jī)場檢測算法進(jìn)行測試,驗(yàn)證算法的可行性。首先,對傳入的圖像根據(jù)尺寸大小進(jìn)行降采樣,使其空間分辨率達(dá)到10m左右。然后,進(jìn)行基于視覺顯著性的候選區(qū)域提取,表3為選取的4張不同衛(wèi)星平臺、不同分辨率遙感圖像的相關(guān)信息,圖8給出了這些圖像對應(yīng)的候選區(qū)域提取結(jié)果。由提取結(jié)果可知,機(jī)場因其直線顯著性,可被準(zhǔn)確的提取到候選區(qū)域。將提取的候選區(qū)域傳入訓(xùn)練好的VGG-16卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行機(jī)場分類識別,其中機(jī)場區(qū)域分類的結(jié)果如圖9所示。由圖9可知,改進(jìn)的VGG-16網(wǎng)絡(luò)可準(zhǔn)確的識別并提取出機(jī)場區(qū)域。由圖10所示的最終的檢測結(jié)果可知,本文的改進(jìn)Fast RCNN算法可高效、準(zhǔn)確的檢測出機(jī)場區(qū)域。

      針對同一幅影像,F(xiàn)ast RCNN模型、文獻(xiàn)[11]的改進(jìn)Fast RCNN模型需要計(jì)算的候選區(qū)域數(shù)量分別約為2000、200,而本文方法僅約20,在檢測效率方面具有極大優(yōu)勢。表4給出了本文方法與文獻(xiàn)[9]改進(jìn)的Fast RCNN算法在測試性能方面的對比,其中檢測時間為算法在測試集圖像上執(zhí)行10次之后得到的每幅圖像檢測的平均時間。結(jié)果表明,與Fast RCNN模型及其同類計(jì)算模型相比,本文算法在檢測效率和準(zhǔn)確率上均有較大幅度的提高。這是由于基于直線分布特征的視覺顯著性模型計(jì)算速度快,而且大大減少了候選區(qū)域的數(shù)量,使得后續(xù)的VGG-16卷積神經(jīng)網(wǎng)絡(luò)能夠快速完成目標(biāo)分類,整體上提高了算法效率。

      表3 測試圖像信息

      Tab.3 Test image information

      圖8 顯著性線性目標(biāo)提取

      圖9 預(yù)測結(jié)果

      圖10 目標(biāo)檢測結(jié)果

      表4 算法性能比較

      Tab.4 Algorithm performance comparison

      1)注:改進(jìn)算法可參見文獻(xiàn)[9]

      3 結(jié)束語

      本文提出了一種基于直線分布特征的視覺顯著性模型結(jié)合卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行機(jī)場目標(biāo)快速檢測的方法,能夠在大幅面高分辨率遙感影像中,實(shí)現(xiàn)對不同類別機(jī)場目標(biāo)的快速準(zhǔn)確定位。首先使用視覺顯著性算法提取候選區(qū)域?qū)崿F(xiàn)目標(biāo)粗定位,使得到的候選區(qū)域大大減少;然后對預(yù)訓(xùn)練VGG-16網(wǎng)絡(luò)模型進(jìn)行微調(diào),使網(wǎng)絡(luò)更加準(zhǔn)確、快速地實(shí)現(xiàn)機(jī)場目標(biāo)分類;將提取的候選區(qū)域傳入訓(xùn)練好的神經(jīng)網(wǎng)絡(luò),完成機(jī)場的分類識別。試驗(yàn)結(jié)果表明,本文算法在不同衛(wèi)星平臺的影像上都有較好的適應(yīng)性,均獲得了較高的準(zhǔn)確率和識別率;改進(jìn)后的RCNN網(wǎng)絡(luò)適應(yīng)性更強(qiáng),功能更加專一化,使網(wǎng)絡(luò)對機(jī)場目標(biāo)識別能力明顯增強(qiáng)。該方法與RCNN和同類算法相比,具有更好的性能和更高的效率,是高分辨率遙感圖像機(jī)場目標(biāo)識別的一個有效解決方案。

      [1] 李智勇, 董世永, 楊效軍. 衛(wèi)星可見光遙感圖像異常原因分析方法初探[J]. 航天返回與遙感, 2009, 30(1): 33-37.

      LI Zhiyong, DONG Shiyong, YANG Xiaojun. Problem Location Method Research for Satellite Panchromatic Imaging[J]. Spacecraft Recovery & Remote Sensing, 2009, 30(1): 33-37. (in Chinese)

      [2] 林升, 扈嘯, 陳躍躍. 基于卷積神經(jīng)網(wǎng)絡(luò)的機(jī)場圖像目標(biāo)識別[C]//第二十一屆計(jì)算機(jī)工程與工藝年會暨第七屆微處理器技術(shù)論壇. 廈門: 中國計(jì)算機(jī)學(xué)會計(jì)算機(jī)工程與工藝專業(yè)委員會, 2017.

      LIN Sheng, HU Xiao, CHEN Yueyue. Airport Image Target Recognition Based on Convolutional Neural Network[C]//The 21st Annual Conference of Computer Engineering and Technology and the 7th Microprocessor Technology Forum.Xiamen: Computer Engineering and Technology Professional Committee of China Computer Society, 2017.

      [3] HAN P, ZOU C, HAN B B, et al. Airport Runway Area Detection Based on Multi-feature Optimization in PolSAR Images[C]//2018 IEEE/AIAA 37th Digital Avionics Systems Conference (Dasc), 2018: 553-557.

      [4] ZHANG Y, YUAN Y, FENG Y, et al. Hierarchical and Robust Convolutional Neural Network for Very High-resolution Remote Sensing Object Detection[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(8): 5535-5548.

      [5] LI S, XU Y L, ZHU M M, et al. Remote Sensing Airport Detection Based on End-to-end Deep Transferable Convolutional Neural Networks[J]. IEEE Geoscience and Remote Sensing Letters, 2019, 16(10): 1640-1644.

      [6] HU Y Q, CAO Y F, DING M, et al. Airport Detection for Fixed-wing Unmanned Aerial Vehicle Landing Using a Hierarchical Architecture[J]. Journal of Aerospace Information Systems, 2019, 16(6): 214-223.

      [7] ZHANG Q J, ZHANG L B, SHI W Q, et al. Airport Extraction Via Complementary Saliency Analysis and Saliency-oriented Active Contour Model[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 15(7): 1085-1089.

      [8] GIRSHIICK R B, DONAHUE J, DARRELL T, et al. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2014: 580-587.

      [9] GIRSHICK R. Fast R-CNN[C]//IEEE International Conference on Computer Vision, Santiago, Chile, 2015: 1440-1448.

      [10] 牛新, 竇勇, 張鵬, 等. 基于深度學(xué)習(xí)的光學(xué)遙感機(jī)場與飛行器目標(biāo)識別技術(shù)[J]. 大數(shù)據(jù), 2016, 2(5): 54-67.

      NIU Xin, DOU Yong, ZHANG Peng, et al. Airport and Flight Recognition on Optical Remote Sensing Data by Deep Learning[J]. Big Data Research, 2016, 2(5): 54-67. (in Chinese)

      [11] 張作省, 楊程亮, 朱瑞飛, 等. 聯(lián)合深度卷積神經(jīng)網(wǎng)絡(luò)的遙感影像機(jī)場識別算法[J]. 電光與控制, 2018, 25(6): 83-89.

      ZHANG Zuoxing, YANG Chengliang, ZHU Ruifei, et al. An Algorithm for Recognition of Airport in Remote Sensing Image Based on DCNN Model[J]. Electronics Optics and Control, 2018, 25(6): 83-89. (in Chinese)

      [12] 殷文斌, 王成波, 袁翠, 等. 一種飛機(jī)目標(biāo)的遙感識別方法[J]. 測繪通報(bào), 2017(3): 34-37.

      YIN Wenbin, WANG Chengbo, YUAN Cui, et al. A Method of Aircraft Recognition in Remote Sensing Images[J]. Bulletin of Surveying and Mapping, 2017(3): 34-37. (in Chinese)

      [13] 李曉斌, 江碧濤, 楊淵博, 等. 光學(xué)遙感圖像目標(biāo)檢測技術(shù)綜述[J]. 航天返回與遙感, 2019, 40(4): 95-104.

      LI Xiaobin, JIANG Bitao, YANG Yuanbo, et al. A Survey on Object Detection Technology in Optical Remote Sensing Images[J]. Spacecraft Recovery & Remote Sensing, 2019, 40(4): 95-104. (in Chinese)

      [14] 韓現(xiàn)偉. 大幅面可見光遙感圖像典型目標(biāo)識別關(guān)鍵技術(shù)研究[D]. 哈爾濱: 哈爾濱工業(yè)大學(xué), 2013.

      HAN Xianwei. Study on Key Technology of Typcal Targets Recognition from Large-field Optical Remote Sensing Images[D]. Harbin: Harbin Institute of Technology, 2013. (in Chinese)

      [15] SIMONYAN K, ZISSERMAN A. Very Deep Convolutional Networks for Large-scale Image Recognition[C]//International Conference on Learning Representations, 2015.

      [16] 范麗麗, 趙宏偉, 趙浩宇, 等. 基于深度卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測研究綜述[J]. 光學(xué)精密工程, 2020, 28(5): 1152-1164.

      FAN Lili, ZHAO Hongwei, ZHAO Haoyu, et al. Survey of Target Detection Based on Deep Convolutional Neural Networks[J]. Optics and Precision Engineering, 2020, 28(5): 1152-1164. (in Chinese)

      [17] PAN S J, YANG Q. A Survey on Transfer Learning[J]. IEEE Transactions on Knowledge and Data Engineering, 2010, 22(10): 1345-1359.

      [18] DE SANDE V, KOEN E A, et al. Segmentation as Selective Search for Object Recognition[C]//IEEE International Conference on Computer Vision, ICCV, 2011.

      [19] HUANG J, RATHOD V, SUN C, et al. Speed/Accuracy Trade-offs for Modern Convolutional Object Detectors[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017: 7310-7311.

      [20] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. Imagenet Classification with Deep Convolutional Neural Networks [C]//Advances in Neural Information Processing Systems, 2012: 1097-1105.

      [21] SINGH B, DAVIS L S. An Analysis of Scale Invariance in Object Detection Snip[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018: 3578-3587.

      [22] 張炳先, 李巖, 何紅艷. 基于多通道融合的遙感影像電子學(xué)噪聲去除方法[J]. 航天返回與遙感, 2020, 41(2): 116-121.

      ZHANG Bingxian, LI Yan, HE Hongyan. Electronic Noise Removal Method for Remote Sensing Image Based on Multi-channel Fusion[J]. Spacecraft Recovery & Remote Sensing, 2020, 41(2): 116-121. (in Chinese)

      Rapid Detection of Airport Targets Based on Visual Saliency and Convolutional Neural Network

      ZHANG Yimin HAN Xianwei*ZHANG Shichao GAO Wei

      (School of Physics and Electronics, Henan University, Kaifeng 475000, China)

      To address the problems of slow detection speed and low accuracy when the existing airport target detection algorithms are applied to large-scale remote sensing images, this paper proposes an efficient and accurate airport target detection method based on visual saliency detection and convolutional neural network. Firstly, according to the shape characteristics of the airports, a visual saliency detection method based on the line segments distribution characteristics is used to extract the candidate regions, and the possible positions of the airport are roughly located. Then, an improved classification model based on a convolutional neural network is designed to determine whether the candidate region is an airport. Finally, the non-maximum suppression method is utilized to remove the redundant prediction bounding boxes. In the experiments, the data- set collected from Google Earth is used to train and test the network model in this paper, and the results show that the model has great advantages in both precision and recall rate. In addition, the presented algorithm in this paper is used to detect airport targets on a large number of large-scale remote sensing images from different satellite platforms. The experimental results indicate that the algorithm has strong adaptability and the detection efficiency has been greatly improved.

      remote sensing image; airport targets; visual saliency;convolutional neural network; transfer learning; remote sensing application

      P407.8

      A

      1009-8518(2021)03-0117-11

      10.3969/j.issn.1009-8518.2021.03.013

      2020-07-16

      張一民, 韓現(xiàn)偉, 張世超, 等. 基于視覺顯著性和卷積神經(jīng)網(wǎng)絡(luò)的機(jī)場目標(biāo)快速檢測[J]. 航天返回與遙感, 2021, 42(3): 117-127. ZHANG Yimin, HAN Xianwei, ZHANG Shichao, et al. Rapid Detection of Airport Targets Based on Visual Saliency and Convolutional Neural Network[J]. Spacecraft Recovery & Remote Sensing, 2021, 42(3): 117-127. (in Chinese)

      張一民,男,1963年生,2002年獲日本岡山大學(xué)博士學(xué)位,副教授。研究方向?yàn)橛?jì)算機(jī)視覺、智能控制。E-mail:zhangyimin@henu.eud.cn。

      韓現(xiàn)偉,男,1982年生,2013年獲哈爾濱工業(yè)大學(xué)機(jī)械電子工程專業(yè)博士學(xué)位,副教授。研究方向?yàn)檫b感圖像處理。E-mail: xianweihan@163.com。

      (編輯:夏淑密)

      猜你喜歡
      機(jī)場卷積直線
      機(jī)場罷工
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      如何避免GSM-R無線通信系統(tǒng)對機(jī)場電磁干擾
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      畫直線
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      面部識別使機(jī)場安檢提速
      兩條直線 變變變
      畫直線
      最有創(chuàng)意的機(jī)場
      镇雄县| 沈阳市| 成武县| 历史| 墨竹工卡县| 威信县| 武山县| 乐陵市| 新化县| 卓尼县| 万源市| 屏南县| 罗山县| 卓资县| 玉树县| 瑞金市| 锡林郭勒盟| 盐山县| 曲麻莱县| 顺平县| 广东省| 洛南县| 监利县| 泸溪县| 衡南县| 朝阳市| 沾益县| 梅河口市| 罗甸县| 河间市| 平罗县| 漳平市| 梅州市| 深州市| 筠连县| 岚皋县| 湟源县| 若羌县| 乌兰察布市| 宾阳县| 洛扎县|