• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      光學(xué)遙感圖像目標(biāo)檢測(cè)技術(shù)綜述

      2019-10-12 08:59:38李曉斌江碧濤楊淵博傅雨澤岳文振
      航天返回與遙感 2019年4期
      關(guān)鍵詞:艦船光學(xué)文獻(xiàn)

      李曉斌 江碧濤 楊淵博 傅雨澤 岳文振

      光學(xué)遙感圖像目標(biāo)檢測(cè)技術(shù)綜述

      李曉斌1,2江碧濤1楊淵博1傅雨澤1岳文振1

      (1 北京市遙感信息研究所,北京 100192)(2 清華大學(xué)電子工程系,北京 100084)

      目標(biāo)檢測(cè)是光學(xué)遙感圖像分析的重要內(nèi)容,是將圖像數(shù)據(jù)轉(zhuǎn)化為應(yīng)用成果的關(guān)鍵一環(huán)。文章重點(diǎn)針對(duì)光學(xué)遙感圖像中常見的飛機(jī)、艦船等目標(biāo),對(duì)目標(biāo)檢測(cè)技術(shù)進(jìn)行了系統(tǒng)總結(jié),并對(duì)未來重點(diǎn)發(fā)展方向進(jìn)行了展望。重點(diǎn)論述的內(nèi)容包括目標(biāo)檢測(cè)方法、目標(biāo)檢測(cè)性能評(píng)價(jià)準(zhǔn)則和數(shù)據(jù)集,其中對(duì)于目標(biāo)檢測(cè)方法,從候選區(qū)域選擇、特征學(xué)習(xí)、分類和后處理等四個(gè)方面進(jìn)行了詳細(xì)介紹。期望這些技術(shù)成果的總結(jié)分析和展望對(duì)目標(biāo)檢測(cè)技術(shù)的應(yīng)用提供一定的借鑒和參考。

      目標(biāo)檢測(cè)方法 飛機(jī)檢測(cè) 艦船檢測(cè) 分類 遙感圖像

      0 引言

      按成像譜段不同,光學(xué)遙感圖像可分為可見光、紅外和高光譜圖像。光學(xué)遙感圖像目標(biāo)檢測(cè)是指利用特定的算法從圖像中搜索并標(biāo)記出感興趣的目標(biāo),包括建筑物、道路、飛機(jī)、艦船和車輛等。目標(biāo)檢測(cè)是光學(xué)遙感圖像分析的重要內(nèi)容,是城市規(guī)劃、土地利用、機(jī)場(chǎng)和港口監(jiān)測(cè)等應(yīng)用的重要基礎(chǔ)。近年來,光學(xué)遙感成像技術(shù)迅猛發(fā)展,Pleiades、WorldView-3、“高分二號(hào)”、“高景一號(hào)”等光學(xué)遙感衛(wèi)星相繼發(fā)射,源源不斷地提供著海量高分辨率圖像,為目標(biāo)檢測(cè)技術(shù)的發(fā)展帶來了新的機(jī)遇和挑戰(zhàn)。所謂機(jī)遇是指海量圖像為目標(biāo)檢測(cè)技術(shù)的發(fā)展提供了重要的數(shù)據(jù)源;挑戰(zhàn)是指圖像分辨率越來越高,需要檢測(cè)的目標(biāo)越來越多,同時(shí)圖像背景也越來越復(fù)雜,使得檢測(cè)難度變大。

      得益于應(yīng)用前景的推動(dòng)和海量數(shù)據(jù)的支持,近年來涌現(xiàn)了大量有關(guān)光學(xué)遙感圖像目標(biāo)檢測(cè)技術(shù)的研究成果。其中不乏綜述性的文獻(xiàn)[1-5],但這些文獻(xiàn)多是十年前的且主要針對(duì)單一目標(biāo)。例如,文獻(xiàn)[1]、[2]聚焦于建筑物目標(biāo),文獻(xiàn)[3]、[4]則只針對(duì)道路目標(biāo)。文獻(xiàn)[5]是比較新的綜述性文獻(xiàn),針對(duì)建筑物、道路、飛機(jī)、艦船和車輛等多類目標(biāo),但主要還是建筑物和道路。文獻(xiàn)[5]重點(diǎn)對(duì)基于模板匹配、基于知識(shí)、基于目標(biāo)分析和基于機(jī)器學(xué)習(xí)的目標(biāo)檢測(cè)方法進(jìn)行了系統(tǒng)總結(jié),但只將近年來興起的基于深度學(xué)習(xí)的方法作為發(fā)展方向提出而未作詳細(xì)介紹。

      與以上研究不同的是,本文重點(diǎn)針對(duì)飛機(jī)、艦船等目標(biāo),從目標(biāo)檢測(cè)方法、檢測(cè)性能評(píng)價(jià)準(zhǔn)則和數(shù)據(jù)集等方面對(duì)目標(biāo)檢測(cè)技術(shù)的最新研究進(jìn)展進(jìn)行了系統(tǒng)綜述。其中,對(duì)于目標(biāo)檢測(cè)方法中的最為關(guān)鍵的特征學(xué)習(xí),從淺層特征、中層特征和深度特征三個(gè)方面進(jìn)行了詳細(xì)闡述,涵蓋了基于深度學(xué)習(xí)的特征學(xué)習(xí)等最新技術(shù)。此外,對(duì)未來目標(biāo)檢測(cè)技術(shù)的發(fā)展方向進(jìn)行了展望,期望能對(duì)該領(lǐng)域的后續(xù)研究提供借鑒和參考,并對(duì)目標(biāo)檢測(cè)技術(shù)發(fā)展起到促進(jìn)作用。

      1 目標(biāo)檢測(cè)方法

      目標(biāo)檢測(cè)主要包括候選區(qū)域提取、特征學(xué)習(xí)、分類和后處理4個(gè)環(huán)節(jié)以及訓(xùn)練和測(cè)試兩個(gè)階段,如圖1所示。

      其中,候選區(qū)域提取為訓(xùn)練和測(cè)試兩個(gè)階段所共用,其主要作用是從輸入圖像中提取可能的目標(biāo)區(qū)域,降低后續(xù)的特征學(xué)習(xí)和分類的工作量。特征學(xué)習(xí)的主要目的是訓(xùn)練特征學(xué)習(xí)器,提取目標(biāo)和背景特征,用于準(zhǔn)確區(qū)分目標(biāo)和背景。在訓(xùn)練階段,利用訓(xùn)練圖像調(diào)整特征學(xué)習(xí)器的參數(shù);在測(cè)試階段,訓(xùn)練好的特征學(xué)習(xí)器用于提取目標(biāo)和背景特征。分類所做的工作是根據(jù)特征區(qū)分目標(biāo)和背景,當(dāng)目標(biāo)和背景被區(qū)分開時(shí),相當(dāng)于檢測(cè)出了目標(biāo)。在訓(xùn)練階段,利用訓(xùn)練數(shù)據(jù)調(diào)整分類器的參數(shù);在測(cè)試階段,訓(xùn)練好的分類器被用于區(qū)分目標(biāo)和背景。后處理環(huán)節(jié)有時(shí)包含在分類環(huán)節(jié)中,其主要作用是根據(jù)分類結(jié)果,將檢測(cè)到的目標(biāo)標(biāo)記在輸入圖像上。在標(biāo)記之前,一般需要去除重復(fù)的檢測(cè)結(jié)果以降低虛警。

      1.1 候選區(qū)域提取

      在候選區(qū)域提取過程中,傳統(tǒng)的滑窗(Sliding Window)方法已經(jīng)很少使用,因?yàn)檫@種方法會(huì)產(chǎn)生大量的候選區(qū)域,這不僅會(huì)增加后續(xù)的計(jì)算量,還可能導(dǎo)致虛警的增加。目前常用的候選區(qū)域提取方法可分為三類:基于視覺顯著性(Visual Saliency)[6]的方法、基于選擇性搜索(Selective Search)[7]的方法和基于閾值分割的方法。嚴(yán)格意義上講,前兩種方法都屬于基于閾值分割的方法,但考慮到這兩種方法自成體系且應(yīng)用廣泛,本文將其單獨(dú)歸類。從發(fā)展趨勢(shì)來看,前兩種方法更有前途。

      (1)基于視覺顯著性的方法

      人類視覺系統(tǒng)在面對(duì)大量信息時(shí),會(huì)利用視覺顯著性迅速聚焦到感興趣的區(qū)域而忽略背景,這一原理被廣泛應(yīng)用于自然圖像目標(biāo)檢測(cè)[6,8],并取得了良好的效果。在光學(xué)遙感圖像目標(biāo)檢測(cè)領(lǐng)域,視覺顯著性也被廣泛使用[9-14],用于快速提取可能包含目標(biāo)的候選區(qū)域。

      文獻(xiàn)[9]、[10]借鑒文獻(xiàn)[8]的方法,利用二值化梯度幅值(Binarized Normed Gradients,BING)特征進(jìn)行飛機(jī)檢測(cè)。目標(biāo)一般具有明確的邊界,當(dāng)目標(biāo)圖像被縮小到一個(gè)較小的尺寸(例如8像素×8像素)并計(jì)算其BING特征時(shí),會(huì)表現(xiàn)出良好的相似性和鑒別性。相似性是指所有的目標(biāo)的BING特征很相似,鑒別性是指目標(biāo)和背景的BING特征不同。文獻(xiàn)[8]利用BING特征計(jì)算目標(biāo)的顯著性,其基本原理為:先利用不同尺寸(大小和長(zhǎng)寬比)的窗口掃描圖像,然后利用式(1)計(jì)算每個(gè)窗口的分值,

      式中s、g、、和(,)分別為窗口的分值、BING特征、索引、尺寸和位置;是一個(gè)通過訓(xùn)練得到的64維的線性模型,表征的是BING特征和分值之間的關(guān)系。利用非最大化抑制(Non-maximal Suppression,NMS),可以去掉一些尺寸不合常理(例如太大或太小、長(zhǎng)寬差別太大)的窗口。最后,利用式(2)得到目標(biāo)的顯著性o,

      式中kt分別為訓(xùn)練得到的尺寸下的系數(shù)和偏置。得到o后,可以判斷每個(gè)窗口包含的是目標(biāo)還是背景,o越大,窗口中包含目標(biāo)的可能性越大。

      文獻(xiàn)[11]綜合利用顏色、方向和梯度等信息計(jì)算視覺顯著性,并據(jù)此提取候選艦船目標(biāo)。文獻(xiàn)[12]-[14]在檢測(cè)飛機(jī)、艦船和紅外弱小目標(biāo)時(shí),本質(zhì)上都是先使用了傅里葉變換提取候選區(qū)域。其中,文獻(xiàn)[14]利用了傅里葉變換的相位譜計(jì)算視覺顯著性,這種方法簡(jiǎn)單且有效。

      (2)基于選擇性搜索的方法

      選擇性搜索算法在自然圖像目標(biāo)檢測(cè)中獲得了廣泛應(yīng)用[15-16]。該方法是一種窮盡搜索方法,旨在搜索到圖像中所有可能的目標(biāo),從而提取出候選區(qū)域。為實(shí)現(xiàn)這一目標(biāo),算法設(shè)計(jì)時(shí)遵循了以下原則[7]:搜索所有尺寸的目標(biāo)、采用多樣化的分割策略、力求快速搜索。在選擇性搜索算法中,分割是最為核心的環(huán)節(jié)。分割時(shí)使用的相似性度量為

      雖然選擇性搜索算法廣泛應(yīng)用于自然圖像目標(biāo)檢測(cè),但在光學(xué)遙感圖像目標(biāo)檢測(cè)中的應(yīng)用還處于起步階段。目前比較新的光學(xué)遙感圖像目標(biāo)檢測(cè)方法已經(jīng)開始使用選擇性搜索進(jìn)行候選區(qū)域提取[17-18]。從選擇性搜索算法的良好性能和發(fā)展趨勢(shì)來看,基于該算法的候選區(qū)域提取方法將會(huì)在光學(xué)遙感圖像目標(biāo)檢測(cè)中得到越來越廣泛的應(yīng)用。

      (3)基于閾值分割的方法

      基于閾值分割方法的基本思想是利用目標(biāo)和背景在灰度值、顏色、紋理等方面的差異,尋找合適的閾值將目標(biāo)和背景區(qū)分開。文獻(xiàn)[19]首先利用大津法進(jìn)行水陸分割,然后使用邊緣檢測(cè)算子檢測(cè)邊緣,最后根據(jù)檢測(cè)的邊緣提取候選艦船目標(biāo)。文獻(xiàn)[20]同樣利用大津法分割水陸,然后使用線分割檢測(cè)器檢測(cè)線狀目標(biāo),并將這些目標(biāo)作為候選艦船。為了克服大津法存在的分割閾值偏高的問題,文獻(xiàn)[21]提出一種基于輪廓模型的能量函數(shù),采用迭代全局優(yōu)化的策略實(shí)現(xiàn)水陸分割。文獻(xiàn)[22]、[23]分別利用統(tǒng)計(jì)高斯模型和類內(nèi)類間方差獲得最優(yōu)閾值用于水陸分割。

      從以上文獻(xiàn)可以看出,基于閾值分割的方法的核心是利用特定的算法進(jìn)行水陸分割,然后在此基礎(chǔ)上檢測(cè)艦船??偟膩砜?,基于閾值分割的方法的應(yīng)用場(chǎng)景受限,一般只用于艦船檢測(cè)。

      1.2 特征學(xué)習(xí)

      特征學(xué)習(xí)是目標(biāo)檢測(cè)的核心環(huán)節(jié),特征的好壞直接決定了目標(biāo)檢測(cè)性能的優(yōu)劣。好的特征應(yīng)具有鑒別性,即能更好地區(qū)分目標(biāo)和背景,且應(yīng)具有平移不變、旋轉(zhuǎn)不變和尺度不變等魯棒特性。

      用于目標(biāo)檢測(cè)的特征可分為3類:淺層特征、中層特征和深度特征。淺層特征是像素級(jí)別的特征,從圖像像素中直接提取,因此易受像素變化的影響,魯棒性較差。當(dāng)光照、大氣、光學(xué)系統(tǒng)、傳感器等條件發(fā)生變化時(shí),目標(biāo)圖像的灰度值也會(huì)發(fā)生變化,進(jìn)而引起特征的變化。中層特征是在淺層特征的基礎(chǔ)上得到的,是淺層特征的組合。中層特征包含了更多的信息,除了包含淺層特征外,還會(huì)引入先驗(yàn)信息、上下文信息和稀疏信息等,因此具有更好的鑒別性和魯棒性。深度特征是指通過深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)得到的特征。在深度神經(jīng)網(wǎng)絡(luò)中,越深層提取的特征越全局、越抽象,包含的信息越多,從而越能表征目標(biāo)。例如,網(wǎng)絡(luò)的淺層提取的是目標(biāo)局部的邊緣等特征,深層提取的是目標(biāo)部件特征,更深層提取的是目標(biāo)全局的輪廓[24]。

      1.2.1 淺層特征

      淺層特征主要包括紋理特征和形狀特征。文獻(xiàn)[11]利用局部二值模式(Local Binary Pattern,LBP)檢測(cè)艦船,本質(zhì)上使用的是紋理特征。文獻(xiàn)[19]、[20]基于艦船的形狀,通過檢測(cè)直線的方式檢測(cè)艦船,利用的是形狀特征,不同的是,前者使用的是改進(jìn)的霍夫(Hough)變換,后者使用的是直線分割方法。文獻(xiàn)[21]主要利用船頭、船身寬度和長(zhǎng)度等形狀特征實(shí)現(xiàn)艦船檢測(cè)。文獻(xiàn)[23]同樣使用形狀和紋理特征檢測(cè)艦船,所用形狀特征包括緊湊度、偏心度和不變矩等,所用紋理特征包括小波基特征、多尺度高斯差分特征和局部多模式等。

      淺層特征的表征能力有限,一般只適用于目標(biāo)形狀簡(jiǎn)單、背景單一的場(chǎng)合,例如艦船目標(biāo)檢測(cè)。

      1.2.2 中層特征

      在光學(xué)遙感圖像目標(biāo)檢測(cè)中,常用的中層特征包括:方向梯度直方圖(Histogram of Oriented Gradients,HOG)特征、稀疏表征和部件模型。稀疏表征是對(duì)特征(例如HOG特征)進(jìn)行稀疏編碼,提高其稀疏性;部件模型是對(duì)特征進(jìn)行組合,引入先驗(yàn)信息和上下文信息。

      (1)HOG特征

      HOG特征最早被用于行人檢測(cè)[25],后來在光學(xué)遙感圖像目標(biāo)檢測(cè)中獲得了廣泛應(yīng)用[26-28]。HOG特征集成了紋理信息和局部形狀信息,其基本思想是:在一幅圖像中,局部目標(biāo)的表觀和形狀能夠被梯度或邊緣的方向密度分布很好地描述。HOG特征的主要提取步驟如下:1)圖像灰度化;2)采用Gamma校正對(duì)圖像進(jìn)行顏色空間的標(biāo)準(zhǔn)化;3)計(jì)算圖像每個(gè)像素的梯度;4)將圖像劃分成細(xì)胞;5)統(tǒng)計(jì)每個(gè)細(xì)胞的梯度直方圖,形成特征描述符;6)將多個(gè)細(xì)胞組成一個(gè)塊,一個(gè)塊內(nèi)所有細(xì)胞的特征描述符串聯(lián)起來便得到該塊的HOG特征;7)將圖像內(nèi)的所有塊的HOG特征串聯(lián)起來就可以得到該圖像的HOG特征[25]。

      文獻(xiàn)[26]將圓頻率特征和HOG特征組合在一起進(jìn)行艦船目標(biāo)檢測(cè),文獻(xiàn)[27]聯(lián)合HOG特征和LBP特征進(jìn)行建筑物檢測(cè),文獻(xiàn)[28]利用HOG特征檢測(cè)車輛。HOG特征在光學(xué)遙感圖像目標(biāo)檢測(cè)中有比較廣泛的應(yīng)用,但從其提取步驟可以看出,HOG特征不具備旋轉(zhuǎn)不變性,將其應(yīng)用于光學(xué)遙感圖像目標(biāo)檢測(cè)時(shí)需要充分考慮這一點(diǎn)。

      (2)稀疏表征

      (3)部件模型

      部件模型將目標(biāo)表示為部件的組合,充分考慮了部件間的位置關(guān)系和空間布局,增加了特征的語義信息。文獻(xiàn)[31]、[32]利用基于HOG特征的部件模型[33]實(shí)現(xiàn)飛機(jī)目標(biāo)檢測(cè)。由于部件模型還考慮了變形和旋轉(zhuǎn),因此在目標(biāo)檢測(cè)中表現(xiàn)出了較好的魯棒性,在深度神經(jīng)網(wǎng)絡(luò)出現(xiàn)之前一度在目標(biāo)檢測(cè)領(lǐng)域占據(jù)了主導(dǎo)地位。

      除了HOG特征、稀疏表征和部件模型之外,還有其它一些中層特征。例如,文獻(xiàn)[34]、[35]提出了新穎的特征用于飛機(jī)檢測(cè),前者提出的旋轉(zhuǎn)不變矩陣特征,充分利用了局部角度空間信息、徑向空間信息和空間分布信息;后者提出的聚合通道特征聚合了顏色、歸一化梯度幅值和方向梯度直方圖三種信息。值得一提的是,對(duì)于建筑物檢測(cè),陰影是一種很重要的上下文特征[36-37]。

      總的來看,中層特征通過對(duì)特征進(jìn)行編碼和組合,實(shí)現(xiàn)了對(duì)目標(biāo)的有效表征,在光學(xué)遙感圖像目標(biāo)檢測(cè)中表現(xiàn)出了比較優(yōu)異的性能,目前仍是比較常用的檢測(cè)特征。

      1.2.3 深度特征

      近年來,深度學(xué)習(xí)成為人工智能領(lǐng)域的研究熱點(diǎn)[24],在自然語言處理、自然圖像處理、棋牌游戲等領(lǐng)域取得了巨大成功。深度學(xué)習(xí)的本質(zhì)是深度神經(jīng)網(wǎng)絡(luò),包括深度信念網(wǎng)絡(luò)(Deep Belief Network,DBN)、卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)、循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)和生成式對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)等。從2012年開始,深度神經(jīng)網(wǎng)絡(luò)在自然圖像分類[38]和目標(biāo)檢測(cè)[39]中獲得了壓倒性優(yōu)勢(shì),并在光學(xué)遙感圖像目標(biāo)檢測(cè)[9,17,18,40,43-45]中得到了越來越廣泛的應(yīng)用。光學(xué)遙感圖像目標(biāo)檢測(cè)常用的深度神經(jīng)網(wǎng)絡(luò)主要是DBN和CNN。

      (1)DBN

      DBN由多個(gè)受限玻爾茲曼機(jī)(Restricted Boltzmann Machine,RBM)組成,在訓(xùn)練DBN時(shí),需要先對(duì)各層RBM進(jìn)行預(yù)訓(xùn)練,然后利用后向傳播算法對(duì)整個(gè)DBN進(jìn)行調(diào)優(yōu)。在預(yù)訓(xùn)練RBM時(shí),需要對(duì)其能量函數(shù)求導(dǎo)以便更新其權(quán)重。能量函數(shù)如下:

      (2)CNN

      CNN的主要組成部分是卷積層,以經(jīng)典的AlexNet為例[41],它包括5個(gè)卷積層和2個(gè)全連接層,這些層使用的激活函數(shù)是校正線性單元(Rectified Linear Unit,ReLU),具體形式為:

      式中yx分別為位置(,)處的神經(jīng)元的輸出和輸入。在第1、第2和第5個(gè)卷積層后各跟一個(gè)最大池化層。CNN通過最小化目標(biāo)函數(shù)來更新其權(quán)重CNN:

      相比DBN,CNN在光學(xué)遙感圖像目標(biāo)檢測(cè)中的應(yīng)用更廣泛。這些CNN有的是在經(jīng)典網(wǎng)絡(luò)的基礎(chǔ)上改造的,有的是全新設(shè)計(jì)的。文獻(xiàn)[17]在AlexNet的基礎(chǔ)上,設(shè)計(jì)了一個(gè)旋轉(zhuǎn)不變CNN用于目標(biāo)檢測(cè),該CNN的前7層與AlexNet相同,在第7層的后面增加了一個(gè)旋轉(zhuǎn)不變層。文獻(xiàn)[18]的CNN是在AlexNet和GoogleNet[42]的基礎(chǔ)上修改得到的,將AlexNet的第二個(gè)全連接層的維數(shù)由4096改為64,在GoogleNet的最后一個(gè)卷積層的后面增加了一個(gè)64維的層。文獻(xiàn)[43]設(shè)計(jì)了一個(gè)混合CNN用于車輛檢測(cè),文獻(xiàn)[44]利用AlexNet實(shí)現(xiàn)油罐檢測(cè)。與其它文獻(xiàn)不同的是,文獻(xiàn)[45]在訓(xùn)練CNN時(shí),不是采用監(jiān)督訓(xùn)練而是弱監(jiān)督訓(xùn)練。弱監(jiān)督訓(xùn)練不需要在訓(xùn)練樣本中標(biāo)記出目標(biāo)的準(zhǔn)確位置,只需要知道樣本中是否有目標(biāo),因此可以省掉樣本標(biāo)記這一繁重的工作,是一種很有前途的目標(biāo)檢測(cè)方法。

      盡管CNN在光學(xué)遙感圖像目標(biāo)檢測(cè)中應(yīng)用廣泛且性能較好,但現(xiàn)有方法大多是基于已有的經(jīng)典CNN改造的。與自然圖像相比,遙感圖像有其自身的特點(diǎn),包括幅面大、目標(biāo)方向多變等。因此,如何針對(duì)光學(xué)遙感圖像目標(biāo)檢測(cè)的特點(diǎn)有針對(duì)性地設(shè)計(jì)CNN,是研究者需要考慮的一個(gè)問題。

      1.3 分類和后處理

      分類的目的是將目標(biāo)和背景區(qū)分開,從而實(shí)現(xiàn)目標(biāo)檢測(cè)。分類之前需要利用特征和標(biāo)簽數(shù)據(jù)訓(xùn)練分類器,建立目標(biāo)特征和目標(biāo)類別之間的關(guān)系。根據(jù)已有文獻(xiàn),光學(xué)遙感圖像目標(biāo)檢測(cè)中使用的分類方法主要有3種:支持向量機(jī)(Support Vector Machine,SVM)、回歸和自適應(yīng)增強(qiáng)(Adaptive Boosting,AdaBoost)[23,26,31,32,40]。

      (1)SVM分類

      SVM是一種二類分類器,其分類策略是使待分類樣本在特征空間上的間隔最大,可以轉(zhuǎn)化為一個(gè)凸二次規(guī)劃問題的求解。SVM良好的分類性能使其成為使用最廣泛的分類器之一。SVM分類器在光學(xué)遙感圖像目標(biāo)檢測(cè)中的應(yīng)用比較廣泛,且可以與不同的特征聯(lián)合使用。例如,文獻(xiàn)[23]將淺層特征輸入到SVM分類器進(jìn)行艦船檢測(cè),文獻(xiàn)[31]、[32]利用中層特征和SVM進(jìn)行飛機(jī)檢測(cè),而文獻(xiàn)[17]利用深度特征和SVM進(jìn)行目標(biāo)檢測(cè)。

      (2)回歸分類

      為了進(jìn)行監(jiān)督學(xué)習(xí),深度神經(jīng)網(wǎng)絡(luò)的最后一層是一個(gè)回歸層,這個(gè)回歸層跟隨網(wǎng)絡(luò)的其它層一起訓(xùn)練,訓(xùn)練完成后即成為一個(gè)分類器。在基于深度特征的光學(xué)遙感圖像目標(biāo)檢測(cè)方法中,常用的回歸有兩種,即邏輯回歸和軟最大回歸。例如,文獻(xiàn)[40]、[43]使用的是邏輯回歸,文獻(xiàn)[46]使用的是軟最大回歸。

      (3)AdaBoost分類

      AdaBoost的核心思想是將多個(gè)弱分類器組合得到一個(gè)強(qiáng)分類器。具體做法是在每一輪訓(xùn)練中加入一個(gè)新的弱分類器,直到達(dá)到某個(gè)預(yù)定的足夠小的錯(cuò)誤率。在訓(xùn)練過程中,AdaBoost注重那些被錯(cuò)分的樣本,如果某一個(gè)樣本被錯(cuò)分,那么在下一輪訓(xùn)練中它會(huì)被以較高的概率選中。與SVM分類和回歸分類不同,AdaBoost一般與淺層特征或中層特征聯(lián)合使用,例如文獻(xiàn)[26]利用AdaBoost進(jìn)行艦船檢測(cè),未見其與深度特征聯(lián)合使用。

      2 檢測(cè)性能評(píng)價(jià)準(zhǔn)則和數(shù)據(jù)集

      光學(xué)遙感圖像目標(biāo)檢測(cè)常用的評(píng)價(jià)準(zhǔn)則主要是精度和召回率,定義如下:

      式中為精度;為召回率;p指本身是目標(biāo)并被正確地檢測(cè)為目標(biāo)的目標(biāo)的數(shù)量;p指本身不是目標(biāo)但被錯(cuò)誤地檢測(cè)為目標(biāo)的目標(biāo)的數(shù)量;N指本身是目標(biāo)但沒有被檢測(cè)為目標(biāo)的目標(biāo)的數(shù)量。以召回率為橫坐標(biāo)、精度為縱坐標(biāo)畫出的曲線稱為精度–召回率曲線(Precision-Recall Curve,PRC),PRC下的面積稱為平均精度(Average Precision,AP)。

      光學(xué)遙感圖像目標(biāo)檢測(cè)常用數(shù)據(jù)集包括:UCMerced 數(shù)據(jù)集[47]、NWPU VHR-10 數(shù)據(jù)集[48]、Aircraft 數(shù)據(jù)集[49]、SZTAKI-INRIA 數(shù)據(jù)集[50]、TAS 數(shù)據(jù)集[51]、OIRDS 數(shù)據(jù)集[52]等。除了使用這些數(shù)據(jù)集之外,多數(shù)研究者還使用自己從GoogleEarth收集的數(shù)據(jù)或購(gòu)買的QuickBird等衛(wèi)星數(shù)據(jù)。

      UCMerced 數(shù)據(jù)集為土地利用數(shù)據(jù)集,主要用于遙感圖像分類,也被用于目標(biāo)檢測(cè)。該數(shù)據(jù)集中的圖像為機(jī)載圖像,包含飛機(jī)、港口、建筑物、停車場(chǎng)等21類目標(biāo),每類目標(biāo)有100幅圖像,圖像大小為256像素×256像素,空間分辨率30cm。NWPU VHR-10數(shù)據(jù)集主要收集自GoogleEarth,共有800幅圖像,包含飛機(jī)、艦船、港口、橋梁、交通工具等10類目標(biāo)。Aircraft 數(shù)據(jù)集收集自GoogleEarth,只包含飛機(jī)目標(biāo)。訓(xùn)練集中包含500個(gè)正樣本和5 000個(gè)負(fù)樣本,測(cè)試集中共有26幅圖像,其中含有453個(gè)飛機(jī)目標(biāo)。SZTAKI-INRIA 數(shù)據(jù)集為建筑物數(shù)據(jù)集,其中的數(shù)據(jù)主要來自于GoogleEarth、IKONOS和QuickBird。TAS數(shù)據(jù)集收集自GoogleEarth,只包含車輛目標(biāo),共有30幅圖像,其中含有1 319個(gè)車輛目標(biāo)。OIRDS數(shù)據(jù)集為車輛數(shù)據(jù)集,共有900幅圖像,空間分辨率為0.1~0.3m。研究者可根據(jù)自己的研究需要從以上數(shù)據(jù)集中進(jìn)行選擇。

      3 結(jié)束語

      近年來,在人工智能、機(jī)器學(xué)習(xí)以及自然圖像目標(biāo)檢測(cè)相關(guān)技術(shù)的牽引下,涌現(xiàn)出了大量遙感圖像目標(biāo)檢測(cè)方面的成果,但其中的絕大多數(shù)成果還停留在實(shí)驗(yàn)階段,距離工程應(yīng)用還有一定的差距。同時(shí),遙感圖像數(shù)據(jù)量的增大以及空間分辨率的提高,對(duì)目標(biāo)檢測(cè)提出了新的挑戰(zhàn)。因此,光學(xué)遙感圖像目標(biāo)檢測(cè)技術(shù)還有很大的發(fā)展空間,根據(jù)上述對(duì)眾多研究成果的分析,本文認(rèn)為在遙感圖像目標(biāo)檢測(cè)技術(shù)領(lǐng)域有以下三個(gè)重點(diǎn)發(fā)展方向。

      1)注重借鑒機(jī)器學(xué)習(xí)和自然圖像目標(biāo)檢測(cè)領(lǐng)域的最新技術(shù)??v觀本文可以發(fā)現(xiàn),遙感圖像目標(biāo)檢測(cè)技術(shù)大量借鑒了機(jī)器學(xué)習(xí),特別是自然圖像目標(biāo)檢測(cè)領(lǐng)域的成果,例如視覺顯著性、HOG特征、稀疏編碼、深度學(xué)習(xí)等。以上技術(shù)起初均是應(yīng)用于自然圖像目標(biāo)檢測(cè),由于自然圖像和遙感圖像存在很多相似之處,因此很多技術(shù)可以輕易移植過來。在光學(xué)遙感圖像目標(biāo)檢測(cè)技術(shù)的后續(xù)發(fā)展過程中,應(yīng)繼續(xù)借鑒機(jī)器學(xué)習(xí)和自然圖像目標(biāo)檢測(cè)領(lǐng)域的最新技術(shù),同時(shí)根據(jù)遙感圖像目標(biāo)檢測(cè)的特點(diǎn)進(jìn)行方法創(chuàng)新。

      2)加強(qiáng)基于弱監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)和遷移學(xué)習(xí)的目標(biāo)檢測(cè)技術(shù)研究。深度神經(jīng)網(wǎng)絡(luò)在人工智能領(lǐng)域取得的巨大成功在很大程度上依賴于大量的訓(xùn)練樣本,因?yàn)槟壳暗纳疃壬窠?jīng)網(wǎng)絡(luò)主要是基于有監(jiān)督學(xué)習(xí)的。有監(jiān)督學(xué)習(xí)需要大量的訓(xùn)練樣本,而訓(xùn)練樣本的制作需要耗費(fèi)大量人力物力,而且有時(shí)甚至是不可行的?;谌醣O(jiān)督[53]和無監(jiān)督[54]的深度學(xué)習(xí)方法是未來的發(fā)展方向,目前已有基于弱監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)的光學(xué)遙感圖像目標(biāo)檢測(cè)方法[45]并取得了初步成果。另外,遷移學(xué)習(xí)也是一個(gè)重要的發(fā)展方向[55]。遷移學(xué)習(xí)的目標(biāo)是讓計(jì)算機(jī)像人一樣具有思考和推理的能力,像人一樣能夠高效地將已經(jīng)掌握的知識(shí)遷移到其它領(lǐng)域。盡管計(jì)算機(jī)在很多方面已經(jīng)達(dá)到甚至超過人類的水平,但其遷移學(xué)習(xí)能力還遠(yuǎn)不及人類。近年來,遷移學(xué)習(xí)逐漸興起并取得了初步成果,使計(jì)算機(jī)初步具備了推理[56]和“一眼”檢測(cè)等能力。

      3)建立權(quán)威的大規(guī)模數(shù)據(jù)集,促進(jìn)目標(biāo)檢測(cè)技術(shù)的發(fā)展和應(yīng)用。在自然圖像分類和目標(biāo)檢測(cè)領(lǐng)域,存在多個(gè)權(quán)威的大規(guī)模數(shù)據(jù)集[57-58],這些數(shù)據(jù)集在技術(shù)發(fā)展過程中發(fā)揮了重要的推動(dòng)作用。它們一方面為技術(shù)研究提供了充足的訓(xùn)練和測(cè)試數(shù)據(jù),另一方面為算法性能的評(píng)價(jià)和比較提供了公開公平的平臺(tái)。雖然已有部分光學(xué)遙感圖像目標(biāo)數(shù)據(jù)集,但這些數(shù)據(jù)集的規(guī)模、全面性和權(quán)威性還遠(yuǎn)遠(yuǎn)不夠。多數(shù)研究者在評(píng)價(jià)光學(xué)遙感圖像目標(biāo)檢測(cè)結(jié)果時(shí)使用的是自己收集的數(shù)據(jù),而且研究者一般不公開這些數(shù)據(jù),這嚴(yán)重影響了檢測(cè)結(jié)果的可比性和可信性。另外,技術(shù)在投入實(shí)際應(yīng)用之前,需要在大規(guī)模數(shù)據(jù)集上進(jìn)行系統(tǒng)的測(cè)試和評(píng)價(jià)。為促進(jìn)光學(xué)遙感圖像目標(biāo)檢測(cè)技術(shù)的發(fā)展和應(yīng)用,迫切需要相關(guān)大學(xué)或科研院所組織建立光學(xué)遙感圖像目標(biāo)檢測(cè)方面的大規(guī)模數(shù)據(jù)集。

      [1] MAYER H. Automatic Object Extraction from Aerial Imagery—A Survey Focusing on Buildings[J]. Computer Vision and Image Understanding, 1999, 74(2): 138-149.

      [2] SHUFELT J A. Performance Evaluation and Analysis of Monocular Building Extraction from Aerial Imagery[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1999, 21(4): 311-326.

      [3] MAYER H, HINZ S, BACHER U, et al. A Test of Automatic Road Extraction Approaches[C]//The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences 36 (Part3). 2006: 209-214.

      [4] MENA J B. State of the Art on Automatic Road Extraction for GIS Update: A Novel Classification[J]. Pattern Recognition Letters, 2003, 24(16): 3037-3058.

      [5] CHENG G, HAN J W. A Survey on Object Detection in Optical Remote Sensing Images[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2016, 117: 11-28.

      [6] ITTI L, KOCH C. A Saliency-based Search Mechanism for Overt and Covert Shifts of Visual Attention[J]. Vision Research, 2000, 40(10-12): 1489-1506.

      [7] UIJLINGS J R R, VAN DE SANDE K E A, GEVERS T, et al. Selective Search for Object Recognition[J]. International Journal of Computer Vision, 2013, 104(2): 154-171.

      [8] CHENG M M, ZHANG Z M, LIN W Y, et al. BING: Binarized Normed Gradients for Objectness Estimation at 300fps[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, OH, USA: IEEE, 2014: 3286-3293.

      [9] DIAO W H, SUN X, ZHENG X W, et al. Efficient Saliency-based Object Detection in Remote Sensing Images Using Deep Belief Networks[J]. IEEE Geoscience and Remote Sensing Letters, 2016, 13(2): 137-141.

      [10] ZHENG J B, XI Y, FENG M C, et al. Object Detection Based on BING in Optical Remote Sensing Images[C]//2016 9th International Congress on Image and Signal Processing, BioMedical Engineering and Informatics (CISP-BMEI). Datong, China: IEEE, 2016: 504-509.

      [11] SONG Z N, SUI H G, WANG Y J. Automatic Ship Detection for Optical Satellite Images Based on Visual Attention Model and LBP[C]//2014 IEEE Workshop on Electronics, Computer and Applications. Ottawa, ON, Canada: IEEE, 2014: 722-725.

      [12] ZHANG L B, ZHANG Y Y. Airport Detection and Aircraft Recognition Based on Two-layer Saliency Model in High Spatial Resolution Remote-sensing Images[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2017, 10(4): 1511-1524.

      [13] DING Z H, YU Y, WANG B, et al. An Approach for Visual Attention Based on Biquaternion and its Application for Ship Detection in Multispectral Imagery[J]. Neurocomputing, 2012, 76(1): 9-17.

      [14] QI S X, MA J, TAO C, et al. A Robust Directional Saliency-based Method for Infrared Small-target Detection under Various Complex Backgrounds[J]. IEEE Geoscience and Remote Sensing Letters, 2013, 10(3): 495-499.

      [15] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Columbus, OH, USA: IEEE, 2014: 580-587.

      [16] HE K M, ZHANG X Y, REN S Q, et al. Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition[J]//Computer Vision – ECCV 2014. [S.l.]: Springer International Publishing, 2014: 346-361.

      [17] CHENG G, ZHOU P C, HAN J W. Learning Rotation-invariant Convolutional Neural Networks for Object Detection in VHR Optical Remote Sensing Images[J].IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(12): 7405-7415.

      [18] LONG Y, GONG Y P, XIAO Z F, et al. Accurate Object Localization in Remote Sensing Images Based on Convolutional Neural Networks[J]. IEEE Transactions on Geoscience and Remote Sensing, 2017, 55(5): 2486-2498.

      [19] XU J, SUN X, ZHANG D B, et al. Automatic Detection of Inshore Ships in High-resolution Remote Sensing Images Using Robust Invariant Generalized Hough Transform[J]. IEEE Geoscience and Remote Sensing Letters, 2014, 11(12): 2070-2074.

      [20] LIN J L, YANG X B, XIAO S J, et al. A Line Segment Based Inshore Ship Detection Method[C]//Future Control and Automation: Proceedings of the 2nd International Conference on Future Control and Automation (ICFCA 2012), Volume 2. Berlin Heidelberg: Springer, 2012: 261-269.

      [21] LIU G, ZHANG Y S, ZHENG X W, et al. A New Method on Inshore Ship Detection in High-resolution Satellite Images Using Shape and Context Information[J]. IEEE Geoscience and Remote Sensing Letters, 2014, 11(3): 617-621.

      [22] TANG J X, DENG C W, HUANG G B, et al. Compressed-domain Ship Detection on Spaceborne Optical Image Using Deep Neural Network and Extreme Learning Machine[J]. IEEE Transactions on Geoscience and Remote Sensing, 2015, 53(3): 1174-1185.

      [23] ZHU C R, ZHOU H S, WANG R, et al. A Novel Hierarchical Method of Ship Detection from Spaceborne Optical Image Based on Shape and Texture Features[J]. IEEE Transactions on Geoscience and Remote Sensing, 2010, 48(9): 3446-3456.

      [24] LECUN Y, BENGIO Y, HINTON G E. Deep Learning[J]. Nature, 2015, 521: 436-444.

      [25] DALAL N, TRIGGS B. Histograms of Oriented Gradients for Human Detection[C]//2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. San Diego, CA, USA: IEEE, 2005: 886-893.

      [26] SHI Z W, YU X R, JIANG Z G, et al. Ship Detection in High-resolution Optical Imagery Based on Anomaly Detector and Local Shape Feature[J]. IEEE Transactions on Geoscience and Remote Sensing, 2014, 52(8): 4511-4523.

      [27] KONSTANTINIDIS D, STATHAKI T, ARGYRIOU V, et al. Building Detection Using Enhanced HOG–LBP Features and Region Refinement Processes[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2017, 10(3): 888-905.

      [28] TUERMER S, KURZ F, REINARTZ P, et al. Airborne Vehicle Detection in Dense Urban Areas Using HOG Features and Disparity Maps[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2013, 6(6): 2327-2337.

      [29] ZHANG Y X, DU B, ZHANG L P. A Sparse Representation-based Binary Hypothesis Model for Target Detection in Hyperspectral Images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2015, 53(3): 1346-1354.

      [30] ZHANG Y X, ZHANG L P, DU B, et al. A Nonlinear Sparse Representation-based Binary Hypothesis Model for Hyperspectral Target Detection[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2015, 8(6): 2513-2522.

      [31] CHENG G, HAN J W, GUO L, et al. Object Detection in Remote Sensing Imagery Using a Discriminatively Trained Mixture Model[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2013, 85: 32-43.

      [32] ZHANG W C, SUN X, WANG H Q, et al. A Generic Discriminative Part-based Model for Geospatial Object Detection in Optical Remote Sensing Images[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2015, 99: 30-44.

      [33] FELZENSZWALB P F, GIRSHICK R B, MCALLESTER D, et al. Object Detection with Discriminatively Trained Part-based Models[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(9): 1627-1645.

      [34] WANG G L, WANG X C, FAN B, et al. Feature Extraction by Rotation-invariant Matrix Representation for Object Detection in Aerial Image[J]. IEEE Geoscience and Remote Sensing Letters, 2017, 14(6): 851-855.

      [35] ZHAO A, FU K, SUN H, et al. An Effective Method Based on ACF for Aircraft Detection in Remote Sensing Images[J]. IEEE Geoscience and Remote Sensing Letters, 2017, 14(5): 744-748.

      [36] OK A O, SENARAS C, YUKSEL B. Automated Detection of Arbitrarily Shaped Buildings in Complex Environments from Monocular VHR Optical Satellite Imagery[J]. IEEE Transactions on Geoscience and Remote Sensing, 2013, 51(3): 1701-1717.

      [37] OK A O. Automated Detection of Buildings from Single VHR Multispectral Images Using Shadow Information and Graph Cuts[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2013, 86: 21-40.

      [38] SIMONYAN K, ZISSERMAN A. Very Deep Convolutional Networks for Large-scale Image Recognition[C]//Proceedings of ICLR 2015. 2015: 1-13.

      [39] REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN: Towards Real-time Object Detection with Region Proposal Networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 39(6): 1137-1149.

      [40] CHEN X, XIANG S, LIU C L, et al. Aircraft Detection by Deep Belief Nets[C]//2013 2nd IAPR Asian Conference on Pattern Recognition. Naha, Japan: IEEE, 2013: 54-58.

      [41] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet Classification with Deep Convolutional Neural Networks[C]// Proceedings of the 25th International Conference on Neural Information Processing Systems, Volume 1. Lake Tahoe, Nevada: [s.n.], 2012: 1097-1105.

      [42] SZEGEDY C, LIU W, JIA Y Q, et al. Going Deeper with Convolutions[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Boston, MA, USA: IEEE, 2015: 1-9.

      [43] CHEN X Y, XIANG S M, LIU C L, et al. Vehicle Detection in Satellite Images by Hybrid Deep Convolutional Neural Networks[J]. IEEE Geoscience and Remote Sensing Letters, 2014, 11(10): 1797-1801.

      [44] ZHANG L, SHI Z W, WU J. A Hierarchical Oil Tank Detector with Deep Surrounding Features for High-resolution Optical Satellite Imagery[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2015, 8(10): 4895-4909.

      [45] ZHANG F, DU B, ZHANG L P, et al. Weakly Supervised Learning Based on Coupled Convolutional Neural Networks for Aircraft Detection[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(9): 5553-5563.

      [46] SEVO I, AVRAMOVIC A. Convolutional Neural Network Based Automatic Object Detection on Aerial Images[J]. IEEE Geoscience and Remote Sensing Letters, 2016, 13(5): 740-744.

      [47] YANG Y, NEWSAM S. Bag-of-visual-words and Spatial Extensions for Land-use Classification[C]//Proceedings of the 18th ACM SIGSPATIAL International Conferences on Advances in Geographic Information Systems (ACM SIGSPATIAL GIS 2010). San Jose, CA, USA: [s.n.], 2010: 270-279.

      [48] CHENG G, HAN J W, ZHOU P C, et al. Multi-class Geospatial Object Detection and Geographic Image Classification Based on Collection of Part Detectors[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2014, 98: 119-132.

      [49] WU H, ZHANG H, ZHANG J F, et al. Fast Aircraft Detection in Satellite Images Based on Convolutional Neural Networks[C]//2015 IEEE International Conference on Image Processing (ICIP). Quebec City, QC, Canada: IEEE, 2015: 4210-4214.

      [50] BENEDEK C, DESCOMBES X, ZERUBIA J. Building Development Monitoring in Multitemporal Remotely Sensed Image Pairs with Stochastic Birth-death Dynamics[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(1): 33-50.

      [51] HEITZ G, KOLLER D. Learning Spatial Context: Using Stuff to Find Things[M]//Computer Vision – ECCV 2008: 10th European Conference on Computer Vision. Marseille, France: Springer, 2008: 30-43.

      [52] TANNER F, COLDER B, PULLEN C, et al. Overhead Imagery Research Data Set—An Annotated Data Library & Tools to Aid in the Development of Computer Vision Algorithms[C]//2009 IEEE Applied Imagery Pattern Recognition Workshop (AIPR 2009), Volume 1. Washington, DC, USA: IEEE, 2009: 1-8.

      [53] SIVA P, RUSSELL C, XIANG T. In Defence of Negative Mining for Annotating Weakly Labelled Data[M]//Computer Vision – ECCV 2012, Part III, LNCS 7574. Berlin Heidelberg: Springer, 2012: 594-608.

      [54] DOSOVITSKIY A, FISCHER P, SPRINGENBERG J T, et al. Discriminative Unsupervised Feature Learning with Exemplar Convolutional Neural Networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(9): 1734-1747.

      [55] LAKE B M, ULLMAN T D, TENENBAUM J B, et al. Building Machines that Learn and Think Like People[J]. Behavioral and Brain Sciences, 2017, 40: e253.

      [56] LAKE B M, SALAKHUTDINOV R, TENENBAUM J B. Human-level Concept Learning through Probabilistic Program Induction[J]. Science, 2015, 350(6266): 1332-1338.

      [57] LIN T Y, MAIRE M, BELONGIE S, et al. Microsoft COCO: Common Objects in Context[M]//Computer Vision – ECCV 2014, Part V, LNCS 8693. Switzerland: Springer International Publishing, 2014: 740-755.

      [58] DENG J, DONG W, SOCHER R, et al. ImageNet: A Large-scale Hierarchical Image Database[C]//2009 IEEE Conference on Computer Vision and Pattern Recognition. Miami, FL, USA: IEEE, 2009: 248-255.

      A Survey on Object Detection Technology in Optical Remote Sensing Images

      LI Xiaobin1,2JIANG Bitao1YANG Yuanbo1FU Yuze1YUE Wenzhen1

      (1 Beijing Institute of Remote Sensing Information, Beijing 100192, China)(2 Department of Electronic Engineering, Tsinghua University, Beijing 100084, China)

      Object detection is an important part in optical remote sensing image analysis and a crucial linking between images and their applications. Taking the aircraft and ship research object, this paper systematically summarizes the latest researches and looks forward to the future development direction of object detection. The main content of this paper includes object detection methods, evaluation criteria and datasets. While introducing object detection methods in detail, this paper focusses on candidate region proposal, feature learning, classification and post-processing. It is expected that this survey can provide some references for the application of object detection in optical remote sensing images.

      object detection method; aircraft detection; ship detection; classification; remote sensing image

      TP407.8

      A

      1009-8518(2019)04-0095-10

      10.3969/j.issn.1009-8518.2019.04.011

      李曉斌,男,1978年生,2004年12月獲國(guó)防科技大學(xué)模式識(shí)別與智能系統(tǒng)專業(yè)碩士學(xué)位,目前為清華大學(xué)電子工程系信息與通信工程專業(yè)在讀博士研究生,副研究員。研究方向?yàn)檫b感圖像目標(biāo)檢測(cè)識(shí)別。E-mail:xiaobin1119@163.com。

      2019-03-09

      (編輯:夏淑密)

      猜你喜歡
      艦船光學(xué)文獻(xiàn)
      艦船通信中的噪聲消除研究
      滑輪組的裝配
      Hostile takeovers in China and Japan
      速讀·下旬(2021年11期)2021-10-12 01:10:43
      光學(xué)常見考題逐個(gè)擊破
      艦船測(cè)風(fēng)傳感器安裝位置數(shù)值仿真
      Cultural and Religious Context of the Two Ancient Egyptian Stelae An Opening Paragraph
      大東方(2019年12期)2019-10-20 13:12:49
      Themes of Langston Hughes’“Salvation”
      西江文藝(2017年12期)2017-12-31 00:00:00
      The Role and Significant of Professional Ethics in Accounting and Auditing
      商情(2017年1期)2017-03-22 16:56:36
      艦船腐蝕預(yù)防與控制系統(tǒng)工程
      光學(xué)遙感壓縮成像技術(shù)
      晋江市| 丁青县| 新沂市| 商河县| 盘锦市| 五家渠市| 明溪县| 朔州市| 上饶市| 道真| 富裕县| 石门县| 揭西县| 老河口市| 兴隆县| 鄂托克前旗| 平塘县| 三亚市| 齐河县| 萨嘎县| 格尔木市| 平和县| 石阡县| 莱芜市| 松溪县| 钟祥市| 讷河市| 营口市| 海伦市| 滦南县| 崇礼县| 靖远县| 莒南县| 安阳县| 沧州市| 宁都县| 商洛市| 杭锦后旗| 南川市| 泾源县| 溧阳市|