• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      面向高分辨率遙感影像車輛檢測的深度學習模型綜述及適應性研究

      2022-12-24 01:35:28呂雅楠朱紅孟健崔成玲宋其淇
      自然資源遙感 2022年4期
      關(guān)鍵詞:錨框尺度精度

      呂雅楠, 朱紅, 孟健, 崔成玲, 宋其淇

      (1.防災科技學院生態(tài)環(huán)境學院,廊坊 065201; 2.防災科技學院地球科學學院,廊坊 065201;3.北京吉威空間信息股份有限公司,北京 100043)

      0 引言

      隨著我國社會經(jīng)濟的快速發(fā)展,智慧城市建設已成為高科技發(fā)展的前沿領(lǐng)域,而智能交通建設是智慧城市信息化建設的關(guān)鍵。城鎮(zhèn)化推動人口大規(guī)模地向城市地區(qū)聚攏,社會城市化進程不斷加快,智慧出行成為當今各大城市所面臨的熱點問題。如何在“互聯(lián)網(wǎng)+”時代基于遙感大數(shù)據(jù)實現(xiàn)全民智能出行,解決復雜多變的交通狀況、交通普查以及交通安全是目前所面臨的難點問題[1]。其中,車輛檢測作為智能出行的基礎(chǔ)與核心,在目標跟蹤與事件檢測等更高層次的視覺任務中具有重要的現(xiàn)實意義。遙感影像具有地面覆蓋范圍廣、適合大范圍車輛檢測的優(yōu)勢,在智能出行道路車輛信息獲取方面可以克服設備成本高、安裝工作量大且安裝復雜等缺陷[2-4]。然而,傳統(tǒng)目標檢測方法是基于滑動窗口搜索或特征提取算法,存在繁雜的計算成本及特征表征能力受限的問題。近年來,人工智能的快速發(fā)展掀起了深度學習研究的新浪潮,深度學習算法在圖像處理領(lǐng)域取得了顯著成果。利用深度卷積神經(jīng)網(wǎng)絡自主學習圖像特征,在圖像目標檢測方面的效果明顯優(yōu)于傳統(tǒng)方法。通過搭建深度學習網(wǎng)絡模型,可充分挖掘圖像數(shù)據(jù)間的特征與關(guān)聯(lián),利用學習到的參數(shù),實現(xiàn)目標檢測[5]。深度學習方法在自然場景檢測方面已經(jīng)取得重大突破,但直接遷移到遙感影像的小目標檢測還存在許多問題,檢測方法需進一步優(yōu)化[6]。

      目前,深度學習模型應用于復雜背景下大幅面遙感影像車輛目標檢測仍存在以下亟待解決的難點問題: ①現(xiàn)有的深度學習方法多側(cè)重于近景影像研究,而對遙感影像特征提取方面涉及相對較少,深度卷積神經(jīng)網(wǎng)絡圖像特征提取與信息表達尚不清晰,不能有效利用遙感影像自身的先驗信息,很難實現(xiàn)具有針對性的面向?qū)ο髢?yōu)化; ②目前所獲取的遙感影像空間分辨率雖然較高,但以車輛為代表的小尺寸目標依然無法獲取到信息量豐富的視覺特征,致使車輛等小尺寸目標檢測精度受限; ③遙感影像下小尺寸目標特征不明顯、密集車輛目標檢測效果較差,難以對具有存在旋轉(zhuǎn)角度的車輛目標進行準確檢測。綜上所述,現(xiàn)有深度卷積神經(jīng)網(wǎng)絡難以實現(xiàn)“一對一”的車輛目標檢測,在遙感影像智慧出行中這一問題尤顯突出。

      本文主要面向高分辨率遙感影像車輛檢測的深度學習模型進行綜述并對其適應性開展研究,對目標檢測領(lǐng)域的主流算法進行分類,闡述并分析現(xiàn)有深度學習模型應用于遙感影像車輛檢測中的優(yōu)缺點; 其次,基于公開數(shù)據(jù)集,利用主流深度學習模型對遙感影像進行訓練,并評估其車輛檢測性能; 最后,為大幅面、復雜背景環(huán)境的小目標車輛檢測提供新的解決途徑及發(fā)展方向。

      1 基于遙感影像的雙階段目標檢測算法

      雙階段目標檢測算法是在生成候選區(qū)域的基礎(chǔ)上,對候選區(qū)域進行分類與回歸,從而得到檢測結(jié)果。目前,此類算法主要以區(qū)域卷積神經(jīng)網(wǎng)絡(region-based convolutional neural network, R-CNN)[7]系列為主,其特點是檢測精度較高,但檢測速度略顯不足。R-CNN首次將卷積神經(jīng)網(wǎng)絡引入目標檢測,結(jié)合選擇性搜索算法生成候選區(qū)域,利用深度卷積神經(jīng)網(wǎng)絡進行特征提取[8-9],在PASCAL VOC2007數(shù)據(jù)集上的目標檢測精度為58.5%。Girshick[10]針對R-CNN存在重復計算、檢測速度慢的問題提出了Fast-RCNN算法,加入感興趣區(qū)域池化模塊,使圖像輸入尺寸不受限制,利用多任務損失函數(shù)統(tǒng)一目標分類和候選框回歸任務,提高檢測的速度。此后,F(xiàn)aster-RCNN利用區(qū)域生成網(wǎng)絡代替Fast-RCNN中選擇性搜索方法,使得候選框數(shù)目從原有的約2 000個減少為300個,提高了檢測速度,實現(xiàn)了端到端的目標檢測[11]。近幾年,遙感領(lǐng)域基于雙階段目標檢測算法也開展了系列研究工作,本文將遙感領(lǐng)域雙階段目標檢測研究成果的優(yōu)缺點及檢測精度進行總結(jié),如表1所示??偨Y(jié)發(fā)現(xiàn),遙感影像目標檢測仍存在目標過小、分布密集、角度多樣化以及檢測背景復雜4個難點問題,本文基于遙感影像雙階段車輛檢測算法存在的難點問題開展了分析與討論。

      表1 雙階段遙感影像車輛目標檢測對比Tab.1 Comparison of two-stage remote sensing image vehicle target detection

      1)基于遙感影像的小目標檢測。鑒于遙感影像中車輛目標尺寸較小,多次卷積將導致特征信息丟失嚴重,造成較大程度的漏檢問題,其主要改進思路有: 區(qū)域預提取、優(yōu)化錨框策略和改進網(wǎng)絡結(jié)構(gòu)等。對遙感影像進行道路區(qū)域預提取,再將道路區(qū)域輸入卷積神經(jīng)網(wǎng)絡識別車輛目標,可提高車輛目標的檢測率[18],該算法區(qū)域預提取階段使用的是傳統(tǒng)方法,道路區(qū)域提取的自動化能力不足,對非道路車輛信息無法進行檢測。SORCN(small object reco-gnition convolutional network)[20]是一種基于分割[24]的小物體識別網(wǎng)絡,該模型通過分割圖像車輛目標,進一步提高小目標車輛檢測效果。該方法可以減小待檢測區(qū)域、提高車輛小目標檢測精度,但流程較為復雜,需要犧牲檢測速度提高檢測精度。基于錨框的目標檢測算法,錨框大小及比例選取直接影響待檢測目標的召回率與檢測精度。利用聚類分析方法計算出適合訓練集的錨框尺寸,降低目標定位難度,提高小目標檢測精度[15]。但該方法泛化能力較弱,難以應用于差異較大的數(shù)據(jù)集。關(guān)于網(wǎng)絡結(jié)構(gòu)的優(yōu)化[17,25],顧及小目標特征信息丟失問題,主要通過減少網(wǎng)絡下采樣次數(shù)增加特征圖尺寸,但會引入深層高級語義特征信息提取不足的問題。

      2)基于遙感影像的多角度小目標檢測。遙感影像具有多角度、多傳感器、多分辨率的特點,車輛目標方向往往具有不確定性,直接使用水平方向檢測框,使得較多非目標干擾信息介入而影響檢測精度。針對多角度小目標檢測問題,可通過旋轉(zhuǎn)擴充增強[26-27]、引入旋轉(zhuǎn)區(qū)域生成網(wǎng)絡來改善多角度小目標檢測效果。旋轉(zhuǎn)擴充增強檢測到的角度信息有限,利用特定旋轉(zhuǎn)區(qū)域建議網(wǎng)絡生成預選框,可實現(xiàn)對任意角度信息的預測。R3-Net[28]和R2PN[29]均是基于區(qū)域建議網(wǎng)絡融合生成旋轉(zhuǎn)候選區(qū)域,實現(xiàn)車輛角度信息預測,但網(wǎng)絡計算量也相應增加。對于遙感影像目標角度問題,目前主要通過引入旋轉(zhuǎn)區(qū)域生成網(wǎng)絡來進行角度預測,該方法可緩解角度問題對檢測精度的影響,但網(wǎng)絡會變得更加復雜,增加了目標檢測時間。

      3)基于遙感影像的密集型小目標檢測。遙感影像中密集型車輛檢測難點主要在于車輛目標尺寸太小并且具有旋轉(zhuǎn)角度,導致密集型目標存在漏檢現(xiàn)象,現(xiàn)有方法多通過提高小目標檢測精度、增加角度預測模塊來減小密集目標所帶來的檢測影響。DF-RCNN(Deformable Faster-RCNN)模型[16]融合深淺層特征信息提高密集型小目標的檢測效果。PVANet模型引入角度檢測模塊,減少預測結(jié)果間重合度,以減少對密集排列目標的漏檢,該方法對密集目標的定位效果較好,但難以解決單個車輛目標提取的問題[30]。

      4)基于復雜背景的遙感影像小目標檢測。遙感影像自身具有覆蓋范圍廣、地物類別復雜多樣、成像受到云層等因素干擾的特點,給車輛精準識別帶來了挑戰(zhàn)。鑒于遙感影像復雜背景下小目標檢測的難點問題,現(xiàn)有研究成果主要從引入?yún)^(qū)域預提取與注意力機制模塊這2個方面來解決。對圖像進行去霧、除云等預處理操作,可減少干擾信息影響,但此類預處理操作會降低影像分辨率。通過超分辨率重建算法可增強遙感影像特征[12],在不損失影像分辨率前提下提高檢測精度。但該方法會加大網(wǎng)絡復雜程度及計算量,難以滿足實時性需求?;谧⒁饬C制的特征融合可以減弱背景信息的干擾,改善復雜背景下小目標的檢測效果[31]。由此可見,采用區(qū)域預提取以及注意力機制可以減小背景信息的干擾,但區(qū)域預提取時間成本較大,注意力機制將是未來解決復雜背景及噪聲干擾問題的重要研究方向。

      綜上所述,目標固有尺寸過小是限制遙感影像車輛檢測算法性能的首要因素,集中解決目標檢測中存在的小尺度、多角度、密集型以及復雜背景干擾等因素是當前遙感影像車輛檢測的首要任務,需綜合考慮各個問題之間存在的內(nèi)在關(guān)聯(lián)性,借鑒解決不同問題的優(yōu)化策略,以期達到最終提高檢測性能的目標。

      2 基于遙感影像的單階段目標檢測算法

      單階段目標檢測無需生成候選區(qū)域,隸屬于基于回歸分析思想的檢測算法。主流單階段目標檢測算法有YOLO(you only look once),SSD(single shot multibox detector)[32]以及無錨框目標檢測系列,此類算法的特點是檢測速度較快,但檢測精度相對于雙階段目標檢測略有不足。

      YOLO系列作為單階段目標檢測的主流算法,2016年Redmon等[33]首次提出YOLO模型,將檢測轉(zhuǎn)化為回歸問題,直接對目標進行定位和類別預測。在此基礎(chǔ)上,YOLOv2引入錨框機制及特征尺度融合模塊,改善了定位精度以及小目標檢測能力的不足[34]。YOLOv3利用Darknet-53骨干網(wǎng)絡增強特征提取能力,設計3種不同尺度網(wǎng)絡預測目標,多尺度目標檢測能力更強[35]。YOLOv4使用CSPDarknet作為特征提取網(wǎng)絡,融合SPP-Net和PANet提高檢測精度和速度,使檢測器在單個GPU上也能很好地完成訓練[36]。YOLOv5與YOLOv4結(jié)構(gòu)相似,網(wǎng)絡模型更加輕量,訓練速度遠超YOLOv4,兼顧速度的同時保證了準確性。

      SSD模型應用多尺度特征進行目標檢測,借鑒Faster R-CNN中錨框的理念,設置不同尺度與長寬比的錨框,相對于YOLOv1檢測效果有明顯提升[37]。在SSD的基礎(chǔ)上,DSSD[38]算法改用ResNet101作為特征提取網(wǎng)絡,利用反卷積傳遞深層特征,融合深淺層特征信息,從而提高了對小目標的檢測效果。

      無錨框目標檢測算法通過檢測中心點或關(guān)鍵角點進行目標邊界框的預測,無需設定錨框。FCOS(fully convolutional one-stage object detection)[39]是一種無錨框的單階段全卷積目標檢測算法,對特征圖進行像素級回歸,直接預測目標中心點、邊框距中心點的距離來檢測目標。無錨框的目標檢測算法具有更靈活的解空間,不需要調(diào)優(yōu)與錨框相關(guān)的超參數(shù),極大減少了算法計算量,訓練過程內(nèi)存占用更低。

      相比于雙階段目標檢測算法,單階段目標檢測的精度較低,但速度較快。本文將遙感領(lǐng)域現(xiàn)有單階段目標檢測研究成果進行歸納總結(jié),如表2所示?;谶b感影像的單階段車輛檢測算法研究較少,總結(jié)過程中也參考了一些相關(guān)研究文獻,包括飛機、船艦等,并對遙感影像下目標小、密集排列等問題的優(yōu)化及解決思路進行了歸納總結(jié)。

      表2 單階段遙感影像車輛目標檢測對比Tab.2 Comparison of one-stage remote sensing image vehicle target detection

      1)基于遙感影像的小目標檢測。單階段目標檢測算法主要從優(yōu)化錨框策略、融合不同層級特征信息和增加網(wǎng)絡檢測頭3個方面提高檢測精度。其中,優(yōu)化錨框策略可以提高對多尺度目標的檢測能力,是當前常見的優(yōu)化方法[40,44],但過于依賴先驗設計,難以應用于其他類型數(shù)據(jù)。融合不同層級特征,可以兼顧淺層特征的紋理、邊緣等細節(jié)信息,優(yōu)化網(wǎng)絡結(jié)構(gòu)的同時使得輸出特征圖的尺度更適合小目標檢測,改善小目標檢測能力[41,45],但融合淺層特征的目標檢測精度提升有限,在小而密集的目標場景中會存在較多漏檢現(xiàn)象。在深度學習目標檢測模型中增加網(wǎng)絡檢測頭,如在YOLOv3網(wǎng)絡增加大小為104像素×104像素檢測頭[42],用于檢測小尺度目標,可以提高小目標檢測性能,但該方法會增加網(wǎng)絡復雜程度、訓練及檢測時間。

      清晨,天還沒亮,媽媽便輕輕地搖醒瑪麗和勞拉。在爐火和燭光下,媽媽幫她們洗臉、梳頭,穿上暖和的衣服。在紅色的法蘭絨長內(nèi)衣外,媽媽為她們穿上羊毛襯裙、羊毛套裙和羊毛長襪,最后又幫她們穿上外套,戴上兔皮風帽和紅色的毛線手套。

      2)基于遙感影像的多角度小目標檢測。單階段目標檢測主要通過引入角度因子與優(yōu)化損失函數(shù)2個方面來解決目標存在的角度問題。在算法預設錨框中加入角度因子[43,46],可對車輛位置與角度信息同時預測,但加入角度參數(shù)會增加網(wǎng)絡計算復雜度[47]。R-YOLO模型引入新的損失函數(shù)和旋轉(zhuǎn)交并比計算方式,實現(xiàn)了艦船目標任意角度預測[48]。上述方法均引入了額外的計算模塊,算法復雜度有所增加,在犧牲算法效率的基礎(chǔ)上,提高了對多角度小目標的檢測能力。

      3)基于遙感影像的密集型小目標檢測。現(xiàn)有的解決思路包括簡化網(wǎng)絡結(jié)構(gòu)、增加角度預測分支與改進損失函數(shù)。簡化特征網(wǎng)絡提取更多淺層特征,利用殘差網(wǎng)絡代替連續(xù)卷積減少梯度消失,可提高小目標檢測能力,從而減少密集型車輛的漏檢數(shù)量[49]。該方法未消除目標方向多樣所帶來的干擾,存在較多重疊檢測而導致的目標漏檢。在網(wǎng)絡中加入角度回歸分支,引入非對稱卷積增強目標旋轉(zhuǎn)不變性特征,可緩解目標角度對檢測精度的影響[50]。損失函數(shù)對密集目標定位效果有著重要影響,基于YOLOv5算法,利用CIOU_LOSS損失函數(shù)代替GIOU_LOSS損失函數(shù),可減少密集區(qū)域的小目標漏檢[51]。

      4)基于復雜背景的遙感影像小目標檢測。針對遙感影像背景復雜及噪聲干擾問題,主要解決思路有影像預處理、融合多源影像信息以及添加注意力機制3種。影像預處理,如引入基于暗通道先驗的大氣校正方法,減少大氣吸收和散射對遙感影像的影響,可減弱噪聲干擾對檢測造成的影響[52],但此類方法會影響影像自身信息量。融合可見光、合成孔徑雷達遙感影像等多源圖像信息,充分利用多源圖像各自的成像優(yōu)勢,在復雜背景下能獲得更好的檢測效果[48]。以上方法可一定程度提高模型的抗干擾性,但相對比較耗時,且對多種復雜的噪聲干擾敏感性較弱。在特征融合階段引入注意力機制能使網(wǎng)絡提取更多重要特征信息,充分挖掘小目標的上下文語義特征信息,抑制無關(guān)信息的干擾[45]。注意力機制與網(wǎng)絡結(jié)合方式多樣,合理選擇融入方式,能有效降低背景信息對檢測精度的影響。

      由此可見,現(xiàn)有遙感影像車輛檢測算法已取得了一定的進步,但仍有較大的提升空間,距離實際工程化應用還尚有距離,有待后續(xù)持續(xù)的深入研究。

      3 實驗結(jié)果及分析

      為分析主流深度學習模型在遙感數(shù)據(jù)集的車輛檢測效果,實驗分別選取雙階段的Faster-RCNN,單階段的SSD,F(xiàn)COS和YOLOv5進行測試,其中FCOS為無錨框目標檢測算法。另外,針對小尺度、密集型、多角度、復雜背景和動態(tài)區(qū)域5種不同場景進行車輛檢測測試,分析不同算法在不同場景下的目標檢測性能。

      3.1 數(shù)據(jù)集及實驗設置

      實驗采用DOTA和DIOR[53]這2個數(shù)據(jù)集進行測試。其中,DOTA數(shù)據(jù)集共有2 806張遙感影像和188 282個標注實例,圖像大小在800像素×800像素到4 000像素×4 000像素之間,空間分辨率為0.1~4.5 m,包含車輛、飛機、儲油罐和游泳池等15種標注類別,本文展示的5張影像數(shù)據(jù)空間分辨率為0.1~0.2 m。DIOR數(shù)據(jù)集共有23 463張遙感影像和190 288個標注實例,圖像大小為800像素×800像素,空間分辨率為0.5~30 m,包含車輛、飛機、機場和棒球場等20種目標,鑒于原DIOR數(shù)據(jù)集未注明每張影像空間分辨率信息,因此未列出本文展示影像數(shù)據(jù)的空間分辨率信息。

      本實驗硬件設備配置: 操作系統(tǒng)為Ubuntu16.04,GPU型號為GeForce1080 Ti(11 G),CPU型號為Intel core i9-9900K。FCOS,F(xiàn)aster-RCNN,SSD和YOLOv5特征提取網(wǎng)絡分別選用ResNet50-FPN,ResNet50,MobileNet和CSP-Darknet53。實驗模型進行100次迭代訓練,初始學習率設置為0.01,批處理大小設置為8,在進行至80次訓練后學習率調(diào)整為原學習率的10%,進行至90次訓練后學習率調(diào)整為原學習率的1%,其他參數(shù)與模型的官方代碼參數(shù)設置保持一致。

      3.2 評價指標

      本文通過定性和定量2種評價方式對各算法進行綜合評定,定量評價使用交并比(intersection over union,IOU)、準確率、召回率、平均準確率(average precision, AP)作為單類別目標檢測效果的評價指標,其中平均準確率是評價模型精度的最常用的指標,它是準確率-召回率(precision-recall, P-R)曲線下所圍成的面積,通常AP值越高,模型檢測效果越好。4個指標的計算公式分別為:

      (1)

      (2)

      (3)

      (4)

      3.3 實驗結(jié)果分析

      1)小尺度車輛目標檢測。從表3可以看出,在DOTA和DIOR數(shù)據(jù)集上YOLOv5對于車輛檢測均展現(xiàn)了相對較高的性能,漏檢目標較少。YOLOv5算法加入自適應錨框模塊,根據(jù)不同數(shù)據(jù)類型計算最佳錨框大小,使錨框更適合待檢測目標。FCOS和SSD算法目標檢測精度相對較差,其中SSD漏檢目標較多。Faster-RCNN和SSD算法使用預設錨框,對于待檢測目標尺度大小的自適應性較差,同時FCOS和SSD算法的特征圖感受野相對較大,致使車輛細節(jié)特征提取不足,造成大量漏檢。結(jié)合2個數(shù)據(jù)集檢測結(jié)果進行對比,DIOR數(shù)據(jù)集的檢測精度整體低于DOTA數(shù)據(jù)集,其原因是DIOR數(shù)據(jù)集車輛目標小于5個像素,更加考驗深度學習模型對小目標的檢測性能。

      表3 小尺度車輛目標檢測結(jié)果對比Tab.3 Comparison of small scale vehicle target detection results

      2)密集型小尺度車輛目標檢測。實驗針對靜態(tài)場景下小而密集型車輛目標進行深度學習模型性能測試,如表4所示,在2個公開數(shù)據(jù)集上,YOLOv5算法的目標檢測精度相對較好,但對于具有旋轉(zhuǎn)角度的車輛目標,檢測結(jié)果間存在較多重疊區(qū)域,無法準確定位目標位置。對于密集目標檢測結(jié)果而言,檢測錨框大小與比例的設置尤為重要。Faster-RCNN錨框相對較大,導致一個檢測框內(nèi)存在多個目標,經(jīng)過非極大值抑制處理后車輛目標被濾除而產(chǎn)生漏檢現(xiàn)象。FCOS算法對圖像進行像素級預測,通過中心點回歸目標真實大小,但其淺層特征提取不充分,導致大量車輛漏檢。SSD算法感受野相對較大,檢測錨框自適應性較差,相對于其他算法,漏檢率相對較高。

      表4 密集型小尺度車輛目標檢測結(jié)果對比Tab.4 Comparison of intensive small scale vehicle target detection results

      3)多角度小尺度車輛目標檢測。由于遙感影像自身特點,車輛目標往往會呈現(xiàn)出多角度排列的狀態(tài),從表5中可以看出,4種深度學習模型均可以檢測到多角度排列的車輛目標。由于使用水平檢測框,無法準確顯示角度信息。在車輛密集排列時,目標預測框間會出現(xiàn)不同程度的重疊情況,難以準確地進行單目標提取。特別是在DIOR數(shù)據(jù)集中,車輛尺寸進一步縮小時,算法性能下降更加嚴重??梢娫谀繕嗣芗帕星掖嬖诮嵌葧r,相鄰目標的檢測框易出現(xiàn)重疊現(xiàn)象,待檢測目標越小,其重疊程度越高,影響了車輛檢測精度。

      表5 多角度小尺度車輛目標檢測結(jié)果對比Tab.5 Comparison of multi-angle small scale vehicle target detection results

      4)復雜背景下小尺度車輛目標檢測。實驗針對靜態(tài)場景下復雜背景的遙感影像進行車輛檢測,結(jié)果如表6所示,YOLOv5的目標檢測效果優(yōu)于其他算法。YOLOv5加入Mosaic數(shù)據(jù)增強,通過圖像擾動、添加噪聲和隨機縮放裁剪等方式,使算法模型在復雜背景下可以表現(xiàn)出相對較好的檢測性能,但依然無法徹底消除噪聲干擾。另外3種算法僅對數(shù)據(jù)進行旋轉(zhuǎn)和縮放處理,模型抗噪能力不足,在出現(xiàn)陰影遮擋時會出現(xiàn)較多目標漏檢。

      表6 復雜背景下小尺度車輛目標檢測結(jié)果對比Tab.6 Comparison of small scale vehicle target detection results under complex background

      5)移動小尺度車輛目標檢測。相對于以上4組靜態(tài)場景下的車輛檢測結(jié)果,實驗開展了移動場景下車輛檢測對比實驗,結(jié)果如表7所示,依然是YOLOv5算法的檢測效果最好,其次為Faster-RCNN,F(xiàn)COS和SSD算法由于小目標檢測性能較差,車輛目標漏檢較多。主要源于YOLOv5算法融合深淺層特征,可獲得豐富的全局與局部細節(jié)特征信息,對移動場景下的目標檢測具有較好的自適應性。在移動車輛場景中,車輛目標分布較為稀疏,拍攝視野更加廣闊,車輛小目標特性更加突出,極大考驗小目標檢測性能。

      表7 移動小尺度車輛目標檢測結(jié)果對比Tab.7 Comparison of moving small scale vehicle target detection results

      本文將不同算法在公開數(shù)據(jù)集上的檢測精度及訓練時間進行了統(tǒng)計,如表8所示,YOLOv5算法的檢測精度最高,在DOTA和DIOR數(shù)據(jù)集的檢測精度分別為0.695和0.566,SSD算法檢測精度相對較低,分別為0.251和0.154。主要原因是車輛目標尺度過小且相對密集,該算法對于小尺度目標檢測能力相對較差。4種算法中SSD算法訓練時間最短,在DOTA和DIOR數(shù)據(jù)集上分別為31.245 h和21.135 h,F(xiàn)aster-RCNN算法訓練時間最長,分別為96.617 h和129.617 h,可見單階段目標檢測訓練速度優(yōu)于雙階段目標檢測算法。

      表8 不同算法在公開數(shù)據(jù)集的檢測結(jié)果對比Tab.8 Comparison of detection results of different algorithms in public data sets

      綜上所述,YOLOv5在DOTA和DIOR數(shù)據(jù)集的檢測效果優(yōu)于Faster-RCNN,FCOS和SSD算法。主要原因在于: ①YOLOv5中加入了自適應錨框計算模塊,可自動計算最佳錨框類型,提高算法的檢測精度和召回率; ②YOLOv5融合不同層級特征,特征信息利用更加充分; ③YOLOv5引入了Mosaic數(shù)據(jù)增強,對圖像進行隨機縮放、隨機裁剪和隨機排布等處理,有效提高算法的抗干擾能力。YOLOv5算法檢測速度快,適用于實時性要求較高的場景,但應用于遙感影像車輛檢測領(lǐng)域還需要進一步優(yōu)化,如在遙感影像車輛小而密集的場景下,可能會存在大量小目標車輛漏檢,需根據(jù)遙感影像車輛目標特點優(yōu)化網(wǎng)絡結(jié)構(gòu); YOLOv5算法不具備角度信息檢測能力,在車輛密集分布且存在一定角度時,會較大程度地影響其檢測精度。

      3.4 不同數(shù)據(jù)、模型適應性分析

      1)對不同數(shù)據(jù)的適應性。從實驗結(jié)果可知,目標檢測算法對于DOTA數(shù)據(jù)集的檢測精度高于DIOR數(shù)據(jù)集。進一步說明,目標檢測算法性能不僅在于模型自身網(wǎng)絡結(jié)構(gòu),也會受數(shù)據(jù)集大小和內(nèi)容的影響。DOTA數(shù)據(jù)集中的車輛目標數(shù)量以及類型相對較多,數(shù)據(jù)樣本較為豐富,所以訓練出的模型的魯棒性更強。因此,高質(zhì)量、大規(guī)模的數(shù)據(jù)集可以有效提升遙感影像車輛檢測效果。

      2)對不同模型的適應性。Faster-RCNN與單階段目標檢測算法不同之處是檢測目標時生成候選區(qū)域,再對候選區(qū)域進行多次分類與位置修正,相對于FCOS和SSD算法檢測速度較慢,但精度較高。然而,F(xiàn)aster-RCNN錨框類型不適用于小尺度目標,當遙感影像中的車輛目標尺寸更小時,檢測效果并不理想。SSD算法對不同層級選用不同尺寸與比例的錨框,整體精度相對較高,但對小尺度目標檢測能力較差,主要原因是特征層非線性化程度不夠,模型精度受限。YOLOv5加入自適應錨框計算與特征融合模塊,特征提取能力相對更強,檢測性能相對更好,但對于極小尺度的車輛目標,也會出現(xiàn)漏檢現(xiàn)象。FCOS算法無須進行與錨框相關(guān)的復雜運算,是一種輕量的檢測模型,直接進行逐像素點的回歸預測,避免了正負樣本不平衡的問題,但其特征圖感受野相對較大,難以檢測到小尺度車輛目標。

      綜上所述,對于高精度的車輛檢測任務,宜優(yōu)先使用雙階段的目標檢測算法,對于實時性要求高的車輛檢測任務,應優(yōu)先選擇單階段的目標檢測算法。現(xiàn)階段的目標檢測算法直接應用于遙感影像車輛檢測還難以取得較為理想的效果,網(wǎng)絡結(jié)構(gòu)仍有待針對性的改進。

      4 總結(jié)及展望

      本文針對主流目標檢測模型進行綜述,通過DOTA和DIOR這2種數(shù)據(jù)集進行實驗對比,分析不同場景下遙感影像車輛檢測效果。對于靜態(tài)場景而言,車輛排列密集、角度多樣,檢測結(jié)果容易出現(xiàn)預測框重疊現(xiàn)象。而對于動態(tài)場景而言,車輛分布相對稀疏,目標角度對于檢測結(jié)果的影響較小。目前深度學習技術(shù)在遙感影像車輛檢測任務中已取得了一些成果,但仍存在許多亟待解決的問題,目標過小、分布密集、角度多樣以及背景復雜問題是制約遙感影像車輛檢測性能的主要因素。因此,針對現(xiàn)存難點問題進行不斷優(yōu)化,是未來遙感影像車輛檢測的研究重點,其發(fā)展趨勢主要涉及以下幾點:

      1)加強弱監(jiān)督學習與無監(jiān)督學習研究。面向遙感影像大數(shù)據(jù)驅(qū)動下的深度學習算法應用中,數(shù)據(jù)量大,標注耗時長、成本高是數(shù)據(jù)處理現(xiàn)存的顯在問題。如何在弱監(jiān)督或無監(jiān)督學習下通過少量標注樣本及大量未標注數(shù)據(jù)進行學習,改善遙感影像標注數(shù)據(jù)量不足的缺陷,是后續(xù)研究亟待解決的問題之一。

      2)結(jié)合自適應特征尺度融合與注意力機制。鑒于圖像高低層特征信息的融合僅將不同分辨率的特征對齊相加,忽略了各特征層之間的關(guān)聯(lián)信息。引入自適應特征融合機制,不同層級特征分配自適應權(quán)重參數(shù),實現(xiàn)局部特征和全局特征的高效融合,以期提升車輛小目標檢測性能; 或者引入注意力機制模塊,篩選圖像的關(guān)鍵信息,以減少干擾信息對目標檢測的影響,進一步提升小目標檢測精度。

      3)探索無錨框的目標檢測算法?,F(xiàn)有研究成果大多是基于錨框進行目標檢測,此類算法訓練耗時長、運算量大。而無錨框的目標檢測算法無須進行大量錨框參數(shù)相關(guān)的運算,其檢測速度更具優(yōu)勢,深入研究將在遙感衛(wèi)星軍事監(jiān)測及智能交通等領(lǐng)域發(fā)揮重要作用。

      猜你喜歡
      錨框尺度精度
      基于YOLOv3錨框優(yōu)化的側(cè)掃聲吶圖像目標檢測
      信號處理(2022年11期)2022-12-26 13:22:06
      錨框策略匹配的SSD飛機遙感圖像目標檢測
      基于SSD算法的輕量化儀器表盤檢測算法*
      基于GA-RoI Transformer的遙感圖像任意方向目標檢測
      財產(chǎn)的五大尺度和五重應對
      基于DSPIC33F微處理器的采集精度的提高
      電子制作(2018年11期)2018-08-04 03:25:38
      宇宙的尺度
      太空探索(2016年5期)2016-07-12 15:17:55
      GPS/GLONASS/BDS組合PPP精度分析
      改進的Goldschmidt雙精度浮點除法器
      9
      大石桥市| 芮城县| 安新县| 南溪县| 潜山县| 萝北县| 瑞丽市| 台南县| 张家界市| 文登市| 兴文县| 巴林右旗| 阿拉尔市| 重庆市| 高青县| 安庆市| 清流县| 宝坻区| 武清区| 谷城县| 新竹县| 沂源县| 久治县| 南召县| 朔州市| 青州市| 阆中市| 巴林左旗| 龙里县| 衡水市| 积石山| 宿迁市| 许昌市| 汉沽区| 铜陵市| 马山县| 视频| 专栏| 涡阳县| 邵阳县| 张家川|