• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于切片推理的小目標(biāo)檢測(cè)技術(shù)研究

      2024-03-04 13:19:48劉玉雯劉文逸唐云龍何維真韓星燁
      兵器裝備工程學(xué)報(bào) 2024年2期
      關(guān)鍵詞:切片損失特征

      劉玉雯,劉文逸,唐云龍,彭 沛,何維真,韓星燁

      (西北機(jī)電工程研究所, 陜西 咸陽(yáng) 712099)

      0 引言

      目前,無(wú)人機(jī)相關(guān)技術(shù)發(fā)展迅速,無(wú)人機(jī)以其小巧靈活、高效可控、續(xù)航能力不斷加強(qiáng)的顯著特點(diǎn)廣泛應(yīng)用于民用航拍、軍事偵察、農(nóng)業(yè)監(jiān)測(cè)等領(lǐng)域[1]。在航拍視角的目標(biāo)檢測(cè)中,其飛行高度越高,高分辨率成像畫(huà)面中的目標(biāo)占比越小,而且成像過(guò)程中的光照變化、遮擋、背景復(fù)雜等因素都會(huì)增加目標(biāo)檢測(cè)的難度。相比于常規(guī)尺寸的目標(biāo),小目標(biāo)及微小目標(biāo)相對(duì)于整幅圖像占比較小,特征不明顯且易受環(huán)境變化的干擾,存在漏檢、誤檢的現(xiàn)象,使得小目標(biāo)的檢測(cè)精度僅為大目標(biāo)的一半[2]。因此,通過(guò)增加多種小特征提取方法及模型優(yōu)化策略從而提升小目標(biāo)識(shí)別準(zhǔn)確率,是當(dāng)前目標(biāo)檢測(cè)領(lǐng)域的一大研究熱點(diǎn)。

      目前的小目標(biāo)檢測(cè)算法主要從多尺度學(xué)習(xí)、數(shù)據(jù)增強(qiáng)、訓(xùn)練策略、注意力機(jī)制、基于上下文檢測(cè)的角度進(jìn)行算法改進(jìn)[3]。2020年,針對(duì)小目標(biāo)的數(shù)據(jù)預(yù)處理技術(shù)中Mosaic增強(qiáng)將4幅不同圖像拼接成原圖像尺寸輸入識(shí)別網(wǎng)絡(luò),在不改變輸入圖像尺寸的情況下,增加了圖像中的目標(biāo)數(shù)量,Copy-Paste增強(qiáng)通過(guò)復(fù)制粘貼的形式,將復(fù)制后的目標(biāo)分布于圖像任意位置,Mixup增強(qiáng)將多幅圖像進(jìn)行直接融合,增強(qiáng)后的圖像是多幅圖像相嵌的結(jié)果[4],這些預(yù)處理技術(shù)都是通過(guò)增加樣本數(shù)量來(lái)提升網(wǎng)絡(luò)學(xué)習(xí)效果,并未提升對(duì)小目標(biāo)的特征提取能力。2020年,鄭晨斌等為增強(qiáng)小目標(biāo)與周圍像素的交互學(xué)習(xí),提出一種增強(qiáng)低層網(wǎng)絡(luò)特征輸出,獲取更多上下文信息的強(qiáng)化模型,提升了小目標(biāo)特征的提取效果[5]。2021年,趙亮等針對(duì)小目標(biāo)所占像素較少,可能隨網(wǎng)絡(luò)層加深特征減少甚至缺失的問(wèn)題,提出一種全局與局部圖像特征自適應(yīng)融合的小目標(biāo)檢測(cè)算法,利用特征選擇模塊對(duì)圖像的不同輸出進(jìn)行融合,提高了小目標(biāo)檢出率[6]。2023年,謝椿輝等通過(guò)對(duì)特征提取模塊設(shè)計(jì)注意通道機(jī)制及優(yōu)化損失函數(shù)的方式對(duì)YOLOv5算法進(jìn)行改進(jìn),能夠有效適配航拍小目標(biāo)檢測(cè)需求[7]。

      本文中針對(duì)航拍視角下小目標(biāo)所占像素較少,在高分辨率成像中識(shí)別精度較低且易漏檢誤檢的問(wèn)題,結(jié)合小目標(biāo)的先驗(yàn)框尺寸及成像特點(diǎn),對(duì)YOLOv5進(jìn)行改進(jìn)并添加輔助預(yù)測(cè)機(jī)制。使用基于上下文增強(qiáng)算法,增加有效特征層對(duì)局部特征的學(xué)習(xí),減少小目標(biāo)的特征缺失;使用優(yōu)化后的邊界框損失函數(shù),使網(wǎng)絡(luò)更加關(guān)注有效目標(biāo),提高小目標(biāo)的定位精度;使用切片輔助推理算法,增加檢測(cè)網(wǎng)絡(luò)感受野,減少局部小目標(biāo)的漏檢率。本文中提出的基于切片推理的改進(jìn)YOLOv5算法,從特征網(wǎng)絡(luò)提取和目標(biāo)檢出2個(gè)角度對(duì)網(wǎng)絡(luò)模型進(jìn)行優(yōu)化,是一種高效識(shí)別小目標(biāo)的算法模型。

      1 基于航拍視角的小目標(biāo)分析

      小目標(biāo)通常是指在成像畫(huà)面中占比較少、特征不顯著且難與背景有效區(qū)分的目標(biāo)。當(dāng)前的目標(biāo)檢測(cè)領(lǐng)域并未對(duì)小目標(biāo)進(jìn)行明確劃分,定義標(biāo)準(zhǔn)分為絕對(duì)尺度和相對(duì)尺度。因目標(biāo)識(shí)別網(wǎng)絡(luò)需要構(gòu)建有效特征層,通常是以原圖像尺寸為標(biāo)準(zhǔn)進(jìn)行縮放,其中最大縮放比為32倍下采樣,故絕對(duì)尺度定義目標(biāo)所占像素小于32×32區(qū)域即為小目標(biāo)。國(guó)際光學(xué)學(xué)會(huì)認(rèn)為,應(yīng)按照目標(biāo)的實(shí)際成像比例進(jìn)行劃分,即絕對(duì)尺寸定義目標(biāo)像素面積占比小于0.12%確定為小目標(biāo)。上述是2種常規(guī)定義,還有根據(jù)面積中位數(shù)占比、目標(biāo)先驗(yàn)框占比進(jìn)行小目標(biāo)劃分[8]。小目標(biāo)在航拍成像中的分布情況如圖1所示。圖中的航拍圖像源于Visdrone2019數(shù)據(jù)集,圖中的矩形框代表小目標(biāo)在圖像中的定位結(jié)果,矩形框左上角的數(shù)字代表預(yù)測(cè)類別,該數(shù)據(jù)集共有10個(gè)類別,分別對(duì)應(yīng)0~9的數(shù)字。圖中識(shí)別結(jié)果主要是數(shù)字0和3,分別代表預(yù)測(cè)類別結(jié)果為行人和汽車。

      圖1 航拍小目標(biāo)實(shí)際分布情況

      根據(jù)圖1的分布結(jié)果,小目標(biāo)在航拍成像中是真實(shí)存在且大量分布的,圖中也出現(xiàn)了小目標(biāo)集中分布、遮擋、與背景區(qū)分度低、環(huán)境光照變差等外在變化的情況,這些影響因素都會(huì)增加小目標(biāo)標(biāo)注及特征提取的難度。隨深度神經(jīng)網(wǎng)絡(luò)層數(shù)的加深,有效特征層中包含小目標(biāo)的信息隨之減少,網(wǎng)絡(luò)學(xué)習(xí)小目標(biāo)的能力逐漸減弱,從而導(dǎo)致檢測(cè)網(wǎng)絡(luò)對(duì)小目標(biāo)的識(shí)別精度變差。

      以Visdrone2019航拍數(shù)據(jù)集為例,將代表目標(biāo)尺寸的先驗(yàn)框與原圖像在寬、高方向分別進(jìn)行比例分布統(tǒng)計(jì),目標(biāo)尺寸在原圖的占比結(jié)果如圖2所示。

      圖2 Visdrone2019數(shù)據(jù)集先驗(yàn)框分布

      由圖2結(jié)果可知,Visdrone2019數(shù)據(jù)集中的多數(shù)目標(biāo)所占像素較少,尺寸分布大多小于原圖的0.1%。該數(shù)據(jù)集是航拍圖像的典型代表,其中小目標(biāo)分布較為集中,存在背景復(fù)雜難與目標(biāo)有效區(qū)分的現(xiàn)象,故不適用于常規(guī)檢測(cè)網(wǎng)絡(luò),需要針對(duì)小目標(biāo)進(jìn)行算法優(yōu)化,提升模型訓(xùn)練時(shí)對(duì)小目標(biāo)的關(guān)注度及模型驗(yàn)證時(shí)對(duì)小目標(biāo)的檢出率。

      綜上所述,為解決航拍視角中小目標(biāo)尺寸較小、特征信息不明顯、環(huán)境適應(yīng)性差的問(wèn)題,應(yīng)在模型設(shè)計(jì)中增加對(duì)小目標(biāo)的特征學(xué)習(xí),關(guān)注代表小目標(biāo)的淺層網(wǎng)絡(luò),通過(guò)輔助推理等方式提升小目標(biāo)的識(shí)別效果。

      2 基于小目標(biāo)的YOLOv5目標(biāo)檢測(cè)識(shí)別算法

      2.1 YOLOv5目標(biāo)檢測(cè)識(shí)別算法

      基于深度學(xué)習(xí)的目標(biāo)識(shí)別算法根據(jù)檢測(cè)流程設(shè)計(jì)的不同可分為一階段和兩階段網(wǎng)絡(luò)模型,由于檢測(cè)任務(wù)對(duì)識(shí)別算法實(shí)時(shí)性的要求,使算法優(yōu)化工作更加偏向于對(duì)端到端學(xué)習(xí)的一階段算法進(jìn)行設(shè)計(jì)改進(jìn)[9-13]。針對(duì)小目標(biāo)檢測(cè)識(shí)別的算法,對(duì)同屬于一階段算法的SSD網(wǎng)絡(luò)和YOLO網(wǎng)絡(luò)的優(yōu)化改進(jìn)研究較多,其中SSD算法的模型設(shè)計(jì)較為復(fù)雜,涉及多重卷積嵌套疊加,而YOLO網(wǎng)絡(luò)的模型設(shè)計(jì)較為簡(jiǎn)明,只需在主干網(wǎng)絡(luò)中提取3個(gè)尺度的有效特征層進(jìn)行預(yù)測(cè),并在有效特征層之間進(jìn)行信息融合,使每個(gè)特征層都包含多層圖像信息,有利于網(wǎng)絡(luò)整體適應(yīng)于高分辨率圖像及多尺度目標(biāo)的學(xué)習(xí),從而提升檢測(cè)網(wǎng)絡(luò)的識(shí)別精度。YOLOv5是目前YOLO系列算法較先進(jìn)且穩(wěn)定的算法,網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

      圖3 YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)圖

      如圖3所示,YOLOv5主干網(wǎng)絡(luò)為CSPDarknet,其中包含卷積層、歸一化層、SiLU激活層及CSPLayer的Resblock大殘差模塊。CSPLayer內(nèi)部使用1×1、3×3大小的卷積核,構(gòu)成殘差邊,用于構(gòu)建深層網(wǎng)絡(luò)。主干網(wǎng)絡(luò)中使用多組卷積與CSPLayer結(jié)合,再通過(guò)殘差減少因網(wǎng)絡(luò)層數(shù)增多帶來(lái)的過(guò)擬合問(wèn)題。YOLOv5是在YOLOv4的基礎(chǔ)上進(jìn)行改進(jìn),其不同之處在于YOLOv5將SPP結(jié)構(gòu)放在主干網(wǎng)絡(luò)的底部,將多尺度卷積核應(yīng)用于構(gòu)建有效特征層中。在特征金字塔構(gòu)建時(shí),先使用CSPLayer進(jìn)行特征融合再進(jìn)行上采樣、下采用操作,最大限度保留本層特征并傳入檢測(cè)網(wǎng)絡(luò)。

      2.2 針對(duì)小目標(biāo)的YOLOv5改進(jìn)策略

      2.2.1使用CAM模塊增強(qiáng)上下文交互

      因YOLOv5中3個(gè)特征圖尺度為80×80、40×40、20×20,分別代表小目標(biāo)、中目標(biāo)和大目標(biāo),所以淺層網(wǎng)絡(luò)中包含更多的小目標(biāo)信息,通過(guò)提高淺層網(wǎng)絡(luò)特征提取或增加淺層網(wǎng)絡(luò)特征融合是針對(duì)小目標(biāo)特征提取的有效手段[14-15]。文中提出將基于上下文增強(qiáng)的CAM模塊添加到Y(jié)OLOv5特征融合網(wǎng)絡(luò)中,可有效解決小目標(biāo)特征分散、特征層間語(yǔ)義信息差異較大的問(wèn)題。CAM模塊結(jié)果如圖4所示。

      圖4 CAM模塊結(jié)構(gòu)

      如圖4可知,CAM模塊中的擴(kuò)張卷積以其特有的擴(kuò)張倍率,將標(biāo)準(zhǔn)卷積進(jìn)行擴(kuò)張放大,在不改變特征圖尺度的前提下,擴(kuò)張共享卷積核尺度,增大卷積核的感受野。為保證對(duì)特征圖的全局掃描,使用擴(kuò)張倍率為1、3、5的3個(gè)3×3大小卷積核將特征圖進(jìn)行多尺度提取,再通過(guò)不同的融合策略將特征提取結(jié)果進(jìn)行合并。CAM模塊包含3種融合機(jī)制,分別是相加(Weighted)、拼接(Concatenation)和自適應(yīng)融合(Adaptive),3種融合結(jié)構(gòu)如圖5所示。

      如圖5所示,相加和拼接2種融合機(jī)制先通過(guò)3個(gè)1×1卷積調(diào)整特征圖的通道數(shù),再在維數(shù)或通道數(shù)方面進(jìn)行特征融合,自適應(yīng)機(jī)制通過(guò)卷積、拼接和Softmax函數(shù)獲得自適應(yīng)權(quán)重,再以跳接的方式進(jìn)行融合。

      圖5 CAM模塊融合機(jī)制

      2.2.2優(yōu)化邊界框定位損失函數(shù)

      邊界框定位損失是預(yù)測(cè)框與真實(shí)框差異的回歸計(jì)算結(jié)果,代表模型對(duì)目標(biāo)識(shí)別輸出結(jié)果的定位精度,通常使用交并比(IOU)作為2個(gè)矩形框差異的衡量標(biāo)準(zhǔn)。常見(jiàn)的IOU、GIOU、DIOU函數(shù)針對(duì)矩形框間面積或中心點(diǎn)歐式距離進(jìn)行改進(jìn),訓(xùn)練結(jié)果存在回歸收斂慢、訓(xùn)練結(jié)果不均衡等問(wèn)題。YOLOv5的邊界框損失函數(shù)為CIOU,該函數(shù)在DIOU基礎(chǔ)上增加了兩矩形框間的長(zhǎng)寬一致性對(duì)比,如式(1)所示:

      (1)

      式(1)中:v判斷預(yù)測(cè)框與真實(shí)框的長(zhǎng)寬比是否一致,若一致結(jié)果為0;α表示為權(quán)重系數(shù)。

      小目標(biāo)尺寸較小,對(duì)預(yù)測(cè)框的定位精度要求更高,故文中使用Focal_EIOU損失函數(shù)對(duì)小目標(biāo)的邊界框定位損失進(jìn)行改進(jìn)。EIOU函數(shù)是將預(yù)測(cè)框與真實(shí)框的寬高差異最小化,將長(zhǎng)寬比的影響因子拆開(kāi)計(jì)算,從而產(chǎn)生更好的收斂速度和定位結(jié)果。Focal函數(shù)是解決訓(xùn)練樣本不平衡的問(wèn)題,利用長(zhǎng)尾數(shù)據(jù)分布規(guī)律,把高質(zhì)量的先驗(yàn)框和低質(zhì)量的先驗(yàn)框分開(kāi),增加回歸誤差較小的預(yù)測(cè)框?qū)Y(jié)果的占比。將二者結(jié)合后,Focal_EIOU函數(shù)如式(2)所示:

      (2)

      式(2)中:LIOU為IOU損失;Ldis為距離損失;Lasp為方位損失;γ為控制異常值抑制程度的參數(shù)。

      2.2.3檢測(cè)網(wǎng)絡(luò)添加切片輔助推理

      小目標(biāo)是由少量像素構(gòu)成,缺乏足夠的細(xì)節(jié)特征,傳統(tǒng)檢測(cè)網(wǎng)絡(luò)易忽視局部小目標(biāo),故提出使用切片輔助推理檢測(cè)網(wǎng)絡(luò),提高小目標(biāo)檢出效果。切片輔助推理(slicing aided hyper inference and fine-tuning for small object detection,SAHI),是一種通過(guò)切片輔助推理和管道微調(diào)的高效檢測(cè)網(wǎng)絡(luò),通過(guò)對(duì)圖像進(jìn)行重疊切分,使得小目標(biāo)相對(duì)于原輸入圖像產(chǎn)生較大的像素區(qū)域,有利于提升對(duì)局部小目標(biāo)的關(guān)注從而減少小目標(biāo)的漏檢率。SAHI輔助切分原理,如圖6所示[16]。

      由圖6可知SAHI的切片推理過(guò)程,先將原圖進(jìn)行切片劃分并限制切片步長(zhǎng)即切片區(qū)域在原圖中的滑動(dòng)設(shè)置,再將切片結(jié)果進(jìn)行相同寬高比例的區(qū)域分割,分割后的切片結(jié)果相互獨(dú)立,最后根據(jù)分割結(jié)果分別進(jìn)行預(yù)測(cè),因滑動(dòng)切片處理會(huì)使預(yù)測(cè)結(jié)果出現(xiàn)重復(fù),所以需要使用非極大值抑制算法對(duì)重復(fù)預(yù)測(cè)區(qū)域進(jìn)行篩選合并,再還原至原圖尺寸得到最終的推理預(yù)測(cè)結(jié)果。

      SAHI使檢測(cè)網(wǎng)絡(luò)對(duì)圖像特征掃描更加細(xì)致,增強(qiáng)了局部區(qū)域中小目標(biāo)的特征檢出能力,是一種高效的基于局部信息增強(qiáng)的小目標(biāo)檢測(cè)算法。

      2.2.4改進(jìn)的YOLOv5結(jié)構(gòu)

      YOLOv5的網(wǎng)絡(luò)結(jié)構(gòu)主要考慮常規(guī)目標(biāo)的檢測(cè)精度及模型泛化性應(yīng)用,并未過(guò)多關(guān)注目標(biāo)尺度的極限情況,所以模型訓(xùn)練的收斂方向更傾向于中大尺度目標(biāo),小目標(biāo)會(huì)因其特征提取不充分、訓(xùn)練數(shù)據(jù)不平衡等因素在識(shí)別結(jié)果中表現(xiàn)較差。改進(jìn)后的YOLOv5模型如圖7所示。

      圖6 切片輔助推理原理圖

      圖7 改進(jìn)的YOLOv5模型

      圖7中,YOLOv5主干網(wǎng)絡(luò)輸出80×80、40×40、20×20大小的3個(gè)尺度特征層,根據(jù)上、下采樣等特征融合方式輸出YOLOHead1,YOLOHead2,YOLOHead3,即代表小、中、大尺度的包含淺層特征和語(yǔ)義信息的有效特征圖,將代表稀疏特征提取的CAM模塊添加至特征融合的前端,使小目標(biāo)特征提取更具泛化效果。Detect表示模型的預(yù)測(cè)階段,包含真實(shí)標(biāo)注結(jié)果與模型預(yù)測(cè)的差值、預(yù)測(cè)類別置信度等輸出結(jié)果的計(jì)算和表示。在預(yù)測(cè)階段添加SAHI的切片推理,通過(guò)放大局部特征的像素占比,提升小目標(biāo)的檢出率;在預(yù)測(cè)結(jié)果評(píng)估階段,添加改進(jìn)的Focal_EIOU函數(shù),在模型參數(shù)迭代更新中提高預(yù)測(cè)框的定位精度。

      2.3 目標(biāo)識(shí)別算法評(píng)價(jià)指標(biāo)

      1) AP(average precision)、mAP(mean average precision)

      AP、mAP均代表目標(biāo)識(shí)別準(zhǔn)確率,AP是相對(duì)單類目標(biāo)的識(shí)別精度,mAP是多類目標(biāo)的識(shí)別精度取均值。在模型訓(xùn)練時(shí)可能存在正負(fù)樣本不均衡或某類目標(biāo)分布較多的情況,導(dǎo)致識(shí)別結(jié)果出現(xiàn)某類目標(biāo)AP較高而整體mAP較低的情況,故在分析網(wǎng)絡(luò)模型性能時(shí)應(yīng)根據(jù)數(shù)據(jù)分布情況選擇合適的識(shí)別精度評(píng)價(jià)指標(biāo)進(jìn)行結(jié)果的總和分析。

      2) 準(zhǔn)確率(precision)和召回率(Recall)

      準(zhǔn)確率是真正的正樣本數(shù)除以檢測(cè)的總數(shù),如式(3):

      (3)

      召回率是預(yù)測(cè)為正例的樣本中預(yù)測(cè)正確的數(shù)量除以真正的正樣本數(shù)量,如式(4):

      (4)

      3 實(shí)驗(yàn)分析

      3.1 實(shí)驗(yàn)平臺(tái)搭建及數(shù)據(jù)集預(yù)處理

      本次網(wǎng)絡(luò)構(gòu)建基于Python 3.8.1和Pytorch 1.13.1框架搭建,在Tesla T4顯卡和NVIDIA GeForce GTX 3090Ti GPU的配置環(huán)境下完成訓(xùn)練和測(cè)試。文中的對(duì)比實(shí)驗(yàn)采用公開(kāi)數(shù)據(jù)集Visdrone2019進(jìn)行訓(xùn)練,網(wǎng)絡(luò)抓取UAV-ROAD數(shù)據(jù)進(jìn)行算法驗(yàn)證測(cè)試。

      在數(shù)據(jù)集預(yù)處理階段,對(duì)Visdrone2019訓(xùn)練集的先驗(yàn)框大小進(jìn)行聚類,其中不同顏色區(qū)域代表不同的聚類結(jié)果,顏色區(qū)域分布越廣,代表數(shù)據(jù)在該聚類中心的結(jié)果越集中,聚類中心即聚類結(jié)果根據(jù)數(shù)據(jù)分布進(jìn)行更新,如圖8所示。得到3種不同比例和尺寸的9個(gè)結(jié)果(3,5)、(4,9)、(9,8)、(6,14)、(10,19)、(16,12)、(20,23)、(34,16)、(47,37)。

      根據(jù)聚類結(jié)果可知,小目標(biāo)先驗(yàn)框尺寸較小,與YOLOv5中默認(rèn)設(shè)置的先驗(yàn)框相差較大,為使預(yù)測(cè)結(jié)果更加符合小目標(biāo)真實(shí)尺寸,在模型訓(xùn)練前將先驗(yàn)框聚類結(jié)果進(jìn)行替換,使模型在訓(xùn)練學(xué)習(xí)中更傾向于小目標(biāo)分布。

      圖8 Visdrone2019數(shù)據(jù)集先驗(yàn)框聚類結(jié)果

      3.2 訓(xùn)練參數(shù)對(duì)比

      為驗(yàn)證CAM模塊中多尺度擴(kuò)張卷積對(duì)小目標(biāo)局部特征的提取效果,從特征提取和特征融合2個(gè)角度分別進(jìn)行基于CAM的改進(jìn)對(duì)比實(shí)驗(yàn)。對(duì)比實(shí)驗(yàn)?zāi)P蛥?shù)如表1所示。

      表1 模型參數(shù)對(duì)比

      表1記錄了實(shí)驗(yàn)中各模型參數(shù)變化情況,使用模塊參數(shù)和算法參數(shù)對(duì)比各改進(jìn)模塊對(duì)YOLOv5模型運(yùn)算的影響,其中Layers表示神經(jīng)網(wǎng)絡(luò)層數(shù),GFLOPs表示模型計(jì)算復(fù)雜度。在主干網(wǎng)絡(luò)中,將CAM替換SPPF,對(duì)比2種模塊實(shí)驗(yàn)參數(shù)可知,CAM的參數(shù)量較大,算法復(fù)雜度較高;對(duì)比CAM的3種融合方式,weight和concat都是在維數(shù)或通道進(jìn)行拼接,參數(shù)量和模型結(jié)構(gòu)一致,adaptive包含殘差結(jié)構(gòu),模型參數(shù)量大,算法層數(shù)較多。

      根據(jù)參數(shù)數(shù)據(jù)及算法計(jì)算復(fù)雜度對(duì)比可知,在主干網(wǎng)絡(luò)中使用殘差結(jié)構(gòu)進(jìn)行多層特征提取,將改進(jìn)模塊放置于融合網(wǎng)絡(luò)的處理方式能夠增強(qiáng)目標(biāo)特征表達(dá),且改進(jìn)后的融合網(wǎng)絡(luò)與原算法相比,模型參數(shù)差異較小,是一種參數(shù)量變化較少的改進(jìn)分支結(jié)構(gòu)。

      3.3 損失值對(duì)比

      邊界框回歸結(jié)果是衡量目標(biāo)定位精度的關(guān)鍵,基于YOLO算法的損失值包含置信度損失、分類損失和定位損失如式(5)所示:

      L(o,c,O,C,l,g)=λ1Lconf(o,c)+λ2Lcla(O,C)+

      λ3Lloc(l,g)

      (5)

      式(5)中:λ1、λ2、λ3為平衡系數(shù);Lconf、Lcla、Lloc分別為置信度損失、分類損失和定位損失。置信度損失用于模型判別目標(biāo)與背景;分類損失用于判別目標(biāo)是否屬于該類型;定位損失用于判別模型預(yù)測(cè)結(jié)果是否準(zhǔn)確。

      采用批梯度下降的方式,對(duì)CAM在主干網(wǎng)絡(luò)和融合網(wǎng)絡(luò)改進(jìn)的多種結(jié)構(gòu)分別進(jìn)行訓(xùn)練。對(duì)Visdrone2019中的訓(xùn)練集和驗(yàn)證集進(jìn)行隨機(jī)組合,隨機(jī)選取80%作為訓(xùn)練集,每次訓(xùn)練進(jìn)行100次迭代,批量大小設(shè)置為16,初始學(xué)習(xí)率為0.01,權(quán)重衰減為0.000 5,不進(jìn)行額外數(shù)據(jù)增強(qiáng)處理。使用YOLOv5默認(rèn)損失函數(shù),以50個(gè)epoch為例進(jìn)行對(duì)比,3種損失函數(shù)對(duì)比結(jié)果如圖9所示。

      圖9 邊界框損失函數(shù)對(duì)比

      圖9中“head-cam-weight”為本文中的改進(jìn)框架,可見(jiàn)幾組改進(jìn)結(jié)構(gòu)對(duì)于目標(biāo)分類較為準(zhǔn)確,邊界框損失基本在20個(gè)epoch趨于穩(wěn)定,而本文中提出的改進(jìn)方式收斂速度最快,在12個(gè)epoch趨于穩(wěn)定;置信度損失函數(shù)中,前10個(gè)epoch的數(shù)值變化劇烈,本文中的改進(jìn)算法在5個(gè)epoch時(shí)存在小幅波動(dòng)后趨于穩(wěn)定;邊界框定位損失中,各改進(jìn)方式的變化趨勢(shì)較為相似,基本在0.11左右收斂結(jié)束。因此,將CAM模塊添加至YOLOv5特征融合網(wǎng)絡(luò)并使用“weight”融合方式在檢測(cè)網(wǎng)絡(luò)的損失函數(shù)中收斂最快,數(shù)據(jù)波動(dòng)較小。

      另外,針對(duì)小目標(biāo)進(jìn)行了邊界框定位損失函數(shù)優(yōu)化,采用Focal_EIOU替代CIOU函數(shù),分別對(duì)比CIOU、EIOU及Focal_EIOU在CAM改進(jìn)框架中的損失值收斂效果,如圖10所示。

      圖10 改進(jìn)算法邊界框定位損失函數(shù)對(duì)比

      由圖10可知,邊界框定位損失函數(shù)為CIOU或EIOU,函數(shù)收斂變化差異較小,而Focal_EIOU在訓(xùn)練初始階段的損失值明顯下降,且隨迭代次數(shù)的增加趨于穩(wěn)定。綜上,Focal_EIOU適用于改進(jìn)后的網(wǎng)絡(luò)結(jié)構(gòu),且提升了數(shù)據(jù)集中小目標(biāo)的定位精度。

      3.4 識(shí)別結(jié)果分析

      3.4.1數(shù)據(jù)集識(shí)別結(jié)果分析

      因Visdrone2019數(shù)據(jù)集包含10個(gè)類別,且各類樣本分布不均,選取數(shù)據(jù)集中目標(biāo)分布較多的4個(gè)類別進(jìn)行識(shí)別效果對(duì)比,將IOU閾值均設(shè)置為0.5,選取20%的數(shù)據(jù)進(jìn)行驗(yàn)證,使用目標(biāo)識(shí)別評(píng)價(jià)指標(biāo)對(duì)改進(jìn)結(jié)構(gòu)的目標(biāo)識(shí)別效果進(jìn)行對(duì)比,各類目標(biāo)識(shí)別結(jié)果如表2所示。

      表2 目標(biāo)識(shí)別結(jié)果對(duì)比

      從表2可知,改進(jìn)算法(FPN-cam-weight-Focal_EIOU)的識(shí)別準(zhǔn)確率最高,在檢測(cè)小車(car)、行人(pedestrian)、卡車(truck)、摩托車(motor)等小目標(biāo)的效果上提升明顯,對(duì)比原YOLOv5模型,分別提升了4.4%、2.1%、1.5%、2.4%。對(duì)比數(shù)據(jù)集全類別的PR曲線變化,可以看到小車的準(zhǔn)確率和召回率結(jié)果最優(yōu),對(duì)改進(jìn)算法的應(yīng)用效果最好,如圖11所示。

      圖11 改進(jìn)算法在Visdrone2019數(shù)據(jù)集的PR曲線

      綜上,可見(jiàn)改進(jìn)算法相比于原YOLOv5識(shí)別準(zhǔn)確率明顯提升,尤其是小車這種目標(biāo)分布較多且特征顯著的類別,改進(jìn)算法的特征提取能力較強(qiáng)且訓(xùn)練效果最好。

      3.4.2小目標(biāo)檢出結(jié)果分析

      為了驗(yàn)證本文中提出的在檢測(cè)網(wǎng)絡(luò)中添加SAHI切片輔助推理算法,在高分辨率圖像中小目標(biāo)的檢出率方面的提升效果,在網(wǎng)絡(luò)中抓取1080P分辨率的UAV-ROAD視頻數(shù)據(jù)。將切片重疊率設(shè)置為0.2,切片步長(zhǎng)為512,切片寬高比一致,并使用NMS篩選重疊率高的檢測(cè)框。將原YOLOv5檢測(cè)網(wǎng)絡(luò)及本文中改進(jìn)檢測(cè)算法進(jìn)行對(duì)比,識(shí)別結(jié)果如圖12所示,圖中矩形框及標(biāo)號(hào)代表了算法預(yù)測(cè)結(jié)果,依據(jù)數(shù)據(jù)集的數(shù)字-類別對(duì)應(yīng)關(guān)系,在圖中直接進(jìn)行類別顯示和置信度標(biāo)注,如“car 0.71”代表算法預(yù)測(cè)圖中的小目標(biāo)類別為汽車,且該目標(biāo)為汽車的置信度概率為0.71。

      圖12 檢測(cè)網(wǎng)絡(luò)識(shí)別結(jié)果對(duì)比

      由圖12可知,在同幀圖像中原YOLOv5檢測(cè)網(wǎng)絡(luò)識(shí)別出12輛小車,未識(shí)別出行人;改進(jìn)檢測(cè)網(wǎng)絡(luò)識(shí)別出26輛小車和8個(gè)行人??梢?jiàn),改進(jìn)的檢測(cè)網(wǎng)絡(luò)對(duì)于高分辨率中的小目標(biāo)檢出效果較好,使圖中右上角容易被忽視的行人及左上角遠(yuǎn)處的車輛,通過(guò)切片的方式,使網(wǎng)絡(luò)能夠檢測(cè)識(shí)別局部區(qū)域內(nèi)的有效目標(biāo),提升了整幅圖像中小目標(biāo)的檢出率,且在同一位置的目標(biāo)識(shí)別精度有所提高,證明了本文中改進(jìn)算法能夠有效提升小目標(biāo)檢測(cè)效率。

      4 結(jié)論

      本文中的改進(jìn)算法從模型特征融合、目標(biāo)矩形框定位及目標(biāo)檢出率3個(gè)方面進(jìn)行優(yōu)化,使用公開(kāi)數(shù)據(jù)集進(jìn)行算法對(duì)比驗(yàn)證,實(shí)驗(yàn)結(jié)果證明了本文中的改進(jìn)算法在小目標(biāo)檢測(cè)精度及檢出率方面均優(yōu)于原YOLOv5算法,是一種針對(duì)小目標(biāo)的高效識(shí)別檢測(cè)網(wǎng)絡(luò)。

      1) 根據(jù)高分辨率圖像中小目標(biāo)先驗(yàn)框?qū)捀哒急?驗(yàn)證了小目標(biāo)是大量分布且像素占比僅為0.1%左右,通過(guò)對(duì)目標(biāo)數(shù)據(jù)集先驗(yàn)框尺寸聚類,得到符合該數(shù)據(jù)集的9個(gè)聚類結(jié)果,并將其應(yīng)用于模型訓(xùn)練中。

      2) 本文中改進(jìn)算法在特征融合中使用CAM模塊,提升了局部特征感受野,增強(qiáng)了小目標(biāo)與其周圍像素的交互式學(xué)習(xí);在目標(biāo)矩形框定位中使用Focal_EIOU損失函數(shù),增加了有效識(shí)別結(jié)果的關(guān)注度,顯著提升了圖像中小目標(biāo)的定位精度,使得單類別識(shí)別精度提升4.4%。

      3) 將SAHI輔助推理算法應(yīng)用于檢測(cè)網(wǎng)絡(luò)中,通過(guò)切片的方式增加局部區(qū)域中小目標(biāo)的檢測(cè)效果,通過(guò)與原YOLOv5檢測(cè)網(wǎng)絡(luò)的對(duì)比,小目標(biāo)檢出率提升為原來(lái)的2倍。

      猜你喜歡
      切片損失特征
      少問(wèn)一句,損失千金
      胖胖損失了多少元
      如何表達(dá)“特征”
      不忠誠(chéng)的四個(gè)特征
      玉米抽穗前倒伏怎么辦?怎么減少損失?
      抓住特征巧觀察
      基于SDN與NFV的網(wǎng)絡(luò)切片架構(gòu)
      腎穿刺組織冷凍切片技術(shù)的改進(jìn)方法
      一般自由碰撞的最大動(dòng)能損失
      冰凍切片、快速石蠟切片在中樞神經(jīng)系統(tǒng)腫瘤診斷中的應(yīng)用價(jià)值比較
      双城市| 呼伦贝尔市| 高要市| 公安县| 东乡县| 专栏| 高陵县| 东兴市| 石家庄市| 福贡县| 盐山县| 南召县| 阳高县| 扎赉特旗| 固原市| 八宿县| 高唐县| 邛崃市| 南涧| 天峻县| 耒阳市| 聂拉木县| 武平县| 大悟县| 安多县| 西安市| 辰溪县| 武定县| 黎平县| 剑阁县| 安庆市| 株洲县| 黑龙江省| 海城市| 航空| 中牟县| 广饶县| 麻阳| 余干县| 东乡县| 武定县|