• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      采用改進(jìn)的YOLOv5s 檢測(cè)花椒簇

      2023-11-26 10:13:06熊舉舉彭佑菊何佳佳
      關(guān)鍵詞:錨框花椒標(biāo)簽

      徐 楊 ,熊舉舉 ,李 論 ,彭佑菊 ,何佳佳

      (1. 貴州大學(xué)大數(shù)據(jù)與信息工程學(xué)院,貴陽 550025;2. 貴陽鋁鎂設(shè)計(jì)研究院有限公司,貴陽 550025)

      0 引言

      隨著農(nóng)業(yè)領(lǐng)域的快速發(fā)展與人工智能技術(shù)的廣泛應(yīng)用,農(nóng)業(yè)生產(chǎn)逐漸朝著智能化、高效化的方向發(fā)展。作為中國常見的農(nóng)作物之一,花椒被廣泛種植和消費(fèi)。然而,傳統(tǒng)的花椒采摘主要依賴人工勞動(dòng)。由于花椒枝干上遍布尖刺且枝葉雜亂,采摘的難度較大。因此,開發(fā)自動(dòng)化采摘技術(shù)[1-2]對(duì)花椒產(chǎn)業(yè)的發(fā)展至關(guān)重要。

      目標(biāo)檢測(cè)算法是實(shí)現(xiàn)自動(dòng)化采摘技術(shù)的關(guān)鍵[3]。傳統(tǒng)的目標(biāo)檢測(cè)算法通常需要先對(duì)花椒圖像進(jìn)行分割,去除背景信息,再提取尺度不變特征轉(zhuǎn)換[4](scaleinvariant feature transformer,SIFT)或方向梯度直方圖[5](histogram od oriented gradient,HOG)等紋理特質(zhì),然后進(jìn)行目標(biāo)定位和識(shí)別。萬芳新等[6]利用紅色和綠色的圖像差異進(jìn)行分割,使用優(yōu)化腐蝕濾除噪點(diǎn)和隔離帶法去除非目標(biāo)花椒果實(shí),實(shí)現(xiàn)對(duì)花椒的定位。齊銳麗等[7]利用HSV(hue,saturation,value)模型對(duì)花椒圖像進(jìn)行處理,然后使用Otsu 算法進(jìn)行閾值分割,以達(dá)到對(duì)花椒目標(biāo)的辨識(shí)。

      上述傳統(tǒng)的機(jī)器學(xué)習(xí)算法需要手工提取特征,難以獲得較好的檢測(cè)結(jié)果。基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法通過大規(guī)模的訓(xùn)練和端到端的學(xué)習(xí)取得了顯著進(jìn)展,能夠有效應(yīng)對(duì)農(nóng)業(yè)工程中復(fù)雜的場(chǎng)景、光照變化、遮擋等挑戰(zhàn)。它們能夠適應(yīng)不同尺寸、不同類別、不同比例和不同的形狀目標(biāo),具有魯棒性強(qiáng)、自適應(yīng)性好、準(zhǔn)確率高的優(yōu)勢(shì)。在農(nóng)業(yè)自動(dòng)化領(lǐng)域得到了廣泛的應(yīng)用,如獼猴桃花朵檢測(cè)[8],茶葉雜質(zhì)檢測(cè)[9]、套袋柑橘檢測(cè)[10]等。

      常用的目標(biāo)檢測(cè)算法分為兩類,第一類是基于候選區(qū)域的目標(biāo)檢測(cè)算法。主要有R-CNN[11]、Fast R-CNN[12]、Faster R-CNN[13]、SPPNet[14]等。另一類是基于回歸的目標(biāo)檢測(cè)算法,代表性的算法有YOLO[15-18]系列和SSD[19]系列等。YOLO 系列算法具有高準(zhǔn)確率和高檢測(cè)速度的優(yōu)點(diǎn),被廣泛應(yīng)用在農(nóng)作物的果實(shí)檢測(cè)中。趙德安等[20]通過YOLOv3 卷積神經(jīng)網(wǎng)絡(luò)遍歷整個(gè)圖像回歸目標(biāo)的類別和位置,在效率與準(zhǔn)確率兼顧的情況下實(shí)現(xiàn)了復(fù)雜環(huán)境下蘋果的檢測(cè)。楊堅(jiān)等[21]改進(jìn)YOLOv4,通過添加小目標(biāo)檢測(cè)頭有效解決遮擋和小番茄識(shí)別準(zhǔn)確率低的問題。

      目前國內(nèi)外對(duì)農(nóng)作物果實(shí)的目標(biāo)檢測(cè)研究較為成熟,但是以花椒簇為對(duì)象的目標(biāo)檢測(cè)研究較少。李光明等[22]使用ShuffleNet 作為主干,輕量化YOLOv5 模型實(shí)現(xiàn)了對(duì)花椒簇的檢測(cè)。楊前等[23]提出多任務(wù)上下文增強(qiáng)的花椒檢測(cè)模型,向YOLOv4 目標(biāo)檢測(cè)網(wǎng)絡(luò)中加入枝干分割模塊,形成檢測(cè)-分割多任務(wù)網(wǎng)絡(luò)準(zhǔn)確檢測(cè)近景花椒。

      本研究提出一種基于YOLOv5s 的花椒簇檢測(cè)模型,通過改進(jìn)YOLOv5s 的主干網(wǎng)絡(luò)、使用OTA(optimal transport assignment)優(yōu)化模型訓(xùn)練過程中的標(biāo)簽分配策略、使用WIoU 作為邊界框損失函數(shù)實(shí)現(xiàn)對(duì)花椒測(cè)的快速檢測(cè)。

      1 材料與方法

      1.1 數(shù)據(jù)集

      本文以成熟的花椒簇為研究對(duì)象,部分圖像采集于貴州省黔西南布依族苗族自治州晴隆縣玄德花椒產(chǎn)業(yè)發(fā)展有限公司花椒種植基地,其經(jīng)度、緯度及海拔分別是26.148°、105.942°和1 007 m。于2022 年6 月3 日,采用手機(jī)攝像頭進(jìn)行拍攝,拍攝照片分辨率為2 400×1 344 像素,經(jīng)過篩選得到400 張圖像。為了增強(qiáng)數(shù)據(jù)的多樣性,從中國植物圖像庫獲取了148 張花椒圖像作為補(bǔ)充,以提供更多樣化的花椒簇樣本,覆蓋更廣泛的特征和變化。

      對(duì)收集到的548 張圖像,使用LabelImg 工具對(duì)目標(biāo)以最小外接矩形框進(jìn)行標(biāo)注。為了增加數(shù)據(jù)的多樣性及魯棒性,對(duì)這些圖像進(jìn)行數(shù)據(jù)增強(qiáng)處理,針對(duì)每張圖像及其標(biāo)注框,采用隨機(jī)旋轉(zhuǎn)和亮度調(diào)整的方式進(jìn)行數(shù)據(jù)擴(kuò)充。具體來說,將圖像在-15°到15°之間隨機(jī)旋轉(zhuǎn)、并對(duì)圖像及標(biāo)注框進(jìn)行隨機(jī)亮度調(diào)整,調(diào)整范圍為-25%到25%。通過這種方式,為每張圖像生成兩張新的圖像,最終得到共計(jì)1 644 張圖像的數(shù)據(jù)集。將數(shù)據(jù)集按照7:2:1 的比例隨機(jī)劃分訓(xùn)練集、驗(yàn)證集以及測(cè)試集。數(shù)據(jù)集部分圖像如圖1 所示。

      圖1 數(shù)據(jù)集部分圖像示例Fig.1 Example of some images from the dataset

      1.2 改進(jìn)YOLOv5s 模型的搭建

      YOLOv5s 主要由骨干網(wǎng)絡(luò)(BackBone)、頸部網(wǎng)絡(luò)(Neck)和頭部預(yù)測(cè)網(wǎng)絡(luò)(Head)組成。YOLOv5s 的主干網(wǎng)絡(luò)CSPDarkNet53 通過深層的卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像提取,卷積神經(jīng)網(wǎng)絡(luò)可以高效的提取圖像特征,但是感受野較小,難以捕獲較遠(yuǎn)距離的語義信息。此外,卷積神經(jīng)網(wǎng)絡(luò)通過在圖像的不同位置應(yīng)用相同的卷積核進(jìn)行權(quán)值共享,難以準(zhǔn)確識(shí)別具有不同尺度或上下文信息的目標(biāo)。自注意力機(jī)制對(duì)圖像的全局依賴關(guān)系進(jìn)行建模,不進(jìn)行權(quán)值共享,更適應(yīng)不同尺度、形狀和上下文信息的目標(biāo),可以提供更精準(zhǔn)的定位和目標(biāo)區(qū)分能力。

      改進(jìn)YOLOv5s 的結(jié)構(gòu)如圖2 所示,主要改進(jìn)如下。首先,結(jié)合卷積神經(jīng)網(wǎng)絡(luò)與自注意力機(jī)制的優(yōu)勢(shì),利用輕量級(jí)的卷積神經(jīng)網(wǎng)絡(luò)模塊MBConv[24]和基于ReLU 的自注意力機(jī)制[25]改進(jìn)EfficientViT 網(wǎng)絡(luò)[26]。用其作為改進(jìn)YOLOv5s 的主干網(wǎng)絡(luò),減少模型參數(shù)量的同時(shí)增強(qiáng)模型的感受野以及多尺度學(xué)習(xí)能力。其次,在訓(xùn)練過程中使用了OTA[27]標(biāo)簽分配策略,利用全局信息尋找最優(yōu)的樣本匹配結(jié)果,提高標(biāo)簽分配的質(zhì)量。最后,用WIoU 損失函數(shù)[28]對(duì)原損失函數(shù)CIoU 進(jìn)行替換,通過將高質(zhì)量錨框的競(jìng)爭(zhēng)能力降低,同時(shí)減少低質(zhì)量錨框所產(chǎn)生的有害梯度,來優(yōu)化邊界框定位能力。

      圖2 改進(jìn)YOLOv5s 網(wǎng)絡(luò)整體架構(gòu)Fig.2 Improved YOLOv5s network architecture

      1.2.1 EfficientViT 網(wǎng)絡(luò)

      本文使用改進(jìn)的EfficientViT 網(wǎng)絡(luò)作為改進(jìn)YOLOv5s 模型的主干,該網(wǎng)絡(luò)使用一系列輕量化的卷積操作和輕量級(jí)自注意力機(jī)制提取圖像特征。EfficientViT網(wǎng)絡(luò)架構(gòu)如圖3 所示。輸入維度為640×640×3 的三通道RGB 圖像,通過Input Item 模塊后,特征圖依次通過Stage1、Stage2、Stage3、Stage4 進(jìn)行處理,最終將Stage4 的輸出輸入到SPPF(fast spatial pyramid pooling)模塊中。在特征提取的過程中,使用MBConv(MobileNetV3 block convolution,MBConv)模塊來提取圖像的特征。在Stage3 和Stage4 的MBConv 之后,添加LightweightViT 模塊,以進(jìn)一步的增強(qiáng)重要特征的表達(dá)能力。

      圖3 EfficientViT 網(wǎng)絡(luò)整體架構(gòu)Fig.3 EfficientViT network architecture

      MBConv 模塊的結(jié)構(gòu)如圖4 所示。首先,通過一個(gè)輕量級(jí)的1×1 卷積操作,降低輸入特征圖的通道數(shù)。然后采用深度可分離卷積DWConv(depthwise convolution,DWConv)對(duì)輸入進(jìn)行處理。經(jīng)過DWConv 之后,將其輸出通過SENet[29](squeeze-and-excitation networks,SENet)進(jìn)行處理。接下來,通過一個(gè)1×1 卷積操作將通道數(shù)恢復(fù)到與輸入特征圖相同的數(shù)量。最后,將經(jīng)過DWConv 和SENet 處理的特征圖與輸入特征圖在相同維度的數(shù)值進(jìn)行相加,避免梯度消失的問題。

      圖4 MBConv 模塊Fig.4 MBConv module

      其中,DWConv 分為深度卷積和逐點(diǎn)卷積。深度卷積將通道間的卷積分解為獨(dú)立的卷積操作,在每個(gè)通道上進(jìn)行獨(dú)立的卷積。逐點(diǎn)卷積使用1×1 的卷積核對(duì)深度卷積的輸出進(jìn)行卷積操作,相當(dāng)于對(duì)特征圖的通道維度進(jìn)行線性組合。兩者相結(jié)合,使得網(wǎng)絡(luò)在保持高效性的同時(shí),能夠更好地提取和表示特征。

      SE 模塊通過一個(gè)全局平均池化將特征圖降維,然后通過兩個(gè)全連接層生成每個(gè)通道的注意力權(quán)重,最后這些權(quán)重與輸入特征相乘,得到新的特征圖。SE 模塊的輸入是之前模塊得到的特征圖F∈RH×W×C,輸出為

      式中?表示基于元素的乘法,兩個(gè)全連接層的激活函數(shù)分別是ReLU 函數(shù)和Sigmoid 函數(shù)。SE 模塊的輸出保留了輸入特征圖每個(gè)通道的重要信息,通過對(duì)每個(gè)通道的自適應(yīng)調(diào)整,以突出關(guān)鍵特征,能夠提高網(wǎng)絡(luò)的表達(dá)能力和特征選擇能力。

      LightweightViT 模塊如圖5 所示。該模塊由一個(gè)輕量級(jí)多尺度注意力Lightweight MSA(lightweight multiscale attention)模塊和一個(gè)MBConv 模塊組成。

      圖5 LightweightViT 模塊Fig.5 LightweightViT module

      Lightweight MSA 模塊使用5×5 和3×3 的深度可分離卷積DSConv(depthwise separable convolution,DSConv)將附近的Q、K、V聚合起來。再通過輕量級(jí)的自注意力處理,增強(qiáng)了模塊的多尺度學(xué)習(xí)能力。假設(shè)輸入是x∈RN×f,自注意力可以表示為

      式中Q=xWQ,K=xWK,V=xWV,Qi是矩陣Q的第i行,Kj、Vj分別是矩陣K、V的第j列。而WQ、Wk、WV∈Rf×d是可學(xué)習(xí)的線性映射矩陣。Oi是輸出矩陣O的第i行。Sim(·,·)是相似性函數(shù)。

      本文使用基于ReLU 的全局注意力,相似性函數(shù)Sim(·,·) 可表示為 Sim(Q,K)=ReLU(Q)ReLU(K)T。則式(2)可改寫為

      1.2.2 標(biāo)簽分配策略

      目標(biāo)檢測(cè)網(wǎng)絡(luò)通過預(yù)測(cè)一組預(yù)先定義的特征點(diǎn)或錨框(YOLOv5s 中使用錨框)的分類標(biāo)簽和回歸偏移量完成密集的預(yù)測(cè)任務(wù)。為了訓(xùn)練檢測(cè)器,需要為每個(gè)錨框定義分類標(biāo)簽和回歸目標(biāo),這被稱為標(biāo)簽分配。在YOLOv5 中,采用了基于形狀匹配的標(biāo)簽分配策略,該策略通過計(jì)算真實(shí)標(biāo)注目標(biāo)和每個(gè)錨框的寬高比來確定正樣本。

      OTA 標(biāo)簽分配策略從全局的角度進(jìn)行標(biāo)簽分配。將其視為一個(gè)優(yōu)化運(yùn)輸(optimal transport,OT)問題。其目標(biāo)是尋找一個(gè)運(yùn)輸計(jì)劃 ω*={ωi,j|i=1,2,...m,j=1,2,...n},使得所有供應(yīng)商的貨品都能夠以最小的運(yùn)輸成本提供給需求者,可表示為

      式中m為供應(yīng)商數(shù)量、n為需求者數(shù)量、s為供應(yīng)向量、d為需求向量。對(duì)于目標(biāo)檢測(cè)任務(wù),假設(shè)輸入圖像中存在m個(gè)真實(shí)標(biāo)注目標(biāo)和n個(gè)錨框(anchor)。把每一個(gè)真實(shí)標(biāo)注目標(biāo)視為持有k個(gè)單位正標(biāo)簽的供應(yīng)商,而每一個(gè)錨框則是單位標(biāo)簽的需求者。將單位正標(biāo)簽從gti運(yùn)輸?shù)揭粋€(gè)錨框aj的成本可以表示為分類損失和回歸損失的加權(quán)和

      除了正樣本之外,大量的錨框被當(dāng)作負(fù)樣本。假設(shè)這些負(fù)樣本錨框的由輸入圖像的背景提供。因此將背景提供的負(fù)樣本數(shù)設(shè)置為m-n×k。從背景到一個(gè)錨框aj運(yùn)輸一個(gè)單位的負(fù)標(biāo)簽的成本cbg∈R1×n定義為

      式中?表示背景分類。供應(yīng)向量si可表示為

      所以,完整的損失矩陣c∈R(m+1)×n,供應(yīng)向量s∈Rm+1,需求向量d∈Rn,最優(yōu)運(yùn)輸計(jì)劃 ω*∈R(m+1)×n可以通過現(xiàn)成的Sinkhorn-Knopp[30]迭代法解決這個(gè)OT問題得到,將每個(gè)錨框分配給向其運(yùn)輸最多標(biāo)簽的真實(shí)標(biāo)注目標(biāo)來解碼相應(yīng)的分配方案。

      1.2.3 WIoU 損失函數(shù)

      ⑤由于本工程模袋布長(zhǎng)度比較長(zhǎng),底坡為新開挖土質(zhì),為防止滑坡,采用先充灌(標(biāo)高35 m左右)和上溝底用于固定模袋布,再由潛水員充灌水下下平臺(tái)(標(biāo)高28.7 m)及自下而上充灌坡面,上平臺(tái)與斜坡間采用臨時(shí)隔斷(人工縫隔斷線),待整倉模袋布接近飽滿時(shí)解除臨時(shí)隔斷線。

      邊界框定位損失直接決定了模型的目標(biāo)定位能力。WIoU 使用了動(dòng)態(tài)非聚焦機(jī)制,該機(jī)制使用離群度作為衡量錨框質(zhì)量的指標(biāo),并提供了梯度增益分配策略。損失函數(shù)LWIoUv1可表示為

      式中Wg、Hg是目標(biāo)邊界框與錨框的交集的寬和高,x、y表示錨框中心點(diǎn)坐標(biāo),xgt、ygt表示目標(biāo)邊界框中心點(diǎn)坐標(biāo)、IoU(intersection over union)表示預(yù)測(cè)框與真實(shí)標(biāo)注框的重疊面積與其并集面積的比值。RWIoU∈[1,e)會(huì)放大質(zhì)量普通的錨框的LIoU、LIoU∈(0,1)會(huì)減少高質(zhì)量錨框的RWIoU。

      式中當(dāng) β=δ 時(shí),使r=1。由于是動(dòng)態(tài)的,使得LWIoU能夠?qū)崟r(shí)的做出梯度分配策略。

      1.3 試驗(yàn)環(huán)境與評(píng)價(jià)指標(biāo)

      1.3.1 試驗(yàn)環(huán)境

      本文方法基于python3.8 和pytorch1.12.1 框架實(shí)現(xiàn)。輸入圖像大小為640×640×3 的RGB 圖像,在單張高性能NVIDIA GeForce GTX 3 090 顯卡上訓(xùn)練。采用SGD優(yōu)化器進(jìn)行優(yōu)化,模型的訓(xùn)練周期(Epoch)為300、批量大?。˙atch size)為16、初始學(xué)習(xí)率為0.01,使用余弦退火函數(shù)動(dòng)態(tài)降低學(xué)習(xí)率、權(quán)重衰減為0.000 5。WIoU 損失函數(shù)中設(shè)置 δ=2,α=2.2,對(duì)動(dòng)量m設(shè)置n=300,t=25。

      1.3.2 評(píng)價(jià)指標(biāo)

      mAP 由準(zhǔn)確率(precision)和召回率(recall)計(jì)算得到。首先利用準(zhǔn)確率何召回率繪制PR 曲線并求其積分可以得到每個(gè)種類的平均精度AP(average precision),即再對(duì)所有類別的AP 求取平均值便可得到mAP。P、R的具體計(jì)算可見參考文獻(xiàn) [31]。

      2 結(jié)果與分析

      2.1 消融試驗(yàn)

      為了評(píng)估和驗(yàn)證提出的改進(jìn)YOLOv5s 模型中不同組件和算法對(duì)檢測(cè)模型的影響。以YOLOv5s 模型為基礎(chǔ),在試驗(yàn)中逐步移除或添加不同的組件,并通過不同的組件組合進(jìn)行7 組試驗(yàn),以驗(yàn)證各個(gè)組件的有效性。試驗(yàn)結(jié)果如表1 所示。

      表1 消融試驗(yàn)結(jié)果Table 1 Result of ablation experiment

      從表1 可以看出7 組試驗(yàn)對(duì)改進(jìn)YOLOv5s 模型中不同組件或算法對(duì)花椒簇目標(biāo)檢測(cè)性能的影響。在第1組試驗(yàn)中,將YOLOv5s 模型的邊界框損失函數(shù)替換為WIoU 損失函數(shù),模型的mAP 從95.4%上升到96.1%。第2 組試驗(yàn)將YOLOv5s 的主干網(wǎng)絡(luò)替換為EfficientViT 網(wǎng)絡(luò),模型的mAP 提升至96.3%,同時(shí)模型的參數(shù)量從7.0 M 減少到5.7 M、浮點(diǎn)運(yùn)算數(shù)從15.9 G 減少到10.4 G,使用EfficientViT 作為主干在減少參數(shù)量的同時(shí)增強(qiáng)了多尺度學(xué)習(xí)能力和對(duì)重要特征的表達(dá)能力。在第3 組試驗(yàn)中,在YOLOv5s 的基礎(chǔ)上使用OTA 標(biāo)簽分配策略,模型的mAP 提升0.8 個(gè)百分點(diǎn),參數(shù)量增加了0.2 M,浮點(diǎn)運(yùn)算數(shù)FLOPs 增加了1.1 G。OTA 標(biāo)簽分配策略略微增加模型的復(fù)雜度以和計(jì)算量,但提升了模型的精度。在接下來的第4、5、6 組試驗(yàn)中,將這些組件兩兩組合,添加到了YOLOv5s 的網(wǎng)絡(luò)上,都使得模型的mAP 得到不同程度的提升。最后,將YOLOv5s 的主干網(wǎng)絡(luò)替換為EfficientViT 網(wǎng)絡(luò),并在訓(xùn)練中采用了OTA 分配策略,將CIoU 損失函數(shù)更改為WIoU 損失函數(shù),構(gòu)成本文提出的改進(jìn)YOLOv5s。在數(shù)據(jù)集上,改進(jìn)YOLOv5s 模型的mAP 為97.3%。

      此外,為了驗(yàn)證不同邊界框損失函數(shù)的效果,在YOLOv5s 的基礎(chǔ)上進(jìn)行試驗(yàn)。將其邊界框損失函數(shù)替換為目前常見的DIoU[32]、GIoU[33]、SIoU[34]、EIoU[35]及WIoU 損失函數(shù),試驗(yàn)結(jié)果如表2 所示。

      表2 YOLOv5s 與改進(jìn)YOLOv5s 使用不同損失函數(shù)的mAPTable 2 mAP for YOLOv5s and improved YOLOv5s using different loss functions %

      由表2 可知,YOLOv5s 使用CIoU、DIoU、GIoU、SIoU、EIoU、WIoU 作為損失函數(shù)時(shí)mAP 分別為95.4%、95.2%、95.9%、95.7%、95.3%、96.1%。改進(jìn)YOLOv5s在使用DIoU 損失函數(shù)時(shí)mAP 最低,為96.3%,使用WIoU 損失函數(shù)時(shí)獲得最高的mAP 為97.3%。兩個(gè)模型均在使用WIoU 作為邊界框損失函數(shù)時(shí)mAP 最高,充分證明了WIoU 的有效性。

      2.2 不同目標(biāo)檢測(cè)模型的性能對(duì)比

      為了驗(yàn)證本文方法的有效性,將常見的目標(biāo)檢測(cè)模型EfficientDe[36]、SSD、RetineNet[37]、YOLOX[38],ShuffleNet_YOLOv5s[22]進(jìn)行對(duì)比試驗(yàn)。試驗(yàn)結(jié)果如表3所示。

      表3 不同模型結(jié)果對(duì)比Table 3 Comparison of results from different models

      由表3 數(shù)據(jù)可知,改進(jìn)YOLOv5s 模型的mAP 為97.3%,比YOLOv5s 模型的mAP(95.4%)高出1.9 個(gè)百分點(diǎn)。同時(shí),改進(jìn)YOLOv5s 模型的參數(shù)量為5.9 M,比YOLOv5s 模型的參數(shù)量(7.0 M)減少了15.7%。改進(jìn)YOLOv5s 模型的FPS 為131.6,比YOLOv5s 模型的FPS(114.9)提高了14.5 個(gè)%。與其他單階段目標(biāo)檢測(cè)網(wǎng)絡(luò)相比,改進(jìn)的YOLOv5s 模型的mAP 分別比EffcientDet-D1、SSD512、RetineNet-R50 和YOLOXs 高 8、16.9、8.6 和1.5 個(gè)百分點(diǎn),在參數(shù)量、檢測(cè)速度上也都表現(xiàn)出一定的優(yōu)勢(shì),更適合花椒簇檢測(cè)。

      YOLOv5s 與改進(jìn)YOLOv5s 的花椒簇識(shí)別效果對(duì)比如圖6 所示。

      圖6 YOLOv5s 模型與改進(jìn)YOLOv5s 模型的識(shí)別結(jié)果對(duì)比Fig.6 Comparison of detection results of YOLOv5s model and improved YOLOv5s model

      圖片1、圖片2 中花椒果實(shí)排列緊湊,YOLOv5s 與改進(jìn)YOLOv5s 均成功標(biāo)注了圖像中所有的花椒簇,不存在漏檢的情況,但是可以看出改進(jìn)YOLOv5s 模型的預(yù)測(cè)框分值更大,與真實(shí)框的重疊度更高。圖片3、圖片4 花椒果實(shí)分布相對(duì)稀疏,且圖片4 存在位于圖像邊緣的小目標(biāo)花椒簇。YOLOv5s 模型未能檢測(cè)到部分真實(shí)目標(biāo),存在漏檢;而改進(jìn)YOLOv5s 模型檢測(cè)出了所有目標(biāo)。

      3 結(jié)論

      為了實(shí)現(xiàn)花椒簇的快速準(zhǔn)確檢測(cè),本文基于YOLOv5s 模型提出花椒簇檢測(cè)模型。改進(jìn)YOLOv5s 使用改進(jìn)的EfficientViT 作為主干網(wǎng)絡(luò),降低了模型的參數(shù)量并增強(qiáng)多尺度學(xué)習(xí)能力、在訓(xùn)練中使用了OTA 標(biāo)簽分配策略、用WIoU 損失函數(shù)替換原先的CIoU 損失函數(shù)。在自制數(shù)據(jù)集上驗(yàn)證了改進(jìn)YOLOv5s 模型的檢測(cè)效果。

      與YOLOv5s 模型相比,改進(jìn)YOLOv5s 模型對(duì)花椒簇的平均精度均值提升了1.9 個(gè)百分點(diǎn)、模型的參數(shù)量減少了15.7%、每秒幀率提高了14.5%。得到了速度以及精度的雙重提升。

      本文將改進(jìn)YOLOv5s 與其他常見目標(biāo)檢測(cè)模型進(jìn)行對(duì)比,試驗(yàn)結(jié)果表明改進(jìn)YOLOv5s 在檢測(cè)精度、檢測(cè)速度、模型參數(shù)量上均優(yōu)于其他對(duì)比模型,對(duì)花椒簇具有較好的檢測(cè)結(jié)果。

      本文提出的改進(jìn)YOLOv5s 模型能實(shí)現(xiàn)對(duì)花椒簇的快速準(zhǔn)確檢測(cè),后續(xù)將繼續(xù)優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)記憶訓(xùn)練策略,進(jìn)一步提高對(duì)花椒簇的檢測(cè)效果。

      猜你喜歡
      錨框花椒標(biāo)簽
      基于YOLOv3錨框優(yōu)化的側(cè)掃聲吶圖像目標(biāo)檢測(cè)
      錨框策略匹配的SSD飛機(jī)遙感圖像目標(biāo)檢測(cè)
      基于SSD算法的輕量化儀器表盤檢測(cè)算法*
      基于GA-RoI Transformer的遙感圖像任意方向目標(biāo)檢測(cè)
      我國古代的玫瑰:花椒
      當(dāng)前花椒價(jià)格走低 椒農(nóng)如何積極應(yīng)對(duì)
      無懼標(biāo)簽 Alfa Romeo Giulia 200HP
      車迷(2018年11期)2018-08-30 03:20:32
      不害怕撕掉標(biāo)簽的人,都活出了真正的漂亮
      海峽姐妹(2018年3期)2018-05-09 08:21:02
      摘花椒
      花椒泡腳好處多
      海峽姐妹(2017年9期)2017-11-06 08:39:39
      宁陵县| 开鲁县| 三穗县| 攀枝花市| 许昌县| 太仓市| 五寨县| 饶平县| 唐山市| 原阳县| 三原县| 乾安县| 天全县| 右玉县| 乳山市| 融水| 彰化县| 仙居县| 宜城市| 仲巴县| 安国市| 屯门区| 叶城县| 余庆县| 泽库县| 株洲县| 禹城市| 洪洞县| 张家界市| 保山市| 葵青区| 和林格尔县| 安阳市| 东城区| 随州市| 亚东县| 云南省| 河曲县| 驻马店市| 南陵县| 德阳市|