• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于改進(jìn)YOLO v8的草莓病害檢測(cè)方法

      2024-12-31 00:00:00葉琪王麗芬馬明濤趙鑫段必沖
      江蘇農(nóng)業(yè)科學(xué) 2024年20期
      關(guān)鍵詞:注意力機(jī)制

      doi:10.15889/j.issn.1002-1302.2024.20.030

      摘要:針對(duì)自然條件下草莓病害檢測(cè)難度大、人工檢測(cè)效率低下、傳統(tǒng)計(jì)算機(jī)檢測(cè)方式步驟繁瑣、檢測(cè)精度差以及模型的參數(shù)量與計(jì)算量大的問題,構(gòu)建一種基于改進(jìn)YOLO v8的草莓病害檢測(cè)模型。該模型使用Slim-Neck結(jié)構(gòu)代替原YOLO v8網(wǎng)絡(luò)的頸部(Neck)結(jié)構(gòu)以降低深度可分離卷積特征提取和融合能力差的缺陷對(duì)模型造成的負(fù)面影響,在降低模型參數(shù)量和計(jì)算量的同時(shí)不會(huì)損失檢測(cè)的準(zhǔn)確度,并且該結(jié)構(gòu)能使模型更好地應(yīng)用于復(fù)雜的草莓種植環(huán)境。模型還引入了通道注意力和空間注意力機(jī)制(CBAM)以提高病害特征的提取能力同時(shí)忽略圖片中不相關(guān)的信息。最后模型將YOLO v8中的邊界框損失函數(shù)替換為MPDIoU以提升檢測(cè)和目標(biāo)定位的能力。結(jié)果表明,本模型在一個(gè)含有7類草莓病害的開源數(shù)據(jù)集可以實(shí)現(xiàn)96.5%的平均精度(mAP),同時(shí)僅有2.9 M參數(shù)量和 7.4 GFLOPs 值,相比于原始YOLO v8n、YOLO v7-tiny、YOLO v6n和YOLO v5s模型的mAP分別提升1.2、1.9、3.7和2.5百分點(diǎn)。改進(jìn)后的模型具有更高的檢測(cè)精度和更小的參數(shù)量與計(jì)算量,可為實(shí)際草莓種植環(huán)境下的病害檢測(cè)提供參考。

      關(guān)鍵詞:病害檢測(cè);YOLO v8;注意力機(jī)制;Slim-Neck;MPDIoU

      中圖分類號(hào):S126;TP391.41" 文獻(xiàn)標(biāo)志碼:A

      文章編號(hào):1002-1302(2024)20-0250-10

      收稿日期:2023-11-02

      基金項(xiàng)目:吉林省科技發(fā)展計(jì)劃(編號(hào):20230201073GX);吉林省重點(diǎn)新興交叉學(xué)科“數(shù)字農(nóng)業(yè)”課題。

      作者簡(jiǎn)介:葉" 琪(2000—),男,福建泉州人,碩士研究生,研究方向?yàn)橛?jì)算機(jī)視覺。E-mail:1564633612@qq.com。

      通信作者:王麗芬,碩士,副教授,主要從事計(jì)算機(jī)圖形學(xué)、軟件工程研究,E-mail:306923482@qq.com;馬明濤,博士,教授,主要從事電子電路和信號(hào)的檢測(cè)、傳輸研究,E-mail:35172318@qq.com。

      草莓是一種深受人們喜愛的水果,在世界范圍內(nèi)被廣泛種植。根據(jù)聯(lián)合國(guó)糧食及農(nóng)業(yè)組織(FAO)的調(diào)查數(shù)據(jù),2008年到2018年10年間全球草莓?dāng)?shù)量增加了39.4%,我國(guó)的草莓產(chǎn)量也從2008年的190萬t增長(zhǎng)到2018年的300萬t[1]。但是草莓在種植過程中極易受到各種病害的侵蝕,細(xì)菌、真菌和病毒等會(huì)對(duì)草莓的葉片果實(shí)等造成危害,影響草莓成長(zhǎng)甚至造成草莓植株的死亡[2]。因此,精準(zhǔn)識(shí)別并控制草莓病害的傳播對(duì)草莓種植產(chǎn)業(yè)顯得尤為重要。

      傳統(tǒng)的人工檢測(cè)植物病害的方法成本高、效率差且誤檢率高,隨著精準(zhǔn)農(nóng)業(yè)的興起,計(jì)算機(jī)輔助檢測(cè)植物病害技術(shù)開始在實(shí)際農(nóng)業(yè)生產(chǎn)過程中得到應(yīng)用[3]。蔣龍泉等提出了一種基于多特征融合和支持向量機(jī)(support vector machine,簡(jiǎn)稱SVM)分類器的植物病蟲害檢測(cè)方法,使用Bag Of Features(BoF)多特征融合技術(shù)后,檢測(cè)正確度達(dá)到95.91%[4]。Eaganathan等提出一種基于k均值分割和k近鄰(k-nearest neighbors,簡(jiǎn)稱KNN)分類器的甘蔗病害識(shí)別算法,該方法對(duì)甘蔗葉片焦枯病的監(jiān)測(cè)準(zhǔn)確率達(dá)95%[5]。

      近年來,憑借自動(dòng)化學(xué)習(xí)和特征提取的優(yōu)勢(shì),深度學(xué)習(xí)成為農(nóng)業(yè)植物保護(hù)領(lǐng)域的研究熱點(diǎn),不同于傳統(tǒng)圖像處理和識(shí)別技術(shù),深度學(xué)習(xí)可以簡(jiǎn)化識(shí)別流程,減少人工特征提取的干擾,并且可以在更復(fù)雜的自然條件下進(jìn)行檢測(cè),大大提高了植物病害的檢測(cè)效率[6]。Khan等提出了一種實(shí)時(shí)病蟲害檢測(cè)模型,先使用輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,簡(jiǎn)稱CNN)對(duì)健康與患病的葉片進(jìn)行分類,隨后使用目標(biāo)檢測(cè)模型對(duì)葉片病害區(qū)域進(jìn)行檢測(cè),最終實(shí)現(xiàn)88%的分類準(zhǔn)確度和42%的檢測(cè)準(zhǔn)確度[7]。毛銳等通過構(gòu)建Faster-RCNN和改進(jìn)的ResNet-50網(wǎng)絡(luò)模型,對(duì)小麥條銹病和黃矮病的識(shí)別平均準(zhǔn)確率達(dá)93.56%[8]。Liu等采用基于圖像金字塔的多尺度特征融合、目標(biāo)邊界框維度聚類和多尺度訓(xùn)練的方法改進(jìn)YOLO v3網(wǎng)絡(luò),在一個(gè)自建的多類別番茄病蟲害數(shù)據(jù)集的檢測(cè)效果可達(dá)92.39%[9]。在草莓病害檢測(cè)方面,Nie等提出了一種基于Faster-RCNN和多任務(wù)處理的草莓黃萎病檢測(cè)網(wǎng)絡(luò),它可以對(duì)草莓的葉柄和葉片進(jìn)行檢測(cè)并推測(cè)整個(gè)植株是否感染黃萎病,該模型在一個(gè)含4種類別的數(shù)據(jù)集中取得了77.54%的平均檢測(cè)精度[10]。Kim等提出了一種以PlanetNet為骨干特征提取器的兩階段級(jí)聯(lián)草莓病害檢測(cè)網(wǎng)絡(luò),首先識(shí)別疑似病變區(qū)域,隨后再對(duì)病變區(qū)域進(jìn)行精細(xì)檢測(cè),該網(wǎng)絡(luò)對(duì)多種草莓病害的平均檢測(cè)精度達(dá)到91.65%[11]。Li等提出了一種DAC-YOLO v4網(wǎng)絡(luò)對(duì)草莓葉片白粉病進(jìn)行檢測(cè),這種改進(jìn)的YOLO v4網(wǎng)絡(luò)相比于原始網(wǎng)絡(luò)平均精度上漲了5.1%,達(dá)到72.7%,同時(shí)擁有更快的檢測(cè)速度[12]。Zhang等提出了一種基于YOLO v4-tiny的草莓檢測(cè)網(wǎng)絡(luò)RTSD-Net,它將原有的CSPNet替換為參數(shù)減少、結(jié)構(gòu)簡(jiǎn)化的2種CSPNet,該結(jié)構(gòu)檢測(cè)精度相較于YOLO v4 tiny下降了0.62%,但是檢測(cè)速度提高了25幀/s[13]。

      以上深度學(xué)習(xí)方法相比于傳統(tǒng)的機(jī)器學(xué)習(xí)方法檢測(cè)植物病害雖然在速度或精度上有一定提升,并且可以在更復(fù)雜的環(huán)境中進(jìn)行檢測(cè),但是仍然存在一些問題:使用二階段檢測(cè)方法的模型雖然準(zhǔn)確率較好但檢測(cè)效率較低;一些模型無法同時(shí)滿足精度和速度提升的要求??紤]到傳統(tǒng)草莓病害的各種問題,本研究以YOLO v8n模型為基礎(chǔ),提出了一種全新的草莓病害檢測(cè)模型,主要貢獻(xiàn)有:

      (1)使用由GSConv卷積和VoV-GSCSP模型組成的Slim-Neck架構(gòu)代替原有YOLO v8的頸部結(jié)構(gòu),這樣的結(jié)構(gòu)不僅有效降低了模型的參數(shù)和計(jì)算量并且可以保證模型精度不損失[14]。

      (2)在模型中加入通道注意力和空間注意力機(jī)制(Convolutional Block Attention Module,簡(jiǎn)稱CBAM)以提高模型對(duì)病蟲害特征的提?。?5]。

      (3)使用MPDIoU代替初始模型的邊界框回歸損失函數(shù)[16]。

      1" YOLO v8介紹

      YOLO(You Only Look Once)是一種單階段目標(biāo)檢測(cè)模型,最早是由Redmon等于2016年提出的[17]。相比于更早之前的多階段目標(biāo)檢測(cè)模型,YOLO簡(jiǎn)化了網(wǎng)絡(luò)結(jié)構(gòu)和檢測(cè)流程,同時(shí)YOLO也更易部署在嵌入式等資源受限的設(shè)備上。本研究所采用的模型是基于YOLO v8進(jìn)行改進(jìn)的,它是由ultralytics團(tuán)隊(duì)繼YOLO v5后推出的最新圖像檢測(cè)算法,圖1展示了YOLO v8的結(jié)構(gòu)。

      YOLO v8的主干部分(Backbone)將之前 YOLO v5 中的C3結(jié)構(gòu)替換為C2f,C2f結(jié)構(gòu)的設(shè)計(jì)參考了C3結(jié)構(gòu)和YOLO v7中的ELAN結(jié)構(gòu)思想[18],這使得YOLO v8除了擁有更精簡(jiǎn)的結(jié)構(gòu)外還擁有更豐富的梯度流信息。同時(shí)在主干部分的最后使用SPPF結(jié)構(gòu),SPPF結(jié)構(gòu)是一種圖像特征提取技術(shù),它是SPP結(jié)構(gòu)[19]的改進(jìn)版本,可以增大感受野,通過在不同尺寸的網(wǎng)格上對(duì)特征圖進(jìn)行池化操作,可以使網(wǎng)絡(luò)能夠處理不同尺寸的輸入圖像,而不需要調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)。

      YOLO v8的頸部部分(Neck)采用的仍然是YOLO v5中的PAN-FPN架構(gòu),不同的是所有C3模塊都被替換為C2f模塊,并且刪除了上采樣前的2個(gè)1×1卷積層,直接將主干部分所提取的不同特征輸入進(jìn)行上采樣操作。

      YOLO v8的頭部部分(Head)將原先的耦合頭(Coupled Head)替換為與YOLOX和YOLO v6網(wǎng)絡(luò)類似的解耦頭(Decoupled Head)。同時(shí)使用 Anchor-替換掉原先網(wǎng)絡(luò)中的Anchor-Based思想,它可以自適應(yīng)地學(xué)習(xí)目標(biāo)的位置和尺寸,降低模型復(fù)雜度和計(jì)算量,更容易應(yīng)用于不同類型的目標(biāo)檢測(cè)任務(wù)。

      YOLO v8采用了全新的動(dòng)態(tài)正負(fù)樣本標(biāo)簽匹配算法對(duì)齊分類器(TaskAlignedAssigner)[20],它能根據(jù)回歸與加權(quán)的分?jǐn)?shù)選擇正樣本,相比于YOLO v5的靜態(tài)分配策略,可以更有效地利用資源,增強(qiáng)檢測(cè)系統(tǒng)的魯棒性。YOLO v8的Loss計(jì)算包含回歸損失和類別損失,相比于YOLOv5少了置信度損失

      (Objectness Loss)?;貧w損失采用Distribution Focal Loss + CIoU Loss策略[21],它可以減少模型計(jì)算量并提高檢測(cè)速度。類別損失采用經(jīng)典的二值交叉熵?fù)p失(Binary Cross-Entropy Loss,簡(jiǎn)稱BCE Loss),它能夠使模型更準(zhǔn)確地區(qū)分不同的類別,提高分類的精度。

      2" 網(wǎng)絡(luò)改進(jìn)

      YOLO v8網(wǎng)絡(luò)雖然相比于之前的目標(biāo)檢測(cè)網(wǎng)絡(luò)在性能和網(wǎng)絡(luò)結(jié)構(gòu)方面得到了明顯的優(yōu)化和提高,但是為了滿足實(shí)際農(nóng)業(yè)種植的需求,網(wǎng)絡(luò)在保證簡(jiǎn)潔輕量化的同時(shí)也不應(yīng)該忽視檢測(cè)精度,本研究針對(duì)原版YOLO v8進(jìn)行改進(jìn),將原版YOLO v8的Neck部分替換為了融合GSConv和VoV-GSCSP的Slim-Neck結(jié)構(gòu),同時(shí)使用CBAM注意力機(jī)制增強(qiáng)草莓病蟲害的特征提取,最后將邊界框回歸損失函數(shù)由原網(wǎng)絡(luò)的CIoU Loss替換為了MPDIoU Loss,改進(jìn)后的網(wǎng)絡(luò)如圖2所示。

      2.1" Slim-Neck結(jié)構(gòu)

      Slim-Neck包含了GSConv和VoV-GSCSP 2個(gè)部分。它最早是一種作用于自動(dòng)駕駛汽車目標(biāo)檢測(cè)的輕量化架構(gòu),因此它對(duì)于復(fù)雜環(huán)境和場(chǎng)景檢測(cè)有較好的提升,而草莓病害檢測(cè)也可能受光照、病害密度等復(fù)雜環(huán)境的影響,所以本研究選擇用 Slim-Neck替換原YOLO v8的Neck結(jié)構(gòu)。

      經(jīng)典的輕量化網(wǎng)絡(luò),如Mobilenets、Shufflenet和Ghostnet等網(wǎng)絡(luò)雖然能減少網(wǎng)絡(luò)的參數(shù)量和計(jì)算量,但是這往往需要犧牲網(wǎng)絡(luò)的檢測(cè)精度去換取。很多輕量化網(wǎng)絡(luò)會(huì)使用深度可分離卷積替代標(biāo)準(zhǔn)卷積,深度可分離卷積包含2個(gè)獨(dú)立的卷積操作,雖然這一特性能僅針對(duì)每個(gè)輸入通道執(zhí)行卷積操作使得學(xué)習(xí)權(quán)重?cái)?shù)量減少進(jìn)而降低模型參數(shù),但是這

      也會(huì)導(dǎo)致網(wǎng)絡(luò)特征提取和融合的能力降低,影響檢測(cè)精度。為了使深度可分離卷積的輸出精度接近標(biāo)準(zhǔn)卷積,一種全新的卷積GSConv被提出,它使用“通道隨機(jī)排序”(Channel Shuffle)的方法將標(biāo)準(zhǔn)卷積生成的信息滲透到深度可分離卷積輸出的信息中,并且不需要添加其他冗余的結(jié)構(gòu),其網(wǎng)絡(luò)架構(gòu)如圖3所示??紤]到如果在Backbone和Neck部分一起添加GSConv可能會(huì)導(dǎo)致網(wǎng)絡(luò)層數(shù)的增加以及網(wǎng)絡(luò)數(shù)據(jù)流變復(fù)雜,進(jìn)而導(dǎo)致網(wǎng)絡(luò)變大,因此本研究只在模型的Neck部分使用GSConv。

      此外Slim-Neck還包含一種基于GSConv的跨階段部分網(wǎng)絡(luò)VoV-GSCSP,本研究主要是用于替換網(wǎng)絡(luò)Neck部分的C2f結(jié)構(gòu),其結(jié)構(gòu)如圖4所示。這個(gè)結(jié)構(gòu)類似CSP結(jié)構(gòu),它引入了分階段的特征提取,能將特征圖送入“主干”和“支干”2個(gè)不同的卷積階段,這樣的設(shè)計(jì)有助于信息在不同階段之間自由流動(dòng),確保了低級(jí)別特征(如邊緣紋理信息)和高級(jí)別特征(如語義信息)之間的傳遞,從而充分利用不同層次的特征信息,避免了殘差結(jié)構(gòu)中的梯度消失和信息瓶頸的問題。同時(shí)配合上GSConv的使用可以減少整體參數(shù)量和計(jì)算量,提高模型的計(jì)算效率。

      2.2" CBAM注意力機(jī)制

      為了提高模型對(duì)草莓病蟲害特征的提取能力,

      同時(shí)忽略掉次要和不相關(guān)的信息,本研究決定在模型的Neck部分使用注意力機(jī)制。CBAM注意力機(jī)制結(jié)合了空間注意力機(jī)制(Spatial Attention)和通道注意力機(jī)制(Channel Attention),相較于單通道或單空間注意力機(jī)制,CBAM可以同時(shí)調(diào)整通道和空間位置的特征重要性,更全面地優(yōu)化特征表示。

      CBAM的結(jié)構(gòu)如圖5所示。對(duì)于輸入的圖像,通道注意力模塊首先進(jìn)行全局平均池化對(duì)通道進(jìn)行降維處理,但是相比于SE注意力機(jī)制,這里還多引入了一個(gè)最大池化處理,這樣經(jīng)過2次池化操作后可以得到2個(gè)標(biāo)量(scaler)。隨后將這個(gè)標(biāo)量特征值傳遞到一個(gè)小型全連接神經(jīng)網(wǎng)絡(luò)中,這個(gè)網(wǎng)絡(luò)一般包含1個(gè)全連接層和1個(gè)ReLU激活函數(shù),接著這個(gè)全連接網(wǎng)絡(luò)的輸出還會(huì)通過另一個(gè)全連接層,并且經(jīng)過激活函數(shù)Sigmoid產(chǎn)生一個(gè)通道注意力權(quán)重向量。這個(gè)權(quán)重向量的維度與輸入通道數(shù)相同,每個(gè)元素表示對(duì)應(yīng)通道的權(quán)重。最后,通過乘法操作將通道注意力權(quán)重向量應(yīng)用于原始輸入特征圖的每個(gè)通道。

      通道注意力輸出的權(quán)重向量將會(huì)被用于調(diào)節(jié)原始輸入特征圖的每個(gè)通道,并使用1×1卷積核進(jìn)行卷積操作得到新的特征圖。隨后進(jìn)行最大池化和平均池化操作并對(duì)生成的2個(gè)二維向量進(jìn)行拼接,之后還要經(jīng)過一個(gè)7×7或3×3卷積核的卷積操作,最后經(jīng)過一個(gè)Sigmoid激活函數(shù)生成通道注意力的權(quán)重向量并將該權(quán)重與輸入特征圖相乘。

      2.3" MPDIoU邊界框回歸損失函數(shù)

      邊界框回歸損失函數(shù)的作用是衡量目標(biāo)檢測(cè)任務(wù)中預(yù)測(cè)邊界框與實(shí)際目標(biāo)邊界框之間的誤差,YOLO v8默認(rèn)的IoU損失函數(shù)為CIoU,它的示意圖如圖6所示,公式如式(1)所示:

      LCLoU=1-IoU+ρ2(Bgt,Bprd)C2+αV

      IoU=Bgt∩BprdBgt∪Bprd

      V=4π2arctanwgthgt-arctanwprdhprd2

      α=V1-IoU+V。(1)

      式中:Bgt和Bprd分別表示真實(shí)邊界框與預(yù)測(cè)邊界框;ρ(Bgt,Bprd)表示真實(shí)框與預(yù)測(cè)框中心點(diǎn)之間的歐氏距離;C表示兩者最小的封閉矩形的對(duì)角線長(zhǎng)度;wgt、wprd、hgt和hprd分別表示真實(shí)框與預(yù)測(cè)框的長(zhǎng)寬;V用于度量長(zhǎng)寬比;α是一個(gè)正的平衡參數(shù)。

      雖然CIoU損失函數(shù)對(duì)之前的IoU損失函數(shù)所存在的預(yù)測(cè)框與真實(shí)框不重疊、預(yù)測(cè)框被真實(shí)框完全覆蓋或預(yù)測(cè)框與真實(shí)框中心點(diǎn)重合等問題進(jìn)行了優(yōu)化,但是CIoU僅僅是把長(zhǎng)寬比視為一個(gè)相對(duì)的比值,如果真實(shí)框與預(yù)測(cè)框擁有相同的長(zhǎng)寬比但是長(zhǎng)寬的值不相同,這很有可能導(dǎo)致罰項(xiàng)失效并且邊界框長(zhǎng)寬無法同增同減的問題,進(jìn)而影響模型的收斂速度和預(yù)測(cè)精度。因此一種全新的基于IoU的損失函數(shù)MPDIoU被提出,它的示意圖如圖7所示,其公式如公式(2)所示:

      LMPDIoU=1-IoU+d21w2+h2+d22w2+h2

      d21=(xprdtl-xgttl)2+(yprdtl-ygttl)2

      d22=(xprdbr-xgtbr)2+(yprdbr-ygtbr)2。(2)

      式中:(xgttl,ygttl)、(xgtbr,ygtbr)分別表示真實(shí)邊界框左上頂點(diǎn)和右下頂點(diǎn)的坐標(biāo);(xprdtl,yprdtl)、(xprdbr,yprdbr)表示預(yù)測(cè)邊界框左上頂點(diǎn)和右下頂點(diǎn)的坐標(biāo);d1是預(yù)測(cè)框和真實(shí)框左上角間的距離;d2是預(yù)測(cè)框和真實(shí)框右下角間的距離。

      區(qū)別于其他IoU損失函數(shù),MPDIoU以預(yù)測(cè)框和真實(shí)框的左上角點(diǎn)與右下角點(diǎn)為基準(zhǔn)建立一個(gè)矩形(圖7),以往IoU損失函數(shù)需要考慮的2框重疊與不重疊、中心點(diǎn)距離和長(zhǎng)寬比問題均可通過這個(gè)矩形確定。由此可以看出,MPDIoU相對(duì)于之前的邊界框回歸損失函數(shù)不僅考量的數(shù)據(jù)更為全面,而且相對(duì)于CIoU計(jì)算步驟更為簡(jiǎn)便。

      3" 結(jié)果與分析

      3.1" 數(shù)據(jù)集的構(gòu)建

      本試驗(yàn)選取了由Afzaal等建立的一個(gè)開源草莓?dāng)?shù)據(jù)集[23]。數(shù)據(jù)集中的圖片均經(jīng)過仔細(xì)的篩選和標(biāo)注,將所有圖片統(tǒng)一壓縮為640×640×3大小。數(shù)據(jù)集中包含7種常見的草莓病害共2 460張圖片,按照8 ∶1 ∶1的比例將數(shù)據(jù)集劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集。為了提高模型的泛化能力,防止過擬合,本研究采用隨機(jī)旋轉(zhuǎn)、曝光度調(diào)節(jié)、明暗度調(diào)節(jié)和裁剪等圖像處理手段對(duì)訓(xùn)練集進(jìn)行擴(kuò)充,每種病害以及它們擴(kuò)充前后的圖片數(shù)量如表1所示。

      3.2" 試驗(yàn)環(huán)境和初始設(shè)置

      本試驗(yàn)所使用的操作系統(tǒng)為微軟公司的Windows 11,運(yùn)行程序的軟件為Pycharm 2023.2.1,使用的框架為CUDA 11.3+Python 3.8+Pytorch 1.11.0,使用的運(yùn)算硬件為NVIDIA RTX4090 24 G+ Intel Xeon Platinum 8 352 V CPU @ 2.10 GHz。本試驗(yàn)使用YOLO v8團(tuán)隊(duì)提供的官方預(yù)訓(xùn)練權(quán)重以提高模型的訓(xùn)練效果,同時(shí)開啟了Mosaic數(shù)據(jù)增強(qiáng),YOLO v8默認(rèn)會(huì)在訓(xùn)練的最后10個(gè)epoch自動(dòng)關(guān)閉該功能。超參數(shù)設(shè)置如表2所示。

      3.3" 評(píng)價(jià)標(biāo)準(zhǔn)

      本試驗(yàn)主要采用參數(shù)量(Parameters)、計(jì)算量(FLOPs)和幀數(shù)(FPS)作為模型大小、復(fù)雜度與檢測(cè)速度的衡量指標(biāo)。準(zhǔn)確率(precision,簡(jiǎn)稱P)、召回率(recall,簡(jiǎn)稱R)和均值平均精度(mean average precision,簡(jiǎn)稱mAP)作為檢測(cè)準(zhǔn)確性的判別指標(biāo),準(zhǔn)確率越高表示誤檢的概率越小,召回率越高表示漏檢的概率越小,它們的公式如公式(3)、公式(4)和公式(5)所示:

      P=TPTP+FP;(3)

      R=TPTP+FN;(4)

      mAP=1N∑Nj=1APj。(5)

      式中:TP表示正樣本被正確識(shí)別的數(shù)量;FP表示識(shí)別錯(cuò)誤的負(fù)樣本數(shù)量;FN表示被漏檢的正樣本數(shù)量;N表示類別數(shù);APj表示第j個(gè)類別的值。

      3.4" 試驗(yàn)結(jié)果

      3.4.1" 注意力模塊的對(duì)比

      為了驗(yàn)證相較于其他注意力機(jī)制,CBAM在本試驗(yàn)所用到的數(shù)據(jù)集中是否有更好的效果,本研究選取了其他注意力機(jī)制進(jìn)行對(duì)比,分別是SE、CA、GMA、ShuffleAttention和EMA注意力機(jī)制[24-28]。對(duì)比的結(jié)果如表3所示。

      可以看出使用SE、CA和EMA注意力機(jī)制,相較于原版模型改進(jìn)后的模型出現(xiàn)了掉點(diǎn)的情況,而添加GMA注意力機(jī)制的模型出現(xiàn)了參數(shù)增加、模型變復(fù)雜、導(dǎo)致幀數(shù)大幅下降的情況,使用CBAM的網(wǎng)絡(luò)不僅mAP值和魯棒性優(yōu)于其他注意力機(jī)制,而且不會(huì)造成網(wǎng)絡(luò)的過分冗余。圖8對(duì)比了原版YOLO v8網(wǎng)絡(luò)和添加CBAM注意力機(jī)制后的熱力圖GradCAM,其中紅色突出的區(qū)域表示了模型集中注意力的感興趣區(qū)域,可以看到CBAM可以更好地關(guān)注病害發(fā)生的區(qū)域。

      3.4.2" 消融試驗(yàn)

      為了證明本研究所采用的改進(jìn)方法的有效性,本研究使用了幾組消融試驗(yàn)進(jìn)行對(duì)比驗(yàn)證,試驗(yàn)結(jié)果如表4所示。

      由表4可以看出,模型1為未改進(jìn)的原版YOLO v8n模型。模型3在添加Slim-Neck模塊之后,準(zhǔn)確率和mAP值分別上漲了2百分點(diǎn)和0.4百分點(diǎn),同時(shí)參數(shù)量和計(jì)算量分別下降了6.67%和9.76%,這證明了Slim-Neck在使網(wǎng)絡(luò)更輕量的同時(shí)也能做到檢測(cè)精度不損失。模型5相比模型3加入了CBAM注意力機(jī)制,雖然準(zhǔn)確率略微下降0.4百分點(diǎn),但召回率和mAP值均有小幅上漲,分別上漲了2.8百分點(diǎn)和0.7百分點(diǎn)。模型8在模型5的基礎(chǔ)上又添加了MPDIoU,召回率下滑1.4百分點(diǎn),但是準(zhǔn)確率和mAP分別上漲0.7百分點(diǎn)和0.1百分點(diǎn)。圖9是模型訓(xùn)練的mAP值變化曲線圖,可以看出所有模型在100輪后逐漸開始擬合,模型8在125輪前增長(zhǎng)效果不如其他模型,但在125輪后平均精度mAP值逐漸超越其他模型。

      相較于原版模型,模型8雖然檢測(cè)的速率有所

      降低,但是參數(shù)和計(jì)算量仍然比原版模型減少3.33%和9.76%,很適合部署在硬件條件受限的移動(dòng)設(shè)備中以滿足實(shí)際草莓病害檢測(cè)的需求。綜合考慮各種因素,本研究最終決定選用各項(xiàng)數(shù)據(jù)相對(duì)平衡的模型8作為草莓檢測(cè)模型。

      3.4.3" 與其他模型的對(duì)比

      本研究使用 YOLO v5s、YOLO v6n、YOLO v7-tiny和YOLO v8n模型與改進(jìn)的模型進(jìn)行對(duì)比,對(duì)比的結(jié)果如表5所示。

      可以看出,相較于YOLO v5s、YOLO v6n、YOLO v7-tiny 等流行的YOLO目標(biāo)檢測(cè)網(wǎng)絡(luò)模型,改進(jìn)后的模型不僅檢測(cè)的精度和魯棒性都優(yōu)于這些模型,并且模型參數(shù)、計(jì)算量相比這些模型都有較大幅度的減少,同時(shí)檢測(cè)的速度也優(yōu)于這些模型,具有良好的實(shí)時(shí)性。

      圖10對(duì)比了以上模型的實(shí)際檢測(cè)結(jié)果,可以看出YOLO v7-tiny網(wǎng)絡(luò)存在較多漏檢的情況,YOLO v6n 和YOLO v8n網(wǎng)絡(luò)都把炭疽病果實(shí)腐爛誤檢為了灰霉病,并且YOLO v8n網(wǎng)絡(luò)在密集的且嚴(yán)重感染白粉病的葉片環(huán)境存在部分小目標(biāo)漏檢和誤檢的情況,同時(shí)在葉斑病圖片中將左上角光線較暗環(huán)境下的健康葉片誤檢為病害圖片。YOLO v5s 對(duì)圖中的白粉病葉片圖片同樣存在漏檢,而本研究所改進(jìn)的網(wǎng)絡(luò)由于增強(qiáng)了草莓病害特征提取的能力,同時(shí)采用了更先進(jìn)的邊界框回歸損失函數(shù),因此能更有效地避免目標(biāo)被誤檢或漏檢以更好地應(yīng)用在實(shí)際的農(nóng)業(yè)生產(chǎn)種植過程中。

      4" 結(jié)論

      考慮到人工檢測(cè)草莓病害效率低下以及傳統(tǒng)計(jì)算機(jī)檢測(cè)方法步驟繁瑣,模型結(jié)構(gòu)復(fù)雜以及檢測(cè)精度不高等問題,本研究設(shè)計(jì)了一個(gè)基于YOLO v8n的改進(jìn)草莓病害檢測(cè)模型。為了更好地對(duì)草莓病害的特征進(jìn)行提取,本研究對(duì)比了6種注意力機(jī)制,最終選定添加CBAM注意力機(jī)制。為了精簡(jiǎn)模型參數(shù)量和計(jì)算量,同時(shí)不損失檢測(cè)精度,本研究將原模型的Neck結(jié)構(gòu)替換成了Slim-Neck結(jié)構(gòu)。為了優(yōu)化預(yù)測(cè)邊界框與實(shí)際目標(biāo)邊界框之間的誤差計(jì)算,本研究使用MPDIoU代替原模型的CIoU。經(jīng)測(cè)試,改進(jìn)后的模型相比于原YOLO v8網(wǎng)絡(luò)mAP值提高了1.2百分點(diǎn),參數(shù)量和計(jì)算量分別降低了減少3.33%和9.76%。同時(shí)對(duì)比其他YOLO目標(biāo)檢測(cè)模型也有明顯的優(yōu)勢(shì)。在未來的工作中,將對(duì)模型的骨干網(wǎng)絡(luò)進(jìn)行更輕量化的處理,提高網(wǎng)絡(luò)實(shí)時(shí)檢測(cè)的速率,同時(shí)部署到移動(dòng)設(shè)備以更好地滿足實(shí)際生產(chǎn)過程的需要。

      參考文獻(xiàn):

      [1]梁" 容,摘譯. 全球:十年間草莓產(chǎn)量增長(zhǎng)近40%[J]. 中國(guó)果業(yè)信息,2020(10):48.

      [2]宋長(zhǎng)年,李紅月,董瑞萍,等. 大櫻桃病害防治技術(shù)研究進(jìn)展[J]. 現(xiàn)代農(nóng)業(yè)科技,2022(15):115-118,122.

      [3]汪京京,張" 武,劉連忠,等. 農(nóng)作物病蟲害圖像識(shí)別技術(shù)的研究綜述[J]. 計(jì)算機(jī)工程與科學(xué),2014,36(7):1363-1370.

      [4]蔣龍泉,魯" 帥,馮" 瑞,等. 基于多特征融合和SVM分類器的植物病蟲害檢測(cè)方法[J]. 計(jì)算機(jī)應(yīng)用與軟件,2014,31(12):186-190.

      [5]Eaganathan U,Sophia J,Luckose V,et al. Identification of sugarcane leaf scorch diseases using K-means clustering segmentation and K-NN based classification[J]. International Journal of Advances in Computer Science and Technology,2014,3(12):11-16.

      [6]Li L L,Zhang S J,Wang B. Plant disease detection and classification by deep learning:a review[J]. IEEE Access,2021,9:56683-56698.

      [7]Khan A I,Quadri S M K,Banday S,et al. Deep diagnosis:a real-time apple leaf disease detection system based on deep learning[J]. Computers and Electronics in Agriculture,2022,198:107093.

      [8]毛" 銳,張宇晨,王澤璽,等. 利用改進(jìn)Faster-RCNN識(shí)別小麥條銹病和黃矮?。跩]. 農(nóng)業(yè)工程學(xué)報(bào),2022,38(17):176-185.

      [9]Liu J,Wang X W. Tomato diseases and pests detection based on improved YOYO v3 convolutional neural network[J]. Frontiers in Plant Science,2020,11:898.

      [10]Nie X,Wang L Y,Ding H X,et al. Strawberry Verticillium wilt detection network based on multi-task learning and attention[J]. IEEE Access,2019,7:170003-170011.

      [11]Kim B,Han Y K,Park J H,et al. Improved vision-based detection of strawberry diseases using a deep neural network[J]. Frontiers in Plant Science,2021,11:559172.

      [12]Li Y,Wang J C,Wu H R,et al. Detection of powdery mildew on strawberry leaves based on DAC-YOLO v4 model[J]. Computers and Electronics in Agriculture,2022,202:107418.

      [13]Zhang Y C,Yu J Y,Chen Y,et al. Real-time strawberry detection using deep neural networks on embedded system (rtsd-net):an edge AI application[J]. Computers and Electronics in Agriculture,2022,192:106586.

      [14]Li H L,Li J,Wei H B,et al. Slim-neck by GSConv:a lightweight-design for real-time detector architectures[J]. Journal of Real-Time Image Processing,2024,21(3):62.

      [15]Woo S,Park J,Lee J Y,et al. CBAM:convolutional block attention module[C]//European Conference on Computer Vision.Cham:Springer,2018:3-19.

      [16]Siliang M,Yong X. MPDIoU:a loss for efficient and accurate bounding box regression[EB/OL]. (2023-06-14)[2023-10-25]. https://arxiv.org/abs/2307.07662.

      [17]Redmon J,Divvala S,Girshick R,et al. You only look once:unified,real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas,NV,USA.IEEE,2016:779-788.

      [18]Wang C Y,Bochkovskiy A,Liao H Y M. YOLO v7:trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Vancouver,BC,Canada.IEEE,2023:7464-7475.

      [19]He K M,Zhang X Y,Ren S Q,et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,37(9):1904-1916.

      [20]Feng C J,Zhong Y J,Gao Y,et al. Tood:task-aligned one-stage object detection[C]//2021 IEEE/CVF International Conference on Computer Vision. Montreal,QC,Canada.IEEE,2021:3490-3499.

      [21]Li X,Wang W H,Wu L J,et al. Generalized focal loss:learning qualified and distributed bounding boxes for dense object detection[J]. Advances in Neural Information Processing Systems,2020,33:21002-21012.

      [22]Afzaal U,Bhattarai B,Pandeya Y R,et al. An instance segmentation model for strawberry diseases based on mask R-CNN[J]. Sensors,2021,21(19):6565.

      [23]Hu J,Shen L,Sun G. Squeeze-and-excitation networks[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City,UT,USA.IEEE,2018:7132-7141.

      [24]Hou Q B,Zhou D Q,F(xiàn)eng J S. Coordinate attention for efficient mobile network design[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Nashville,TN,USA.IEEE,2021:13708-13717.

      [25]Liu Y C,Shao Z R,Hoffmann N. Global attention mechanism:retain information to enhance channel-spatial interactions[EB/OL]. (2021-12-10)[2023-10-25]. https://arxiv.org/abs/2112.05561.pdf.

      [26]Zhang Q L,Yang Y B. SA-net:shuffle attention for deep convolutional neural networks[C]//ICASSP 2021 - 2021 IEEE International Conference on Acoustics,Speech and Signal Processing. Toronto,ON,Canada.IEEE,2021:2235-2239.

      [27]Ouyang D L,He S,Zhang G Z,et al. Efficient multi-scale attention module with cross-spatial learning[C]//ICASSP 2023 - 2023 IEEE International Conference on Acoustics,Speech and Signal Processing. Rhodes Island,Greece.IEEE,2023:1-5.

      猜你喜歡
      注意力機(jī)制
      基于注意力機(jī)制的行人軌跡預(yù)測(cè)生成模型
      基于注意力機(jī)制和BGRU網(wǎng)絡(luò)的文本情感分析方法研究
      多特征融合的中文實(shí)體關(guān)系抽取研究
      基于序列到序列模型的文本到信息框生成的研究
      基于深度學(xué)習(xí)的手分割算法研究
      從餐館評(píng)論中提取方面術(shù)語
      面向短文本的網(wǎng)絡(luò)輿情話題
      基于自注意力與動(dòng)態(tài)路由的文本建模方法
      基于深度學(xué)習(xí)的問題回答技術(shù)研究
      基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
      崇阳县| 安吉县| 金坛市| 镇平县| 潜山县| 奈曼旗| 裕民县| 鄂托克前旗| 炎陵县| 阳高县| 宜都市| 张家界市| 天津市| 达州市| 张家界市| 湟源县| 澳门| 吴川市| 云林县| 延川县| 韩城市| 蓬莱市| 衡南县| 田林县| 侯马市| 三门县| 鹤壁市| 乳山市| 姜堰市| 杭锦后旗| 洪江市| 大兴区| 镇江市| 鄯善县| 双鸭山市| 上蔡县| 渭源县| 洱源县| 麦盖提县| 乐亭县| 灵山县|