摘要:針對番茄葉的各類病斑難以區(qū)分、識別效率低等問題,提出一種基于YOLO v8s網(wǎng)絡(luò)改進(jìn)的病害檢測算法BKW-YOLO v8s。首先,將主干網(wǎng)絡(luò)中的Conv和C2f分別用KWConv和重新設(shè)計的C2f_KW模塊代替,將KernelWarehouse卷積模塊與主干網(wǎng)絡(luò)原有的Bottleneck結(jié)構(gòu)相融合,提高了模型的計算效率。其次,為了有效地提升神經(jīng)網(wǎng)絡(luò)表征能力,引入將通道層次與空間層次并聯(lián)且加權(quán)融合的BAM注意力機(jī)制,使模型在不同的圖像上都能取得良好的效果,更具有適應(yīng)性。最后對模型的損失函數(shù)進(jìn)行優(yōu)化,使模型能更加準(zhǔn)確地處理不同目標(biāo)之間的差異,從而獲得分類性能的提升。通過在番茄葉病害數(shù)據(jù)集上進(jìn)行試驗,結(jié)果表明,改進(jìn)后的BKW-YOLO v8s算法與傳統(tǒng)的YOLO v8s相比,準(zhǔn)確率提升了2.8百分點(diǎn)、召回率提升了3.0百分點(diǎn)、mAP@50提升了2.8百分點(diǎn)、達(dá)到92.0%,且計算量降低了33%。本研究改進(jìn)后的模型在番茄葉片圖像的病害檢測方面具有更高的準(zhǔn)確度和穩(wěn)定性,不僅能夠更準(zhǔn)確地定位和識別目標(biāo),而且有效地降低了漏檢和誤檢率。本研究所提方法不僅優(yōu)化了資源利用效率,也為番茄葉病害的檢測提供了有力的技術(shù)支持,對未來提高番茄生產(chǎn)率具有重要意義。
關(guān)鍵詞:YOLO v8s;KWConv;KernelWarehouse卷積;BAM;損失函數(shù);番茄葉病害
中圖分類號:S126;TP391.41 文獻(xiàn)標(biāo)志碼:A
文章編號:1002-1302(2024)17-0192-08
收稿日期:2024-02-27
基金項目:國家科技重大專項(編號:2021DJ1006);新疆自治區(qū)創(chuàng)新人才建設(shè)專項自然科學(xué)計劃(編號:2020D01A132)。
作者簡介:許 悅(2000—),女,湖北仙桃人,碩士研究生,研究方向為目標(biāo)檢測。E-mail:786038203@qq.com。
通信作者:陳 琳,博士,教授,研究方向為網(wǎng)絡(luò)技術(shù)及智慧城市應(yīng)用、多目標(biāo)系統(tǒng)優(yōu)化、巖心顆粒提取與屬性分析。E-mail:chenlin@yangtzeu.edu.cn。
農(nóng)作物病害是我國主要農(nóng)業(yè)災(zāi)害之一,一直是制約著農(nóng)業(yè)高產(chǎn)量、高效益持續(xù)發(fā)展的主要因素之一。番茄作為我國農(nóng)業(yè)領(lǐng)域中一項至關(guān)重要的經(jīng)濟(jì)作物,其產(chǎn)量需求正呈現(xiàn)逐年增長的態(tài)勢。然而,由于番茄病害的頻發(fā),導(dǎo)致作物產(chǎn)量顯著下降,給我國的農(nóng)業(yè)經(jīng)濟(jì)帶來了不容忽視的巨大損失。因此,番茄病害的早期診斷與防治是促進(jìn)番814d222b92441fd4fbb6a5c1e56d4e5a茄高產(chǎn)的必要條件。快速、準(zhǔn)確的番茄病蟲害檢測對提高番茄的生產(chǎn)率是非常必要的。感染病害的植物通常會呈現(xiàn)顯著的癥狀或損傷。然而,專業(yè)診斷培訓(xùn)投入大、時間長、成本高昂,并且無論是農(nóng)民還是專家,他們在鑒別陌生或者不常見的病蟲害時,準(zhǔn)確率偏低。為了應(yīng)對這些挑戰(zhàn),利用圖像處理識別技術(shù)基于作物葉、莖、花和果實(shí)的圖像,可以快速而準(zhǔn)確地識別作物疾病,從而降低生產(chǎn)成本。
20世紀(jì)80年代,國外學(xué)者引入數(shù)字圖像處理和計算機(jī)視覺技術(shù),在植物病害診斷領(lǐng)域進(jìn)行了廣泛研究。他們的工作從簡單的圖像預(yù)處理開始,逐漸深入到病斑的特征提取、分割,以及不同病害的準(zhǔn)確識別,這一領(lǐng)域的研究范圍逐漸擴(kuò)大[1-2]。近年來,國內(nèi)也有許多學(xué)者研究了植物病害檢測方法[3]。在番茄葉片病害檢測方面,賈兆紅等提出了基于Res2Net和雙線性注意力的番茄病害識別方法,通過多尺度特征和注意力機(jī)制,提高網(wǎng)絡(luò)的細(xì)粒度表征能力,該方法對于14類番茄葉片的不同程度病害的檢測準(zhǔn)確率高達(dá)86.89%[4]。周巧黎等為實(shí)現(xiàn)番茄病害實(shí)時無損檢測,選用輕量級卷積神經(jīng)網(wǎng)絡(luò) MobileNet v3,引入空洞卷積、感知機(jī)結(jié)構(gòu)和GLU激活函數(shù)優(yōu)化模型,能夠?qū)崟r檢測病害且識別效果較好[5]。Sardogan等提出了一種結(jié)合CNN與學(xué)習(xí)矢量量化的番茄葉病檢測與分類技術(shù),可以有效識別4種不同類型的番茄葉部病害[6]。蔣清健等以卷積神經(jīng)網(wǎng)絡(luò)為基礎(chǔ)提出多尺度卷積神經(jīng)網(wǎng)絡(luò)算法,使用不同卷積核以增加感受視野和提取不同層次特征,識別準(zhǔn)確率較高[7]。儲鑫等以改進(jìn)的YOLO v4算法輕量化為檢測算法,該模型在平均識別精確度、速度以及參數(shù)內(nèi)存大小方面均有較大的提升,但僅有1 000張測試集圖,沒有充足的訓(xùn)練樣本,魯棒性得不到保證[8]。Liu等在YOLO v3算法基礎(chǔ)上進(jìn)行改進(jìn),運(yùn)用圖像金字塔技術(shù),實(shí)現(xiàn)了對番茄病蟲害的多尺度特征檢測,從而實(shí)現(xiàn)了對病蟲害的快速分類以及具體位置的精確識別[9],成功突破了在自然環(huán)境下對番茄病蟲害圖像進(jìn)行識別的關(guān)鍵技術(shù)。
針對番茄葉病害的檢測與識別算法研究已有一定成果,且識別精度和準(zhǔn)確率較高,但上述方法主要聚焦于對整張圖像的番茄葉片進(jìn)行病害檢測,并沒有對具體病斑進(jìn)行精準(zhǔn)識別定位。YOLO v8作為YOLO系列最新推出的單階段檢測算法,模型大小和性能做到了很好的平衡[10-13]。所以本研究選用YOLO v8s網(wǎng)絡(luò)針對番茄葉的具體病斑定位識別進(jìn)行算法的改進(jìn)和優(yōu)化。使用plantvillage數(shù)據(jù)集中的部分?jǐn)?shù)據(jù)進(jìn)行試驗,以期在計算量減少的前提下,提升對番茄葉病斑識別的檢測精度。
1 材料與方法
1.1 試驗環(huán)境及參數(shù)設(shè)置
試驗在Windows 10系統(tǒng)上運(yùn)行,搭載Intel Core i5-13490F CPU 2.50 GHz,NVIDIA GeForce RTX 3080顯卡,內(nèi)存為10 GB。使用python語言編寫算法,訓(xùn)練時batch size設(shè)置為32,epoch設(shè)置為200,初始學(xué)習(xí)率為0.01。輸入圖像尺寸為640像素×640像素。試驗時間為2023年9月至2023年12月,試驗地點(diǎn)為湖北省荊州市長江大學(xué)計算機(jī)科學(xué)學(xué)院。
1.2 數(shù)據(jù)集的獲取以及預(yù)處理
本研究采用的試驗數(shù)據(jù)集來源于網(wǎng)上公開的plantvillage數(shù)據(jù)集,從中選取6類數(shù)據(jù),包括早疫病、斑枯病、葉霉病、斑點(diǎn)病、瘡痂病和晚疫病,總共1 800張。接著,采用labelimg對這6類基礎(chǔ)數(shù)據(jù)集進(jìn)行細(xì)致標(biāo)注,確保每個病斑都被精確標(biāo)注。按 8 ∶2 的比例劃分為訓(xùn)練集和驗證集并運(yùn)用數(shù)據(jù)增強(qiáng)對其進(jìn)行擴(kuò)充試驗。如圖1所示,總共生成了 5 400 張圖片。將增強(qiáng)后的數(shù)據(jù)集進(jìn)行訓(xùn)練能有效改善模型的性能和魯棒性。
1.3 評價指標(biāo)
在目標(biāo)檢測任務(wù)中,預(yù)測目標(biāo)物體時有4種情況:TP和TN表示正確預(yù)測的情況,其中TP表示正確檢測到目標(biāo)物體,TN表示正確地將非目標(biāo)物體分類為非目標(biāo)物體。FP和FN表示錯誤的情況,其中FP表示將非目標(biāo)物體錯誤地預(yù)測為目標(biāo)物體,F(xiàn)N表示未能正確檢測到目標(biāo)物體。
基于以上4種預(yù)測情況,本研究將使用準(zhǔn)確率、召回率、mAP@50 、mAP@50~95、模型計算量以及F1分?jǐn)?shù)曲線作為評價指標(biāo)。其中準(zhǔn)確率P定義為正確預(yù)測為正例的樣本數(shù)與所有預(yù)測為正例樣本數(shù)之間的比值。公式如下:
P=TPTP+FP。(1)
召回率R表示在所有真實(shí)正例樣本中,模型能夠正確預(yù)測為正例的比例。公式如下:
R=TPTP+FN。(2)
mAP@50和mAP@50~95:mAP@50表示在IoU閾值為50%時的平均精度均值;而mAP@50~95則表示在IoU閾值從50%到95%范圍內(nèi)的平均精度均值。計算方式如下:
mAP@50=1n∑ni=1Pi=1nP1+1nP2+…+1nPn;(3)
mAP@50=1C∑Ck=1mAP@50k;(4)
mAP@50~95=110mAP@50+110mAP@55+…+110mAP@95。(5)
F1分?jǐn)?shù)曲線是準(zhǔn)確率P和召回率R的調(diào)和平均值,公式如下:
F1=2×P×RP+R。(6)
1.4 研究方法
1.4.1 YOLO v8網(wǎng)絡(luò)模型概述
YOLO v8是由Ultralytics研發(fā)的檢測算法,可用于目標(biāo)檢測、圖像分類等任務(wù)。YOLO v8的核心網(wǎng)絡(luò)結(jié)構(gòu)包含主干網(wǎng)絡(luò)、頸部網(wǎng)絡(luò)和頭部網(wǎng)絡(luò)三大組成部分。YOLO v8的主干網(wǎng)絡(luò)、頸部網(wǎng)絡(luò)部分參考了YOLO v7 ELAN的設(shè)計思想,將YOLO v5中的C3模塊替換成C2f模塊并調(diào)整了通道數(shù),C2f是由C3和ELAN結(jié)合組成的模塊,梯度流更加豐富。頭部網(wǎng)絡(luò)部分使用了將分類和檢測頭分離的解耦頭結(jié)構(gòu)和無錨框。Loss計算包括2個分支:BCE Loss分類分支和Distribution Focal Loss+CIoU Loss回歸分支。本研究將基于YOLO v8s模型進(jìn)行算法優(yōu)化。
1.4.2 BKW-YOLO v8s算法
針對基準(zhǔn)模型YOLO v8s對番茄葉病害檢測準(zhǔn)確率低、計算量大等問題,本研究提出了一種基于BKW-YOLO v8s的番茄葉病害識別模型。BKW-YOLO v8s的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,主要有3個改進(jìn)部分。
為了在優(yōu)化模型性能的同時降低計算成本,將主干網(wǎng)絡(luò)中的Conv和C2f分別用KWConv和全新設(shè)計的C2f_KW模塊代替[14]。為了有效提高神經(jīng)網(wǎng)絡(luò)表征能力,在主干網(wǎng)絡(luò)與頸部網(wǎng)絡(luò)之間引入BAM注意力機(jī)制,并且開銷可以忽略不計。為了提高對圖像的處理能力,引入了具有明智的梯度增益分配策略的WIoU損失函數(shù)。本研究方法在降低計算成本的同時,確保了更高的檢測性能,從而在對番茄葉病斑的識別任務(wù)中展現(xiàn)出了卓越的能力。
1.4.3 KernelWarehouse模塊
在目標(biāo)檢測任務(wù)中,背景干擾往往是一個不可忽視的挑戰(zhàn)。為了使模型能夠更好地應(yīng)對復(fù)雜的場景和目標(biāo),進(jìn)而提升檢測的準(zhǔn)確性,本研究將KernelWarehouse[15]卷積引入主干網(wǎng)絡(luò)。KernelWarehouse是由Intel在2023年8月提出的通用動態(tài)卷積形式,它可以在參數(shù)效率和表示能力之間取得良好的權(quán)衡。KernelWarehouse方法的示意圖見圖3,它有3個關(guān)鍵組件,即內(nèi)核分區(qū)、倉庫共享和一個新的注意力函數(shù)NAF。
內(nèi)核分區(qū)和倉庫共享:KernelWarehouse首先將ConvNet的任意常規(guī)卷積層的靜態(tài)核W按順序劃分為m個不相交且具有相同維度的核單元w1,w2,…,wm,內(nèi)核分區(qū)可以定義為:
W=w1∪w2∪…∪wm,j,j∈(1,2,…,m),wi∩wj=。(7)
核分區(qū)后,處理核單元w1,w2,…,wm作為“局部核”,并定義一個包含n個相同維數(shù)的核單元的“倉庫”E=(e1,e2,…,en),其中e1,e2,…,en的尺寸和w1,w2,…,wm相同。然后基于預(yù)定義的“倉庫”將每個核單元計算為線性混合物wi。將m個核單元w1,w2,…,wm表示為:
wi=αi1e1+αi2e2+…+αinen,i∈(1,…,m)。(8)
式中:αi1e1,αi2e2,…,αinen是由以輸入x為條件的注意力模塊(x)生成的標(biāo)量注意力。最后,靜態(tài)核W被按順序組裝其相應(yīng)的m個線性混合物所取代。倉庫共享的主要目標(biāo)是通過顯式增強(qiáng)連續(xù)卷積層之間的參數(shù)依賴關(guān)系,進(jìn)一步提高KernelWarehouse的參數(shù)效率和表征能力。
注意力函數(shù):第2層FC并行生成的m組n個特征logits,由注意力函數(shù)集逐集歸一化。對于靜態(tài)內(nèi)核W中的第i個內(nèi)核單元,將第2層FC生成的n個特征logits設(shè)為zi1,zi2,…,zin,新的注意力函數(shù)定義為:
αij=(1-τ)zij∑np=1zip+τβij,j∈(1,2,…,n)。(9)
式中:τ是在早期訓(xùn)練階段從1線性地降低到0的一個溫度參數(shù);zij∑np=1zip是一個歸一化函數(shù),它可以產(chǎn)生具有負(fù)注意力輸出的結(jié)果;βij是一個二進(jìn)制值(0或1),用于初始化注意力。
為了使番茄葉病害識別具有更好的效果,本研究在主干網(wǎng)絡(luò)中引入KWConv將Conv替換,同時利用KernelWarehouse卷積的思想,設(shè)計一個全新的模塊C2f_KW,如圖4所示,C2f_KW是運(yùn)用KW Bottleneck結(jié)構(gòu)替換C2f模塊中的Bottleneck結(jié)構(gòu)。如圖5所示,KW Bottleneck結(jié)構(gòu)可以增強(qiáng)上下文的依賴性,提高網(wǎng)絡(luò)的學(xué)習(xí)能力。通過對全局信息的綜合利用,模型能夠高效融合多尺度特征,在目標(biāo)檢測和定位任務(wù)中,展現(xiàn)出了更高的精準(zhǔn)度。
1.4.4 BAM模塊
由于本研究使用的數(shù)據(jù)集的圖像中,多種病害特征并不容易區(qū)分,為了有效提高神經(jīng)網(wǎng)絡(luò)表征能力和感受野處理能力,在主干網(wǎng)絡(luò)和頸部網(wǎng)絡(luò)之間引入了BAM模塊[16],也稱為瓶頸注意力模塊,有效提升了對病害特征識別的效果。BAM模塊可以以端到端的方式與任何前饋卷積神經(jīng)網(wǎng)絡(luò)集成,運(yùn)用特征通道和空間路徑2條獨(dú)立路徑,分別進(jìn)行注意力的推斷和映射。通過加強(qiáng)重要通道和空間位置的特征響應(yīng),使模型在不同的圖像上都能取得良好的效果,更具有適應(yīng)性。BAM模塊與CBAM模塊非常相似,都是運(yùn)用了雙通道注意力,不同點(diǎn)在于CBAM是將2個注意力串聯(lián),而BAM則是將2個注意力的輸出分別通過相乘的方式進(jìn)行融合,從而得到最終的輸出[17]。BAM的整體結(jié)構(gòu)如圖6所示。
對于輸入特征圖F∈RC×H×W,BAM推斷出一個3D注意圖M(F)∈RC×H×W,細(xì)化后的特征圖 計算公式如下:
F′=F+FM(F)。(10)
式中:表示逐元素乘法。BAM模塊由通道注意力和空間注意力2個分支構(gòu)成。通道注意力分支首先對每個通道的特征圖執(zhí)行全局平均池化操作,接下來采用了一個帶隱藏層的多層感知器(MLP),并附加了一個批量歸一化(BN)層,對空間分支的輸出進(jìn)行了尺度校準(zhǔn)。以下是通道注意力的具體計算方式:
MC(F)=BN{MLP[AvgPool(F)]}
=BN{W1[W0AvgPool(F)+b0]+b1}。(11)
空間注意力分支采用ResNet提出的“瓶頸結(jié)構(gòu)”,節(jié)省了參數(shù)量和計算開銷[18]。首先通過對特征圖F∈RC×H×W進(jìn)行1×1卷積,整合通道信息后,使用2個3×3的擴(kuò)展卷積以提取和融合圖像中豐富的上下文信息,最終再利用一個1×1卷積層將處理后的特征圖轉(zhuǎn)化為一個R1×H×W空間注意力圖。以下是空間注意力的具體計算方式:
MS(F)=BN〔f1×13{f3×32[f3×31(f1×10(F))]}〕。(12)
2個注意力分支的結(jié)合:從2個注意分支中獲取通道注意MC(F)和空間注意MS(F)后,將兩者擴(kuò)展到C×H×W,進(jìn)行元素相加組合實(shí)現(xiàn)有效的梯度流動,再采用一個Sigmoid函數(shù)來獲得最終的3D注意映射M(F)。
由于BAM模塊在突破模型瓶頸、增強(qiáng)神經(jīng)網(wǎng)絡(luò)表征能力方面表現(xiàn)出色,所以本研究將BAM模塊引入到主干網(wǎng)絡(luò),讓主干網(wǎng)絡(luò)向下傳遞更有效的關(guān)鍵信息,提升對病害特征識別的效果。
1.4.5 IoU損失函數(shù)的優(yōu)化
原始YOLO v8模型的回歸損失是 DFL Loss+CIoU Loss,但CIoU在關(guān)注邊界框坐標(biāo)和類別誤差時,忽視了不同目標(biāo)的難度與重要性差異。為了克服這一不足,WIoU損失函數(shù)[14]引入了目標(biāo)的困難程度權(quán)重,以更加準(zhǔn)確地處理不同目標(biāo)之間的差異[19]。這一改進(jìn)有助于提升模型在目標(biāo)檢測中的表現(xiàn)。然而,對于低質(zhì)量樣本,其相關(guān)的幾何度量往往對模型產(chǎn)生過度懲罰,影響泛化能力。為此,WIoU基于距離度量設(shè)計了距離注意力,形成了雙層注意力機(jī)制,并在WIoU v1版本中實(shí)現(xiàn)了這一改進(jìn),其公式如下:
LWIoU v1=RWIoULIoU。(13)
其中:
RWIoU=exp(x-xgt)2+(y-ygt)2[(Wg)2+(Hg)2]*。(14)
在WIoU損失函數(shù)中,通過特定的調(diào)整,對于普通質(zhì)量的錨框,LIoU將被顯著放大以引起更多關(guān)注;而對于高質(zhì)量的錨框,RWIoU則會被降低,尤其是在錨框與目標(biāo)框高度重合時,減少了對中心點(diǎn)距離的關(guān)注。為了進(jìn)一步優(yōu)化模型的分類性能,降低簡單示例對損失值的貢獻(xiàn),參考Focal Loss設(shè)計了一種單調(diào)聚焦機(jī)制,即WIoU v2,其公式如下:
LWIoU v2=L*IoULIoUγLWIoU v1,γ>0。(15)
式中:LIoU能夠確保梯度增益r=L*IoULIoUγ得以維持在一個較高水平,從而有效避免了訓(xùn)練后期可能出現(xiàn)的收斂速度放緩的問題。
本研究選用WIoU v2損失函數(shù)代替CIoU并與DFL Loss結(jié)合為最終的回歸損失,能夠增強(qiáng)對圖像處理的能力,從而提升模型的性能。
2 結(jié)果與分析
2.1 損失函數(shù)試驗
WIoU損失函數(shù)有3個版本,對3個版本在相同試驗環(huán)境下依次進(jìn)行試驗,結(jié)果如表1所示。
試驗結(jié)果表明,WIoU v2改進(jìn)模型取得效果最優(yōu),與原模型的損失函數(shù)相比,準(zhǔn)確率和召回率皆提高了1.4百分點(diǎn),mAP@50提高了1.2百分點(diǎn),mAP@50~95提高了0.4百分點(diǎn)。WIoU v2能有效降低簡單示例對損失值的貢獻(xiàn),使得模型能夠聚焦于困難示例,獲得性能的提升。因此,本研究選用WIoU v2損失函數(shù)代替CIoU并進(jìn)行后續(xù)改進(jìn)試驗。
2.2 消融試驗
為了驗證BKW-YOLO v8s模型改進(jìn)的各個模塊以及最終組合的有效性,設(shè)計消融試驗將3種模塊改進(jìn)的不同組合在相同的數(shù)據(jù)集和參數(shù)設(shè)置下進(jìn)行對比,以保證試驗的公正性。
試驗結(jié)果表明,與原始YOLO v8s相比,同時引入KW模塊、BAM Attention和WIoU損失函數(shù)的BKW-YOLO v8s模型,經(jīng)過200輪迭代訓(xùn)練在準(zhǔn)確率、召回率、mAP@50和mAP@50~95這4個重要指標(biāo)上分別提高了2.8、3.0、2.8、2.1百分點(diǎn),計算量降低了33%(表2)。不僅節(jié)省資源消耗,還使各項指標(biāo)均創(chuàng)新高。這表明本研究的改進(jìn)算法BKW-YOLO v8s在實(shí)際應(yīng)用中取得了顯著效果。
2.3 對比試驗
為了評估所提算法BKW-YOLO v8s相對于當(dāng)前熱門的病害檢測模型的優(yōu)越性[20],本研究將在相同的試驗條件(統(tǒng)一的配置和相同的數(shù)據(jù)集以及相同的參數(shù)設(shè)置)下,對比本研究算法與YOLO v3-tiny、YOLO v5s、YOLO v7以及YOLO v8s的差異(表3)。并比較它們的F1分?jǐn)?shù)曲線(圖7)。
由圖7和表3可知,改進(jìn)后的算法BKW-YOLO v8s與以上其他主流的病害檢測模型相比,具有較高的準(zhǔn)確率、召回率和平均精度以及F1分?jǐn)?shù)表現(xiàn)。它在設(shè)計上充分考慮了模型的復(fù)雜度和計算效率之間的平衡,以提供良好的性能和實(shí)用性。
2.4 檢測結(jié)果
為了更直觀地展示BKW-YOLO v8s算法的有效性,本研究將YOLOv5s、YOLOv8s以及BKW-YOLO v8s算法在6類番茄葉病害圖片上的檢測結(jié)果進(jìn)行對比,見圖8。檢測結(jié)果體現(xiàn)了不論是小尺寸的目標(biāo)還是具有復(fù)雜形狀的目標(biāo),改進(jìn)后的模型都能夠更好地區(qū)分它們,實(shí)現(xiàn)更精確的目標(biāo)檢測。斑點(diǎn)病的病害特征不明顯,容易出現(xiàn)漏檢,而改進(jìn)后的模型能夠檢測出不明顯的特征,這表明本研究所提出的模型具有更強(qiáng)的上下文感知能力和特征融合能力。其中對葉霉病的檢測,YOLO v5s和YOLO v8s都出現(xiàn)了在同一個目標(biāo)周圍生成了多個重疊的邊界框的情況,而改進(jìn)后的模型成功解決了多個重疊邊界框的問題。通過精確的位置預(yù)測和目標(biāo)分類,模型能夠準(zhǔn)確地定位和識別目標(biāo)。綜上所述,改進(jìn)后的BKW-YOLO v8s模型在目標(biāo)檢測方面展現(xiàn)出卓越的性能。通過特征融合、上下文感知和抑制干擾能力的提升, 該模型能夠更準(zhǔn)確地定位和識別目標(biāo),在目標(biāo)檢測任務(wù)上表現(xiàn)出更高的準(zhǔn)確性和魯棒性。并且在目標(biāo)檢測中不再出現(xiàn)多個重疊邊界框的情況,實(shí)現(xiàn)了更精確、更清晰的檢測結(jié)果,使整體的檢測性能和效果都得到了提升。
3 討論與結(jié)論
本研究針對番茄葉片的各類病斑識別正確率、效率低的問題,提出一種在計算量和準(zhǔn)確率方面取得較好的平衡的BKW-YOLO v8s模型,在卷積塊和損失函數(shù)上對原模型做了改進(jìn)。試驗后發(fā)現(xiàn),改進(jìn)后的模型通過優(yōu)化邊界框生成和后處理策略,成功解決了多個重疊邊界框的問題,目標(biāo)檢測的準(zhǔn)確度和穩(wěn)定性均實(shí)現(xiàn)了顯著的提升。對比原 YOLO v8s 模型分別在準(zhǔn)確率和平均精度上都提升了2.8百分點(diǎn),召回率提升了3.0百分點(diǎn)。這驗證了改進(jìn)后的方法能夠更準(zhǔn)確地定位和識別目標(biāo),有效地降低了漏檢和誤檢率。本研究對YOLO v8s模型的改進(jìn)取得了一定的成果,并在番茄葉病害檢測任務(wù)中展現(xiàn)了優(yōu)越性能。這些積極的成果將為目標(biāo)檢測的未來發(fā)展提供強(qiáng)有力的支持,并為實(shí)際應(yīng)用提供更準(zhǔn)確、高效的解決方案。
參考文獻(xiàn):
[1]Morbekar A,Parihar A,Jadhav R. Crop disease detection using YOLO[C]//2020 international conference for emerging technology (INCET). Belgaum:IEEE,2020:1-5.
[2]Azath M,Zekiwos A. Deep learning-based image processing for cotton leaf disease and pest diagnosis[J]. Journal of Electrical and Computer Engineering,2021,2021:1-10.
[3]袁霖潔,谷志新,高 丹,等.基于Faster R-CNN的玉米病蟲害識別算法研究[J]. 林業(yè)機(jī)械與木工設(shè)備,2023,51(3):58-61.
[4]賈兆紅,張袁源,王海濤,等. 基于Res2Net和雙線性注意力的番茄病害時期識別方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報,2022,53(7):259-266.
[5]周巧黎,馬 麗,曹麗英,等. 基于改進(jìn)輕量級卷積神經(jīng)網(wǎng)絡(luò)MobileNet v3的番茄葉片病害識別[J]. 智慧農(nóng)業(yè)(中英文),2022,4(1):47-56.
[6]Sardogan M,Tuncer A,Ozen Y. Plant leaf disease detection and classification based on CNN with LVQ algorithm[C]//2018 3rd international conference on computer science and engineering (UBMK). Sarajevo:IEEE,2018:382-385.
[7]蔣清健,姚 勇,王亞玲,等. 基于多尺度卷積神經(jīng)網(wǎng)絡(luò)算法的番茄葉片病害識別[J]. 江蘇農(nóng)業(yè)科學(xué),2023,51(15):211-216.
[8]儲 鑫,李 祥,羅 斌,等. 基于改進(jìn)YOLO v4算法的番茄葉部病害識別方法[J]. 江蘇農(nóng)業(yè)學(xué)報,2023,39(5):1199-1208.
[9]Liu J,Wang X W. Tomato diseases and pests detection based on improved YOLO v3 convolutional neural network[J]. Frontiers in Plant Science,2020,11:898.
[10]Redmon J,F(xiàn)arhadi A. YOLO v3:an incremental improvement[J].
arXiv preprint arXiv:1804.02767,2018.
[11]Bochkovskiy A,Wang C Y,Liao H Y M. YOLO v4:optimal speed and accuracy of object detection[J]. arXiv preprint arXiv:2004.10934,2020.
[12]Li C,Li L,Jiang H,et al. YOLO v6:a single-stage object detection framework for industrial applications[J]. arXiv preprint arXiv:2209.02976,2022.
[13]Wang C Y,Bochkovskiy A,Liao H Y M. YOLO v7:trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition,2023:7464-7475.
[14]Ale L H,Sheta A,Li L Z,et al. Deep learning based plant disease detection for smart agriculture[C]//2019 IEEE Globecom Workshops (GC Wkshps). Waikoloa HI:IEEE,2019:1-6.
[15]Li C,Yao A. KernelWarehouse:towards parameter-efficient dynamic convolution[J]. arXiv preprint arXiv:2308.08361,2023.
[16]Park J,Woo S,Lee J Y,et al. Bam:bottleneck attention module[J]. arXiv preprint arXiv:1807.06514,2018.
[17]Woo S,Park J,Lee J Y,et al. CBAM:convolutional block attention module[M]//Lecture notes in computer science.Cham:Springer International Publishing,2018:3-19.
[18]He K M,Zhang X,Ren S Q,et al. Deep residual learning for image recognition[J]. arXiv:1512.03385.
[19]Tong Z,Chen Y,Xu Z,et al. Wise-IoU:bounding box regression loss with dynamic focusing mechanism[J]. arXiv preprint arXiv:2301.10051,2023.
[20]Ahmed S. Analysis of the performance of YOLO models for tomato plant diseases identification[M]//Computer vision and machine learning in agriculture(volume 3). Singapore:Springer Nature Singapore,2023:115-129.