摘要:針對葡萄葉片病害檢測技術(shù)存在特征提取能力不足、精度不高、漏檢等問題,以葡萄葉片3種病害為研究對象,提出一種基于YOLO v8s改進的檢測模型。在主干網(wǎng)引入全局注意力機制,通過融合跨維度信息,增強主干特征提取能力。在主干網(wǎng)末端,引入動態(tài)蛇形卷積替換原算法的卷積網(wǎng)絡,增強網(wǎng)絡對幾何變形的感知,以更高的精度捕獲圖像中復雜幾何特征。在輸出端改進邊框位置回歸損失函數(shù),引入Focal-EIoU損失函數(shù),平衡不同類別和不同質(zhì)量的樣本,提高邊界框的回歸精度。在輸出端通過增加小目標檢測頭,提高算法對小目標的檢測性能。結(jié)果表明,改進后的模型在mAP@0.5、mAP@0.5∶0.95分別達到90.9%、58.0%,相比YOLO v8s提高了4.5、3.1百分點;FPS達到132.6幀/s,滿足實時檢測要求,并且與其他5種非基線代表性檢測模型相比,具有更高的檢測精度和速度,為葡萄病害檢測提供了一種更優(yōu)的方法,對于防治葡萄病害具有重要意義。
關(guān)鍵詞:葡萄病害;YOLO v8;注意力機制;動態(tài)蛇形卷積;小目標檢測
中圖分類號:S126;TP391.41
文獻標志碼:A
文章編號:1002-1302(2024)21-0221-08
收稿日期:2024-04-18
基金項目:國家自然科學基金(編號:42065004);廣西高校中青年教師科研基礎(chǔ)能力提升項目(編號:2023KY0884);廣西創(chuàng)新驅(qū)動發(fā)展專項(科技重大專項)(編號:桂科AA21077018)。
作者簡介:張立強(1988—),男,湖南湘潭人,碩士,高級工程師,主要從事農(nóng)業(yè)病害、目標檢測、深度學習研究。E-mail:1293320212@qq.com。
通信作者:蔣林利,碩士,教授,主要從事農(nóng)業(yè)信息化、神經(jīng)網(wǎng)絡研究。E-mail:gksresearch@163.com。
我國是世界上最大的鮮食葡萄生產(chǎn)國和消費國,其種植面積、總產(chǎn)量及人均占有量均居世界首位,但由于葡萄栽培方式的特殊性及全球氣候變化等因素影響,葡萄病害頻發(fā),已成為葡萄安全、優(yōu)質(zhì)生產(chǎn)的重要抑制因素[1]。在葡萄生長過程中,葉片是漿果生長發(fā)育和品質(zhì)形成周期內(nèi)的主要養(yǎng)分來源,是葡萄果實正常發(fā)育的關(guān)鍵,然而葉片易受病菌侵染,會對葡萄造成嚴重危害[2]。所以對葡萄葉片進行病害檢測具有重大意義。
國內(nèi)外對植物病害檢測進行了大量研究,最先采用的是基于人工提取特征的方式,主要有k均值聚類、支持向量機、遺傳算法等[3-5]。但人工提取特征存在抗干擾能力弱、效率低、泛化能力差等特點。隨著深度學習技術(shù)的快速發(fā)展,特別是在卷積神經(jīng)網(wǎng)絡上的突破,目標檢測算法也取得了顯著性的成就。目標檢測算法主要分為單階段算法和兩階段算法。兩階段算法具有較好的檢測精度,但速度相比單階段算法較低,常用的算法包括Faster R-CNN等[6]。李就好等將改進后的 Faster-RCNN 算法用于苦瓜葉片病害檢測,mAP達到 86.39%[7]。單階段目標檢測算法在保證較好精度的前提下,具有較高的檢測速度,其中YOLO系列算法在植物病害檢測領(lǐng)域表現(xiàn)優(yōu)異。文斌等提出了一種基于YOLO v3,融合注意力金字塔和雙頸層相結(jié)合的檢測算法,在三七葉片病害檢測中mAP達到80.6%[8]。孫豐剛等基于YOLO v5和遷移學習,引入卷積塊注意力模塊和加權(quán)雙向特征金字塔構(gòu)建模型,在蘋果葉片病害檢測中 mAP@0.5 達到 91.6%[9]。雷建云等在YOLO v4主干網(wǎng)和頸部網(wǎng)分別引入金字塔分割注意力和協(xié)調(diào)注意力模塊,在葡萄葉片病害檢測中mAP@0.5達到84.07%[10]。蘇俊楷等將融合加權(quán)雙向特征金字塔、注意力機制和新?lián)p失函數(shù)等改進后的YOLO v5模型應用于玉米葉片病害數(shù)據(jù)集,mAP@0.5達到95.93%[11]。
在滿足實時性檢測要求下,葡萄葉片病害檢測精度越高,防治效果更好,尤其對于早期病害防治更加重要。為進一步提高葡萄葉片病害檢測效果,本研究在YOLO v8s的基礎(chǔ)上進行改造:在主干網(wǎng)引入全局注意力機制(GAM),通過跨維度信息融合,獲取更加豐富的特征信息;在主干網(wǎng)末端引入動態(tài)蛇形卷積(DSConv),提高復雜幾何特征的提取能力;在輸出端用Focal-EIoU(Focal-Efficient IoU)代替CIoU來協(xié)調(diào)高低質(zhì)量樣本、難易樣本的關(guān)系,提高對難分類樣本的學習能力;在輸出端增加一個160像素×160像素的小目標檢測頭,提高小目標特征的提取能力。
1 數(shù)據(jù)集的構(gòu)建
試驗數(shù)據(jù)來自PlantVillage數(shù)據(jù)集中的葡萄葉片病害圖,該數(shù)據(jù)集常被國內(nèi)外學者作為基礎(chǔ)數(shù)據(jù)集用于農(nóng)作物病害及植物病害的相關(guān)研究。再加以篩選,得到原始圖片2 206張,并使用數(shù)據(jù)增強技術(shù)完成對病害樣本圖片的擴充。數(shù)據(jù)增強技術(shù)主要包括增加亮度、隨機加入高斯噪聲、翻轉(zhuǎn)、旋轉(zhuǎn),最終形成8 694張圖片,包括3類病害,分別為黑腐病、黑麻疹病、枯萎病。數(shù)據(jù)增強實例如圖1所示。
數(shù)據(jù)集標注工作對于模型精度有較大影響,因此葡萄葉片病害圖片經(jīng)過6位專業(yè)園藝師和病理學家(分2組,一組標注,一組核驗)使用Labelimg軟件進行病害識別和標注,手動設(shè)置類別為black_rot、black_measles、blight,標注過程特別注重標注的準確性和完整性。再以8∶1∶1的比例隨機劃分訓練集、驗證集和測試集,具體情況如表1所示。
2 葡萄葉片病害檢測模型
YOLO v8由Ultralytics團隊在2023年發(fā)布,滿足較快檢測速度的同時,還具備較高的檢測精度,適合作為葡萄葉片病害檢測的基線模型。YOLO v8s模型由輸入端、主干網(wǎng)、頸部網(wǎng)和輸出端組成。輸入端圖像大小為640像素×640像素,包括對圖像進行數(shù)據(jù)預處理,主要采用馬賽克數(shù)據(jù)增強、混合增強等。主干網(wǎng)最大的改進是由原來YOLO v5的C3模塊替換為C2f模塊,因為C2f模型能加入更多分支跨層鏈接,更加豐富梯度流,使得網(wǎng)絡具備更好的感知能力和更強的信息融合能力。頸部網(wǎng)主要采用特征金字塔加路徑聚合結(jié)構(gòu)來構(gòu)建,使多尺度信息之間進行充分融合,此外也用C2f替換了C3模塊。輸出端采用3個檢測頭,并采用無錨框思想,將分類和檢測2個部分進行解耦,其中分類損失采用交叉熵損失,而檢測回歸分支使用DFL 損失和CIoU 損失。
為進一步提高葡萄葉片病害檢測效果,同時綜合考慮成本和數(shù)據(jù)集的大小,本研究以YOLO v8s模型作為基線模型進行改進,改進后的模型如圖2所示。由于葡萄葉片病害目標特征較為相似,為使網(wǎng)絡分類效果更加準確,本研究在主干網(wǎng)加入GAM,增加主干網(wǎng)的特征提取能力;為提高復雜幾何特征的提取能力,本研究在主干網(wǎng)末端引入DSConv;為提高網(wǎng)絡收斂速度和收斂結(jié)果,在輸出端使用Focal-EIoU損失函數(shù)代替CIoU損失函數(shù)提高對難分類樣本的學習能力,減少漏檢問題;最后,由于病害區(qū)域存在較多小目標,本研究增加1個小目標檢測頭(黑色虛線框區(qū)域),提取更多淺層紋理特征信息,增強小目標的檢測性能。
2.1 添加注意力機制
由于葡萄葉片病害圖像存在較多小目標,特征較為相似,檢測器難以準確分類。為能夠更好地捕捉目標的細節(jié)和特征,本研究引入注意力機制來提高目標檢測的性能[12]。常見的注意力機制包括SE、CBAM、BAM、TAM等,但均有其缺點,沒有考慮通道、空間寬度、空間高度三者之間的交互作用,削弱了通道-空間之間跨維度的交互[13-16]。本研究考慮在主干網(wǎng)特定位置加入全局注意機制GAM,幫助模型通過增加權(quán)重來更加關(guān)注全局感興趣區(qū)域,以便獲取更加豐富的特征信息[17]。
GAM網(wǎng)絡結(jié)構(gòu)如圖3所示,給定一個特征圖F1作為輸入,經(jīng)過中間變換F2,得到輸出特征圖F3,其中F2和F3公式定義如下:
F2=MC(F1)UF1;(1)
F3=MS(F2)UF2。(2)
式中:MC、MS分別表示通道注意力和空間注意力子模塊,表示矩陣點乘。
MC網(wǎng)絡結(jié)構(gòu)如圖4所示,首先將維度為C×W×H的特征圖F1置換后為W×H×C,C、W、H分別表示特征圖的通道數(shù)、寬、高。然后,用1個多層感知器MLP(2層)放大通道-空間的跨維依賴關(guān)系。最后反向置換,并通過Sigmoid激活函數(shù)得到輸入特征圖F1的權(quán)重系數(shù)MC(F1)。
MS網(wǎng)絡結(jié)構(gòu)如圖5所示,輸入維度為C×W×H特征圖F2,采用2個7×7卷積模塊融合空間信息。同時,采用和通道注意力子模塊相同壓縮比r,得到縮放后的新特征,再通過Sigmoid激活函數(shù)得到特征圖F2的權(quán)重系數(shù)MS(F2)。通過通道注意力子模塊和空間注意力子模塊之后,網(wǎng)絡對目標深層特征的提取能力得到提高,同時不較大損失特征圖的紋理細節(jié)信息,從而達到增強主干網(wǎng)絡的特征提取能力。由于GAM加入會增加模型參數(shù)量和計算成本,綜合考慮精度和代價,設(shè)計在YOLO v8s主干網(wǎng)第3個C2f后添加1個GAM(記為GAM3),具體添加位置見圖2。因為GAM對空間大小、通道數(shù)量適中的特征圖效果較好。為驗證GAM3的有效性,設(shè)計常見不同注意力機制對比試驗,結(jié)果如表2所示,可以看出,YOLO v8s+GAM3的綜合效果最好,證明了GAM3的有效性。
2.2 引入動態(tài)蛇形卷積
傳統(tǒng)卷積使用靜態(tài)權(quán)值,感受野相對固定,不利于網(wǎng)絡捕獲目標的細節(jié)特征,給應用于復雜幾何特征的目標檢測帶來挑戰(zhàn),比如葡萄葉片病害中不規(guī)則形態(tài)的目標。綜合考慮精度和計算成本,本研究在主干網(wǎng)末端引入動態(tài)蛇形卷積DSConv來提取更加復雜的幾何特征,具體位置如圖2所示[18]。因為主干網(wǎng)末端特征圖語義信息豐富,并且有較大感受野,在這個位置使用DSConv有利于提取不規(guī)則的結(jié)構(gòu)特征。DSConv是一種使用動態(tài)權(quán)值的可變形卷積方法,可以實現(xiàn)自適應地聚焦于復雜輪廓曲線的局部特征,進而彌補傳統(tǒng)卷積的不足。
DSConv的核心思想是加入變形偏移量以擴張感受野,為卷積核提供更大的靈活性。圖6展示了DSConv的計算過程。為防止感受野與目標形態(tài)的過度偏離,DSConv采取了迭代策略,即一次性只處理1個目標,保持注意力的連續(xù)性。下面從數(shù)學推導入手,深入闡明DSConv的實現(xiàn)原理?,F(xiàn)給定膨脹系數(shù)為1的標準二維3×3卷積核K,其中心坐標為Ki=(xi,yi),則K中每個網(wǎng)格的位置可表示為Ki±c=(xi±c,yi±c),其中,c={1,2,3,4}表示與中心網(wǎng)格的水平距離。卷積核K中每個網(wǎng)格的位置呈現(xiàn)遞推關(guān)系,從中心位置Ki開始,每個網(wǎng)格距離中心的距離與前一個網(wǎng)格相比偏移量為Δ={|δ|,δ∈[-1,1]}。為確保卷積核具有線性結(jié)構(gòu),在x軸和y軸2個方向上拉直卷積核,使用偏移量進行表達。
在x軸方向上Ki±c 為:
(xi+c,yi+c)=(xi+c,yi+∑i+c/iΔy),
(xi-c,yi-c)=(xi-c,yi+∑i/i-cΔy)。(3)
在y軸方向上Kj±c為:
(xj+c,yj+c)=(xj+∑j+c/jΔx,yi+c),
(xj-c,yj-c)=(xj+∑j/j-cΔx,yi-c)。(4)
由于偏移量Δ通常為小數(shù), 使用雙線性插值的方法處理為
K=∑K′B(K′,K)·K′。(5)
式中:K表示小數(shù)位置;K′表示所有積分空間位置;B為雙線性插值核,分為2個一維核:
B(K,K′)=b(Kx,Kx′)·b(Ky,Ky′)。(6)
基于上述分析,由于x軸和y軸上的動態(tài)調(diào)整,
3×3標準卷積核在變形過程中可以覆蓋9×9的范圍,進而大幅度擴張了感受野。由此,動態(tài)蛇形卷積在動力學機構(gòu)的基礎(chǔ)上實現(xiàn)了對幾何結(jié)構(gòu)適應性的動態(tài)匹配,進而更精確地捕捉目標的關(guān)鍵幾何特征。
2.3 改進損失函數(shù)
常見的損失函數(shù)主要基于IoU、GIoU、DIoU和CIoU,但這些均有其缺點[19-22]。YOLO v8s在回歸檢測任務中使用的CIoU損失函數(shù),雖然考慮了檢測框縱橫比的問題,但是通過公式反映的縱橫比差異不是寬、高分別與其置信度的真實差異,并且錨框的長和寬不能同時增大或減小。
由于葡萄葉片存在多種病害類別,當病害區(qū)域較小,加上室外不同光照環(huán)境,部分類別之間區(qū)別不會太明顯,會導致存在較多負例及困難樣本問題(深度網(wǎng)絡模型由于預測難度大,導致預測不準,將可能存在預測結(jié)果中預測值與真值標簽誤差較大的樣本)。故本研究在輸出端用 Focal-EIoU損失函數(shù)代替回歸任務損失函數(shù)CIoU[23]。EIoU通過計算預測框和目標框在重疊區(qū)域面積、中心點坐標及邊長上的差異來計算損失。在此基礎(chǔ)上,進一步引入Focal來處理不平衡樣本,通過目標框和預測框的IoU值來重新加權(quán)EIoU損失,IoU高的高質(zhì)量樣本擁有更高權(quán)重,使得模型更加關(guān)注高質(zhì)量樣本的貢獻,降低低質(zhì)量樣本的影響,提高模型的檢測能力。具體公式如下所示:
LEIoU=LIoU+Ldis+Lasp=1-IoU+ρ2(b,bgt)/(wc)2+(hc)2+ρ2(w,wgt)/(wc)2+ρ2(h,hgt)/(hc)2;(7)
Lf(x)=-αx2[2ln(βx)-1]/4,0<x≤1;1/e≤β≤1-αln(β)x+c,x>1;1/e≤β≤1;(8)
LFocal-EIoU=IoUγLEIoU。(9)
式中:LIoU、Ldis、Lasp分別表示IoU損失、距離損失、方位損失;wc、hc分別表示包含預測框和真實框最小閉包外接框的寬度、高度;b、bgt分別表示預測框和真實框的中心點;ρ表示歐氏距離;參數(shù) α、β、γ為控制抑制程度的超參數(shù),用來在模型中提升有益梯度,抑制有害梯度;c為保持函數(shù)連續(xù)性的常數(shù)項。
為驗證改進損失函數(shù)的有效性,設(shè)計常見邊框回歸損失函數(shù)對比試驗,結(jié)果如表3所示??梢钥闯觯褂肍ocal EIoU進行替換效果最好,試驗結(jié)果和前面的理論分析一致。
2.4 增加小目標檢測頭
由于葡萄葉片病害中存在較多小目標區(qū)域,而YOLO v8s進行下采樣倍數(shù)較大,較難學到淺層較小感受野的小目標特征,對小目標檢測能力有待提高。因此,本研究在原有3個檢測頭(尺寸分別為80像素×80像素、40像素×40像素、20像素×20像素)的基礎(chǔ)上,在網(wǎng)絡層次相對較淺階段(具有更多細節(jié)特征)提出增加1個160像素×160像素小目標檢測頭,用來提升小目標的檢測性能,具體添加細節(jié)如圖2小目標檢測頭黑色虛線區(qū)域所示,添加小目標檢測頭后,模型對小目標的檢測能力得到提高。
3 結(jié)果與分析
3.1 評價指標
本研究采用平均精度均值(mAP)來綜合衡量模型的精度;采用每秒檢測圖片的幀數(shù)(FPS)來衡量模型的檢測速度;采用參數(shù)量來衡量模型的大小。mAP涉及準確率(P)、召回率(R),其計算公式為
P=TP/(TP+FP);(10)
R=TP/(TP+FN)。(11)
式中:TP表示正確預測為葡萄葉片病害的樣本數(shù);FP表示錯誤預測為葡萄葉片病害的樣本數(shù);FN表示未被預測為葡萄葉片病害的樣本數(shù)。
mAP 是指所有類別的平均準確率(AP)的平均值,AP和mAP計算公式如下:
AP=∫10P(R)dR;(12)
mAP=1/N∑N/i=1APi。(13)
式中:N表示目標檢測的類別數(shù),本試驗中葡萄葉片病害共有3種,故N=3;mAP值越大,表示該模型的綜合檢測精度越高;mAP@0.5表示IoU閾值設(shè)置成0.5的mAP;mAP@0.5∶0.95表示IoU閾值設(shè)置從0.5~0.95,步長0.05的平均mAP。
3.2 試驗環(huán)境
本試驗于2023年7月在廣西科技師范學院自治區(qū)級機器人高新技術(shù)企業(yè)孵化中心高性能服務器上運行,操作系統(tǒng)為Ubuntu 21.10,CPU型號為Intel Core i9-12900K@3.2 GHz,GPU型號為NVIDIA RTX 3080,顯存10 GB,使用Pytorch 1.7.1深度學習框架,編程語言為Python 3.7,CUDA版本為11.0.0。主要訓練參數(shù)設(shè)置如下:訓練周期為300,批大小為16,初始學習率為0.01。在當前的試驗條件下,進行葡萄葉片病害檢測模型的訓練和優(yōu)化,能夠滿足試驗要求。
3.3 消融試驗結(jié)果與分析
為驗證各個改進模型的有效性,設(shè)計消融試驗,結(jié)果如表4所示??梢钥闯觯噍^于YOLO v8s算法,該算法在mAP@0.5達到90.9%,提升了4.5百分點,mAP@0.5∶0.95達到58.0%,提升了3.1百分點。雖然改進后的模型參數(shù)量相比YOLO v8s增加了0.91 M,檢測速度相比YOLO v8s降低了71.5幀/s,但改進后的模型檢測速度達到了132.6 幀/s,完全符合實時性檢測任務要求。因為在主干網(wǎng)和輸出端分別增加GAM和小目標檢測頭雖然可以增加模型的檢測精度,但也會增加模型的參數(shù)量,并降低檢測速度;在主干網(wǎng)替換1個殘差模塊C2F為DSConv,雖然可以增加模型的檢測精度,降低模型的參數(shù)量,但也會降低檢測速度;在輸出端回歸任務替換CIoU損失函數(shù)為Focal EIoU,能更加精準測量誤差,同時基本不會造成參數(shù)量和檢測速度性能的降低。
由于葡萄葉片病害存在較多小目標區(qū)域,為了更加直觀地顯示檢測效果,圖7給出了葡萄葉片黑腐病、黑麻疹病和枯萎病各1張檢測效果對比圖。從圖7可以看出,使用本研究算法檢測到黑腐病、黑麻疹病、枯萎病目標區(qū)域較YOLO v8s分別增加了1、1、3個小目標區(qū)域,而且大部分目標區(qū)域的置信度都有所提高,說明使用改進后的模型有效提升了目標的檢測精度,尤其是小目標。
3.4 對比試驗結(jié)果與分析
與主流目標檢測算法對比試驗結(jié)果如表5所示,可以看出,本研究算法在mAP@0.5、mAP@0.5∶0.95指標上均優(yōu)于Faster R-CNN、CenterNet、YOLOX、YOLO v5s(7.0)、YOLO v7、YOLO v8s;本研究算法在FPS指標上優(yōu)于表5中除YOLO v8s的主流檢測模型,雖然FPS比YOLO v8s降低了71.5幀/s,但還是滿足實時性要求。試驗結(jié)果表明,本模型與其他非基線的5個模型相比,在精度和速度上均有所提升,同時,相比其他6個模型,本模型在保證實時性要求的前提下,具有更強的特征提取能力和平均檢測精度。
番茄葉片病害數(shù)據(jù)集來源自PlantVillage數(shù)據(jù)集,包括細菌性斑點病、葉霉病、斑枯病、早疫病4種,共5 106張圖片, 試驗結(jié)果如表6所示。由試驗結(jié)果可知,改進后的模型相比YOLO v8s在番茄葉片病害上mAP@0.5提升了4.1百分點,達到了 90.3%, mAP@0.5∶0.95提升了2.9百分點,而檢測速度降低了61.8幀/s,但達到150幀/s,符合實時檢測任務要求。該試驗證明了本模型具有較好的適用性和魯棒性。
4 結(jié)論
葡萄葉片病害檢測在構(gòu)建葡萄葉片病害診斷體系、精準科學施藥以及精細化管理方面具有關(guān)鍵作用。為解決葡萄葉片病害檢測過程中漏檢、精度不高等問題,本研究對YOLO v8s模型進行改進,在實時性檢測要求下,有效提升了YOLO v8s模型的檢測精度及特征提取能力。同時,對比其他非基線代表性的目標檢測模型,在精度和速度上均有所提升,并在番茄葉片病害數(shù)據(jù)集上驗證了本模型的適用性和魯棒性。該模型的提出對葡萄葉片病害檢測具有重要意義,也為植物葉片病害檢測提供參考。接下來的工作將關(guān)注模型輕量化工作,以滿足移動設(shè)備上部署的需求。
參考文獻:
[1]蔡全新. 我國葡萄種植產(chǎn)業(yè)發(fā)展現(xiàn)狀及對策[J]. 鄉(xiāng)村科技,2020(20):18-19.
[2]王 鵬. 基于深度學習的葡萄葉片病害識別方法研究[D]. 楊凌:西北農(nóng)林科技大學,2022.
[3]Wang Z B,Wang K Y,Pan S H,et al. Segmentation of crop disease images with an improved K-means clustering algorithm[J]. Applied Engineering in Agriculture,2018,34(2):277-289.
[4]Zhang D Y,Chen G,Zhang H H,et al. Integration of spectroscopy and image for identifying fusarium damage in wheat kernels[J]. Spectrochimica Acta(Part A,Molecular and Biomolecular Spectroscopy),2020,236:118344.
[5]Zhang C L,Zhang S W,Yang J C,et al. Apple leaf disease identification using genetic algorithm and correlation based feature selection method[J]. Int J Agric amp; Biol Eng,2017,10(2):74-83.
[6]Ren S Q,He K M,Girshick R,et al. Faster R-CNN:towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.
[7]李就好,林樂堅,田 凱,等. 改進 Faster R-CNN 的田間苦瓜葉部病害檢測[J]. 農(nóng)業(yè)工程學報,2020,36(12):179-185.
[8]文 斌,曹仁軒,楊啟良,等. 改進YOLO v3算法檢測三七葉片病害[J]. 農(nóng)業(yè)工程學報,2022,38(3):164-172.
[9]孫豐剛,王云露,蘭 鵬,等. 基于改進YOLO v5s和遷移學習的蘋果果實病害識別方法[J]. 農(nóng)業(yè)工程學報,2022,38(11):171-179.
[10]雷建云,葉 莎,夏 夢,等. 基于改進YOLO v4的葡萄葉片病害檢測[J]. 中南民族大學學報(自然科學版),2022,41(6):712-719.
[11]蘇俊楷,段先華,葉趙兵. 改進YOLO v5算法的玉米病害檢測研究[J]. 計算機科學與探索,2023,17(4):933-941.
[12]Niu Z Y,Zhong G Q,Yu H. A review on the attention mechanism of deep learning[J]. Neurocomputing,2021,452:48-62.
[13]Hu J,Shen L,Sun G. Squeeze-and-excitation networks[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Salt Lake City,UT,USA:IEEE,2018:7132-7141.
[14]Woo S,Park J,Lee J Y,et al. CBAM:convolutional block attention module[M]//Lecture notes in computer science.Cham:Springer International Publishing,2018:3-19.
[15]Park J,Woo S,Lee J Y,et al. BAM:bottleneck attention module[EB/OL]. [2024-02-11].http://arxiv.org/abs/1807.06514 .
[16]Misra D,Nalamada T,Arasanipalai A U,et al. Rotate to attend:convolutional triplet attention module[C]//Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision. Waikoloa:IEEE,2021:3139-3148.
[17]Liu Y C,Shao Z R,Hoffmann N.Global attention mechanism:retain information to enhance channel-spatial interactions[EB/OL].(2021-10-10)[2024-04-10].https://arxiv.org/pdf/2112.05561.
[18]Qi Y L,He Y T,Qi X M,et al. Dynamic snake convolution based on topological geometric constraints for tubular structure segmentation[C]//2023 IEEE/CVF International Conference on Computer Vision (ICCV). Paris:IEEE,2023:6047-6056.
[19]Yu J H,Jiang Y N,Wang Z Y,et al. UnitBox:an advanced object detection network[C]//Proceedings of the 24th ACM international conference on Multimedia.Amsterdam The Netherlands.ACM,2016:516-520.
[20]Rezatofighi H,Tsoi N,Gwak J,et al. Generalized intersection over union:a metric and a loss for bounding box regression[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Long Beach,CA,USA:IEEE,2019:658-666.
[21]Zheng Z H,Wang P,Liu W,et al. Distance-IoU loss:faster and better learning for bounding box regression[J]. Proceedings of the AAAI Conference on Artificial Intelligence,2020,34(7):12993-13000.
[22]李 濱,樊 健. 基于YOLO v5的水稻害蟲分類[J]. 江蘇農(nóng)業(yè)科學,2024,52(2):175-182.
[23]Lin T Y,Goyal P,Girshick R,et al. Focal loss for dense object detection[C]//2017 IEEE International Conference on Computer Vision (ICCV).Venice,Italy:IEEE,2017:2999-3007.