• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      KMeans++與注意力機(jī)制融合的蘋果葉片病害識(shí)別方法

      2024-12-31 00:00:00黃貽望王國帥毛志劉聲
      江蘇農(nóng)業(yè)科學(xué) 2024年20期
      關(guān)鍵詞:錨框卷積病害

      doi:10.15889/j.issn.1002-1302.2024.20.023

      摘要:為解決復(fù)雜環(huán)境下小尺度蘋果葉片病害識(shí)別精度不高、魯棒性不強(qiáng)的問題,在YOLO v5s的基礎(chǔ)上提出一種新的改進(jìn)方法。該方法首先在模型訓(xùn)練之前使用KMeans++聚類算法生成更接近真實(shí)框的錨框;其次在骨干網(wǎng)絡(luò)中加入卷積塊注意幾模塊(convolutional block attention module,CBAM),來提升復(fù)雜環(huán)境下小目標(biāo)特征的提取能力;再次為了增強(qiáng)頸部網(wǎng)絡(luò)對(duì)不同大小病害多尺度特征的有效識(shí)別,選擇ConvNeXtBlock模塊替換C3(CSP bottleneck with 3 convolutions)模塊,并在頸部網(wǎng)絡(luò)中融入坐標(biāo)注意力模塊(coordinate attention,CA),來加強(qiáng)模型對(duì)關(guān)鍵空間位置的響應(yīng),使得不同尺度的特征都能被更有效地利用;最后使用ECIoU損失函數(shù)替換原始的CIoU損失函數(shù),來提高模型的收斂速度和精度。與Faster R-CNN、SSD、YOLO v5s、YOLO v7、YOLO v8目標(biāo)檢測(cè)模型相比,改進(jìn)后模型的平均精度均值(mean average precision,mAP0.5)值分別提升0.6、4.6、6.3、1.7、1.3百分點(diǎn),同時(shí)在強(qiáng)光照、模糊、暗光的復(fù)雜場景下具有較強(qiáng)的魯棒性。該模型可以為復(fù)雜環(huán)境下蘋果葉片病害的識(shí)別提供行之有效的方案。

      關(guān)鍵詞:蘋果;葉片病害;病害檢測(cè);注意力機(jī)制;ConvNeXtBlock;卷積塊注意力模塊(CBAM);CA

      中圖分類號(hào):S126;TP391.41" 文獻(xiàn)標(biāo)志碼:A

      文章編號(hào):1002-1302(2024)20-0190-09

      收稿日期:2024-07-12

      基金項(xiàng)目:國家自然科學(xué)基金(編號(hào):62066040);民族教育信息化教育部重點(diǎn)實(shí)驗(yàn)室開放課題(編號(hào):EIN2024B003);智能計(jì)算與信息處理教育部重點(diǎn)實(shí)驗(yàn)室開放課題(編號(hào):2023ICIP05);國家留學(xué)基金委西部地區(qū)人才培養(yǎng)特別項(xiàng)目(編號(hào):202108525007);銅仁市大數(shù)據(jù)智能計(jì)算與應(yīng)用重點(diǎn)實(shí)驗(yàn)室項(xiàng)目(編號(hào):銅仁市科研[2022]5號(hào));貴州省科技基礎(chǔ)研究計(jì)劃(編號(hào):[2022]557)。

      作者簡介:黃貽望(1978—),男,湖南溆浦人,博士,教授,碩士生導(dǎo)師,主要從事人工智能、服務(wù)計(jì)算、軟件形式化方法等研究。E-mail:yjsyhyw@gztrc.edu.cn。

      中國蘋果產(chǎn)業(yè)協(xié)會(huì)發(fā)布的《2022年度中國蘋果產(chǎn)業(yè)報(bào)告》中顯示,中國蘋果產(chǎn)量仍然位居世界第一[1]。中國作為蘋果種植業(yè)大國,在蘋果產(chǎn)業(yè)發(fā)展中依舊存在一些問題。例如,在種植過程中,蘋果的葉片病害嚴(yán)重影響著蘋果的產(chǎn)量,包括對(duì)蘋果危害較為嚴(yán)重的腐爛病、褐斑病、斑點(diǎn)落葉病等。那么,如何快速精準(zhǔn)地檢測(cè)和識(shí)別蘋果葉部病害就是解決這一問題的關(guān)鍵,對(duì)于未來蘋果產(chǎn)業(yè)高質(zhì)量發(fā)展至關(guān)重要。

      隨著科技的進(jìn)步,越來越多的技術(shù)運(yùn)用到農(nóng)業(yè)生產(chǎn)領(lǐng)域,深度學(xué)習(xí)憑借其強(qiáng)大的模式識(shí)別和自適應(yīng)學(xué)習(xí)能力被廣泛應(yīng)用于番茄[2-4]、玉米[5-7]、小麥[8-9]以及茶葉[10]等農(nóng)作物病害的檢測(cè)識(shí)別任務(wù)中,在蘋果葉部病害檢測(cè)中也進(jìn)行了很多研究,例如,曾晏林等在YOLO v5中引入自注意力機(jī)制和Transformer模塊,對(duì)于蘋果葉部病害進(jìn)行有效識(shí)別[11];Mathew等使用YOLO v3算法來檢測(cè)蘋果葉部病害[12-13];Wang等通過改進(jìn)YOLO v5并輕量化網(wǎng)絡(luò),對(duì)多種蘋果葉部病害達(dá)到較高的檢測(cè)速度[14];趙嘉威等將YOLO v4網(wǎng)絡(luò)結(jié)合注意力機(jī)制模塊來檢測(cè)蘋果多種葉部病害[15];黃煒等基于VGG-16和Swin Transformer網(wǎng)絡(luò)提出了一種復(fù)雜特征的細(xì)粒度特征分離方法,有效提升了檢測(cè)精準(zhǔn)率[16];李鑫然等通過改進(jìn)Faster R_CNN模型來提高對(duì)于蘋果葉片病害的檢測(cè)精度[17];公徐路等使用ShuffleNet v2輕量化網(wǎng)絡(luò)對(duì)YOLO v5進(jìn)行改進(jìn),來達(dá)到對(duì)蘋果葉片病害檢測(cè)的高精度及輕量化的需求[18];王瑞鵬等利用EfficientNet-B0網(wǎng)絡(luò)和DenseNet121網(wǎng)絡(luò)作為特征提取網(wǎng)絡(luò),對(duì)5類蘋果葉部病害進(jìn)行檢測(cè)[19];孫長蘭等采用非極大值抑制算法將YOLO v5與EffcientDet模型進(jìn)行集成來提升蘋果葉部病害的檢測(cè)精度[20]。

      這些研究采用不同的方式改進(jìn)模型來提升檢測(cè)精度,但由于蘋果樹生長的環(huán)境復(fù)雜,樹葉繁茂,枝杈交錯(cuò),容易造成病害特征的混淆,所以大多數(shù)模型在病害檢測(cè)與識(shí)別任務(wù)中,魯棒性往往較差。除此之外,蘋果葉片病害中銹病、灰斑病、蛙眼葉斑病等病斑由于在整個(gè)葉片背景中尺寸較小,缺乏相應(yīng)的紋理、顏色、形狀等外觀信息[21],多次下采樣后,特征信息減少,導(dǎo)致檢測(cè)難度變大。

      因此,本研究在YOLO v5s模型的基礎(chǔ)上提出了一種新的改進(jìn)算法。該算法主要包括以下4點(diǎn)改進(jìn):(1) 使用KMeans++聚類算法生成新的錨框,使錨框更接近數(shù)據(jù)集標(biāo)注的大小,從而提高模型定位的準(zhǔn)確性;(2) 在骨干網(wǎng)絡(luò)引入卷積塊注意力模塊(convolutional block attention module,CBAM),增強(qiáng)骨干網(wǎng)絡(luò)對(duì)復(fù)雜環(huán)境下小尺度蘋果葉片病害特征的提取能力;(3) 在頸部網(wǎng)絡(luò)使用ConvNeXtBlock模塊替換原有的C3(CSP bottleneck with 3 convolutions)模塊,增強(qiáng)模型對(duì)特征的表達(dá)能力,并在頸部網(wǎng)絡(luò)中加入坐標(biāo)注意力(coordinate attention,CA)模塊,進(jìn)一步強(qiáng)化模型對(duì)于關(guān)鍵空間位置的響應(yīng)速度;(4) 為了使模型收斂速度更快,用ECIoU損失函數(shù)替換原始的CIoU損失函數(shù)。通過以上改進(jìn)以滿足對(duì)于復(fù)雜環(huán)境下小尺度蘋果葉片病害識(shí)別任務(wù)的可用性。

      1" 材料與方法

      1.1" 試驗(yàn)數(shù)據(jù)集與處理

      蘋果葉片病害試驗(yàn)數(shù)據(jù)集來自于公開數(shù)據(jù)集AppleLeaf9[22],此數(shù)據(jù)集包含PlantVillage、ATLDSD、PPCD2020、PPCD2021數(shù)據(jù)集中的8種蘋果葉部病害[23-26],本試驗(yàn)選擇對(duì)蘋果產(chǎn)量影響較為嚴(yán)重的鏈格孢葉斑病、蛙眼葉斑病、灰斑病及銹病4種病害圖片,共計(jì)1 514張。為提升模型的魯棒性和泛化性能,試驗(yàn)數(shù)據(jù)集選擇的病害圖片包括復(fù)雜場景以及小目標(biāo)病害圖片,4種病害圖片如圖1所示。

      試驗(yàn)使用Labelme標(biāo)注軟件對(duì)圖片上的每一處病害進(jìn)行標(biāo)注,標(biāo)注類別和標(biāo)注框的坐標(biāo)信息存儲(chǔ)在對(duì)應(yīng)的JSON文件中。試驗(yàn)將數(shù)據(jù)集按照8 ∶2的比例劃分訓(xùn)練集和驗(yàn)證集,具體劃分如表1。

      1.2" YOLO v5整體改進(jìn)

      首先,本改進(jìn)模型使用KMeans++聚類算法生成新的錨框,其目的在于使生成的錨框更接近數(shù)據(jù)集中目標(biāo)的真實(shí)大小。數(shù)據(jù)集標(biāo)注的大小是指數(shù)據(jù)集中所有標(biāo)注目標(biāo)框的寬度和高度的統(tǒng)計(jì)分布。通過聚類算法,可以有效地生成1組錨框,這些錨

      框的尺寸能夠更好地代表數(shù)據(jù)集中目標(biāo)的實(shí)際尺寸分布,從而在訓(xùn)練過程中使模型更容易學(xué)習(xí)到目標(biāo)的特征提高檢測(cè)精度。其次,在骨干網(wǎng)絡(luò)中引入卷積塊注意力模塊(convolutional block attention module,CBAM),CBAM通過卷積操作在特征圖上計(jì)算注意力權(quán)重,這些權(quán)重可以分為通道注意力和空間注意力。重要特征是指那些對(duì)目標(biāo)識(shí)別至關(guān)重要的特征,如病害斑點(diǎn)的紋理、形狀、顏色等。在通道注意力機(jī)制下,CBAM根據(jù)每個(gè)通道的重要性分配權(quán)重,強(qiáng)化對(duì)目標(biāo)識(shí)別有幫助的通道特征;在空間注意力機(jī)制下,CBAM根據(jù)每個(gè)空間位置的重要性分配權(quán)重,強(qiáng)化對(duì)目標(biāo)識(shí)別有幫助的空間特征,抑制背景噪聲和無關(guān)區(qū)域的特征。這種處理可以提高模型對(duì)重要特征的關(guān)注度,從而增強(qiáng)判別能力。在頸部網(wǎng)絡(luò)使用ConvNeXtBlock模塊替換原有的C3模塊,ConvNeXtBlock是一個(gè)改進(jìn)的卷積模塊,它通過更深的卷積操作和更廣的感受野來捕捉多尺度特征。ConvNeXtBlock采用一種新穎的網(wǎng)絡(luò)架構(gòu)設(shè)計(jì),包括更深層次的卷積、跳躍連接以及歸一化層,這些設(shè)計(jì)能夠更好地捕捉和融合不同尺度的特征信息。通過這種改進(jìn),模型在不同尺度下的特征表達(dá)能力得到了顯著提升,使其能夠更準(zhǔn)確地識(shí)別大小不同的目標(biāo),從而提高目標(biāo)檢測(cè)的準(zhǔn)確性和魯棒性。模型還在頸部網(wǎng)絡(luò)中引入了CA模塊,該模塊是一種基于坐標(biāo)的注意力機(jī)制,它通過將注意力權(quán)重與坐標(biāo)信息結(jié)合,能夠更精準(zhǔn)地定位目標(biāo)區(qū)域并強(qiáng)化目標(biāo)特征。CA模塊的核心思想是利用坐標(biāo)信息引導(dǎo)注意力權(quán)重的計(jì)算,從而更好地捕捉目標(biāo)的空間布局和上下文關(guān)系。這樣模型不僅能夠關(guān)注到目標(biāo)本身,還能考慮目標(biāo)周圍的環(huán)境特征,提高目標(biāo)檢測(cè)的魯棒性。最后,為使模型收斂速度更快,使用ECIoU損失函數(shù)替換原始的CIoU損失函數(shù)。本研究改進(jìn)的YOLO v5s模型網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

      1.2.1" KMeans++聚類算法生成錨框" 在YOLO v5中,錨框是一種預(yù)設(shè)的矩形框,用在特征圖上預(yù)測(cè)目標(biāo)的位置和大小。本方法采用KMeans++聚類算法生成錨框,其目的是使生成的錨框更接近數(shù)據(jù)集中目標(biāo)的真實(shí)大小。YOLO v5s默認(rèn)使用3個(gè)不同的錨框,錨框的大小為[10,13,16,30,33,23]、[30,61,62,45,59,119]、[116,90,156,198,373,326]。其中[10,13,16,30,33,23]等這些數(shù)字表示錨框的寬度和高度。具體來說,[10,13]中的10表示錨框的寬度,13表示錨框的高度。其他錨框的數(shù)字組合也是如此,分別表示不同錨框的寬度和高度。這3個(gè)不同大小的錨框?qū)?yīng)80×80、40×40、20×20等3個(gè)不同尺度的特征圖。但給定的錨框是使用MSCOCO數(shù)據(jù)集聚類得出的結(jié)果[27],MSCOCO數(shù)據(jù)集有80多個(gè)類別,試驗(yàn)中病害類別并不包含在內(nèi)。雖然YOLO v5s引入了自適應(yīng)錨框算法,但算法依舊存在局限性。自適應(yīng)錨框算法在模型訓(xùn)練前需遍歷整個(gè)數(shù)據(jù)集的標(biāo)注信息,根據(jù)這些信息計(jì)算標(biāo)注框的尺寸分布。若計(jì)算得到的最優(yōu)召回率大于或等于0.98,則不進(jìn)行進(jìn)一步的更新;反之,若最優(yōu)召回率低于0.98,則觸發(fā)錨框尺寸的重新計(jì)算和更新流程。

      為使在訓(xùn)練之前得到更符合真實(shí)標(biāo)注框的錨框,本研究選擇使用KMeans++聚類算法生成新的錨框,從而優(yōu)化模型訓(xùn)練過程。KMeans++聚類生成錨框如算法1所示。

      算法1" KMeans++生成錨框:

      輸入:數(shù)據(jù)集D,聚類數(shù)量k;

      輸出:錨框的中心點(diǎn)集合C。

      (1)初始化中心點(diǎn)集合C為空集;

      (2)從數(shù)據(jù)集D中隨機(jī)選擇1個(gè)樣本作為初始聚類中心,并加入到C中;

      (3)while |C|lt;k do;

      (4)對(duì)D中每個(gè)樣本x計(jì)算最小距離平方d(x)2;

      (5)以d(x)2成正比概率選擇新聚類中心,并加入C;

      (6)根據(jù)C中k個(gè)中心點(diǎn)確定錨框?qū)捀撸?/p>

      (7)返回錨框中心點(diǎn)集合C。

      通過KMeans++聚類算法生成錨框的具體大小如表2。

      表2" KMeans++聚類算生成錨框尺寸

      尺寸錨框大小

      小15×22、19×32、24×40

      中32×34、34×46、41×59

      大66×68、59×96、105×121

      1.2.2" 引入注意力機(jī)制" 注意力機(jī)制融入到目標(biāo)識(shí)別領(lǐng)域[28],可以幫助模型更加專注于圖像中的關(guān)鍵部分,從而提高目標(biāo)檢測(cè)的準(zhǔn)確性。目前已有多種注意力機(jī)制如EMA(exponential moving average)[29]、SA(spatial attention)[30]、CA(coordinate attention)[31]、CBAM等被廣泛應(yīng)用于目標(biāo)檢測(cè)中[32]。具體到本研究,為使模型在特征提取階段增強(qiáng)對(duì)缺乏紋理顏色的小目標(biāo)病害的提取能力,使得不同尺度的病害特征都能被有效地利用。選擇在骨干網(wǎng)絡(luò)中加入CBAM模塊,在頸部網(wǎng)絡(luò)加入CA模塊,CBAM模塊由Woo等提出,結(jié)構(gòu)如圖3所示。

      CBAM模塊主要包括CAM與SAM兩個(gè)部分,模塊首先通過通道注意力機(jī)制(channel attention module,CAM)增強(qiáng)網(wǎng)絡(luò)對(duì)不同通道特征的表達(dá)能力,隨后通過空間注意力機(jī)制(spatial attention module,SAM)進(jìn)一步細(xì)化每個(gè)位置的特征響應(yīng)。其中通道注意力模塊(CAM)結(jié)構(gòu)如圖4所示。

      輸入特征圖F是前置卷積層的輸出,包含多個(gè)通道,每個(gè)通道編碼了不同的特征信息。CAM首先對(duì)特征圖F進(jìn)行全局最大池化和全局平均池化操作。全局最大池化操作捕獲特征圖中最為顯著的特征,而全局平均池化則提取特征圖中的平均信息。池化后的結(jié)果被送入共享的多層感知器(multilayer perceptron,MLP),MLP具有2層全連接層,并在這2層之間使用ReLU激活函數(shù)。共享的MLP對(duì)2種池化信息進(jìn)行進(jìn)一步的抽象和重構(gòu),生成具有描述性的特征通道權(quán)重。經(jīng)過MLP處理后的2組特征圖進(jìn)行逐元素相加,通過Sigmoid激活函數(shù)處理,生成通道注意力圖Mc。得到的通道注意力圖Mc為每個(gè)通道指定1個(gè)權(quán)重,通過這個(gè)權(quán)重對(duì)輸入特征圖F中每個(gè)通道的響應(yīng)進(jìn)行放大或縮減。通道注意力計(jì)算公式為式(1):

      Mc(F)=σ{MLP[Avg(F)]+MLP[MaxPool(F)]}=σ[W1(W0(Fcavg)]+W1[W0(Fcmax)]。(1)

      通道注意力這樣的機(jī)制使得網(wǎng)絡(luò)能夠強(qiáng)化對(duì)重要特征通道的關(guān)注,而抑制不重要的通道,進(jìn)而更有效地利用特征信息。SAM則關(guān)注于在空間維度上的重要區(qū)域,以強(qiáng)化局部的特征表達(dá)。SAM的結(jié)構(gòu)如圖5所示。

      在CAM模塊之后,SAM模塊首先對(duì)細(xì)化后的特征圖F′執(zhí)行最大池化和平均池化操作。池化操作后得到的2個(gè)特征圖在通道維度上進(jìn)行堆疊,形成1個(gè)兩通道的特征圖,堆疊后的特征圖通過1個(gè)7×7的卷積層進(jìn)行處理。通過卷積層后,使用Sigmoid函數(shù)激活得到空間注意力圖Ms。最后,空間注意力圖Ms被用來對(duì)輸入的通道細(xì)化特征圖F′進(jìn)行加權(quán)。空間注意力權(quán)重矩陣Ms計(jì)算公式為式(2)。

      Ms(F)=σ(f7×7{[AvgPool(F);MaxPool(F)]})=σ[f7×7([Fsavg;Fsmax])]。(2)

      除了在骨干網(wǎng)絡(luò)加入CBAM模塊之外,為進(jìn)一步強(qiáng)化模型對(duì)于關(guān)鍵空間位置的響應(yīng),使得不同尺度的特征都能被更有效地利用。本研究選擇在頸部網(wǎng)絡(luò)融入CA模塊,其網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。

      首先輸入的是具有1個(gè)C×H×W維度的特征圖,包含C個(gè)通道的特征圖分別在x軸和y軸上進(jìn)行平均池化操作。經(jīng)過池化操作的特征圖被拼接起來,并通過1個(gè)二維卷積(Conv2d)操作,拼接完的特征圖經(jīng)過批量歸一化和非線性函數(shù)處理。之后被拆分成兩部分,并分別通過另外的卷積層進(jìn)行處理,Sigmoid函數(shù)將卷積的結(jié)果映射到(0,1)區(qū)間,生成權(quán)重。再次使用Sigmoid函數(shù)對(duì)原始輸入特征圖進(jìn)行加權(quán),突出重要的通道特征。

      1.2.3" ConvNeXtBlock 結(jié)構(gòu)" 當(dāng)病害特征被骨干網(wǎng)絡(luò)提取后,在頸部網(wǎng)絡(luò)進(jìn)行特征融合,但在深層網(wǎng)絡(luò)中隨著卷積的增加,特征圖的分辨率逐步降低,這使小目標(biāo)信息丟失,尤其是在處理蘋果葉片病害識(shí)別這種細(xì)粒度的任務(wù)中,而且因不同階段不同大小的病害可能需要多尺度的特征來進(jìn)行有效識(shí)別,因此本研究選擇使用ConvNeXtBlock模塊替換頸部網(wǎng)絡(luò)中的C3模塊,ConvNeXt結(jié)構(gòu)由Liu等提出[33],它是基于Transformer架構(gòu)上的卷積神經(jīng)網(wǎng)絡(luò)模塊,ConvNeXt網(wǎng)絡(luò)結(jié)構(gòu)如圖7所示。

      模塊首先通過1個(gè)7×7的深度可分離卷積處理輸入特征圖,緊接著通過層標(biāo)準(zhǔn)化進(jìn)行歸一化操作,這一步有助于加速整個(gè)訓(xùn)練過程并加快模型的收斂速度。之后使用1×1卷積來聚合深度可分離卷積后的特征,并進(jìn)行通道上的信息融合。這一步使通道數(shù)量變?yōu)樵瓉淼?倍,增強(qiáng)了網(wǎng)絡(luò)對(duì)于局部特征的捕捉能力,ReLU激活函數(shù)的加入給予了模型的非線性。接著再次使用1×1卷積來進(jìn)一步調(diào)整特征。最后輸入的特征圖與最后一次卷積的輸出進(jìn)行殘差連接輸出結(jié)果。

      1.2.4" 損失函數(shù)改進(jìn)" 損失函數(shù)的改進(jìn)可以進(jìn)一步提升模型的收斂速度和精度,YOLO v5s默認(rèn)將CIoU作為損失函數(shù)。CIoU的設(shè)計(jì)主要考慮的關(guān)鍵因素包括邊框的重疊面積、中心點(diǎn)距離以及長寬比。CIoU損失通過增加中心點(diǎn)距離,提供了當(dāng)IoU相同時(shí)更有區(qū)分度的梯度。CIoU的計(jì)算公式為:

      CIoU=IoU-p2(b,bgt)c2αν。(3)

      式中:α、ν分別作為權(quán)重函數(shù)和寬高比的度量值,其中α的計(jì)算公式為式(4),ν的計(jì)算公式為式(5)。

      α=ν(1-IoU)+ν;(4)

      ν=4πarctanωgthgt-arctanωh2。(5)

      式中:ω、h是真實(shí)框的寬和高;ωgt、hgt是預(yù)測(cè)框的寬和高。但α、ν反映的只是邊界框長、寬的差異,并沒有反映出寬、高對(duì)于置信度的差異,且當(dāng)ω=kωgt、h=khgt懲罰項(xiàng)將失去效果。EIoU在此基礎(chǔ)上將橫縱比的影響因子拆分,分別計(jì)算真實(shí)框和預(yù)測(cè)框的長、寬,EIoU損失函數(shù)主要包括重疊損失、中心距離損失、寬高損失3個(gè)部分[34]。EIoU_Loss的計(jì)算公式為:

      LossEIoU=LIoU+Ldis+lasp=1-IoU+p2(bgt,b)c2+p2(hgt,h)c2h+p2(ωgt,ω)c2ω。(6)

      本研究結(jié)合了2種損失函數(shù)的優(yōu)點(diǎn)選擇使用ECIoU作為損失函數(shù),在此前的研究中,已有研究者將此損失函數(shù)應(yīng)用到目標(biāo)識(shí)別領(lǐng)域,如曹超等在YOLO v8中使用ECIoU損失函數(shù)來加速模型收斂[35],ECIoU損失函數(shù)計(jì)算公式為:

      LossECIoU=1-IoU+αν+p2(bgt,b)c2+p2(hgt,h)c2h+p2(ωgt,ω)c2ω。(7)

      1.3" 算法流程和分析

      改進(jìn)后的算法具體包括:在訓(xùn)練前使用KMeans++聚類算法生成新錨框、在骨干網(wǎng)絡(luò)中加入CBAM模塊、在頸部網(wǎng)絡(luò)使用ConvNeXtBlock模塊替換C3模塊并引入CA模塊、使用ECIoU損失函數(shù)替換CIoU損失函數(shù)。改進(jìn)后算法的具體訓(xùn)練流程為算法2所示。

      算法2" 改進(jìn)后的算法流程:

      輸入:訓(xùn)練數(shù)據(jù)集、模型參數(shù);

      輸出:目標(biāo)檢測(cè)結(jié)果。

      (1)初始化改進(jìn)后的YOLO v5s模型;

      (2)New anchorKMeans++;/*使用KMeans++算法生成新錨框*/;

      (3)for i=0 to N-1;

      (4)trainNew anchor amp; ECIoU;/*使用改進(jìn)后的錨框和損失函數(shù)進(jìn)行訓(xùn)練*/;

      (5)通過正向傳播生成預(yù)測(cè)框,然后根據(jù)預(yù)測(cè)和真實(shí)標(biāo)簽計(jì)算損失,損失計(jì)算公式為式(7);

      (6)通過式(7)計(jì)算結(jié)果進(jìn)行反向傳播,優(yōu)化模型權(quán)重;

      (7)for end。

      首先初始化改進(jìn)后的模型實(shí)例,并加載模型參數(shù),包括加載預(yù)訓(xùn)練的權(quán)重、設(shè)置學(xué)習(xí)率、迭代次數(shù)以及批處理大小。隨后模型使用優(yōu)化后的錨框和改進(jìn)后的損失函數(shù),在數(shù)據(jù)集上進(jìn)行多次迭代訓(xùn)練。在訓(xùn)練中模型接收輸入圖像并執(zhí)行正向傳播來生成預(yù)測(cè)框,然后根據(jù)標(biāo)注框和預(yù)測(cè)結(jié)果之間的差異,計(jì)算損失函數(shù)。計(jì)算得出損失之后,使用反向傳播算法來計(jì)算梯度,最后使用這些梯度來更新模型權(quán)重。

      1.4" 試驗(yàn)環(huán)境

      為了驗(yàn)證本算法的有效性,于2024年2—4月在銅仁市大數(shù)據(jù)智能計(jì)算及應(yīng)用重點(diǎn)實(shí)驗(yàn)室銅仁學(xué)院人工智能服務(wù)器上進(jìn)行試驗(yàn)。試驗(yàn)系統(tǒng)為Ubuntu,試驗(yàn)硬件為浪潮高性能人工智能平臺(tái),配置為:IntelXeonPlatinum 8358 PCPU@2.60 GHz,A40GPU×2,512 GB內(nèi)存,單張加速卡顯存為 45 GB 共90 GB。代碼編譯環(huán)境為Python 3.8.10,加速卡CUDA版本為11.2,深度學(xué)習(xí)框架選擇Pytroch 2.2.1。

      1.5" 模型評(píng)價(jià)指標(biāo)

      在蘋果葉片病害的識(shí)別任務(wù)中,選擇使用的評(píng)價(jià)指標(biāo)有精準(zhǔn)率(precision,P)、召回率(recall,R)以及平均精準(zhǔn)率mAP值,精準(zhǔn)率計(jì)算公式為式(8),召回率計(jì)算公式為式(9)。平均精準(zhǔn)率mAP值是基于精準(zhǔn)率和召回率得出的,可以更全面地反映模型的性能。為進(jìn)一步測(cè)試模型全面的精度性能指標(biāo),在本試驗(yàn)中納入了mAP0.5 ∶0.9的計(jì)算,mAP0.5 ∶0.9不僅考慮到了模型在容易的情況(如交并比IoU=0.5)下的性能,還評(píng)估了在更困難的情況(如IoU=0.9)下的表現(xiàn)。

      P=TPTP+FP;(8)

      R=TPTP+FN。(9)

      其中:TP代表為真正例,指模型正確地將正類別的樣本識(shí)別為正類別;FP為假正例,是指模型錯(cuò)誤地將負(fù)類別的樣本識(shí)別為正類別;FN為假負(fù)例,是指模型錯(cuò)誤地將正類別的樣本識(shí)別為負(fù)類別。

      2" 結(jié)果與分析

      2.1" 損失函數(shù)對(duì)比

      通過對(duì)損失函數(shù)的改進(jìn),使用ECIoU損失函數(shù)替換原始的CIoU損失函數(shù),ECIoU損失函數(shù)結(jié)合了EIoU和CIoU的優(yōu)點(diǎn),既保證了懲罰項(xiàng)的有效性,又加快了模型的收斂速度,訓(xùn)練結(jié)果如圖8所示,ECIoU損失函數(shù)在Bounding box的回歸速度上要優(yōu)于CIoU損失函數(shù)。

      2.2" 消融試驗(yàn)結(jié)果

      為保證研究算法的4點(diǎn)改進(jìn)是有效的,在其他參數(shù)不變的條件下進(jìn)行了4種改進(jìn)方式的消融試驗(yàn),結(jié)果表明每一種改進(jìn)對(duì)模型的精度都有所提升,詳細(xì)的試驗(yàn)結(jié)果如表3所示。

      “改進(jìn)1”是在原始的YOLO v5s模型基礎(chǔ)上使用KMeans++聚類算法生成預(yù)測(cè)錨框,改進(jìn)1使得模型的mAP0.5、mAP0.5 ∶0.9分別提升了0.4、0.5百分點(diǎn)?!案倪M(jìn)2”是在在原始的YOLO v5s模型的基礎(chǔ)上使用ECIoU損失函數(shù)替換原始的CIoU損失函數(shù),改進(jìn)2使得模型的mAP0.5、mAP0.5 ∶0.9分別提升了0.7、1.4百分點(diǎn)。“改進(jìn)3”在YOLO v5s的骨干網(wǎng)絡(luò)SPPF層后加入CBAM模塊,在頸部網(wǎng)絡(luò)加入CA模塊。對(duì)比原始YOLO v5s網(wǎng)絡(luò),其準(zhǔn)確率、召回率分別提升0.1、1.7百分點(diǎn),mAP0.5、mAP0.5 ∶0.9分別提升0.8、1.6百分點(diǎn)。“改進(jìn)4”使用ConvNeXt模塊替換頸部網(wǎng)絡(luò)中的C3模塊,相比較于原始YOLO v5s模型,mAP0.5、mAP0.5 ∶0.9分別提升1.7、2.1百分點(diǎn)。最終改進(jìn)模型也就是本研究算法,試驗(yàn)結(jié)果對(duì)比原始YOLO v5s模型準(zhǔn)確率、召回率分別提升2.3、1.3百分點(diǎn),mAP0.5、mAP0.5 ∶0.9分別提升6.3、5.2百分點(diǎn),其各類指標(biāo)也優(yōu)于其他3種改進(jìn)方式。

      2.3" 對(duì)比試驗(yàn)

      為了更進(jìn)一步證明本算法對(duì)其他模型的有效性,試驗(yàn)將本算法與一階段目標(biāo)檢測(cè)算法SDD、YOLO v7、YOLO v8、兩階段目標(biāo)檢測(cè)算法Faster R-CNN 進(jìn)行對(duì)比,結(jié)果如表4所示。本研究算法mAP0.5值要高于其他一階段目標(biāo)識(shí)別算法和兩階段算法。鏈格孢葉斑病、蛙眼葉斑病、銹病的識(shí)別準(zhǔn)確率要優(yōu)于其他模型;但在灰斑病的識(shí)別中兩階段目標(biāo)檢測(cè)算法Faster R-CNN盡管擁有微弱的優(yōu)勢(shì),但其龐大的參數(shù)量和計(jì)算代,價(jià)依舊沒有辦法使其與本研究算法相媲美。

      2.4" 對(duì)比分析

      為更加直接觀察模型在復(fù)雜環(huán)境下的識(shí)別效果,本試驗(yàn)還通過對(duì)比部分病害圖片的檢測(cè)結(jié)果來評(píng)估模型的有效性。在結(jié)果對(duì)比試驗(yàn)中,將本模型與原始的YOLO v5s模型進(jìn)行對(duì)比測(cè)試,結(jié)果如圖9所示。圖9-a為原始的YOLO v5s檢測(cè)結(jié)果,可以明顯看出原始YOLO v5s模型對(duì)于A種病斑的識(shí)別置信度較低,對(duì)于R種小尺寸病斑識(shí)別效果較差,存在漏檢的情況。而在圖9-b中可以看到,改進(jìn)后的YOLO v5s模型對(duì)于以上病斑識(shí)別的置信度遠(yuǎn)高

      于YOLO v5s模型,在小目標(biāo)病害識(shí)別的場景中沒有出現(xiàn)漏檢的情況。為驗(yàn)證本算法對(duì)復(fù)雜場景下的魯棒性,圖10展示了病害在強(qiáng)光照、模糊、暗光3種非正常環(huán)境下的檢測(cè)結(jié)果。結(jié)果表明,原始的YOLO v5s模型在強(qiáng)光照、模糊的場景下出現(xiàn)了多處漏檢情況,而改進(jìn)后的模型未出現(xiàn)漏檢,且檢測(cè)置信度要遠(yuǎn)高于YOLO v5s模型。圖9和圖10的2組試驗(yàn)結(jié)果證明了改進(jìn)后的算法對(duì)復(fù)雜場景和小目標(biāo)病斑識(shí)別的有效性。

      3" 結(jié)論與討論

      本研究針對(duì)復(fù)雜環(huán)境下小尺度蘋果葉片病害進(jìn)

      行識(shí)別,通過對(duì)原始的YOLO v5s模型的多個(gè)網(wǎng)絡(luò)部分進(jìn)行改進(jìn),改進(jìn)后的模型與對(duì)比Faster R-CNN、SSD、YOLO v7、YOLO v8和YOLO v5s目標(biāo)檢測(cè)模型,mAP0.5值分別提升0.6、4.6、1.7、1.3、6.3百分點(diǎn)。對(duì)于小尺寸病害銹病的檢測(cè)準(zhǔn)確率提升0.7、2.6、2、1.9、4.1百分點(diǎn),具有較高的識(shí)別精度。并通過在強(qiáng)光照、模糊、暗光3種非正常環(huán)境下與YOLO v5s模型進(jìn)行對(duì)比測(cè)試,改進(jìn)后的模型表現(xiàn)出顯著優(yōu)勢(shì),魯棒性較強(qiáng)??梢詰?yīng)用于復(fù)雜場景和小目標(biāo)病斑的識(shí)別場景。

      但檢測(cè)模型要達(dá)到實(shí)際的應(yīng)用水平,只針對(duì)這4種病害還遠(yuǎn)遠(yuǎn)不夠,對(duì)于精確識(shí)別生長在不同時(shí)間階段的蘋果葉片病害也是亟需解決的問題。所以,后續(xù)的試驗(yàn)將加入不同階段的多種病害和更復(fù)雜場景下的病害圖片進(jìn)行研究,繼續(xù)提高模型的識(shí)別精度。

      參考文獻(xiàn):

      [1]王" 壹. 中國蘋果產(chǎn)量穩(wěn)居世界第一[N]. 農(nóng)民日?qǐng)?bào),2023-11-18(7).

      [2]Zhang Y K,Huang S J,Zhou G X,et al. Identification of tomato leaf diseases based on multi-channel automatic orientation recurrent attention network[J]. Computers and Electronics in Agriculture,2023,205:107605.

      [3]Gadekallu T R,Rajput D S,Reddy M P K,et al. A novel PCA–whale optimization-based deep neural network model for classification of tomato plant diseases using GPU[J]. Journal of Real-Time Image Processing,2021,18(4):1383-1396.

      [4]Zhang D Y,Huang Y,Wu C,et al. Detecting tomato disease types and degrees using multi-branch and destruction learning[J]. Computers and Electronics in Agriculture,2023,213:108244.

      [5]鮑文霞,黃雪峰,胡根生,等. 基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)模型的玉米葉部病害識(shí)別[J]. 農(nóng)業(yè)工程學(xué)報(bào),2021,37(6):160-167.

      [6]Zeng W H,Li H D,Hu G S,et al. Lightweight dense-scale network (LDSNet) for corn leaf disease identification[J]. Computers and Electronics in Agriculture,2022,197:106943.

      [7]Qian X F,Zhang C Q,Chen L,et al. Deep learning-based identification of maize leaf diseases is improved by an attention mechanism:self-attention[J]. Frontiers in Plant Science,2022,13:864486.

      [8]毛" 銳,張宇晨,王澤璽,等. 利用改進(jìn)Faster-RCNN識(shí)別小麥條銹病和黃矮?。跩]. 農(nóng)業(yè)工程學(xué)報(bào),2022,38(17):176-185.

      [9]馬超偉,張" 浩,馬新明,等. 基于改進(jìn)YOLO v8的輕量化小麥病害檢測(cè)方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2024,40(5):187-195.

      [10]李偉豪,詹" 煒,周" 婉,等. 輕量型Yolov7-TSA網(wǎng)絡(luò)在茶葉病害檢測(cè)識(shí)別中的研究與應(yīng)用[J]. 河南農(nóng)業(yè)科學(xué),2023,52(5):162-169.

      [11]曾晏林,賀壹婷,藺" 瑤,等. 基于BCE-YOLO v5的蘋果葉部病害檢測(cè)方法[J]. 江蘇農(nóng)業(yè)科學(xué),2023,51(15):155-163.

      [12]Mathew M P,Yamuna Mahesh T. Determining the region of apple leaf affected by disease using YOLO v3[C]//2021 International Conference on Communication,Control and Information Sciences. Idukki:IEEE,2021:1-4.

      [13]Liu B,Zhang Y,He D J,et al. Identification of apple leaf diseases based on deep convolutional neural networks[J]. Symmetry,2017,10(1):11.

      [14]Wang Y W,Wang Y J,Zhao J B. MGA-YOLO:a lightweight one-stage network for apple leaf disease detection[J]. Frontiers in Plant Science,2022,13:927424.

      [15]趙嘉威,田光兆,邱" 暢,等. 基于改進(jìn)YOLO v4算法的蘋果葉片病害檢測(cè)方法[J]. 江蘇農(nóng)業(yè)科學(xué),2023,51(9):193-199.

      [16]黃" 煒,王娟娟,殷學(xué)麗. 基于特征分離的小樣本蘋果病害葉片檢測(cè)[J]. 江蘇農(nóng)業(yè)科學(xué),2023,51(23):195-202.

      [17]李鑫然,李書琴,劉" 斌. 基于改進(jìn)Faster R_CNN的蘋果葉片病害檢測(cè)模型[J]. 計(jì)算機(jī)工程,2021,47(11):298-304.

      [18]公徐路,張淑娟. 基于改進(jìn)YOLO v5s的蘋果葉片小目標(biāo)病害輕量化檢測(cè)方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2023,39(19):175-184.

      [19]孫長蘭,林海峰. 一種基于集成學(xué)習(xí)的蘋果葉片病害檢測(cè)方法[J]. 江蘇農(nóng)業(yè)科學(xué),2022,50(20):41-47.

      [20]王瑞鵬,陳鋒軍,朱學(xué)巖,等. 采用改進(jìn)的EfficientNet識(shí)別蘋果葉片病害[J]. 農(nóng)業(yè)工程學(xué)報(bào),2023,39(18):201-210.

      [21]李紅光,于若男,丁文銳. 基于深度學(xué)習(xí)的小目標(biāo)檢測(cè)研究進(jìn)展[J]. 航空學(xué)報(bào),2021,42(7):100-118.

      [22]龍" 陽,肖小玲. 基于多注意力機(jī)制的蘋果葉部病害檢測(cè)方法[J]. 江蘇農(nóng)業(yè)科學(xué),2023,51(23):178-186.

      [23]Yang Q,Duan S K,Wang L D. Efficient identification of apple leaf diseases in the wild using convolutional neural networks[J]. Agronomy,2022,12(11):2784.

      [24]Hughes D P,Salathe M. An open access repository of images on plant health to enable the development of mobile disease diagnostics throung machine learning and crowdsourcing[EB/OL]. (2016-04-12)[2023-06-10]. https://arxiv.org/abs/1511.08060.

      [25]Feng J Z,Chao X F. Apple tree leaf disease segmentation dataset[DS/OL]. (2022-03-31) [2023-06-10]. https://www.scidb.cn/en/detail?dataSetId=0e1f 57004db842f99668d82183afd578.

      [26]Thapa R,Zhang K,Snavely N,et al. The Plant Pathology Challenge 2020 data set to classify foliar disease of apples[J]. Applications in Plant Sciences,2020,8(9):e11390.

      [27]Chen X L,F(xiàn)ang H,Lin T Y,et al. Microsoft coco captions:data collection and evaluation server[J/OL]. [2024-03-15]. https://arxiv.org/abs/1504.00325.

      [28]Loureiro C,F(xiàn)ilipe V,Gonalves L. Attention mechanism for classification of melanomas[C]//International Conference on Optimization,Learning Algorithms and Applications,2022:65-77.

      [29]Li X,Zhong Z S,Wu J L,et al. Expectation-Maximization Attention Networks for Semantic Segmentation[C]//International Conference on Computer Vision,2019.

      [30]Guo M H,Liu,Z N,Mu T J,et al. Beyond self-attention:external attention using two linear layers for visual tasks[C]//IEEE Transactions on Pattern Analysis and Machine Intelligence. 2021:5436-5447.

      [31]Hou Q,Zhou D,F(xiàn)eng J.Coordinate Attention for Efficient Mobile Network Design[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2021:13708-13717.

      [32]Woo S,Park J,Lee J Y,et al. CBAM:convolutional block attentionmodule[C]//European Conference on Computer Vision. Cham:Springer,2018:3-19.

      [33]Liu Z,Mao H Z,Wu C Y,et al. A ConvNet for the 2020s[C]//2022 IEEE/CVF Conference on Computer Vision and PatternRecognition. New Orleans,2022:11966-11976.

      [34]Zhang Y F,Zhang Z,Jia Z,et al. Focal and efficient IoU loss for accurate bounding box regression[J]. Neurocomputing,2022,506(28):146-157.

      [35]曹" 超,顧幸生. 基于改進(jìn)YOLO v8的行李追蹤技術(shù)[J]. 計(jì)算機(jī)工程與應(yīng)用,2024,60(9):151-158.

      猜你喜歡
      錨框卷積病害
      基于YOLOv3錨框優(yōu)化的側(cè)掃聲吶圖像目標(biāo)檢測(cè)
      錨框策略匹配的SSD飛機(jī)遙感圖像目標(biāo)檢測(cè)
      基于SSD算法的輕量化儀器表盤檢測(cè)算法*
      早春養(yǎng)羊需防六大病害
      基于GA-RoI Transformer的遙感圖像任意方向目標(biāo)檢測(cè)
      小麥常見三種病害咋防治
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      葡萄病害周年防治歷
      果樹休眠期咋防病害
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      成武县| 洪泽县| 德清县| 西城区| 济源市| 博乐市| 泊头市| 晋宁县| 昭通市| 富锦市| 巫溪县| 河北省| 宜阳县| 西安市| 苏州市| 平果县| 青岛市| 福海县| 扎赉特旗| 方城县| 盐源县| 伊金霍洛旗| 锡林郭勒盟| 宜宾市| 永登县| 东光县| 林周县| 崇信县| 迭部县| 巩留县| 临沂市| 镇平县| 宣威市| 怀仁县| 江西省| 太湖县| 满洲里市| 大石桥市| 武安市| 岐山县| 库尔勒市|