• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于改進YOLOX的實時馬鈴薯葉片病害檢測方法

      2024-12-31 00:00:00張凱萍李國霞
      江蘇農(nóng)業(yè)科學(xué) 2024年20期

      doi:10.15889/j.issn.1002-1302.2024.20.024

      摘要:隨著深度學(xué)習(xí)在圖像識別領(lǐng)域的廣泛應(yīng)用,目標檢測算法已取得顯著進展。然而,在農(nóng)業(yè)病害檢測特別是馬鈴薯葉病害檢測方面,仍面臨諸多挑戰(zhàn),如自然光影響和數(shù)據(jù)不平衡問題等。為此,提出一種改進YOLOX的馬鈴薯葉病害檢測方法。首先以輕量化MobileNet v3網(wǎng)絡(luò)作為骨干替換原有的CSPDarkNet53網(wǎng)絡(luò),以提高模型在特征提取上的效率,同時減少計算量。其次引入V通道網(wǎng)絡(luò),增加模型對復(fù)雜光照環(huán)境的適應(yīng)性,更精確地捕獲紋理信息。最后設(shè)計一種自適應(yīng)的交叉熵損失函數(shù),以解決樣本不平衡的問題,確保模型的魯棒性和準確性。在公開數(shù)據(jù)集PlantVillage上進行試驗驗證,結(jié)果表明,改進模型平均準確率、浮點運算次數(shù)、內(nèi)存和FPS分別為98.55%、14.63×109次、49.35 MB、125.92幀/s。相比原始YOLOX模型,平均準確率和單幀識別速度分別提高4.38百分點、36.65%;浮點運算次數(shù)和內(nèi)存分別降低43.23%、34.33%。此外,與不同模型對比試驗以及嵌入式平臺上的試驗結(jié)果均表明,本研究提出的改進YOLOX模型在準確率、計算效率和速度方面均具有明顯的優(yōu)勢,為農(nóng)作物葉片病害檢測提供了一種有效的解決方案。

      關(guān)鍵詞:馬鈴薯病害檢測;YOLOX;MobileNetv3;V通道網(wǎng)絡(luò);交叉熵損失

      中圖分類號:S126;TP391.41" 文獻標志碼:A

      文章編號:1002-1302(2024)20-0199-10

      收稿日期:2023-10-06

      基金項目:國家自然科學(xué)基金(編號:62002330)。

      作者簡介:張凱萍(1983—),女,河南許昌人,碩士,副教授,研究方向為機器學(xué)習(xí)、目標檢測。E-mail:zhangkp1983@163.com。

      通信作者:李國霞,教授,主要從事農(nóng)業(yè)信息技術(shù)、計算機視覺研究。E-mail:zhangkp1983@163.com。

      馬鈴薯是全球最重要的糧食作物之一,年產(chǎn)量近3億t,為全球超過十億人口提供穩(wěn)定的食物來源[1]。除了其在食品產(chǎn)業(yè)的核心地位,馬鈴薯在多個工業(yè)領(lǐng)域也有廣泛應(yīng)用[2]。然而,該農(nóng)作物頻繁地受到各種病害的侵襲,尤其是葉片病害,如晚疫病和早疫病。這些病害不僅可以影響植物的莖、根和果實,還可能嚴重損害作物的質(zhì)量和產(chǎn)量。晚疫病和早疫病等疾病在早期階段對于種植者來說常常難以識別[3]。因此,及時和準確地診斷葉片病害對于減緩經(jīng)濟損失至關(guān)重要。

      傳統(tǒng)的病害診斷方法主要依賴農(nóng)民的經(jīng)驗和觀察,這在準確性和可靠性上有局限。先進的診斷技術(shù)如光譜儀[4]和聚合酶鏈式反應(yīng)[5]雖提高了診斷精度,但高成本和操作復(fù)雜性限制了其廣泛應(yīng)用。近年來,深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)(CNN)的發(fā)展為農(nóng)業(yè)病害檢測帶來了技術(shù)革命,并被證明是一種高效的作物病害識別方法[6-8]。例如,Khan等成功地運用VGGNet-16和AlexNet分離出感染區(qū)域并提取病害特征,實現(xiàn)了高達98.6%的識別準確率[9];Liu等設(shè)計了一種創(chuàng)新的特征提取結(jié)構(gòu),并通過引入密集連接策略顯著提高了葡萄葉病害的識別準確性[10]。然而,大多數(shù)研究仍專注于單一類型的病害識別,限制了其在實際應(yīng)用中的廣泛性。

      近年來,目標檢測算法因能同時識別和定位多種病害而受到關(guān)注[11-13]。目標檢測算法主要可分為兩大類:第1類是基于候選框的雙階段目標檢測算法,如R-CNN、Fast R-CNN和Faster R-CNN[14-16]。這些算法首先從圖像中提取候選區(qū)域,然后進行二次精細化,從而實現(xiàn)高精度的目標檢測。如Khalifa等專門為馬鈴薯的早疫病和晚疫病設(shè)計了一種優(yōu)化的Faster-CNN模型[17];Zhang等成功地應(yīng)用改進的Faster-CNN模型來診斷番茄的多種病害[18]。雖然這些算法在病害檢測精度上表現(xiàn)出色,卻因其復(fù)雜的計算結(jié)構(gòu),難以在移動平臺上實現(xiàn)實時應(yīng)用。第2類是單階段目標檢測算法,這類算法更加注重檢測速度,如YOLO系列和SSD[19-22],如趙越等成功地采用YOLO v3模型實現(xiàn)了馬鈴薯葉病害的準確診斷[23];Rashid等則利用YOLO v5開發(fā)了一種多級檢測模型,并構(gòu)建了一個全新的病害檢測數(shù)據(jù)集[24]。Liu等的研究也展示了單階段目標檢測算法在多種植物病害診斷中的有效性,這些算法更適合用于資源有限的設(shè)備[25-27]。

      盡管現(xiàn)有目標檢測算法在準確性方面取得了顯著進展,但在植物葉病害檢測領(lǐng)域,仍然存在3個未解決的關(guān)鍵問題。(1)大多數(shù)算法過分側(cè)重于特定數(shù)據(jù)集上的高準確性,卻常常忽略了模型在資源有限的硬件平臺上的實用性,這就產(chǎn)生了一個實際問題:如何在不犧牲準確性的前提下,優(yōu)化模型以適應(yīng)硬件限制;(2)現(xiàn)有研究往往未能充分考慮到自然環(huán)境下復(fù)雜的光照條件,這些變化容易引起色彩偏移,從而影響模型的檢測準確性;(3)雖有理論突破,但嵌入式設(shè)備上的應(yīng)用幾乎是空白的,需驗證其實用性和可行性。這些問題不僅是理論上的關(guān)注點,也影響農(nóng)業(yè)實踐的效率和準確性。

      為解決以上問題,實現(xiàn)更精確和高效的馬鈴薯葉片病害檢測,本研究基于YOLOX架構(gòu)設(shè)計一種實時馬鈴薯葉片病害檢測模型。使用MobileNet v3作為模型的骨干網(wǎng)絡(luò),以減輕計算負擔(dān)和內(nèi)存需求,保證模型不僅在高性能計算環(huán)境中有效,同時也適用于資源受限的設(shè)備。為使模型在不同光照條件下都能保持較高的準確率,設(shè)計一個V通道定位網(wǎng)絡(luò),生成一組與YOLOX模型預(yù)測層尺度相匹配的特征圖,以便更準確地捕捉由光照引發(fā)的紋理和顏色變化,提高模型對光照變化的魯棒性。針對樣本不平衡問題,提出一種自適應(yīng)的懲罰系數(shù),加快模型的收斂速度,進一步提升馬鈴薯葉片病害檢測的性能。最后將所提方法部署在嵌入式設(shè)備上,以驗證其能否滿足實時和高精度的病害檢測需求。

      1" 數(shù)據(jù)與方法

      首先選定了一個合適的數(shù)據(jù)集并進行了數(shù)據(jù)增強,以模擬多種實際應(yīng)用場景。其次,基于YOLOX框架,開發(fā)一個針對馬鈴薯葉片病害的改進識別算法。為全面驗證模型性能,設(shè)計消融試驗和與其他先進方法的對比試驗,明確了模型的優(yōu)缺點。進一步,將模型部署到嵌入式設(shè)備,驗證其可行性和實用性。本研究框架如圖1所示。

      1.1" 數(shù)據(jù)獲取與處理

      本研究使用公開可獲取的PlantVillage數(shù)據(jù)集作為圖像數(shù)據(jù)源,該數(shù)據(jù)集含有54 309張高質(zhì)量圖像,覆蓋了14種不同農(nóng)作物,例如蘋果、藍莓、櫻桃、玉米等。本研究主要關(guān)注馬鈴薯葉片病害的自動檢測,原始樣本圖片共2 152張,分辨率為256像素×256像素,主要包括早疫病、晚疫病和健康葉片這3個類別,其詳細描述見表1。

      本研究將2 152張馬鈴薯葉片圖像依照 8 ∶1 ∶1 的比例分配到訓(xùn)練集、驗證集和測試集中。鑒于樣本數(shù)量有限可能引發(fā)過擬合,采用CycleGAN[24]這一先進的數(shù)據(jù)增強方法對訓(xùn)練樣本進行優(yōu)化,主要通過旋轉(zhuǎn)、裁剪、翻轉(zhuǎn)等手段來增加樣本多樣性。增強后的數(shù)據(jù)集細節(jié)請參見表2。

      為進一步提高模型的準確性和可靠性,使用Labelimg圖形注釋工具對表2中的圖像樣本進行精細的手動標注。在每張圖像上,不論是健康或患病的葉片,都被準確地用一個矩形邊界框標出。其位置坐標以(xmin,ymin,xmax,ymax)形式給出。其中(xmin,ymin)代表邊界框左上角的坐標,(xmax,ymax)代表邊界框右下角的坐標。

      經(jīng)過以上的數(shù)據(jù)處理和增強,成功地擴大了樣本數(shù)量,為后續(xù)模型的訓(xùn)練打下了堅實的基礎(chǔ)。

      1.2" 馬鈴薯葉片病害檢測方法

      馬鈴薯葉片病害檢測屬于目標檢測任務(wù),其目的是在圖像中準確定位和分類不同區(qū)域的病害。

      為了適應(yīng)資源受限的設(shè)備環(huán)境,選用高效的YOLOX模型作為基線模型,進一步設(shè)計一種更為高效和精準的馬鈴薯葉片病害檢測模型[28]。該模型力求實現(xiàn)目標檢測準確性與計算效率之間的最優(yōu)平衡,確保在資源有限的應(yīng)用場合中仍能展示出卓越的性能。

      1.2.1" YOLOX模型

      YOLOX是一種不依賴先驗框的單階段目標檢測模型,其由CSPDarkNet53主干網(wǎng)絡(luò)、特征金字塔網(wǎng)絡(luò)(FPN)、路徑聚合網(wǎng)絡(luò)(PAN)和預(yù)測頭(Head)四大核心模塊組成[28-29]。這些模塊聯(lián)合工作,實現(xiàn)了對目標檢測任務(wù)的高效準確處理。

      在YOLOX的工作流程中,CSPDarkNet53首先作為特征提取器,從輸入圖像中提取出基礎(chǔ)視覺特征。接著,F(xiàn)PN構(gòu)建了一個多層次的特征圖,實現(xiàn)了對不同尺寸和復(fù)雜度目標的高效識別。它將主干網(wǎng)絡(luò)提取的高級和低級特征融合,增強對小目標的檢測性能。PAN進一步優(yōu)化以上流程,它通過上下采樣和橫向連接,強化FPN中不同層級特征圖之間的信息傳遞,提升模型在多尺度目標檢測上的表現(xiàn)。最后,Head的Cls分支對目標框內(nèi)的對象進行屬性分類并預(yù)測類別概率;Reg分支預(yù)測目標框的精確坐標;Obj分支判斷目標框內(nèi)對象是前景還是背景。這3個分支共同輸出目標的分類標簽和具體的邊界框坐標,完成目標的最終分類和定位??傮w而言,YOLOX模型在復(fù)雜場景和多尺度目標檢測方面表現(xiàn)優(yōu)秀,但也存在一些不足,如計算復(fù)雜度高和對復(fù)雜光照、低對比度環(huán)境的識別能力有限。盡管一些研究嘗試通過引入通道注意力機制來改善這些問題,提高模型對關(guān)鍵特征的敏感性和整體的檢測精度,但這些改進仍有局限性。

      為進一步提升模型的性能和適用范圍,本研究基于前人的工作進行了一系列創(chuàng)新性的優(yōu)化。首先,用輕量級的MobileNet v3網(wǎng)絡(luò)替代原始的CSPDarkNet53主干網(wǎng)絡(luò)。這一改變旨在減少計算負擔(dān)并提高模型在資源受限環(huán)境下的運行效率。其次,引入V通道網(wǎng)絡(luò)以增強模型在復(fù)雜光照條件下的目標檢測準確性。最后,設(shè)計一種自適應(yīng)的交叉熵損失函數(shù),以提升模型的魯棒性,同時增加模型的識別準確性。

      1.2.2nbsp; 輕量化骨干網(wǎng)絡(luò)

      為優(yōu)化模型的計算效率和實時性能,選用更為輕量級的MobileNet v3網(wǎng)絡(luò)替代原有的CSPDarkNet53主干網(wǎng)絡(luò)[30],其基本結(jié)構(gòu)如圖2所示。

      MobileNet v3繼承了MobileNet v1和v2的核心優(yōu)點,尤其突出了深度可分離卷積(Depthwise Separable Convolutions,簡稱DSC)和反向殘差塊的應(yīng)用。DSC是一種高效的卷積方法,它通過分解傳統(tǒng)卷積操作以減少計算量。具體而言,DSC首先在每個輸入通道上獨立應(yīng)用卷積,然后再通過1×1的點態(tài)卷積將這些通道的輸出合并。這樣做的優(yōu)勢是,與傳統(tǒng)的3×3卷積相比,DSC能夠?qū)⒂嬎懔繙p少到原來的1/9到1/8。

      MobileNet v3還解決了非線性激活函數(shù)可能對低維特征造成的不良影響。具體地,其反向殘差塊通過2次1×1的卷積操作實現(xiàn)特征維度的先升后降,以此減輕激活函數(shù)對原始特征的影響。此外,MobileNet v3的反向殘差塊還引入了信道注意力模塊(squeeze-and-excitation,SE)以提升網(wǎng)絡(luò)對顯著性特征的識別能力。

      1.2.3" V通道網(wǎng)絡(luò)

      為更有效地捕捉馬鈴薯葉片病害的紋理信息,引入了一種基于HSV顏色空間的特征提取策略。該策略致力于解決在自然環(huán)境下,由于光線、遮擋和陰影等因素,造成的圖像亮度變化問題。3種馬鈴薯葉病害的HSV顏色空間如圖3所示。

      在自然環(huán)境下捕獲的圖像常受到自然光、遮擋和陰影等因素的影響,導(dǎo)致對亮度極為敏感。而在RGB顏色空間(圖3-a)中,這些細微的亮度變化往往難以準確捕捉。為此,本文在RGB基礎(chǔ)之上加入了一個HSV顏色空間分支,如圖3-b、圖3-d、圖3-e所示。在HSV顏色空間中,H(色相)通道描述顏色在光譜中的位置,其值域范圍為0°~360°,S(飽和度)通道反映所選顏色的純度與其最大純度之間的比例,V(明度)通道反映了顏色的亮暗信息,其取值范圍為0~1。

      在馬鈴薯葉片病害檢測中,H通道和S通道對顏色類型和純度有良好的識別,但它們?nèi)菀资艿阶匀画h(huán)境中光照和陰影的影響,導(dǎo)致特征信息的丟失或削弱。相較之下,V通道專注于顏色的明暗度,具有更高的敏感性和穩(wěn)健性,特別是在復(fù)雜的光照條件下。這使得V通道成為一個理想的選擇,能夠更準確地捕捉和定位與病害相關(guān)的紋理信息。為此,本研究設(shè)計一個專門的V通道定位網(wǎng)絡(luò),其中采用了最大池化操作進行降采樣。這不僅減少了計算的復(fù)雜性,還生成了一組與YOLOX模型預(yù)測層尺度相匹配的特征圖。這種設(shè)計精準地捕捉了與紋理相關(guān)的位置信息,從而提高了模型在復(fù)雜環(huán)境下的病害檢測精度。

      1.2.4" 自適應(yīng)交叉熵損失

      原始YOLOX模型采用BCELoss函數(shù)進行訓(xùn)練,主要用于類別預(yù)測和置信度預(yù)測,其數(shù)學(xué)表達式如公式(1)和公式(2)所示。

      Li=-yilnyi′-(1-yi)ln(1-yi′)

      =-lnyi′,""""" yi=1

      -ln(1-yi′),yi=0;(1)

      LBCE=1n∑ni=1Li 。(2)

      式中:Li為像素i生成的LBCE值;yi為像素i的真實標簽,正標簽為1,負標簽為0,表示前景對象類別和背景;yi′為像素i的預(yù)測值,取值范圍為[0,1];n為總像素數(shù)。

      BCELoss鼓勵模型對每個樣本的預(yù)測結(jié)果和實際標簽接近。但這種損失函數(shù)并不考慮數(shù)據(jù)中各類別樣本的分布情況。因此,當面對數(shù)據(jù)分布嚴重不平衡的場景時,僅依賴BCELoss可能會導(dǎo)致模型的預(yù)測存在顯著的偏見,特別是對少數(shù)樣本的類別。從表2中的馬鈴薯葉片樣本數(shù)據(jù)可以明顯看出,類別不平衡的問題是非常突出的。如果單純地使用BCELoss作為損失函數(shù)進行訓(xùn)練,可能會導(dǎo)致模型對多數(shù)樣本的類別過度擬合,而忽視了少數(shù)樣本的類別,進而導(dǎo)致嚴重的識別偏差。為此,本文提出了一種樣本自適應(yīng)的交叉熵損失函數(shù),該函數(shù)通過一個自適應(yīng)懲罰系數(shù)進行動態(tài)權(quán)重調(diào)整。具體的數(shù)學(xué)表達式為公式(3)至公式(6)。

      α=arctanP+NP+δ" y=1

      arctanP+NN+δy=0," α∈[0,π2];(3)

      β=sinα,β∈[0,1];(4)

      BCELossβ=-βylny′-β(1-y)ln(1-y′);(5)

      LBCE-β=11+exp(BCELossβ)。(6)

      式中:β為樣本自適應(yīng)懲罰系數(shù);LBCE-β為樣本自適應(yīng)交叉熵損失函數(shù);P為網(wǎng)絡(luò)訓(xùn)練反饋的正樣本量總數(shù);N為網(wǎng)絡(luò)訓(xùn)練反饋的總負樣本量;δ為最小值。

      樣本自適應(yīng)懲罰系數(shù)的引入使得損失函數(shù)能夠根據(jù)訓(xùn)練過程中正負樣本的數(shù)量進行自適應(yīng)調(diào)整。例如,當健康葉片的數(shù)量較少時,該系數(shù)會增加健康葉片在損失函數(shù)中的權(quán)重,從而強化模型對少數(shù)類的識別能力。反之,如果病害葉片數(shù)量減少,病害葉片的權(quán)重會相應(yīng)提升。這種動態(tài)調(diào)整機制有助于模型在不同階段保持正負樣本間的平衡,從而提高模型的穩(wěn)定性和準確性。此外,還使用了Sigmoid函數(shù)作為激活函數(shù),以確保損失值輸出在[0,1]范圍內(nèi),進一步增強模型的訓(xùn)練穩(wěn)定性。

      1.2.5" 馬鈴薯葉片病害檢測模型框架

      馬鈴薯葉片病害檢測模型結(jié)構(gòu)如圖4所示,由6個核心模塊組成,包括主干網(wǎng)絡(luò)(Backbonew)、V字通道(V channel)、注意力通道(CBAM)、特征金字塔網(wǎng)絡(luò)(FPN)、路徑聚合網(wǎng)絡(luò)(PAN)和預(yù)測頭(Detection head)。本研究使用MobileNet v3網(wǎng)絡(luò)作為主干特征提取,并引入V字通道生成一組與主干網(wǎng)絡(luò)尺度相配的特征圖,以便更準確地捕捉由光照引發(fā)的紋理和顏色變化,其他模塊和原有YOLOX模型保持一致。

      2" 馬鈴薯葉片病害檢測試驗

      2.1" 試驗環(huán)境

      本試驗將使用一臺配置較高的計算機進行所有模型訓(xùn)練,以確保結(jié)果的一致性和可靠性。該機器配備了12代英特爾酷睿i5-12400F CPU、NVIDIA GeForce RTX 3060 GPU以及16 GB的運行內(nèi)存。軟件環(huán)境方面,選擇了Ubuntu 20.04作為操作系統(tǒng),使用VScode作為編譯器工具,并采用了支持CUDA 11.3的PyTorch 1.10.1框架。此次試驗于2023年8月25日于許昌電氣職業(yè)學(xué)院信息工程系227實驗室完成。

      2.2" 評價指標

      在本研究中,模型性能的評估采用了多角度的指標。首先,使用平均精度均值(mean average precision,簡稱mAP)來衡量模型在識別和分類馬鈴薯葉片病

      害方面的準確性。mAP是一個綜合性的指標,它計算了模型在所有類別上平均檢測精度的平均值。具體而言,mAP是根據(jù)召回率(recall,R)和精度(precision,P)在各個類別上計算的AP值的平均,其數(shù)學(xué)定義見公式(7)和公式(8),其中M表示病害類別。在這里,選用0.5作為評估標準。

      AP=∫10P(R)dR;(7)

      mAP=∑Mj=1APjM。(8)

      除了關(guān)注模型的精度,還重點考慮了其計算效率和實用性。在這方面,模型的浮點運算次數(shù)(FLOPs)和內(nèi)存(Size)被用作2個關(guān)鍵指標,用以衡量模型對計算資源的需求程度。低FLOPs數(shù)值通常意味著模型更為輕量級,因此更適用于資源受限的環(huán)境。同時,也采用單幀圖像識別速度(FPS)作為另一個評價指標,以量化模型的實時性和識別效率。高FPS值表明模型能夠在短時間內(nèi)處理更多的圖像,這在需要實時反饋的應(yīng)用場景中具有非常重要的意義。通過這2個綜合性指標,不僅可以全面評估模型的性能,還能更準確地確定其在實際應(yīng)用中的適用性和局限性。

      2.3" 模型訓(xùn)練

      模型訓(xùn)練涉及多個設(shè)置和參數(shù)。具體來說,訓(xùn)練總共進行了200個epoch,每個批次的大小設(shè)置為4,優(yōu)化器選用SGD。輸入圖像的尺寸是224像素×224像素,學(xué)習(xí)速率設(shè)置為0.001,權(quán)重衰減因子為0.000 5,而動量因子為0.937。

      圖5-a展示了在200個epoch內(nèi),訓(xùn)練和驗證損失的變化情況。盡管起初的損失值較高,但隨著epoch數(shù)量的增加,損失值逐漸減少,大約在150個epoch后趨于穩(wěn)定。同時,訓(xùn)練與驗證損失在整個過程中保持了相對的一致性,表明模型既沒有出現(xiàn)過擬合也沒有出現(xiàn)欠擬合。進一步地,圖5-b顯示

      了模型在訓(xùn)練集上的mAP隨損失減小而逐步提高。在完成150個epoch后,mAP值基本穩(wěn)定,并在200個epoch時達到了高達98.6%的準確度。

      3" 結(jié)果與分析

      3.1" 分類結(jié)果分析

      為直觀地展示優(yōu)化后的YOLOX模型在馬鈴薯葉片病害數(shù)據(jù)集上的識別與分類性能,根據(jù)測試集結(jié)果繪制了一張混淆矩陣,詳見圖6。從總體表現(xiàn)來看,該模型在識別晚疫病和健康葉片方面幾乎達到了完美的準確率。然而,在早疫病的識別上,部分樣本被錯誤地歸為晚疫病,這可能源于早疫病和晚疫病在某些特征,如顏色和紋理等方面的相似性,從而導(dǎo)致模型在區(qū)分這2種病害時出現(xiàn)一定程度的混淆。盡管如此,考慮到植物病害識別本身的復(fù)雜性和挑戰(zhàn)性,該模型的整體表現(xiàn)仍然較為出色。

      3.2" 消融試驗

      本研究設(shè)計的馬鈴薯葉片病害檢測模型,是在先進檢測模型YOLOX框架上進行了一系列創(chuàng)新性的改進。具體而言,所提模型以更輕量級MobileNet

      v3網(wǎng)絡(luò)替換原有的CSPDarkNet53網(wǎng)絡(luò),同時引入V通道定位網(wǎng)絡(luò),并提出一種自適應(yīng)的交叉熵損失函數(shù)(LBCE-β),以實現(xiàn)更加精準和高效的馬鈴薯葉病害檢測。為了量化這些改進措施帶來的性能提升,試驗對比使用CSPDarkNet53與MobileNet v3作為骨干網(wǎng)絡(luò)時,V通道定位網(wǎng)絡(luò)和自適應(yīng)交叉熵損失函數(shù)對模型性能的具體影響,各性能指標如表3所示。

      由表3可知,當使用更輕量級的MobileNet v3作為檢測模型的骨干網(wǎng)絡(luò),相對于傳統(tǒng)的CSPDarkNet53,模型在多個性能指標上都有明顯提升。具體來說,模型的mAP從93.87%增加到95.44%,實現(xiàn)1.57百分點的提升。更值得注意的是,模型的浮點運算次數(shù)(FLOPs)從25.77×109次大幅降低到14.51×109次,減少了43.69%;內(nèi)存從75.15 MB降低到 48.64 MB,降低了35.28%,這意味著模型在保持高準確率的同時,顯著減少了計算復(fù)雜性和空間資源需求。此外,模型的單幀識別速度(FPS)從92.15幀/s提升至127.20幀/s,提高38.03%,表明模型在實時性和識別效率方面也有顯著改進。

      進一步觀察表3,可以明確地看出引入V通道定位網(wǎng)絡(luò)和自適應(yīng)交叉熵損失函數(shù)(LBCE-β)對模型精度具有正向積極的作用。以CSPDarkNet53為基礎(chǔ)的模型在引入這2項改進后,其mAP值從93.87%提升至96.15%,增幅為2.28百分點。而以MobileNet v3為基礎(chǔ)的模型則從95.44%提升至98.55%,增幅為3.11百分點。值得一提的是,這2項改進幾乎沒有增加模型的計算負擔(dān)。具體來說,無論是FLOPs、Size還是FPS,三者的變化都相對微小,這進一步證實了這些改進措施在提高精度的同時,并沒有對模型的計算效率和實時性造成不利影響。

      綜上,V通道定位網(wǎng)絡(luò)和自適應(yīng)交叉熵損失函數(shù)的引入對模型的整體性能有所提升,尤其在采用MobileNet v3為骨干網(wǎng)絡(luò)的情況下,這一效果更為顯著。這不僅進一步證明了本研究所提改進策略的有效性,也表明了這些策略在實際應(yīng)用中具有更廣泛的適用性和優(yōu)越性,確保了本研究提出的檢測模型在馬鈴薯葉病害檢測任務(wù)上有著更出色的表現(xiàn)。

      3.3" 對比試驗

      為進一步評估所提出改進YOLOX模型在目標檢測方面的性能,在相同的數(shù)據(jù)集和硬件配置條件下,依據(jù)控制變量法原則,進行了一系列對比試驗。這些對比試驗涵蓋了多種主流的目標檢測算法,包括Faster RCNN、SSD、RetinaNet、YOLO v5,以及原始版本的YOLOX模型。圖7詳細呈現(xiàn)了各檢測模型在4個關(guān)鍵評估指標上的性能比較。

      在馬鈴薯葉病害檢測任務(wù)中,本研究的改進YOLOX模型在mAP方面表現(xiàn)出色,達到了98.55%。這一結(jié)果顯著優(yōu)于目前主流的其他目標檢測算法,如Faster RCNN的97.27%。值得注意的是,盡管Faster RCNN在精度上與改進的YOLOX接近,但在計算效率和實時性方面明顯不足。

      在計算復(fù)雜度方面,改進的YOLOX只需 14.63×109 浮點運算次數(shù)(FLOPs)就能完成高精度的馬鈴薯葉病害檢測,遠低于Faster RCNN的75.62×109浮點運算次數(shù)(FLOPs)和RetinaNet的87.6×109浮點運算次數(shù)(FLOPs)。這一優(yōu)勢在實際應(yīng)用中尤為重要,尤其是在需要快速、準確診斷的農(nóng)業(yè)場景中。

      在模型所占內(nèi)存方面,改進的YOLOX模型僅為49.35 MB,遠小于Faster RCNN (317.49 MB)和RetinaNet(292.3 MB)。這意味著在邊緣計算或嵌入式系統(tǒng)中,改進的YOLOX模型更易于部署。最后,單幀識別速度上,改進的YOLOX以125.92幀/s的速度運行,遠高于其他所有模型。這一點對于實時馬鈴薯疫病檢測尤為關(guān)鍵,可以有效地指導(dǎo)農(nóng)民及時采取防治措施。

      綜合以上評估指標,改進的YOLOX模型在馬鈴薯疫病檢測方面表現(xiàn)卓越,不僅在準確性上達到了高水平,同時也在計算復(fù)雜度、模型體積和實時性方面展示了明顯優(yōu)勢。相較于Faster RCNN、SSD、RetinaNet以及原始版本的YOLOX,改進的YOLOX在綜合性能上具有明顯優(yōu)勢。因此,該模型在馬鈴薯疫病檢測的研究和應(yīng)用中具有極高的價值。

      3.4" 馬鈴薯葉病害檢測

      本研究所提的基于YOLOX的改進模型進行了馬鈴薯葉病害的詳細檢測和分類。圖8展示了模型在多種場景下的高效性和準確性。模型成功區(qū)分了早疫病、晚疫病和健康葉片3類,并在各自的3個不同實例上進行了有效驗證。即便在早疫病和晚疫病的微小病變區(qū)域內(nèi),模型也展現(xiàn)了高度的敏感性和精確度。在所有測試場景中,模型的置信度得分最低達到了0.91。這一出色表現(xiàn)可歸功于模型采用的先進骨干網(wǎng)絡(luò)MobileNet v3,以及新增的V通道定位網(wǎng)絡(luò)和自適應(yīng)交叉熵損失函數(shù)。這些改進不僅增強了模型的特征提取能力,還提升了其分類精度。值得一提的是,模型即便在健康葉片出現(xiàn)非病害性質(zhì)破損的情況下,也能進行準確分類,進一步證實了其魯棒性??傮w而言,本模型在精確度和敏感性上達到了高標準,特別是在處理復(fù)雜和微小的病害特征方面表現(xiàn)優(yōu)異,顯示出廣泛的應(yīng)用潛力。

      3.5" 嵌入式裝置中馬鈴薯葉片病害的檢測效果

      為實際評估改進的YOLOX模型在馬鈴薯葉病害檢測中的性能,采用NVIDIA Jetson Nano作為邊緣計算平臺。該設(shè)備與農(nóng)業(yè)檢查機器人和馬鈴薯葉病害識別系統(tǒng)相結(jié)合,能夠在現(xiàn)場實時識別并標記出受病害的馬鈴薯葉片。軟件環(huán)境包括TensorRT-7.1.3.0和JetPack-4.4.1,圖像輸入大小設(shè)置為224像素×224像素。通過TensorRT的模型量化和優(yōu)化,本文在Jetson Nano上進行了模型檢測精度(mAP)和推理速度(FPS)測試。由于計算資源有限,嵌入式裝置測試中只測試了計算效率和體積較小的原始YOLOX和改進的YOLOX模型,結(jié)果如表4所示。

      表4對比了在嵌入式設(shè)備NVIDIA Jetson Nano上,原始YOLOX模型和改進的YOLOX模型在mAP與FPS方面的性能。數(shù)據(jù)顯示,改進的YOLOX在mAP方面從94.17%上升至98.55%,F(xiàn)PS也從2.17幀/s增加至3.94幀/s。更值得注意的是,在利用TensorRT加速后,該模型在保持相同mAP的同時,F(xiàn)PS大幅提升至10.37幀/s。這些結(jié)果明確證實了改進的YOLOX模型在精度和速度上都有顯著提升。尤其在應(yīng)用TensorRT加速之后,模型速度近乎提升了5倍,從而更有效地滿足了馬鈴薯葉片病害檢測的實時性需求。綜合來看,改進的YOLOX模型在嵌入式環(huán)境中表現(xiàn)出了高效和高準確度,具有很高的應(yīng)用潛力。

      4nbsp; 結(jié)論與討論

      為精確高效地檢測馬鈴薯葉病害,提出一種基于改良YOLOX架構(gòu)的先進識別方法。該方法以輕量級MobileNet v3替代原有的CSPDarkNet53,優(yōu)化了特征識別和計算效率;結(jié)合V通道定位網(wǎng)絡(luò),精確捕捉紋理信息;并應(yīng)用自適應(yīng)交叉熵損失函數(shù)解決了樣本不平衡問題,從而增強了模型的魯棒性和準確性。

      試驗數(shù)據(jù)進一步證實了本研究中改進YOLOX模型的顯著性能提升。該模型在mAP方面達到了98.55%,比原始YOLOX模型提高了4.38百分點。在計算效率方面,模型的FLOPs為14.63×109次,內(nèi)存占用僅為 49.35 MB,分別比原始模型降低了11.14×109次和25.80 MB。此外FPS提升到125.92幀/s,比原始模型快了36.65%。綜合性能對比分析也表明,改進的YOLOX模型與FasterCNN、SSD、RetinaNet和YOLO v5等主流檢測模型相比,具有明顯的優(yōu)勢。

      在嵌入式平臺測試中,改進YOLOX模型平均準確率為98.55%,相比原始YOLOX模型提高了4.38百分點。進一步采用TensorRT加速后模型的檢測速度為10.37幀/s,實時檢測速度得到顯著提升。

      綜上,本研究提出的改進YOLOX模型在準確率、計算效率和速度方面都表現(xiàn)出色,不僅能推動農(nóng)業(yè)病害檢測技術(shù)的進一步發(fā)展,也為相關(guān)領(lǐng)域提供了有價值的參考和啟示。

      本研究所提出的方法適用于公開的葉片數(shù)據(jù)集,但并未涉及受到實際光照等復(fù)雜環(huán)境影響的農(nóng)田葉片數(shù)據(jù)。下一步,可利用無人機采集農(nóng)田葉片數(shù)據(jù)集進行處理與測試,使模型可以更好地應(yīng)用于農(nóng)田生產(chǎn)實踐。另外,可考慮使用一些傳統(tǒng)機器學(xué)習(xí)與深度學(xué)習(xí)方法與本研究方法進行對比,以改進或選擇最適于分析農(nóng)田環(huán)境下由無人機采集的葉片圖像的算法。

      參考文獻:

      [1]趙丙秀,董" 寧. 基于WOA-BP神經(jīng)網(wǎng)絡(luò)下馬鈴薯產(chǎn)量預(yù)測分析模型[J]. 農(nóng)機化研究,2024,46(3):47-51.

      [2]劉崇林,趙勝雪,胡" 軍,等. 兩種淀粉薯收獲期莖稈機械特性的試驗研究[J]. 農(nóng)機化研究,2020,42(6):117-122.

      [3]胡新元,孫小花,羅愛花,等. 葉面噴施硫酸鋅對馬鈴薯抗病性和產(chǎn)量的影響[J]. 西北農(nóng)業(yè)學(xué)報,2023,32(8):1187-1193.

      [4]王" 凡,李永玉,彭彥昆,等. 便攜式馬鈴薯多品質(zhì)參數(shù)局部透射光譜無損檢測裝置[J]. 農(nóng)業(yè)機械學(xué)報,2018,49(7):348-354.

      [5]劉二龍,魏" 霜,關(guān)麗軍,等. 馬鈴薯成分微滴數(shù)字聚合酶鏈式反應(yīng)定量檢測方法建立[J]. 糧食與油脂,2021,34(3):120-123.

      [6]Minaee S,Boykov Y,Porikli F,et al. Image segmentation using deep learning:a survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2022,44(7):3523-3542.

      [7]Zhao Z Q,Zheng P,Xu S T,et al. Object detection with deep learning:a review[J]. IEEE Transactions on Neural Networks and Learning Systems,2019,30(11):3212-3232.

      [8]Chen X,Wan M J,Ma C,et al. Recognition of small targets in remote sensing image using multi-scale feature fusion-based shot multi-box detector[J]. Optics and Precision Engineering,2021,29(11):2672-2682.

      [9]Khan M A,Akram T,Sharif M,et al. CCDF:automatic system for segmentation and recognition of fruit crops diseases based on correlation coefficient and deep CNN features[J]. Computers and electronics in agriculture,2018,155:220-236.

      [10]Liu B,Ding Z F,Tian L L,et al. Grape leaf disease identification using improved deep convolutional neural networks[J]. Frontiers in Plant Science,2020,11:1082.

      [11]Abbas A,Jain S,Gour M,et al. Tomato plant disease detection using transfer learning with C-GAN synthetic images[J]. Computers and Electronics in Agriculture,2021,187:106279.

      [12]Zhang K K,Wu Q F,Chen Y P.Detecting soybean leaf disease from synthetic image using multi-feature fusion faster R-CNN[J]. Computers and Electronics in Agriculture,2021,183:106064.

      [13]Saeed A,Abdel-Aziz A A,Mossad A,et al. Smart detection of tomato leaf diseases using transfer learning-based convolutional neural networks[J]. Agriculture,2023,13(1):139.

      [14]Girshick R,Donahue J,Darrell T,et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition,Columbus,OH,USA. IEEE,2014:580-587.

      [15]Girshick R. Fast R-CNN[C]//2015 IEEE International Conference on Computer Vision (ICCV).Santiago,Chile.IEEE,2015:1440-1448.

      [16]Ren S Q,He K M,Girshick R,et al. Faster R-CNN:towards real-time object detection with region proposal networks[J]. IEEE Transations on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.

      [17]Khalifa N E M,Taha M H N,Abou El-Maged L M,et al. Artificial intelligence in potato leaf disease classification:a deep learning approach[M]//Hassanien A E,Darwish A. Machine learning and big data analytics paradigms:analysis,applications and challenges. Cham:Springer International Publishing,2021:63-79.

      [18]Zhang Y,Song C L,Zhang D W. Deep learning-based object detection improvement for tomato disease[J]. IEEE Access,2020,8:56607-56614.

      [19]Redmon J,Divvala S,Girshick R,et al. You only look once:unified,real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Las Vegas,NV,USA.IEEE,2016:779-788.

      [20]Redmon J,F(xiàn)arhadi A. YOLO9000:better,faster,stronger[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Honolulu,HI,USA.IEEE,2017:6517-6525.

      [21]朱" 格,徐" 燕,孫瑩瑩,等. Darknet深度學(xué)習(xí)框架下基于YOLO v3的病蟲害識別和農(nóng)藥噴灑系統(tǒng)[J]. 農(nóng)業(yè)與技術(shù),2023,43(10):33-38.

      [22]Liu W,Anguelov D,Erhan D,et al. SSD:single shot MultiBox detector[M]//Leibe B,Matas J,Sebe N,et al. Computer vision-ECCV 2016.Cham:Springer International Publishing,2016:21-37.

      [23]趙" 越,趙" 輝,姜永成,等. 基于深度學(xué)習(xí)的馬鈴薯葉片病害檢測方法[J]. 中國農(nóng)機化學(xué)報,2022,43(10):183-189.

      [24]Rashid J,Khan I,Ali G,et al. Multi-level deep learning model for potato leaf disease recognition[J]. Electronics,2021,10(17):2064.

      [25]Liu J,Wang X W. Tomato diseases and pests detection based on improved YOLY v3 convolutional neural network[J]. Frontiers in Plant Science,2020,11:898.

      [26]宋" 玲,曹" 勉,胡小春,等. 基于YOLOX的復(fù)雜背景下木薯葉病害檢測方法[J]. 農(nóng)業(yè)機械學(xué)報,2023,54(3):301-307.

      [27]劉延鑫,王俊峰,杜傳印,等. 基于YOLO v3的多類煙草葉部病害檢測研究[J]. 中國煙草科學(xué),2022,43(2):94-100.

      [28]張劍飛,柯" 賽. 基于YOLOX-s的農(nóng)業(yè)害蟲檢測研究[J]. 計算機技術(shù)與發(fā)展,2023,33(5):208-213.

      [29]沈志豪,劉金江,張建洋. 基于改進YOLOX-s的田間麥穗檢測及計數(shù)[J]. 江蘇農(nóng)業(yè)科學(xué),2023,51(12):164-171.

      [30]Howard A,Sandler M,Chen B,et al. Searching for MobileNet v3[C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV).Seoul,Korea (South).IEEE,2019:1314-1324.

      五河县| 原平市| 新津县| 三穗县| 文水县| 新泰市| 壶关县| 南宫市| 印江| 宾川县| 金溪县| 牟定县| 得荣县| 绥江县| 田阳县| 合川市| 彰化市| 舞阳县| 德保县| 白山市| 伊宁市| 甘肃省| 肥东县| 宁晋县| 泌阳县| 古田县| 含山县| 岑巩县| 栖霞市| 章丘市| 耿马| 华池县| 安塞县| 金坛市| 左贡县| 乌拉特中旗| 曲沃县| 洛南县| 西安市| 浮山县| 广灵县|