白春暉 陳健 郜魯濤
收稿日期:2024-01-24
基金項(xiàng)目:云南省基礎(chǔ)研究專項(xiàng)面上項(xiàng)目(202101AT070248)
作者簡介:白春暉(2001-),男,河南駐馬店人,在讀碩士研究生,研究方向?yàn)檎Z義分割、植物病蟲害檢測,(電話)19803601291(電子信箱)2815985035@qq.com;通信作者,郜魯濤(1987-),男,河南新鄉(xiāng)人,副教授,在讀博士研究生,主要從事計(jì)算機(jī)應(yīng)用技術(shù)研究,(電話)15987171851(電子信箱)2013015@ynau.edu.cn。
白春暉,陳 健,郜魯濤. 基于改進(jìn)BiSeNet的葡萄黑麻疹病害程度分級預(yù)測[J]. 湖北農(nóng)業(yè)科學(xué),2024,63(5):187-193,222.
摘要:為了準(zhǔn)確對葡萄(Vitis vinifera L.)黑麻疹病害程度進(jìn)行分級預(yù)測,通過語義分割模型將葉片部分和病斑部分分割出來,以同一葉片上病斑面積與總?cè)~面積的比值作為疾病嚴(yán)重程度分級的依據(jù),對葡萄黑麻疹病害程度進(jìn)行分級預(yù)測。精確標(biāo)注了PlantVillage公開數(shù)據(jù)庫中的419張葡萄疾病圖像,細(xì)分為背景、葉片和病斑3個(gè)類別,并應(yīng)用了數(shù)據(jù)增強(qiáng)技術(shù)增加樣本多樣性。以BiSeNet作為基準(zhǔn)模型,引入GhostNet作為上下文路徑的主干提取網(wǎng)絡(luò),不僅保持了較小的模型參數(shù)量,而且在精度上實(shí)現(xiàn)了明顯提升,滿足病害程度分級預(yù)測的需求。提出了累加空洞空間金字塔池化(CASPP)模塊,用來替換BiSeNet模型中單一的上下文嵌入模塊,以增強(qiáng)BiSeNet模型的多尺度上下文信息提取能力,提高了模型的分割精度。經(jīng)過測試,本研究模型在測試集中的平均交并比為94.11%,在對葡萄黑麻疹病害程度進(jìn)行分級預(yù)測時(shí),準(zhǔn)確率達(dá)98.21%,能夠精確地對葡萄黑麻疹病害程度進(jìn)行分級預(yù)測。
關(guān)鍵詞:BiSeNet;深度學(xué)習(xí);語義分割;病害程度;分級預(yù)測;葡萄(Vitis vinifera L.);黑麻疹
中圖分類號:TP399???????? 文獻(xiàn)標(biāo)識碼:A
文章編號:0439-8114(2024)05-0187-07
DOI:10.14088/j.cnki.issn0439-8114.2024.05.033??????????? 開放科學(xué)(資源服務(wù))標(biāo)識碼(OSID):
Prediction of severity grading of black measles disease in grapes based on improved BiSeNet
BAI Chun-hui,CHEN Jian,GAO Lu-tao
(College of Big Data/Yunnan Engineering Technology Research Center of Agricultural Big Data/Yunnan Engineering Research Center for Big Data Intelligent Information Processing of Green Agricultural Products,Yunnan Agricultural University, Kunming? 650201,China)
Abstract: In order to accurately grade and predict the degree of black measles disease in grapes(Vitis vinifera L.), a semantic segmentation model was used to separate the leaf and lesion parts. The ratio of lesion area to total leaf area on the same leaf was used as the basis for disease severity grading, and the degree of black measles disease in grapes was predicted. 419 grapes disease images from the PlantVillage public database were accurately annotated and subdivided into three categories: background, leaves, and lesions, and data augmentation techniques were applied to increase sample diversity. Using BiSeNet as the benchmark model and introducing GhostNet as the backbone extraction network for context paths not only maintained a small number of model parameters, but also achieved a significant improvement in accuracy, meeting the needs of disease severity classification prediction. A cumulative atrous spatial pyramid pooling (CASPP) module was proposed to replace the single context embedding module in the BiSeNet model, in order to enhance the multi-scale context information extraction ability of the BiSeNet model and improve the segmentation accuracy of the model. After testing, the average Intersection over to Union of this research model in the test set was 94.11%. When predicting the degree of black measles disease in grapes, the accuracy reached 98.21%, which could accurately predict the degree of black measles disease in grapes.
Key words: BiSeNet; deep learning; semantic segmentation; disease severity; grading prediction; grapes(Vitis vinifera L.); black measles disease
中國葡萄(Vitis vinifera L.)的產(chǎn)量和消費(fèi)量均領(lǐng)先于其他國家。葡萄作為一種重要的經(jīng)濟(jì)作物,被廣泛種植于全球許多地區(qū)[1]。云南省有著得天獨(dú)厚的葡萄種植條件,地處云貴高原,享有充沛的陽光和顯著的日夜溫度變化,這些條件有助于提高葡萄中的糖含量。因此,云南省不僅能種植鮮食葡萄,還能生產(chǎn)出適合釀酒的優(yōu)質(zhì)葡萄。但是,各類病害對葡萄生產(chǎn)造成損害,降低葡萄的產(chǎn)出并且對經(jīng)濟(jì)增益產(chǎn)生負(fù)面效果。因此,快速準(zhǔn)確地識別葡萄疾病類型并判斷疾病嚴(yán)重程度對于及時(shí)實(shí)施預(yù)防措施至關(guān)重要[2,3]。
近年來,深度學(xué)習(xí)技術(shù)的進(jìn)步推動了卷積神經(jīng)網(wǎng)絡(luò)(CNN)在識別植物疾病和害蟲方面的發(fā)展[4-6]。然而,目前大多數(shù)深度學(xué)習(xí)模型被廣泛應(yīng)用于病蟲害的分類和識別方面,且取得了較好的效果[7-14],但是在疾病嚴(yán)重程度檢測方面所做的工作較少[15]。從實(shí)際角度來看,與疾病分類相比,可靠、準(zhǔn)確、及時(shí)地檢測植物病害嚴(yán)重程度對于農(nóng)民來說更為重要,因?yàn)椴『?yán)重程度檢測有助于農(nóng)民做出有效決策,采取適當(dāng)措施防止植物病害,減輕因感染引起的損失[16]。
基于人工智能的病蟲害嚴(yán)重程度分類是農(nóng)業(yè)智慧種植領(lǐng)域新的熱點(diǎn)任務(wù)。Sun等[17]采用電子鼻(E-nose)和氣相色譜-質(zhì)樸聯(lián)用儀(GC-MS)從入侵嚴(yán)重程度方面檢測茶尺蠖(Ectropis obliqua)對茶樹(克隆龍井43)的侵害情況,提出了一種基于金屬氧化物傳感器響應(yīng)分段函數(shù)的特征提取方法,將該方法提取的特征送入多層感知機(jī)(MLP)訓(xùn)練后,平均分類準(zhǔn)確率超過95%。但該方法設(shè)備價(jià)格昂貴,數(shù)據(jù)獲取難度大,不易于推廣。Zeng等[15]針對柑橘感染黃龍病的嚴(yán)重程度進(jìn)行研究,將葉片分為早期感染、中期感染和嚴(yán)重感染3類,分別對比了AlexNet、DenseNet-169、Inception V3、ResNet-34,SqueezeNet-1.1和VGG13 6種模型,最終Inception V3效果最好,準(zhǔn)確率達(dá)92.60% 。Wang等[18]基于語義分割技術(shù)對黃瓜霜霉病、白粉病和病毒病的嚴(yán)重程度進(jìn)行評估,將葉片染病部分與葉片面積的比值作為病害嚴(yán)重程度分級的依據(jù),提出了基于DeepLabV3+和U-Net的兩段式黃瓜葉病分割模型,平均分級準(zhǔn)確率為92.85%。
葡萄黑麻疹(Grape black measles)是一種葡萄藤疾病,由真菌引起,主要影響葡萄的果實(shí)、葉片和莖部,葡萄葉片出現(xiàn)黃化、黑色斑點(diǎn)、枯死和凋落,枝干出現(xiàn)黑色斑點(diǎn),以及果實(shí)出現(xiàn)褐色或黑色壞死斑點(diǎn)。葡萄黑麻疹會影響葡萄藤的正常生長和養(yǎng)分吸收,最終導(dǎo)致葡萄減產(chǎn)或死亡。本研究通過語義分割模型對圖像中的葉片和病斑區(qū)域進(jìn)行分割,以同一葉片上病斑面積與總?cè)~面積的比值作為疾病嚴(yán)重程度分級的依據(jù),對葡萄黑麻疹病害程度進(jìn)行分級預(yù)測。
1 BiSeNet模型結(jié)構(gòu)
BiSeNet[19]是一種用于實(shí)時(shí)語義分割的模型。它的設(shè)計(jì)主要用于提高圖像分割任務(wù)的速度,同時(shí)盡量保持較高的準(zhǔn)確度。BiSeNet利用其創(chuàng)新的雙路徑架構(gòu),有效捕獲高分辨率圖像的細(xì)節(jié)及全局上下文信息,實(shí)現(xiàn)圖像的快速分割。該模型由2個(gè)互補(bǔ)路徑構(gòu)成:空間路徑(Spatial path)專注于保持圖像細(xì)節(jié),從而捕獲更加細(xì)膩的邊緣和輪廓,而上下文路徑(Context path)則致力于提煉全局上下文特征,利用較深的網(wǎng)絡(luò)結(jié)構(gòu),通過多次下采樣迅速擴(kuò)大感受野,捕獲圖像的上下文信息,二者的融合為圖像分割任務(wù)提供強(qiáng)有力的支撐。BiSeNet進(jìn)一步融合了注意力機(jī)制,即注意力引導(dǎo)模塊(Attention refinement module,ARM)和特征融合模塊(Feature fusion module,F(xiàn)FM)。ARM用于加強(qiáng)上下文路徑中的特征表達(dá),而FFM則用于整合空間路徑和上下文路徑的特征。BiSeNet基本結(jié)構(gòu)如圖1所示。
[Conv+BN+ReLU][8倍下采樣][16倍下采樣][32倍下采樣][空間路徑][FFM][8倍上采樣][ARM][ARM][avg][上下文路徑][Conv+BN+ReLU][Conv+BN+ReLU]
2 模型改進(jìn)
2.1 改進(jìn)主干網(wǎng)絡(luò)
盡管深層卷積網(wǎng)絡(luò)在性能上達(dá)到了顯著成效,但因?yàn)槠浔姸嗑矸e層而需要龐大的計(jì)算資源,從而顯著增加了計(jì)算成本[20]。雖然MobileNet引入了深度卷積[21],但剩余的1×1卷積層仍然會占用相當(dāng)大的內(nèi)存。Han等[22]認(rèn)為主流卷積神經(jīng)網(wǎng)絡(luò)中的中間特征普遍存在較大程度的冗余,為了解決該問題引入了創(chuàng)新性的Ghost module,該模塊利用成本效益更高的線性變換來生成特征圖,基于Ghost module模塊,進(jìn)一步開發(fā)GhostNet架構(gòu),其在確保網(wǎng)絡(luò)性能的同時(shí)提升計(jì)算效率。
GhostNet架構(gòu)的主要模塊是Ghost module,該模塊通過線性操作輸出額外特征圖,在減少運(yùn)算成本和參數(shù)量的同時(shí)保持較好的性能。這是因?yàn)樵谥髁骶矸e神經(jīng)網(wǎng)絡(luò)模型中存在較多的特征圖重復(fù)信息。首先,使用常規(guī)的卷積操作生成少量的特征圖,稱為原始特征圖。其次,對每個(gè)原始特征圖應(yīng)用更簡單的線性操作(如普通的線性卷積或深度卷積)來生成多個(gè)冗余特征圖。這些特征圖可以看作是原始特征圖的不同線性變換版本,它們是通過廉價(jià)的操作生成的,從而減少了計(jì)算成本。最后,原始特征圖及由線性變換生成的冗余特征圖通過拼接操作輸出最終的特征圖。這種方法允許模型保持更多信息的同時(shí)又保證計(jì)算資源的高效利用。拼接后的特征圖既包括由常規(guī)卷積生成的原始特征,也包括由簡單操作變換得到的冗余特征,同時(shí)保持了特征的多樣性。Ghost module使用更少的常規(guī)卷積操作,減少了模型的參數(shù)量,通過計(jì)算成本更加廉價(jià)的線性變化生成更多特征圖,使得基于Ghost module設(shè)計(jì)的GhostNet卷積神經(jīng)網(wǎng)絡(luò)雖然減少了模型參數(shù)量,但模型性能依然能得到保證。
BiSeNet選用了Xception39這一以深度可分離卷積(DWConv)為基礎(chǔ)的網(wǎng)絡(luò)作為其上下文路徑的主干網(wǎng)絡(luò),有效減少了模型整體的參數(shù)量[19]。然而,就精度而言,Xception39并未能充分滿足病害程度分級預(yù)測的需求。為此,本研究引入GhostNet作為上下文路徑的主干提取網(wǎng)絡(luò)。GhostNet架構(gòu)起始于一個(gè)常規(guī)的卷積層,該層負(fù)責(zé)從輸入圖像中提取初始特征。此后,網(wǎng)絡(luò)通過多個(gè)Ghost bottleneck結(jié)構(gòu)的串聯(lián)不斷深化特征提取。每個(gè)Ghost bottleneck結(jié)構(gòu)由2個(gè)Ghost module順序堆疊而成。第一個(gè)Ghost module的作用在于增加特征通道的維數(shù),為后續(xù)處理提供豐富的特征信息;第二個(gè)Ghost module則旨在減少通道數(shù),以匹配和優(yōu)化殘差連接的結(jié)構(gòu)。通過在Ghost module的輸入與輸出之間建立殘差連接,實(shí)現(xiàn)特征的有效傳遞和網(wǎng)絡(luò)深度的加強(qiáng),而不增加額外的計(jì)算負(fù)擔(dān)。Ghost bottleneck的結(jié)構(gòu)如圖2所示。GhostNet不僅保持了較小的模型參數(shù)量,而且在精度上實(shí)現(xiàn)了顯著提升,滿足病害程度分級預(yù)測的需求。
2.2 改進(jìn)上下文嵌入模塊
在上下文路徑的末端,BiSeNet通過添加全局平均池化模塊為網(wǎng)絡(luò)提供全局上下文信息,從而拓展接收域(即感受野)。這種設(shè)計(jì)實(shí)現(xiàn)了特征的有效融合,但對于病害場景,全局平均池化模塊這種全局化的方法未必充分。因?yàn)樵诓『鼍爸?,目?biāo)的形狀更加復(fù)雜,尺寸也不一,單一尺度的全局信息不能捕捉到所有細(xì)節(jié),從而影響分割效果。為了克服該問題,PSPNet基于金字塔池化原理,創(chuàng)新性地引入了由多尺度池化塊構(gòu)成的金字塔池化模塊(PPM)[23]。PPM能捕捉并整合來自不同尺度子區(qū)域的層次化全局信息,減少在尺度變化中上下文信息的損失。經(jīng)過試驗(yàn)證實(shí),與傳統(tǒng)的單尺度方法相比,PPM在處理具有復(fù)雜上下文關(guān)系的場景上具有更強(qiáng)的信息保持能力,從而在圖像分割任務(wù)中實(shí)現(xiàn)更高的性能。DeepLabv2首創(chuàng)的空洞空間金字塔池化模塊(ASPP)采用了不同膨脹系數(shù)的膨脹卷積來進(jìn)一步擴(kuò)大感知域[24]。DeepLabV3對ASPP進(jìn)行了改進(jìn)[25],通過這些優(yōu)化,使模型的分割性能得到進(jìn)一步提升。
基于病害場景目標(biāo)性狀的復(fù)雜性,本研究提出了累加空洞空間金字塔池化(Cumulative atrous spatial pyramid pooling,CASPP)模塊,該模塊在ASPP模塊的基礎(chǔ)上對每個(gè)分支與前面分支進(jìn)行相加操作,更好地提取到圖像多尺度、深層次信息,具體結(jié)構(gòu)如圖3所示。本研究使用累加空洞空間金字塔池化模塊來替換BiSeNet模型中單一的上下文嵌入模塊,以增強(qiáng)BiSeNet模型的多尺度上下文信息提取能力。CASPP模塊旨在解決病害圖像中目標(biāo)邊界模糊的問題,特別是在尺度變化的條件下。CASPP模塊通過綜合利用不同尺度的空間特征,明確描繪對象的邊緣,從而顯著提升了分割的精確性。鑒于場景中目標(biāo)的多樣尺寸,CASPP模塊能夠有效處理各種尺度的對象,并優(yōu)化分割結(jié)果。CASPP模塊通過捕獲一系列復(fù)雜的語義層次,為模型提供深刻的視覺理解,保證在語義分割任務(wù)中的全面性和魯棒性。
2.3 葡萄黑麻疹病害嚴(yán)重程度分級方法
病害嚴(yán)重程度分級是制定防控策略的依據(jù)之一,在實(shí)踐中通常使用以下3種方法:第一種方法是計(jì)算單位面積內(nèi)感染植株數(shù)與總植株數(shù)的比值;第二種方法是計(jì)算同一株植物患病葉片數(shù)與總?cè)~片數(shù)的比值;第三種方法是計(jì)算同一葉片上病斑面積與總?cè)~面積的比值。根據(jù)文獻(xiàn)[18]中對黃瓜霜霉病嚴(yán)重程度提出的標(biāo)準(zhǔn),本研究采用第三種方法,以同一葉片上病斑面積與總?cè)~面積的比值作為病害嚴(yán)重程度分級的依據(jù),將葡萄葉片黑麻疹病害嚴(yán)重程度分為5級。這種方法不僅提高了病害評估的準(zhǔn)確性,而且也為葡萄病害的早期檢測與管理提供了科學(xué)依據(jù)。
3 試驗(yàn)設(shè)計(jì)與評價(jià)指標(biāo)
3.1 數(shù)據(jù)集
本研究所需的圖像數(shù)據(jù)均來源于PlantVillage網(wǎng)站(http://plantvillage.psu.edu)的公開數(shù)據(jù)庫,共包含54 309張圖片,涵蓋14種不同作物,從中挑選了419張葡萄黑麻疹病害圖片來研究病害分級預(yù)測的效果。原始圖像分辨率為256 px×256 px,為了更有效地實(shí)現(xiàn)語義分割,將圖像分辨率調(diào)整至512 px×512 px,使用Labelme工具對圖像中的葉片和病斑區(qū)域進(jìn)行細(xì)致地標(biāo)注處理,劃分成背景、葉片、病斑3個(gè)類別,生成相應(yīng)的掩膜圖像。這些標(biāo)注圖像為評估分割模型的準(zhǔn)確性提供了標(biāo)準(zhǔn),數(shù)據(jù)集示例如圖4所示。
鑒于深度學(xué)習(xí)模型的訓(xùn)練需要大量數(shù)據(jù),本研究對標(biāo)注精確的419張圖像進(jìn)行數(shù)據(jù)增強(qiáng)處理以提高模型的分割精度。數(shù)據(jù)增強(qiáng)后,圖像總數(shù)達(dá)1 676張,具體增強(qiáng)策略如下。①增加噪點(diǎn):在圖像上施加均值為0、標(biāo)準(zhǔn)差為25的高斯噪點(diǎn),生成變化后的圖像。②降低亮度:通過將亮度因子設(shè)置為0.7來減少原始圖像的亮度,得到一張新的圖像。③增加亮度:通過將亮度因子設(shè)置為1.5來提高原始圖像的亮度,得到一張新的圖像。數(shù)據(jù)增強(qiáng)效果如圖5所示。
上述方法通過模擬不同的光照條件和干擾,增加了圖像的多樣性。增強(qiáng)后的圖像按照8∶2的比例劃分為訓(xùn)練集和測試集,用于模型的訓(xùn)練與性能評估。
3.2 試驗(yàn)平臺與設(shè)計(jì)
在進(jìn)行試驗(yàn)之前,建立一個(gè)穩(wěn)定、高效的試驗(yàn)平臺至關(guān)重要。因此,本研究選擇Linux x86_64服務(wù)器作為基礎(chǔ)硬件平臺。在操作系統(tǒng)方面,采用穩(wěn)定且廣泛支持的Ubuntu 20.04.6 LTS版本,為確保試驗(yàn)順利執(zhí)行提供了必要的軟件環(huán)境和兼容性。在硬件選擇方面,CPU采用高性能的Intel(R) Xeon(R) Silver 4210R,頻率為2.40 GHz,以支持復(fù)雜的計(jì)算任務(wù)。為了處理深度學(xué)習(xí)中密集的圖形計(jì)算,選用NVIDIA GeForce RTX 3090 GPU,它擁有24 GB的顯存,保證大規(guī)模數(shù)據(jù)處理和模型訓(xùn)練的高效性。在軟件環(huán)境方面,采用PyTorch框架,版本1.11.0,構(gòu)建和訓(xùn)練基于BiSeNet改進(jìn)的深度學(xué)習(xí)模型。PyTorch憑借其靈活性和易用性,在學(xué)術(shù)研究中被廣泛應(yīng)用。配合Python 3.8.8的穩(wěn)定性和CUDA 11.3的強(qiáng)大并行處理能力,整個(gè)試驗(yàn)環(huán)境被優(yōu)化以確保最大的運(yùn)行效率。
在模型訓(xùn)練階段,設(shè)定批量大小為8,意味著每次送入模型的圖像數(shù)量為8張。為了進(jìn)一步增強(qiáng)模型的泛化能力,實(shí)施了隨機(jī)尺度縮放的數(shù)據(jù)增強(qiáng)策略,縮放尺度為0.75~2.00。隨后,圖像被隨機(jī)裁剪至512 px×512 px的分辨率以符合模型輸入需求。本研究模型的訓(xùn)練將經(jīng)歷 80 000次迭代更新。在參數(shù)優(yōu)化方面,采用隨機(jī)梯度下降(SGD)作為優(yōu)化算法。初始學(xué)習(xí)率設(shè)定為0.01,動量參數(shù)為0.9和權(quán)重衰減率為5×10-4。此外,本研究應(yīng)用了一個(gè)多項(xiàng)式學(xué)習(xí)率衰減策略,衰減指數(shù)設(shè)置為0.9。為了在訓(xùn)練初期獲得更穩(wěn)定的更新步驟,還采用了一個(gè)指數(shù)預(yù)熱學(xué)習(xí)率策略,其中預(yù)熱期為前1 000次迭代,初始學(xué)習(xí)率預(yù)熱比率為0.1。
[ratio= warmupratio1? α,iter≤1 000ratio= (1? α)power,iter>1 000] ??? ?(1)
式中,[ratio]表示學(xué)習(xí)率比率;[warmupratio]表示初始學(xué)習(xí)率預(yù)熱比率;α表示當(dāng)前迭代次數(shù)相對于總迭代次數(shù)的比例;[power]表示指定的多項(xiàng)式衰減指數(shù);iter表示訓(xùn)練迭代次數(shù)。
在語義分割領(lǐng)域,類別不平衡和稀有困難樣本的存在經(jīng)常導(dǎo)致模型性能受損。以葡萄病害分割為例,葉片圖像通常居于主導(dǎo)地位。這種傾向性會使模型在訓(xùn)練時(shí)偏向于識別葉片,進(jìn)而忽略識別病斑,導(dǎo)致模型在病斑的預(yù)測上性能顯著下降。本研究在交叉熵?fù)p失函數(shù)中融入在線困難樣本挖掘(OHEM)策略[26],目的是強(qiáng)化模型對于這些難以分割和較少見類別的學(xué)習(xí),借此提升模型在全局任務(wù)中的表現(xiàn)。
3.3 評價(jià)指標(biāo)
采用平均交并比(Mean intersection over union,MIoU)、宏觀平均F1得分(Macro F1 score)、像素準(zhǔn)確率(Pixel accuracy,PA)及模型的參數(shù)量(Parameters,Params)來評估分割模型的性能。準(zhǔn)確度指標(biāo)是通過構(gòu)建混淆矩陣來計(jì)算的。該矩陣包含真正例(True positives,TP)、假正例(False positives,F(xiàn)P)、真負(fù)例(True negatives,TN)、假負(fù)例(False negatives,F(xiàn)N)4個(gè)關(guān)鍵成分。在混淆矩陣中,行用于表示實(shí)際類別,而列代表模型的預(yù)測類別。對于多類別分割任務(wù),混淆矩陣將展開為一個(gè)多維數(shù)組,每個(gè)維度對應(yīng)于特定的類別,以此來表征模型性能的多面性,混淆矩陣的表達(dá)式如下。
[C11???C1j???C1N?Ci1?CN1???Cij?CNj???CiN?CNN]?? ?? ??????????(2)
式中,Cij表示類別為i預(yù)測為j的樣本數(shù);N表示類別數(shù)。
交并比(IoU)是語義分割任務(wù)中常用的評價(jià)指標(biāo),用于度量模型在多個(gè)類別上的性能。交并比是通過比較模型預(yù)測區(qū)域與實(shí)際區(qū)域的重疊程度來度量分割結(jié)果的準(zhǔn)確性。IoU的計(jì)算公式如下。
[IoU= TPTP+FP+FN]???? ??????? ?????????????????(3)
然后,MIoU是對所有類別的IoU取平均值,MIoU的計(jì)算公式如下。
[MIoU= 1Ni=0N-1IoUi]? ???????? ?????????????????(4)
式中,N表示類別數(shù);i表示第i個(gè)類別。
Macro F1 score對每個(gè)類別計(jì)算F1分?jǐn)?shù),然后取平均值,在處理不平衡類別的情況下,對每個(gè)類別平等看待;F1分?jǐn)?shù)是一種評估分類模型性能的指標(biāo),同時(shí)考慮了精確率和召回率,對于平衡模型在每個(gè)類別上的性能非常有用,計(jì)算公式如下。
[precision= TPTP+FP]???? ???? ???????????(5)
[recall = TPTP+FN]????? ??????? ????????????(6)
[F1=2×precision×recallprecision+recall]? ???????? ???????(7)
[Macro F1= 1Ni=0N?1F1i]??? ??????? ??????????(8)
[PA= i=1NCiii=1Nj=1NCij]??? ????????????????(9)
式中,i表示第i個(gè)類別;Cii表示表示類別為i預(yù)測為i的樣本數(shù);N表示類別數(shù); precision表示精確率;recall表示召回率;像素準(zhǔn)確率(PA)表示模型分割圖與標(biāo)簽的比值。
4 結(jié)果與分析
4.1 消融試驗(yàn)
為了驗(yàn)證本研究提出方法的有效性,設(shè)計(jì)了消融試驗(yàn)以評估各項(xiàng)改進(jìn)所帶來的影響。選取BiSeNet作為比較基線,在此基礎(chǔ)上逐步改進(jìn)。第一組方案采用基準(zhǔn)模型BiSeNet。第二組方案在基準(zhǔn)模型的基礎(chǔ)上將上下文路徑的Xception39主干網(wǎng)絡(luò)替換為GhostNet主干網(wǎng)絡(luò)。第三組方案在第二組的基礎(chǔ)上使用累加空洞空間金字塔池化(CASPP)模塊替換原有的上下文嵌入模塊。使用MIoU、Macro F1 score、PA、Params作為分割模型的評價(jià)指標(biāo),消融試驗(yàn)結(jié)果如表1所示。
第三組方案明顯提高了模型的性能。在第一組方案中,基準(zhǔn)模型的MIoU為91.83%,Macro F1 score為95.58%,PA為98.13%,同時(shí)模型的參數(shù)量保持在0.19×107的水平。在第二組方案中,將主干網(wǎng)絡(luò)Xception39替換為GhostNet,雖然模型的參數(shù)量有所增加,但模型性能比第一組方案有明顯提升,MIoU為93.60%,Macro F1 score為96.60%,PA為98.55%。在第三組方案中,以第二組為基礎(chǔ)引入了基于膨脹卷積的累加空洞空間金字塔池化模塊,替代BiseNet模型中的全局平均池化上下文嵌入模塊,模型性能進(jìn)一步增強(qiáng),MIoU為94.11%,Macro F1 score為96.89%,PA為98.68%。這些改進(jìn)雖然導(dǎo)致了參數(shù)量的輕微增加,但模型仍符合輕量級的分割網(wǎng)絡(luò)要求。
4.2 對比試驗(yàn)
為了驗(yàn)證本研究模型的性能優(yōu)越性,選取BiSeNet[19]、BiSeNetV2[27]、DDRNet[28]和PIDNet[29]???? 4個(gè)目前較先進(jìn)的輕量級分割模型作為對照,使用MIoU、Macro F1 score、PA、Params作為分割模型的評價(jià)指標(biāo),以實(shí)現(xiàn)對各模型分割性能的全面分析。
由表2可知,本研究模型顯示出優(yōu)越的性能,MIoU、Macro F1 Score、PA分別為94.11%、96.89%、98.68%。特別是在MIoU指標(biāo)上,本模型比PIDNet模型高1.67個(gè)百分點(diǎn)。本研究模型的參數(shù)量符合輕量級分割網(wǎng)絡(luò)的設(shè)計(jì)標(biāo)準(zhǔn)。通過與當(dāng)前領(lǐng)先的輕量級分割模型進(jìn)行對比分析,本研究模型在病害場景的分割任務(wù)中表現(xiàn)出色,并且完全符合對于葡萄病害嚴(yán)重程度分級預(yù)測的需求。
由圖6可知,雖然BiSeNetV2模型和PIDNet模型在分割任務(wù)上表現(xiàn)出色,但它們在分割多個(gè)微小病斑時(shí)效果并不理想。本研究所提出的模型在處理葡萄病斑的細(xì)微部分時(shí)展示了優(yōu)異的性能,避免了細(xì)微病斑被遺漏的情況,整體上實(shí)現(xiàn)了更精確、全面的分割效果。
4.3 病害嚴(yán)重程度分級預(yù)測
以同一葉片上病斑面積與總?cè)~面積的比值作為病害嚴(yán)重程度分級的依據(jù),將葡萄葉片黑麻疹病害嚴(yán)重程度分為5級。本研究模型在測試集上分級預(yù)測準(zhǔn)確率達(dá)98.21%。
由圖7可知,本研究模型在進(jìn)行葡萄病害嚴(yán)重程度的分級預(yù)測方面表現(xiàn)出色。模型預(yù)測的病斑面積與總?cè)~面積的比值與真實(shí)標(biāo)簽之間的接近度很高,即使在預(yù)測分級錯(cuò)誤的個(gè)別樣本中,差值也小于0.20個(gè)百分點(diǎn)。綜上,本研究模型能夠?qū)ζ咸押诼檎畹膰?yán)重程度進(jìn)行準(zhǔn)確的預(yù)測。
5 小結(jié)
為了開發(fā)能準(zhǔn)確預(yù)測葡萄黑麻疹病害程度的分割算法,本研究精確標(biāo)注了PlantVillage公開數(shù)據(jù)庫中的419張葡萄疾病圖像,細(xì)分為背景、葉片和病斑3個(gè)類別,并應(yīng)用了數(shù)據(jù)增強(qiáng)技術(shù)增加樣本多樣性。鑒于葡萄黑麻疹病害分割任務(wù)對精度與模型輕量化的雙重需求,選擇BiSeNet作為底層架構(gòu),并對其進(jìn)行優(yōu)化以滿足葡萄黑麻疹病害圖像分割的要求。選用GhostNet作為主干網(wǎng)絡(luò),在保持參數(shù)量僅輕微增加的情況下,明顯提升了模型的精度。此外,本研究設(shè)計(jì)了一種新穎的累加空洞空間金字塔池化模塊,有效取代了原有采用全局平均池化的上下文模塊。經(jīng)過測試,本研究模型在測試集中的平均交并比達(dá)94.11%,相較于業(yè)內(nèi)領(lǐng)先的輕量級分割模型PIDNet,平均交并比提高了1.67個(gè)百分點(diǎn)。在參數(shù)量上,本研究模型優(yōu)于PIDNet模型,滿足了對輕量級的需求。本研究模型在測試集上分級預(yù)測準(zhǔn)確率達(dá)98.21%,表明該模型能夠精確評估病害的嚴(yán)重程度。本研究主要用于簡單背景下的葡萄黑麻疹病害程度預(yù)測,未來的工作將拓展到在復(fù)雜背景及不同作物種類下的病害程度預(yù)測,以全面提高模型的適用性和實(shí)用性。
參考文獻(xiàn):
[1] FRAIWAN M, FAOURI E, KHASAWNEH N. Multiclass classification of grape diseases using deep artificial intelligence[J]. Agriculture, 2022, 12(10): 1542.
[2] AMPATZIDIS Y, DE BELLIS L, LUVISI A. IPathology:Robotic applications and management of plants and plant diseases[J]. Sustainability, 2017, 9(6): 1010.
[3] CRUZ A C, LUVISI A, DE BELLIS L, et al. X-FIDO: An effective application for detecting olive quick decline syndrome with deep learning and data fusion[J]. Frontiers in plant science, 2017, 8: 1741.
[4] BARBEDO J G A. Plant disease identification from individual lesions and spots using deep learning[J]. Biosystems engineering, 2019, 180: 96-107.
[5] FERENTINOS K P. Deep learning models for plant disease detection and diagnosis[J]. Computers and electronics in agriculture, 2018, 145: 311-318.
[6] RAMCHARAN A, MCCLOSKEY P, BARANOWSKI K, et al. A mobile-based deep learning model for cassava disease diagnosis[J]. Frontiers in plant science, 2019, 10: 425916.
[7] BARBEDO J G A. Factors influencing the use of deep learning for plant disease recognition[J]. Biosystems engineering, 2018, 172: 84-91.
[8] BOCK C H, BARBEDO J G A, DEL PONTE E M, et al. From visual estimates to fully automated sensor-based measurements of plant disease severity:Status and challenges for improving accuracy[J]. Phytopathology research, 2020, 2(1): 1-30.
[9] JI M, WU Z. Automatic detection and severity analysis of grape black measles disease based on deep learning and fuzzy logic[J]. Computers and electronics in agriculture, 2022, 193: 106718.
[10] BRAHIMI M, ARSENOVIC M, LARABA S, et al. Deep learning for plant diseases: Detection and saliency map visualisation[J]. Human and machine learning, 2018: 93.
[11] LU Y, YI S, ZENG N, et al. Identification of rice diseases using deep convolutional neural networks[J]. Neurocomputing, 2017, 267: 378-384.
[12] MOHANTY S P, HUGHES D P, SALATHé M. Using deep learning for image-based plant disease detection[J]. Frontiers in plant science, 2016, 7: 1419.
[13] RAMCHARAN A, BARANOWSKI K, MCCLOSKEY P, et al. Deep learning for image-based cassava disease detection[J]. Frontiers in plant science, 2017, 8: 1852.
[14] SLADOJEVIC S, ARSENOVIC M, ANDERLA A, et al. Deep neural networks based recognition of plant diseases by leaf image classification[J]. Computational intelligence and neuroscience, 2016, 6: 1-11.
[15] ZENG Q, MA X, CHENG B, et al. Gans-based data augmentation for citrus disease severity detection using deep learning[J]. IEEE Access, 2020, 8: 172882-172891.
[16] ZHANG D, HUANG Y, WU C, et al. Detecting tomato disease types and degrees using multi-branch and destruction learning[J]. Computers and electronics in agriculture, 2023, 213: 108244.
[17] SUN Y, WANG J, CHENG S. Discrimination among tea plants either with different invasive severities or different invasive times using MOS electronic nose combined with a new feature extraction method[J]. Computers and electronics in agriculture, 2017, 143: 293-301.
[18] WANG C, DU P, WU H, et al. A cucumber leaf disease severity classification method based on the fusion of DeepLab V3+ and U-Net[J]. Computers and electronics in agriculture, 2021, 189: 106373.
[19] YU C, WANG J, PENG C, et al. BiSeNet: Bilateral segmentation network for real-time semantic segmentation[A]. Computer vision foundation proceedings of the european conference on computer vision (ECCV)[C]. Berlin: Springer,2018.325-341.
[20] HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition[A]. Proceedings of the IEEE conference on computer vision and pattern recognition (CVPR)[C]. New York: IEEE xplore,2016.770-778.
[21] HOWARD A G,ZHU M,CHEN B,et al. Mobilenets: Efficient convolutional neural networks for mobile vision applications[J/OL]. arXiv preprint arXiv:1704.04861, 2017.
[22] HAN K, WANG Y, TIAN Q, et al. Ghostnet:More features from cheap operations[A]. Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (CVPR)[C]. New York: IEEE xplore,2020.1580-1589.
[23] ZHAO H,SHI J, QI X, et al. Pyramid scene parsing network[A]. Proceedings of the IEEE conference on computer vision and pattern recognition(CVPR)[C]. New York:IEEE xplore, 2017.2881-2890.
[24] CHEN L C, PAPANDREOU G, KOKKINOS I, et al. Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected crfs[J]. IEEE transactions on pattern analysis and machine intelligence,2017, 40(4): 834-848.
[25] CHEN L C, PAPANDREOU G, SCHROFF F, et al. Rethinking atrous convolution for semantic image segmentation[J]. arXiv preprint arXiv:1706.05587, 2017.
[26] SHRIVASTAVA A, GUPTA A, GIRSHICK R. Training region-based object detectors with online hard example mining[A]. Proceedings of the IEEE conference on computer vision and pattern recognition (CVPR)[C]. New York: IEEE xplore,2016. 761-769.
[27] YU C, GAO C, WANG J, et al. BiSeNet V2: Bilateral network with guided aggregation for real-time semantic segmentation[J]. International journal of computer vision, 2021, 129: 3051-3068.
[28] PAN H,HONG Y,SUN W,et al. Deep dual-resolution networks for real-time and accurate semantic segmentation of traffic scenes[J]. IEEE transactions on intelligent transportation systems,2022,24(3): 3448-3460.
[29] XU J, XIONG Z, BHATTACHARYYA S P. PIDNet: A real-time semantic segmentation network inspired by PID controllers[A]. Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (CVPR)[C]. New York: IEEE xplore,2023: 19529-19539.