• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于改進YOLOv8n的茶樹嫩芽識別

      2024-12-21 00:00:00楊肖委沈強羅金龍張拓楊婷戴宇樵劉忠英李琴王家倫
      茶葉科學(xué) 2024年6期
      關(guān)鍵詞:注意力機制圖像識別深度學(xué)習(xí)

      摘要:在復(fù)雜自然環(huán)境下對茶樹嫩芽進行精確識別是實現(xiàn)農(nóng)業(yè)機器人智能化采摘茶樹嫩芽的關(guān)鍵技術(shù)之一。針對茶園復(fù)雜環(huán)境下茶樹嫩芽識別率低的問題,提出了一種基于改進YOLOv8n的茶樹嫩芽檢測方法。使用榮耀80手機采集茶樹嫩芽圖片,并對圖片進行標(biāo)注,按照訓(xùn)練集、驗證集、測試集8∶1∶1的比例劃分?jǐn)?shù)據(jù)集。為有效提取嫩芽特征并減少模型冗余計算和內(nèi)存訪問,采用FasterNet模型替換YOLOv8n網(wǎng)絡(luò)結(jié)構(gòu)的骨干網(wǎng)絡(luò)進行特征提?。粸橐种撇鑸@環(huán)境背景信息、增強模型對嫩芽的特征提取能力,在主干網(wǎng)絡(luò)尾部(SPPF模塊后)引入全局注意力機制(Global attention mechanism,GAM);在Neck網(wǎng)絡(luò)中引入上下文引導(dǎo)(Context guided,CG)模塊,學(xué)習(xí)茶樹嫩芽局部特征和周圍環(huán)境的聯(lián)合特征,進一步提高茶樹嫩芽的識別準(zhǔn)確率。利用構(gòu)建的茶樹嫩芽數(shù)據(jù)集對改進的YOLOv8n算法進行訓(xùn)練和測試。消融試驗驗證結(jié)果顯示,F(xiàn)asterNet網(wǎng)絡(luò)、GAM注意力機制和CG模塊均有效提高了YOLOv8n模型的識別準(zhǔn)確率。改進的YOLOv8n模型在多類別的茶樹嫩芽數(shù)據(jù)集上平均準(zhǔn)確率(Mean average accuracy,mAP)為94.3%;相較于原YOLOv8n模型,對茶樹單芽、一芽一葉、一芽二葉的識別mAP分別提高了2.2個百分點、1.6個百分點、2.7個百分點。以YOLOv3-tiny、YOLOv3、YOLOv5m、YOLOv7-tiny、YOLOv7和YOLOv8n模型進行對比試驗,結(jié)果顯示,改進的YOLOv8n模型對茶樹嫩芽識別的效果最佳,說明改進的YOLOv8n模型能有效提升茶樹嫩芽識別準(zhǔn)確率。研究結(jié)果可為智能化茶葉采摘機器人的開發(fā)提供技術(shù)支撐。

      關(guān)鍵詞:深度學(xué)習(xí);茶樹嫩芽;圖像識別;YOLOv8n;注意力機制;采摘機器人

      中圖分類號:S571.1;S126 " " " " " " " "文獻標(biāo)識碼:A " " " " " " " 文章編號:1000-369X(2024)06-949-11

      Research on Tea Bud Recognition Based on

      Improved YOLOv8n

      YANG Xiaowei1,2, SHEN Qiang1,2*, LUO Jinlong1,2, ZHANG Tuo1,2, YANG Ting1,2,

      DAI Yuqiao1,2, LIU Zhongying1,2, LI Qin1,2, WANG Jialun1,3*

      1. Guizhou Tea Research Institute, Guiyang 550006, China;

      2. Tea Processing and Mechanical Function Laboratory, Guizhou Tea Industry Technology System, Guiyang 550006, China;

      3. Zunyi Comprehensive Test Station, National Tea Industry Technology System, Guiyang 550006, China

      Abstract: Accurate recognition of tea buds in complex natural environment is one of the key technologies to realize intelligent picking of tea buds by agricultural robots. To address the problem of low recognition accuracy of tea buds in complex environment of tea gardens, a tea bud recognition method based on improved YOLOv8n was proposed. The Honor Mobile Phone was used to collect the RGB images of tea buds, and the image annotation of tea buds was completed. The labeled data was divided according to the 8∶1∶1 radio of the training set and test set. To effectively extract bud features and reduce model redundancy calculation and memory access, FasterNet was used to replace the backbone network of YOLOv8n model for feature extraction. To suppress the background information of the tea garden environment and enhance the feature extraction ability of tea buds, the global attention mechanism (GAM) module was introduced at the end of the backbone network (after the SPPF module). To further improve the recognition accuracy of tea buds, the Context Guided (CG) module was introduced into the Neck network to learn the joint features of local features and surrounding environment of tea buds. The improved YOLOV8n algorithm was trained and tested by using the constructed tea bud data set. The ablation experiments verify that the FasterNet network, GAM attention mechanism and CG module effectively improved the recognition accuracy of the YOLOv8n model. The mean average accuracy (mAP) of the improved YOLOv8n model on the multi-category tea bud data set was 94.3%. Compared with the original YOLOv8n model, the mAP of single bud, one bud and one leaf, and one bud and two leaves of tea buds increased by 2.2, 1.6 and 2.7 percentage points, respectively. The improved YOLOv8n model was tested for performance comparison with YOLOv3-tiny, YOLOv3, YOLOv5m, YOLOv7-tiny, YOLOv7 and YOLOv8n models. The experimental results show that the improved YOLOv8n model has a higher accuracy in identifying tea buds. The experimental results demonstrate that the improved YOLOv8n model can effectively improve the accuracy of tea bud recognition and provide technical support for intelligent tea picking robots.

      Keywords: deep learning, tea buds, image recognition, YOLOv8n, attention mechanisms, picking robot

      中國茶葉產(chǎn)量和茶園面積均居世界第一位[1],茶葉作為中國傳統(tǒng)飲品之一,具有悠久的歷史和文化底蘊。采摘是茶葉生產(chǎn)過程中的關(guān)鍵環(huán)節(jié),采茶標(biāo)準(zhǔn)不達標(biāo)會嚴(yán)重影響茶葉的產(chǎn)量和品質(zhì)。目前茶園采摘主要依靠人工采摘和機械化采摘,人工采摘成本較高且效率較低,機械化采摘雖然省時省力,但無法區(qū)分茶樹嫩芽和老葉,且難以保證芽葉的完整性[2]。隨著計算機技術(shù)的快速發(fā)展,機器人智能化采摘不僅能夠降低勞動成本,還能保證茶樹嫩芽的完整性,有利于實現(xiàn)茶產(chǎn)業(yè)健康持續(xù)發(fā)展。因此,研究茶樹嫩芽的品質(zhì)分級識別具有重要意義。

      早期傳統(tǒng)的茶樹嫩芽識別主要采用圖像處理方法提取茶樹嫩芽形狀或顏色特征對茶樹嫩芽進行分割。張浩等[3]選擇R-B、I、b、S和Cb因子對茶樹嫩芽圖像進行灰度化,采用Otsu法對灰度圖像進行閾值分割,通過面積濾波、腐蝕膨脹等方法去噪得到茶樹嫩芽的二值圖像。吳雪梅等[4]通過對茶樹老葉和嫩芽的G-B和G分量的顏色信息進行分析,利用改進的最大方差自動取閾法計算G-B和G分量的分割閾值,實現(xiàn)茶樹嫩芽與背景的分割。劉自強等[5]利用HIS模型提取茶樹嫩芽顏色特征,并采用二值化方法提取茶樹嫩芽形狀特征,使用多種分類器進行識別試驗,發(fā)現(xiàn)基于SVMKM和隨機森林模型的識別效果較好。

      近年來,隨著計算機視覺和深度學(xué)習(xí)技術(shù)的發(fā)展,使用基于卷積神經(jīng)網(wǎng)絡(luò)算法的茶樹嫩芽識別研究逐漸增多[6-8]。張晴晴等[9]針對復(fù)雜環(huán)境下傳統(tǒng)嫩葉識別精度低的問題,提出了一種基于YOLOv3優(yōu)化模型的茶樹嫩芽識別方法。馬志艷等[10]提出了一種基于YOLOv3的智能采茶機關(guān)鍵技術(shù)研究模型,利用EfficientNet網(wǎng)絡(luò)替換DarkNet網(wǎng)絡(luò)作為主干網(wǎng)絡(luò)進行特征提取,并將目標(biāo)損失函數(shù)改為GIoU,提高了模型對茶樹嫩葉的識別準(zhǔn)確率。王夢妮等[11]針對現(xiàn)有目標(biāo)檢測算法檢測茶樹嫩芽精度較低的問題,提出了一種改進的YOLOv5s模型,該模型的平均準(zhǔn)確率(Mean average accuracy,mAP)可達84.3%。洪孔林等[12]提出了一種基于改進YOLOv7-tiny的茶樹嫩芽分級識別方法,通過在小目標(biāo)層添加注意力機制,提高了對小目標(biāo)特征的關(guān)注能力。嚴(yán)蓓蓓等[13]提出了一種基于改進YOLOv5s的茶樹嫩芽檢測模型,引入注意力機制和加權(quán)雙向特征金字塔網(wǎng)絡(luò),有效減少了茶樹嫩芽漏檢誤檢情況。朱銘敏等[14]針對茶樹嫩芽檢測模型參數(shù)量大、計算量大等問題,提出一種基于YOLOv5s的輕量級茶樹嫩芽檢測模型,該模型與原始模型相比,參數(shù)量、計算量和模型內(nèi)存分別降低了3.0、7.3、6.4 MB。黃家才等[15]針對基于深度學(xué)習(xí)的嫩芽識別方法過度依賴于高性能硬件的問題,提出了一種基于Compact-YOLO v4的茶樹嫩芽移動端識別模型。盡管以上研究已取得一定成果,但模型在泛化能力方面仍需改進。

      傳統(tǒng)的茶樹嫩芽識別算法主要采用顏色和形狀特征進行圖像分割,算法存在識別適度慢、環(huán)境適應(yīng)性差等缺點;基于深度學(xué)習(xí)的茶樹嫩芽識別模型不僅識別速度快、精度高,還能多尺度目標(biāo)檢測,可以滿足茶樹嫩芽實時檢測需求。針對茶園自然復(fù)雜環(huán)境下的茶樹嫩芽識別精度低、魯棒性差等問題,本研究提出了一種基于改進YOLOv8n的茶樹嫩芽識別方法,通過提高不同等級茶樹嫩芽的識別精度,為智能化茶葉采摘機器人的開發(fā)提供技術(shù)支持。

      1 材料與方法

      1.1 茶樹嫩芽圖像數(shù)據(jù)集

      茶樹嫩芽圖像來源于貴州省茶葉研究所茶樹種質(zhì)資源圃貴陽基地,茶樹品種為黔湄308,數(shù)據(jù)采集時間為2024年3月21—25日,正處于茶樹的發(fā)芽期。拍攝工具為榮耀80手機,

      分辨率為3 400像素×4 600像素,拍攝距離為20~40 cm。為增加試驗可信度,從不同的角度、距離對茶樹嫩芽進行拍攝,經(jīng)人為挑選后得到茶樹嫩芽圖像720張,如圖1所示。

      為了提高茶樹嫩芽識別模型的魯棒性和準(zhǔn)確性,分別采用圖像翻轉(zhuǎn)、對比度亮度增強、高斯噪聲、灰度變化,以及雨天環(huán)境5種方式進行數(shù)據(jù)擴增(圖2),數(shù)據(jù)增強后得到4 320張圖像構(gòu)建試驗數(shù)據(jù)集。

      1.2 數(shù)據(jù)標(biāo)注

      按照大部分春茶生產(chǎn)企業(yè)的劃分標(biāo)準(zhǔn),將茶樹嫩芽品質(zhì)分級劃分為單芽、一芽一葉、一芽二葉(圖3)。嫩芽分級標(biāo)準(zhǔn)確定后,利用LabelImg標(biāo)注軟件對嫩芽圖像數(shù)據(jù)集進行人工標(biāo)注。茶樹嫩芽的標(biāo)注分為3類(表1),標(biāo)注完的數(shù)據(jù)以.txt文件形式保存。將數(shù)據(jù)集按照8∶1∶1的比例隨機劃分為訓(xùn)練集、驗證集和測試集進行網(wǎng)絡(luò)模型訓(xùn)練和測試。

      2 茶樹嫩芽識別模型

      2.1 YOLOv8網(wǎng)絡(luò)模型

      YOLOv8是Ultralytics公司開發(fā)的一個單階段目標(biāo)識別模型,根據(jù)網(wǎng)絡(luò)深度和寬度分為YOLOv8n、YOLOv8s、YOLOv8m、YOLOv8l、YOLOv8x 5種不同結(jié)構(gòu)。YOLOv8n借鑒了YOLOv5模型的設(shè)計優(yōu)點,網(wǎng)絡(luò)結(jié)構(gòu)由輸入端、BackBone主干網(wǎng)絡(luò)、Neck頸部網(wǎng)絡(luò)、輸出端四部分組成,模型參數(shù)量和模型尺寸較小、推理速度較快。以YOLOv8n為模型基礎(chǔ)框架,

      主干網(wǎng)絡(luò)采用CSPDarknet結(jié)構(gòu)和SPPF模塊進行特征提取,并將網(wǎng)絡(luò)中所有的C3模塊替換成C2f模塊;頸部網(wǎng)絡(luò)采用特征金字塔網(wǎng)絡(luò)(Feature pyramid networks,F(xiàn)PN)和路徑聚合網(wǎng)絡(luò)(Path aggregation network,PAN)的結(jié)構(gòu),兩者融合能夠獲得更加豐富的特征信息;輸出端對3個不同尺寸的特征圖進行目標(biāo)預(yù)測。

      2.2 改進YOLOv8n模型

      為在復(fù)雜自然環(huán)境中精確識別茶樹嫩芽等級,對YOLOv8n模型的BackBone及Neck進行改進,構(gòu)建YOLOv8n-TEA模型。首先利用帶有PConv模塊的FasterNet模型[16]替代YOLOv8n模型中的主干網(wǎng)絡(luò)進行特征提取,然后在SPPF模塊后添加1個全局注意力機制(Global attention mechanism,GAM)[17]。在Neck階段引入上下文引導(dǎo)(Context guided,CG)模塊,更好地學(xué)習(xí)茶樹嫩芽局部特征和周圍環(huán)境的聯(lián)合特征,提高茶樹嫩芽的識別準(zhǔn)確率。改進后的網(wǎng)絡(luò)結(jié)構(gòu)圖如圖4所示。

      2.2.1 Backbone網(wǎng)絡(luò)優(yōu)化

      YOLOv8采用串聯(lián)的Bottleneck模塊能夠?qū)崿F(xiàn)不同尺度的茶樹嫩芽特征提取,但使用大量Bottleneck結(jié)構(gòu)會帶來通道信息的過度冗余。使用含有PConv的FasterNet Block取代Backbone網(wǎng)絡(luò)中的C2f模塊,如圖5所示。PConv提取嫩芽空間特征只需要在茶樹嫩芽特征圖冗余信息中的部分通道上進行卷積操作,不影響其他通道,能夠更好地利用農(nóng)業(yè)機器人的計算能力,減少計算冗余及模型內(nèi)存訪問。

      假定茶樹嫩芽輸入特征圖的長、寬分別為h、w,輸入通道為c,參與卷積操作的通道為cp,卷積核尺寸為k,參與卷積率為r,PConv

      的計算量FPConv和內(nèi)存訪問MAC計算式如下:

      ······················(1)

      ·································(2)

      ········(3)

      典型參與卷積率的比例通常為1/4,PConv的計算量僅為常規(guī)卷積的1/16。此外,卷積操作過程中占用內(nèi)存很少,內(nèi)存訪問量約為常規(guī)卷積的1/4。由于只有cp通道參與茶樹嫩芽的空

      間特征提取,對于后續(xù)的茶樹嫩芽特征通道信息并未丟失,因此PConv能夠有效減少模型的計算量和內(nèi)存訪問量。

      2.2.2 GAM注意力機制

      為提高復(fù)雜自然環(huán)境中茶樹嫩芽檢測的準(zhǔn)確性,引入了GAM注意力機制,它不僅能夠減少信息彌散,還能放大全局維度交互特征,提高模型對茶樹嫩芽特征表達能力。GAM注意力機制是由通道注意力機制和空間注意力機制組成,其總體結(jié)構(gòu)如圖6所示。

      具體來說,給定輸入特征F1∈RC×H×W,首先采用通道注意力模塊三維排列保留茶樹嫩芽特征圖的3個維度信息,并通過通道注意力模塊中的多層感知器(Multi-layer perceptron,MLP)放大跨維通道-空間依賴性。MLP是一個編碼-解碼器架構(gòu),其壓縮比為4。經(jīng)過Sigmoid處理后,生成輸出F2。中間狀態(tài)F2作為通道注意力模塊的輸出,其計算見公式(4)。

      F2=Mc(F1)⊙F1·····················(4)

      式中,Mc為經(jīng)通道注意力模塊細化后的特征權(quán)重,⊙為逐元相乘操作。然后在空間注意力模塊中連續(xù)使用兩個卷積操作進行茶樹嫩芽特征空間信息融合。為了保留更多特征映射,該空間注意力模塊刪除了最大池化操作,第一個卷積層后面是批量歸一化層(Batch normalization,BN)和ReLU激活函數(shù),而第二個卷積層后面只有BN層。Ms(F3)作為空間注意力模塊的輸出,將其與輸入特征F2相乘得到GAM注意力機制細化特征F3,其計算見公式(5)。

      F3=Ms(F2)⊙F2·····················(5)

      式中,Ms為經(jīng)空間注意力模塊細化后的特征權(quán)重。

      2.2.3 CG模塊

      由于在復(fù)雜自然環(huán)境中茶樹嫩芽目標(biāo)較小,因此在YOLOv8s算法頸部網(wǎng)絡(luò)引入能夠?qū)W習(xí)嫩芽局部特征和周圍上下文聯(lián)合特征的CG模塊,進一步提高茶樹嫩芽的識別準(zhǔn)確率。CG模塊的結(jié)構(gòu)圖如圖7所示。

      首先使用1×1卷積層來降低輸入特征的通道數(shù)量,減少模型的計算量和參數(shù)量;再分別利用3×3的標(biāo)準(zhǔn)卷積和3×3的擴張卷積學(xué)習(xí)嫩芽局部特征和多尺度上下文特征,并將兩者進行通道維度的連接。然后利用全局平均池化層、多層感知器學(xué)習(xí)全局上下文特征,受SENet[18]啟發(fā),將全局上下文作為加權(quán)向量應(yīng)用于聯(lián)合特征,識別出有益于茶樹嫩芽檢測的特征,增大其權(quán)重。最終采用殘差學(xué)習(xí)將輸入特征與細化后的聯(lián)合特征進行逐元素相加,進一步提高嫩芽特征的學(xué)習(xí)能力和改善模型訓(xùn)練過程中的梯度反向傳播。

      2.3 試驗平臺及模型測試指標(biāo)

      2.3.1 試驗平臺

      所有模型均在相同的環(huán)境下運行,軟件環(huán)境為Ubuntu 16.04、PyTorch 1.13.1和Python 3.8.16;硬件環(huán)境為CPU Intel? Xeon? Gold 5118、GPU PowerEdge T640和RAM 128 G。

      2.3.2 評價指標(biāo)

      試驗結(jié)果采用準(zhǔn)確率(Precision,P)、召回率(Recall,R)和mAP衡量模型預(yù)測的準(zhǔn)確度,計算公式如下:

      ······························(6)

      ······························(7)

      ···········(8)

      式中,TP表示茶樹嫩芽正確預(yù)測的樣本數(shù)量,F(xiàn)P表示茶樹嫩芽錯誤預(yù)測的樣本數(shù)量,F(xiàn)N表示模型未檢測出的嫩芽樣本數(shù)量,C表示茶樹嫩芽檢測類別數(shù)量。

      2.3.3 模型訓(xùn)練參數(shù)設(shè)置

      模型訓(xùn)練時,將輸入圖像尺寸均調(diào)整為640像素×640像素,選用隨機梯度下降法(Stochastic gradient descent,SGD)優(yōu)化器,訓(xùn)練epoch數(shù)設(shè)為100,批次大小設(shè)為4,初始學(xué)習(xí)率為0.01,動量參數(shù)為0.937,權(quán)值衰減參數(shù)為0.000 5。

      3 結(jié)果與分析

      3.1 YOLOv8n-TEA消融試驗性能對比

      為驗證改進的YOLOv8n算法對茶樹嫩芽檢測的有效性,通過不同消融試驗驗證各個改進部分的有效性,試驗結(jié)果如表2所示。由表2可知,YOLOv8n模型分別單獨加入3個改進模塊,模型的mAP均有所提高。利用FasterNet主干網(wǎng)絡(luò)提高了茶樹嫩芽的特征提取能力,召回率和mAP分別提升了1.5個百分點和1.1個百分點;在更換主干網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上添加GAM注意力機制,準(zhǔn)確率、召回率和mAP均有所提到,與加入FasterNet主干網(wǎng)絡(luò)模型相比,召回率和mAP分別提高了0.5個百分點和0.2個百分點。進一步添加CG模塊得到改進后的YOLOv8n-TEA模型,其準(zhǔn)確率、召回率和mAP比原模型分別高出4.4個百分點、1.0個百分點和2.2個百分點。

      以上3種改進方法較原模型的平均檢測精度均有提升,為了更直觀展示不同改進模塊的效果,不同消融試驗?zāi)P驮跍y試集中的精確率-召回率(Precision-recall,PR)曲線如圖8所示。消融試驗證明,優(yōu)化YOLOv8模型的主干網(wǎng)絡(luò)和頸部網(wǎng)絡(luò)能夠提高其對茶樹嫩芽的檢測性能。

      3.2 檢測模型結(jié)果對比

      將原YOLOv8n模型和改進后的YOLOv8n-TEA模型在測試集進行試驗對比,隨機選擇數(shù)據(jù)增強后幾組不同的茶樹嫩芽圖像進行展示(圖9)。由圖9可知,在復(fù)雜自然環(huán)境中,茶樹嫩芽目標(biāo)較小,原YOLOv8n模型檢測出的嫩芽置信度偏低。YOLOv8n-TEA模型對茶樹嫩芽圖像進行檢測時具有更高的置信度,而且出現(xiàn)的茶樹嫩芽全部被檢測出。

      3.3 不同目標(biāo)檢測模型的試驗對比

      將改進的YOLOv8n-TEA模型與目前主流目標(biāo)檢測模型如YOLOv3-tiny[19]、YOLOv3[19]、YOLOv5m[20]、YOLOv7-tiny[21]和YOLOv7[21]進行對比試驗,所有檢測模型對不同等級茶樹嫩芽識別的結(jié)果如表3所示。由表3可知,改進的YOLOv8n-TEA模型的準(zhǔn)確率和mAP均高于其他目標(biāo)檢測模型,準(zhǔn)確率比YOLOv3-tiny、YOLOv3、YOLOv5m、YOLOv7分別高8.8個百分點、2.7個百分點、1.3個百分點和3.4個百分點,mAP分別比YOLOv3-tiny、YOLOv3、YOLOv5m、YOLOv7高6.1個百分點、1.9個百分點、1.2個百分點和2.3個百分點。改進后的YOLOv8n-TEA模型與原YOLOv8n模型相比,單芽、一芽一葉、一芽二葉的mAP分別提高2.2個百分點、1.6個百分點和2.7個百分點,表明改進后的YOLOv8n-TEA模型對各等級茶樹嫩芽的平均識別精度要優(yōu)于原模型及其他主流模型。

      4 結(jié)論

      針對復(fù)雜自然環(huán)境下茶樹嫩芽識別準(zhǔn)確率低、魯棒性差等問題,提出了一種基于YOLOv8n的茶樹嫩芽檢測方法。將主干網(wǎng)絡(luò)替換為FasterNet Block,減少計算冗余和模型內(nèi)存訪問。通過引入GAM注意力機制,加強了關(guān)鍵信息的提取,提高模型對茶樹嫩芽的特征提取能力。最后,在頸部網(wǎng)絡(luò)引入CG模塊,提高茶樹嫩芽局部特征和多尺度特征的融合能力。

      試驗表明,改進的YOLOv8n-TEA模型對茶樹嫩芽識別準(zhǔn)確率、召回率和mAP分別為93.6%、85.8%和94.3%。與YOLOv3-tiny、YOLOv3、YOLOv5m、YOLOv7-tiny、YOLOv7、YOLOv8n相比,改進的YOLOv8n-TEA模型的準(zhǔn)確率和mAP最高,較原模型分別提高了4.4個百分點和2.2個百分點。該模型在自然場景下的茶樹嫩芽檢測性能較好,能夠為茶樹嫩芽采摘機器人的研發(fā)提供理論依據(jù)。

      參考文獻

      [1] 吳芹瑤, 楊江帆, 林程, 等. 中國茶葉生產(chǎn)布局變遷研究[J]. 茶葉科學(xué), 2022, 42(2): 290-300.

      Wu Q Y, Yang J F, Lin C, et al. Research on the changes of China's tea production layout [J]. Journal of Tea Science, 2022, 42(2): 290-300.

      [2] 孫肖肖, 牟少敏, 許永玉, 等. 基于深度學(xué)習(xí)的復(fù)雜背景下茶葉嫩芽檢測算法[J]. 河北大學(xué)學(xué)報(自然科學(xué)版), 2019, 39(2): 211-216.

      Sun X X, Mu S M, Xu Y Y, et al. Detection algorithm of tea tender buds under complex background based on deep learning [J]. Journal of Hebei University (Natural Science Edition), 2019, 39(2): 211-216.

      [3] 張浩, 陳勇, 汪巍, 等. 基于主動計算機視覺的茶葉采摘定位技術(shù)[J]. 農(nóng)業(yè)機械學(xué)報, 2014, 45(9): 61-65, 78.

      Zhang H, Chen Y, Wang W, et al. Positioning method for tea picking using active computer vision [J]. Transactions of the Chinese Society for Agricultural Machinery, 2014, 45(9): 61-65, 78.

      [4] 吳雪梅, 張富貴, 呂敬堂. 基于圖像顏色信息的茶葉嫩葉識別方法研究[J]. 茶葉科學(xué), 2013, 33(6): 584-589.

      Wu X M, Zhang F G, Lü J T. Research on recognition of tea tender leaf based on image color information [J]. Journal of Tea Science, 2013, 33(6): 584-589.

      [5] 劉自強, 周鐵軍, 傅冬和, 等. 基于顏色和形狀的鮮茶葉圖像特征提取及在茶樹品種識別中的應(yīng)用[J]. 江蘇農(nóng)業(yè)科學(xué), 2021, 49(12): 168-172.

      Liu Z Q, Zhou T J, Fu D H, et al. Image feature extraction of fresh tea leaf based on color and shape and its application in tea variety recognition [J]. Jiangsu Agricultural Sciences, 2021, 49(12): 168-172.

      [6] 胡和平, 吳明輝, 洪孔林, 等. 基于改進YOLOv5s的茶葉嫩芽分級識別方法[J]. 江西農(nóng)業(yè)大學(xué)學(xué)報, 2023, 45(5): 1261-1272.

      Hu H P, Wu M H, Hong K L, et al. Classification and recognition method for tea buds based on improved YOLOv5s [J]. Acta Agriculturae Universitatis Jiangxiensis, 2023, 45(5): 1261-1272.

      [7] 徐海東, 馬偉, 譚彧, 等. 基于YOLOv5深度學(xué)習(xí)的茶葉嫩芽估產(chǎn)方法[J]. 中國農(nóng)業(yè)大學(xué)學(xué)報, 2022, 27(12): 213-220.

      Xu H D, Ma W, Tan Y, et al. Yield estimation method for tea buds based on YOLOv5 deep learning [J]. Journal of China Agricultural University, 2022, 27(12): 213-220.

      [8] 朱紅春, 李旭, 孟煬, 等. 基于Faster R-CNN網(wǎng)絡(luò)的茶葉嫩芽檢測[J]. 農(nóng)業(yè)機械學(xué)報, 2022, 53(5): 217-224.

      Zhu H C, Li X, Meng Y, et al. Tea bud detection based on Faster R-CNN network [J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(5): 217-224.

      [9] 張晴晴, 劉連忠, 寧井銘, 等. 基于YOLOV3優(yōu)化模型的復(fù)雜場景下茶樹嫩芽識別[J]. 浙江農(nóng)業(yè)學(xué)報, 2021, 33(9): 1740-1747.

      Zhang Q Q, Liu L Z, Ning J M, et al. Tea buds recognition under complex scenes based on optimized YOLOV3 model [J]. Acta Agriculturae Zhejiangensis, 2021, 33(9): 1740-1747.

      [10] 馬志艷, 李輝, 楊光友. 基于YOLOv3算法的智能采茶機關(guān)鍵技術(shù)研究[J]. 中國農(nóng)機化學(xué)報, 2024, 45(4): 199-204, 236.

      Ma Z Y, Li H, Yang G Y. Research on key technologies of intelligent tea picking machine based on YOLOv3 algorithm [J]. Journal of Chinese Agricultural Mechanization, 2024, 45(4): 199-204, 236.

      [11] 王夢妮, 顧寄南, 王化佳, 等. 基于改進YOLOv5s模型的茶葉嫩芽識別方法[J]. 農(nóng)業(yè)工程學(xué)報, 2023, 39(12): 150-157.

      Wang M N, Gu J N, Wang H J, et al. Method for identifying tea buds based on improved YOLOv5s model [J]. Transactions of the Chinese Society of Agricultural Engineering, 2023, 39(12): 150-157.

      [12] 洪孔林, 吳明輝, 高博, 等. 基于改進YOLOv7-tiny的茶葉嫩芽分級識別方法[J]. 茶葉科學(xué), 2024, 44(1): 62-74.

      Hong K L, Wu M H, Gao B, et al. A grading identification method for tea buds based on improved YOLOv7-tiny [J]. Journal of Tea Science, 2024, 44(1): 62-74.

      [13] 嚴(yán)蓓蓓, 紀(jì)元浩, 曲鳳鳳, 等. 基于改進YOLOv5s的茶葉嫩芽檢測[J]. 中國農(nóng)機化學(xué)報, 2024, 45(4): 168-174.

      Yan B B, Ji Y H, Qu F F, et al. Detection of tea buds based on improved YOLOv5s [J]. Journal of Chinese Agricultural Mechanization, 2024, 45(4): 168-174.

      [14] 朱銘敏, 張國平, 譚建軍, 等. 基于YOLOv5s的輕量級茶葉嫩芽終端檢測模型[J]. 浙江農(nóng)業(yè)學(xué)報, 2024, 36(6): 1413-1424.

      Zhu M M, Zhang G P, Tan J J, et al. A lightweight tea buds terminal detection model based on YOLOv5s [J]. Acta Agriculturae Zhejiangensis, 2024, 36(6): 1413-1424.

      [15] 黃家才, 唐安, 陳光明, 等. 基于Compact-YOLO v4算法的茶葉嫩芽移動端識別方案[J]. 農(nóng)業(yè)機械學(xué)報, 2024: 1-11[2024-08-09]. http://kns.cnki.net/kcms/detail/11.1964.

      S.20230113.1315.002.html.

      Huang J C, Tang A, Chen G M, et al. Mobile recognition solution of tea buds based on compact-YOLOv4 algorithm [J]. Transactions of the Chinese Society for Agricultural Machinery, 2024: 1-11[2024-08-09]. http://kns.cnki.net/kcms/

      detail/11.1964.S.20230113.1315.002.html.

      [16] Chen J R, Kao S H, He H, et al. Run, don't walk: chasing higher FLOPS for faster neural networks [C]//IEEE Computer Society. Proceedings of the 2023 IEEE/CVF conference on computer vision and pattern recognition. Vancouver: IEEE, 2023: 12021-12031.

      [17] Liu Y C, Shao Z R, Hoffmann N. Global attention mechanism: retain information to enhance channel-spatial interactions [J]. arXiv, 2021: arXiv:2112.05561. doi: 10.48550/arXiv.2112.05561.

      [18] Hu J, Shen L, Sun G. Squeeze-and-excitation networks [C]//IEEE Computer Society. Proceedings of the 2018 IEEE conference on computer vision and pattern recognition. Salt Lake City: IEEE, 2018: 7132-7141.

      [19] Redmon J, Farhadi A. Yolov3: an incremental improvement [J]. arXiv, 2018: arXiv:1804.02767. doi: 10.48550/arXiv.

      1804.02767.

      [20] 陳慧穎, 宋青峰, 常天根, 等. 基于YOLOv5m和CBAM-CPN的單分蘗水稻植株表型參數(shù)提取[J]. 農(nóng)業(yè)工程學(xué)報, 2024, 40(2): 307-314.

      Chen H Y, Song Q F, Chang T G, et al. Extraction of the single-tiller rice phenotypic parameters based on YOLOv5m and CBAM-CPN [J]. Transactions of the Chinese Society of Agricultural Engineering, 2024, 40(2): 307-314.

      [21] Wang C Y, Bochkovskiy A, Liao H Y M. YOLOv7: trainable bag-of-freebies sets new state-of-the-art for real-time object detectors [C]//IEEE Computer Society. Proceedings of the 2023 IEEE/CVF conference on computer vision and pattern recognition. Vancouver: IEEE, 2023: 7464-7475.

      猜你喜歡
      注意力機制圖像識別深度學(xué)習(xí)
      基于Resnet-50的貓狗圖像識別
      電子制作(2019年16期)2019-09-27 09:34:50
      高速公路圖像識別技術(shù)應(yīng)用探討
      基于深度學(xué)習(xí)的問題回答技術(shù)研究
      圖像識別在物聯(lián)網(wǎng)上的應(yīng)用
      電子制作(2018年19期)2018-11-14 02:37:04
      圖像識別在水質(zhì)檢測中的應(yīng)用
      電子制作(2018年14期)2018-08-21 01:38:16
      基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
      基于注意力機制的雙向LSTM模型在中文商品評論情感分類中的研究
      軟件工程(2017年11期)2018-01-05 08:06:09
      InsunKBQA:一個基于知識庫的問答系統(tǒng)
      MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
      大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
      日喀则市| 区。| 郁南县| 永清县| 崇明县| 长沙县| 托克逊县| 崇明县| 静安区| 五华县| 东平县| 米脂县| 原阳县| 鄂温| 万盛区| 泰宁县| 平利县| 临城县| 宁南县| 高台县| 澄城县| 丹寨县| 鹿泉市| 比如县| 泽库县| 武功县| 嘉兴市| 始兴县| 时尚| 蒙阴县| 合作市| 阿克| 射阳县| 江津市| 富蕴县| 葫芦岛市| 石泉县| 临夏市| 柳河县| 龙口市| 资阳市|