• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于改進YOLO v8n的輕量化茶葉嫩芽識別模型

      2024-12-06 00:00:00宋敏譚立新胡程喜王文胤巢理
      江蘇農業(yè)科學 2024年21期
      關鍵詞:嫩芽殘差卷積

      摘要:針對智能采茶機器人在茶葉嫩芽檢測過程中存在的準確率低、計算量大、檢測魯棒性不足等問題,提出一種基于改進YOLO v8n網絡模型的茶葉嫩芽檢測算法YOLO v8-TD。該算法分別在不同天氣(晴天、陰天、雨后)及不同季節(jié)(春、秋)采用不同角度拍攝嫩芽圖像,構建數(shù)據(jù)集,利用翻轉、旋轉、改變亮度、添加噪聲等操作來進行數(shù)據(jù)增強,以加強模型在實際環(huán)境中光照、角度不同的魯棒性。在算法結構上,YOLO v8-TD對YOLO v8n模型的骨干網絡和頸部網絡進行改進。首先,在C2f模塊中引入了可擴張殘差(DWR)注意力機制,用于增強特征提取能力,使模型能夠更準確地識別出茶葉嫩芽的細微特征。其次,模型引入雙向特征金字塔網絡(BiFPN)結構,用于增強多尺度和通道間的上下文信息捕獲能力,減少信息冗余,使模型能夠在多種尺度下精確定位目標。最后,借鑒VoV-GSCSP模塊的思想,改進模型頸部網絡,通過采用分組卷積和通道混洗技術,降低模型的復雜度和計算量,提高算法的運行效率。試驗結果表明,原始模型在加入DWR可擴張殘差注意力機制后,平均精度上升1.4百分點,計算量減少0.1 GFLPs;疊加BiFPN結構后,有效實現(xiàn)輕量化,計算量降為7.1 GFLPs減少了1 GFLPs,但平均精度降為95.4%;最后加入VoV-GSCSP模塊構建成YOLO v8-TD,平均精度達到97.2%,計算量降至6.6 GFLPs,模型參數(shù)量相較原模型減少36.5%。與Faster-RCNN、SSD、RT-DETR、YOLO v3、YOLO v5和YOLO v8n模型相比,YOLO v8-TD在檢測精度和模型參數(shù)量大小方面做出了較好的平衡,進而為采茶機器人輕量化部署提供了有效參考。

      關鍵詞:茶葉;改進YOLO v8;輕量化;高精度;嫩芽識別;注意力機制;BiFPN;采茶機器人

      中圖分類號:TP183;S126;TP391.41

      文獻標志碼:A

      文章編號:1002-1302(2024)21-0229-08

      收稿日期:2024-06-21

      基金項目:中國高校產學研創(chuàng)新基金(編號:2022IT182);湖南省教育科學規(guī)劃課題(編號:XJK24BZY037)。

      作者簡介:宋 敏(1998—),男,湖南郴州人,碩士研究生,主要從事農業(yè)工程與信息技術、計算機視覺研究。E-mail:206290978@qq.com。

      通信作者:譚立新,教授,碩士生導師,主要從事機器人與智能系統(tǒng)、農業(yè)信息技術研究。E-mail:594637823@qq.com。

      在茶葉市場需求只增不減的行業(yè)趨勢下,茶葉采摘環(huán)節(jié)的勞動力反而出現(xiàn)逐年衰退現(xiàn)象[1。由于茶園場地基本上在農村郊區(qū)地段,就近勞動力老齡化嚴重,年輕人對采茶工作認可度不高,異地勞動力包吃住成本高以及茶葉采摘季節(jié)性強,無法滿足長期打工者的需求2。因而解決采茶勞動力不足的需求迫在眉睫,自動化機械采茶成為首選方案3-4。目前自動化機械采茶主要針對的是大宗茶市場,采摘方式主要為機器統(tǒng)一切割采集,其品質無法供應高端茶葉市場。高端茶葉市場中名優(yōu)茶的采摘要求都是單芽、1芽1葉、1芽2葉[5。自動化采茶機器面對名優(yōu)茶表現(xiàn)得束手無策,為實現(xiàn)與人工無差的采摘品質,需要機器學會對茶葉嫩芽的精準識別定位,這也是實現(xiàn)智能化采茶的關鍵和前提。

      茶葉嫩芽檢測方法主要分為傳統(tǒng)的圖像處理技術以及深度學習方法[6-7。傳統(tǒng)的圖像處理方法基于灰度、顏色、紋理和形狀等特征,對圖像進行區(qū)域分割和分析,以此分割出不同區(qū)域間的差異,將目標突顯出來。姜苗苗等提出一種基于顏色因子與圖像融合的茶葉嫩芽圖像檢測算法分割出嫩芽[8。陳妙婷等通過提取嫩芽像素點與背景像素點的RGB及(R-B)特征,并重組特征組,利用重組后的特征組分割構建支持向量機SVM實現(xiàn)對名優(yōu)茶嫩芽圖像自動分割[9。呂軍等針對現(xiàn)有茶葉嫩芽圖像自動檢測方法存在對光照變化的敏感這一特點提出一種基于區(qū)域亮度自適應校正的茶葉嫩芽檢測模型10。許寶陽等基于Faster-RCNN構建深度學習網絡模型,從嫩芽數(shù)量、生長姿態(tài)、不同采集數(shù)據(jù)角度以及不同光照條件等多種維度進行嫩芽識別,在光線和角度變化較大場景下效果不佳[11-12。王夢妮等提出一種基于改進YOLO v5s網絡模型的茶葉嫩芽檢測算法,該算法提高了改進模型的復雜度,將小目標特征作為研究重點,并在小目標檢測上頗有成效,然而在識別精度方面不足90%,依然還有很大的提升空間[13-14?,F(xiàn)有研究中使用的網絡模型參數(shù)較為復雜,計算量較大,難以在識別效率與準確率之間達到有效平衡。模型計算量決定了對于設備成本的要求,而準確率是決定模型能否實際應用的關鍵指標。

      針對以上問題,以茶葉嫩芽檢測識別作為研究目標,采用YOLO v8目標檢測算法為基礎,根據(jù)目前嫩芽檢測識別存在的問題和缺陷進行改進,進而推進茶葉智能采茶識別研究的進展。本研究可為解決數(shù)據(jù)集構建困難、茶葉嫩芽檢測精度不高以及現(xiàn)有檢測模型計算量大提出解決方案,為茶葉采摘機器人的研發(fā)提供支持。

      1 試驗數(shù)據(jù)

      1.1 數(shù)據(jù)樣本采集

      本研究的茶葉嫩芽圖像樣本由筆者所在的實驗室團隊2023年清明節(jié)前后以及秋季在湖南省長沙市長沙縣高橋鎮(zhèn)溪清茶園采集,采集設備為iPhone 13 pro以及Nikon D3100。圖像采集的對象為開春的鮮嫩茶芽以及秋季茶芽目標,拍攝的圖像包含了斜45°俯拍、90°俯拍、強光照射、多目標、遮光環(huán)境、雨后等類型。最終確定合格的原始圖像 2 864 張(圖1)。

      1.2 數(shù)據(jù)集制作

      本次數(shù)據(jù)集標簽采用LabelImg進行茶葉嫩芽位置標注,分為1芽1葉(leaf_1)和1芽2葉(leaf_2)2個標簽。將標簽的保存文件設置.txt格式以及制作了.txt標簽轉.xml標簽的轉換工具,以便使用。為了進一步提高模型的泛化能力,利用翻轉、旋轉、改變亮度、添加噪聲等操作來進行數(shù)據(jù)增強,以加強在實際環(huán)境中光照、角度不同的魯棒性。將數(shù)據(jù)集以7∶2∶1的比例隨機劃分為訓練集、驗證集、測試集。經過增強得到的數(shù)據(jù)集結果如表1所示,增強效果如圖2所示。

      2 嫩芽識別算法改進

      2.1 YOLO v8算法

      YOLO屬于單階段目標檢測網絡[15,主要的版本包括YOLO v3、YOLO v5、YOLO v7以及YOLO v8算法[16-19,選取其中最新的YOLO v8算法。YOLO v8包括YOLO v8n、YOLO v8s、YOLO v8m、YOLO v8l以及YOLO v8x等5個尺寸,網絡深度和網絡寬度和計算量依次增大。YOLO v8n的模型深度雖然最淺,但是依舊有著良好的檢測精度,相較于更深度的模型如YOLO v8s及以上版本的精度提升并不多,但模型體積卻大出好幾倍。結合茶葉采摘對于實時性高的要求,選擇模型復雜度最低的YOLO v8n模型加以改進,在提高檢測精度的同時,保持輕量化。YOLO v8 網絡的訓練過程包括數(shù)據(jù)預處理與數(shù)據(jù)增強、錨框自適應計算、特征提取、特征融合和檢測頭的訓練:(1)通過Mosaic數(shù)據(jù)增強技術對輸入圖像進行隨機縮放、裁剪和拼接,增加訓練數(shù)據(jù)的多樣性,提高模型對小目標的檢測能力;(2)根據(jù)訓練數(shù)據(jù)集的目標大小和比例設置初始錨框,并在訓練過程中通過預測框與真實框的比較,利用反向傳播算法自適應調整錨框參數(shù);(3)通過深層卷積神經網絡提取多尺度圖像特征,并利用特征金字塔網絡將不同尺度的特征進行融合,增強特征表達的細粒度信息;(4)在檢測頭部分,分別對融合后的特征進行分類和邊界框回歸,計算分類損失和定位損失,并通過反向傳播和優(yōu)化算法調整網絡權重;(5)通過非極大值抑制處理候選框,移除重復和冗余的框,輸出置信度最高的檢測結果。

      2.2 骨干網絡優(yōu)化

      近年來,注意力機制已成為深度學習領域的一項革命性技術,其核心理念在于優(yōu)化資源分配,確保神經網絡在有限的計算能力下,能夠高效地聚焦于關鍵信息[20。這一機制通過智能地篩選海量輸入數(shù)據(jù),實現(xiàn)快速定位高價值信息,極大地提升了模型在處理自然語言、圖像識別等復雜任務時的性能和效率。將原本骨干網絡中最后2個特征融合模塊融合擴張式殘差注意力結構DWR(dilation-wise residual),使用2步區(qū)域殘差化語義多尺度特征提取[21。通過第1步區(qū)域形式特征映射進行目標感受野內的語義形態(tài)濾波操作,使卷積在特征提取中扮演更簡單的角色,從而提高效率。DWR模塊采用殘差結構設計(圖3),部分設計1個三分支DWR模塊結構。該模塊在設計上采用3個并行的卷積(dilated convolution,記作D-n,n表示擴張率)分支(分別對應不同的擴張率),實現(xiàn)對高層特征的多尺度上下文信息提取。模塊內部包含區(qū)域殘差化(region residualization,縮寫為RR)和語義殘差化(semantic residualization,縮寫為SR)2個步驟。在處理過程中,所有生成的不同尺度區(qū)域的特征圖會拼接(concatenate)起來,進行批量歸一化(BN),通過點卷積(point-wise convolution)整合特征形成最終的殘差,這些殘差隨后被添加回輸入的特征圖中,構建出更全面的特征表示。

      2.3 頸部網絡優(yōu)化

      2.3.1 BiFPN優(yōu)化頸部網絡

      在處理多尺度特征融合問題時,傳統(tǒng)的特征金字塔網絡FPN采取自上而下的方式融合來自不同層級的特征信息[22。YOLO v8n采用的路徑聚合網絡PANet,PANet中的單節(jié)點能夠獲取的信息并不多,卻增加了模型的參數(shù),是一個弊大于利的操作[23。本研究引入了一種改進的網絡結構BiFPN,其3種頸部網絡如圖4所示[24。

      BiFPN在FPN的基礎上引入了雙向信息流,并在特征金字塔的構建過程中添加了一些額外操作。通過引入雙向信息流,BiFPN能夠更好地捕獲多尺度信息,提高特征的豐富性和穩(wěn)定性。此外,BiFPN中的額外操作進一步增強特征的表達能力,使模型更具有適應性和泛化能力。相較于其他特征融合網絡,BiFPN的區(qū)別在于去除了只有1個輸入邊的節(jié)點。由于這些節(jié)點僅有單一輸入,無法實現(xiàn)特征融合,因此對特征網絡的貢獻較小,從而簡化了雙向網絡。此外,它通過在同一層級上從輸入到輸出節(jié)點增加額外的邊,能夠在不顯著增加計算成本的情況下融合更多特征。最后,BiFPN不同于僅包含單條自頂向下和自底向上路徑的PANet,它將每個雙向路徑作為一個特征網絡層,并多次重復該層,以實現(xiàn)更高級別的特征融合。在BiFPN中,特征融合是通過加權和歸一化操作來實現(xiàn)的。假設在第i層輸入的特征為Xi,經過特征融合后的輸出特征為Yi。特征融合過程表示為:

      Yi=(∑N/j=0wj)Xij。(1)

      式中:N是輸入特征的數(shù)量;wj是對應的特征權重,滿足∑N/j=0wj=1。特征權重可以根據(jù)特征的重要性動態(tài)調整或學習得到。

      2.3.2 VoV-GSCSP優(yōu)化頸部網絡

      考慮到采茶機器人在實際工作中的實時性要求,為了減少模型計算量,特引入Slim-neck中的VoV-GSCSP,利用一次性聚合的方法實現(xiàn)跨階段部分網絡模塊[25。其中,GSConv主要通過使用2步卷積處理輸入特征圖,此步驟有效地降低了計算復雜度。然后,通過通道混洗操作,將由標準卷積(即通道密集型卷積)產生的特征信息均勻地分布到每個通道的特征信息中,實現(xiàn)信息的充分混合,增強通道間的互動性,而這種混合是無附加計算成本的標準化操作。而由于茶葉圖像背景復雜等特性,將GSConv中的深度可分離卷積(depth-wise convolution)替換為標準卷積,用以學習嫩芽復雜的特征。最終得到的特征圖,即GSConv的輸出特征,通過混入標準卷積的信息,提升特征表示能力,使其在保持輕量化的同時,接近于使用標準卷積所獲得的特征質量,如圖5中GSConv所示。GSBottleneck是將一個輸入分為2條支流,分別經過由2個GSConv處理和1個Conv在另一個支流處理的結構拼接組成。最終構建的 VoV-GSCSP 由輸入分流之后一邊支流進行標準卷積處理之后交給GSBottleneck模塊處理,與另一條支流拼接形成(圖5)。

      2.4 YOLO v8-TD模型構建

      本研究以YOLO v8n為基礎模型加以改進,以適應移動端以及嵌入式設備在實際茶園環(huán)境對于茶葉嫩芽的識別檢測?;谝陨显囼炚撟C,針對YOLO v8n的改進如下:將骨干網絡(backbone)中第6層和第8層C2f模塊中添加DWR注意力機制,提高特征提取能力。在頸部網絡處理特征融合問題上,將頸部端的PANet 換成 BiFPN,去除無效貢獻節(jié)點,實現(xiàn)減少冗余計算,通過加權雙向特征金字塔網絡增強特征融合能力,從而提升識別效率與準確率。最后采用VoV-GSCSP模塊改進頸部網絡的C2f結構,用以進一步降低計算量。改進的YOLO v8-TD網絡結構如圖6所示。

      3 結果與分析

      3.1 試驗環(huán)境

      本試驗于2023年7月至2024年4月在湖南農業(yè)大學研究生實驗室進行,試驗環(huán)境配置為Intel Core i5-13400F處理器,該處理器主頻2.50 GHz,最高睿頻4.6 GHz,運行內存采用單根32 GB,模型訓練主要使用GPU提供算力,配置為NVIDIA RTX 2060 6 GB版本,算法程序在Windows 11操作系統(tǒng)上運行,模型主體架構采用Pytorch 1.13.1框架進行搭建,根據(jù)模型訓練的結果進行分析優(yōu)化改進。將基準YOLO v8n網絡模型和YOLO v8-TD模型使用測試集做試驗對比。各個模型訓練時的圖像數(shù)據(jù)集統(tǒng)一使用640像素×640像素的分辨率大小,使用SGD優(yōu)化器,學習率設置為0.01,批次大小設置為16,訓練輪次為100。

      3.2 評價指標

      試驗結果采用準確率(P)、召回率(R)、平均精度均值(mAP)來衡量模型預測的準確度,計算公式如下:

      P=TP/TP+FP×100%;(2)

      R=TP/TP+FN×100%;(3)

      AP=∫10P(R)dR;(4)

      mAP=∑C/C=1AP(C)/C×100%。(5)

      式中:TP表示模型正確地將正例預測為正例的數(shù)量;FP表示模型錯誤地將負例預測為正例的數(shù)量;FN表示模型錯誤地將正例預測為負例的數(shù)量;P表示準確率,它用于衡量YOLO v8算法在識別茶葉嫩芽時的準確性,在預測為茶葉嫩芽的樣本中真實茶葉嫩芽數(shù)量;R表示召回率,在所有實際為茶葉嫩芽的樣本中,YOLO v8算法正確識別為茶葉嫩芽樣本所占的比例,它用于衡量YOLO v8算法在識別茶葉嫩芽時的完整性,在算法中能夠找出實際為茶葉嫩芽的樣本數(shù)量;表示平均精度,在不同閾值下計算出精度的加權平均值,其中權重是相鄰2個閾值之間的精度差值,它用于評估不同閾值下 YOLO v8算法識別茶葉嫩芽的性能;表示多個類別上計算出的平均精度的加權平均值,它用于評估多類別分類器的性能;C表示類別數(shù)量,∑C/C=1AP(C)表示對所有類別計算出的平均精度進行求和,將茶葉嫩芽視為一個類別,用來評估 YOLO v8算法在識別茶葉嫩芽這一類別的性能。

      3.3 試驗模型結果對比

      在1 023張測試集上對比YOLO v8n網絡模型與改進后的YOLO v8-TD模型的性能表現(xiàn),從密集目標、前背景顏色相似、復雜背景以及雨后等4種場景中各隨機選擇1張嫩芽圖像進行展示,結果如圖7所示。

      通過圖7可以看出,在上述4種場景中,原YOLO v8模型對1芽2葉的漏檢率較高,且目標置信度稍低。相比之下,YOLO v8-TD模型在檢測茶葉圖像時具有更高的置信度分數(shù),并且識別出的嫩芽目標數(shù)量更多。

      通過圖8-a和圖8-b比較可以發(fā)現(xiàn),左側對于1芽1葉目標的檢測,在未加入DWR殘差注意力機制之前,熱力圖顯示特征提取溢出嫩芽邊界。改進過的YOLO v8-TD特征提取則更專注于正確的特征區(qū)域。

      3.4 消融試驗性能對比

      本研究通過消融試驗以檢驗不同優(yōu)化策略的有效性,試驗結果如表2所示,C2f-DWR結構提高了骨干網絡特征提取能力,準確率提升了2.7百分點,召回率提高了1.4百分點,mAP提升了1.4百分點,模型大小減少了0.1 MB。若在引入C2f-DWR結構的基礎上,頸部添加BiFPN+VoV結構,在mAP下降不大的情況下,參數(shù)量降低36.5%。最終,改進后的YOLO v8-TD模型,相比于原模型準確率和mAP依然比原模型有所提升1.2、0.8百分點。從圖9模型曲線訓練圖可以看出,添加DWR注意力機制后,相較原模型曲線有顯著提升,在加入雙向信息流傳遞后,參數(shù)量下降,再通過VoV-GSCSP模塊的處理保持計算量降低的同時彌補BiFPN帶來的mAP下降。

      3.5 不同網絡模型試驗對比

      將基于YOLO v8n改進的YOLO v8-TD與主流目標檢測網絡模型如Faster-RCNN、SSD、YOLO v3、YOLO v5n、RT-DETR以及YOLO v8n進行試驗對比,結果如表3所示,YOLO v8-TD平均精度均值分別比Faster-RCNN、SSD、YOLO v5n、YOLO v8n高2.3、16.2、5.7、0.8百分點,略低于YOLO v3網絡模型(0.7百分點),然而YOLO v3的模型大小相比于YOLO v8-TD卻達到了30.1倍。綜合來看,YOLO v8-TD兼顧了高精度以及輕量化的需要。

      4 結論

      為了能夠快速準確低成本地解決茶葉采摘機器人對于茶葉嫩芽的識別問題, 本研究提出一種改進的茶葉嫩芽檢測算法YOLO v8-TD。根據(jù)茶葉的實際環(huán)境,自建了一個包含晴天、陰天、雨后3種天氣情況以及春秋2個季節(jié)的茶葉嫩芽數(shù)據(jù)集。本研究以原YOLO v8n模型為基礎進行改進,使用擴張式殘差注意力結構DWR取代骨干網絡中第6層與第8層2個C2f,通過實現(xiàn)兩步區(qū)域殘差化-語義殘差化的高效多尺度特征提取,提高mAP。BiFPN雙向特征金字塔網絡替換PANet路徑聚合網絡,實現(xiàn)輕量化模型參數(shù),并引入slim-neck中的VoV-GSCSP特征融合模塊實現(xiàn)保證參數(shù)量降低的同時兼顧mAP的提升。經過與Faster-RCNN、SSD、RT-DETR、YOLO v3、YOLO v5n以及YOLO v8n模型進行試驗對比[26-27,結果表明,本研究提出的YOLO v8-TD茶葉嫩芽識別的平均精度均值、準確率、召回率以及參數(shù)量等指標中某些單一指標略低于其他模型,但從綜合精度以及模型大小的來看,該模型對自然場景下的茶葉嫩芽檢測性能良好,可對名優(yōu)茶采摘機器人的研發(fā)提供參考,并在部署于移動設備上具有優(yōu)勢。

      參考文獻:

      [1] 馮小芯. 誰在分羹3000億茶葉市場[N]. 第一財經日報,2024-01-24(A09).

      [2]趙婧赟,張 麥. 春茶采摘之憂,如何解?[N]. 紹興日報,2024-04-13(002).

      [3]鄭 航,傅 童,薛向磊,等. 茶葉機械化采摘技術研究現(xiàn)狀與展望[J]. 中國農機化學報,2023,44(9):28-35.

      [4]王小勇,湯丹丹. 茶葉采摘技術及采茶機械研究進展[J]. 茶葉學報,2022,63(4):275-282.

      [5]劉明麗,彭 云,許艷艷,等. 我國名優(yōu)茶機采機制的研究現(xiàn)狀[J]. 食品工業(yè),2023,44(5):287-291.

      [6]Zou Z X,Shi Z W,Guo Y H,et al. Object detection in 20 years:a survey[J]. Proceedings of the IEEE,2023,111(3):257-276.

      [7]張 航,顏 佳. 語義分割和HSV色彩空間引導的低光照圖像增強[J]. 中國圖象圖形學報,2024,29(4):966-977.

      [8]姜苗苗,問美倩,周 宇,等. 基于顏色因子與圖像融合的茶葉嫩芽檢測方法[J]. 農業(yè)裝備與車輛工程,2020,58(10):44-47.

      [9]陳妙婷,楊廣蕾,秦鵬濤. 基于SVM的名優(yōu)茶嫩芽圖像自動分割方法[J]. 現(xiàn)代信息科技,2021,5(2):89-92.

      [10] 呂 軍,方夢瑞,姚 青,等. 基于區(qū)域亮度自適應校正的茶葉嫩芽檢測模型[J]. 農業(yè)工程學報,2021,37(22):278-285.

      [11]許寶陽,高延峰. 基于Faster-RCNN深度學習的茶葉嫩芽多維度識別及其性能分析[J]. 農業(yè)裝備與車輛工程,2023,61(2):19-24.

      [12]Ren S Q,He K M,Girshick R,et al. Faster R-CNN:towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.

      [13]王夢妮,顧寄南,王化佳,等. 基于改進YOLO v5s模型的茶葉嫩芽識別方法[J]. 農業(yè)工程學報,2023,39(12):150-157.

      [14]樊 嶸,馬小陸. 面向帶鋼表面小目標缺陷檢測的改進YOLO v7算法[J]. 合肥工業(yè)大學學報(自然科學版),2024,47(3):303-308,316.

      [15]Redmon J,Divvala S,Girshick R,et al. You only look once:unified,real-time object detection[C]//2016 IEEE Comference on Computer Vision amp; Pattern Recognition. Las Vegas:IEEE,2016:779-788.

      [16]Redmon J,F(xiàn)arhadi A. YOLO v3:an incremental improvement[EB/OL]. (2018-04-08)[2024-04-20]. https://arxiv.org/abs/1804.02767.

      [17]Jocher G. YOLO v5 release v6.0[EB/OL]. (2021-10-12)[2023-08-10]. https://github.com/ultralytics/YOLO v5/releases/tag/v6.0.

      [18]Wang C Y,Bochkovskiy A,Liao H Y M. YOLO v7:trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Vancouver:IEEE,2023:7464-7475.

      [19]洪孔林,吳明暉,高 博,等. 基于改進YOLO v7-tiny的茶葉嫩芽分級識別方法[J]. 茶葉科學,2024,44(1):62-74.

      [20]Bahdanau D,Cho K,Bengio Y. Neural machine translation by jointly learning to align and translate[EB/OL]. (2016-05-19)[2024-04-20]. https://www.arxiv.org/abs/1409.0473.

      [21]Wei H R,Liu X,Xu S C,et al. DWRSeg:rethinking efficient acquisition of multi-scale contextual information for real-time semantic segmentation[EB/OL]. (2023-09-13)[2024-04-25]. https://arxiv.org/abs/2212.01173.

      [22]Lin T Y,Dollar P,Girshick R,et al. Feature pyramid networks for object detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Honolulu:IEEE,2017:936-944.

      [23]Liu S,Qi L,Qin H,et al. Path aggregation network for instance segmentation[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition。 Salt Lake:IEEE,2018:8759-8768.

      [24]Tan M X,Pang R M,le Quoc V. Le. EfficientDet:scalable and efficient object detection[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seatlle:IEEE,2020:10778-10787.

      [25]Li H,Li J,Wei H,et al. Slim-neck by GSConv:a lightweight-design for real-time detector architectures[EB/OL]. (2022-08-17)[2024-04-25]. https://arxiv.org/abs/2206.02424.

      [26]Liu W,Anguelov D,Erhan D,et al. SSD:single shot multiBox detector[M]//Bertino E. Lecture notes in computer science. Cham:Springer International Publishing,2016:21-37.

      [27]Zhao Y A,Lyu W Y,Xu S L,et al. Detrs beat yolos on real-time object detection[C]//2024 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle:IEEE,2024:16965-16974.

      猜你喜歡
      嫩芽殘差卷積
      小嫩芽
      基于雙向GRU與殘差擬合的車輛跟馳建模
      基于3D-Winograd的快速卷積算法設計及FPGA實現(xiàn)
      嫩芽
      嫩芽的面積
      基于殘差學習的自適應無人機目標跟蹤算法
      基于遞歸殘差網絡的圖像超分辨率重建
      自動化學報(2019年6期)2019-07-23 01:18:32
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      基于傅里葉域卷積表示的目標跟蹤算法
      希望的嫩芽
      丽水市| 集贤县| 津市市| 南通市| 察隅县| 游戏| 尚义县| 宁阳县| 甘南县| 开封市| 珲春市| 防城港市| 北碚区| 卓尼县| 平定县| 宿州市| 阳西县| 泽州县| 沈丘县| 吕梁市| 云霄县| 福建省| 新丰县| 大厂| 轮台县| 论坛| 涿州市| 南投市| 泸水县| 县级市| 横山县| 华坪县| 来凤县| 罗定市| 勐海县| 孟州市| 宜城市| 扶沟县| 武鸣县| 米脂县| 灵寿县|