• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      融合卷積神經(jīng)網(wǎng)絡(luò)與顏色分割的青菜雜草識(shí)別

      2024-11-12 00:00:00金慧萍朱文鵬劉騰于佳琳金小俊

      摘要:雜草種類繁多且分布隨機(jī)導(dǎo)致雜草識(shí)別難度大、準(zhǔn)確率低和實(shí)時(shí)性差。為此,提出一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的青菜雜草識(shí)別方法。首先,利用深度卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)切分后的網(wǎng)格圖像進(jìn)行青菜識(shí)別,以此排除青菜網(wǎng)格圖像。進(jìn)而運(yùn)用圖像處理技術(shù)對(duì)不包含青菜的網(wǎng)格進(jìn)行圖像分割,識(shí)別出不含綠色像素的背景網(wǎng)格圖像,并將剩下的網(wǎng)格圖像標(biāo)記為雜草圖像。試驗(yàn)結(jié)果表明:DenseNet模型、RegNet模型和ShuffleNet模型在測(cè)試集識(shí)別青菜的總體準(zhǔn)確率均高于0.965,展現(xiàn)良好的識(shí)別效果。識(shí)別速度方面,ShuffleNet模型具有最高的計(jì)算效率,識(shí)別單張?jiān)紙D像僅耗時(shí)14.12 ms,相應(yīng)幀率為70.84 fps,滿足實(shí)時(shí)雜草識(shí)別應(yīng)用需求。識(shí)別青菜進(jìn)而區(qū)分雜草與土壤,有效降低雜草識(shí)別的復(fù)雜度,同時(shí)提高雜草識(shí)別準(zhǔn)確率。

      關(guān)鍵詞:青菜;雜草識(shí)別;卷積神經(jīng)網(wǎng)絡(luò);深度學(xué)習(xí);顏色分割

      中圖分類號(hào):S634; TP391.41 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095?5553 (2024) 11?0215?06

      Identification of vegetable weeds by using convolutional neural networks and

      color segmentation

      Jin Huiping1, Zhu Wenpeng2, Liu Teng3, Yu Jialin3, Jin Xiaojun3, 4

      (1. Engineering Training Center,Nanjing Forestry University, Nanjing, 210037, China;

      2. School of Computer Science, Universiti Sains Malaysia, Penang, 11800, Malaysia;

      3. Institute of Advanced Agricultural Sciences, Peking University, Weifang, 261325, China;

      4. College of Mechanical and Electronic Engineering, Nanjing Forestry University, Nanjing, 210037, China)

      Abstract: A wide variety and random distribution of weed species made weed identification challenging, resulting in low accuracy and poor real?time performance. In order to address this issue, a method based on deep convolutional neural networks for identifying spinach weeds was proposed. Initially, a deep convolutional neural network model was used to recognize spinach in segmented grid images, which helped in excluding grid images containing spinach. Subsequently, image processing techniques were applied to segment grid images without spinach, and background grid images lacking green pixels were identified, leaving the remaining grid images marked as weed images. Experimental results showed that the DenseNet model, RegNet model, and ShuffleNet model achieved overall spinach recognition accuracy above 0.965 on the test set, demonstrating excellent identification performance. Regarding recognition speed, the ShuffleNet model exhibited the highest computational efficiency, taking only 14.12 ms to recognize a single original image, corresponding to a frame rate of 70.84 fps, meeting the demands of real?time weed identification applications. By distinguishing spinach and differentiating weeds from soil, the complexity of weed identification was effectively reduced, while the weed identification accuracy was also enhanced.

      Keywords: vegetable; weed identification; convolutional neural network; deep learning; color segmentation

      0 引言

      青菜是我國(guó)農(nóng)業(yè)種植中僅次于糧食作物的第2大農(nóng)作物[1]。雜草與青菜爭(zhēng)奪生長(zhǎng)資源,導(dǎo)致青菜減產(chǎn)。據(jù)統(tǒng)計(jì),青菜田間雜草約有1 400余種,其中對(duì)青菜造成嚴(yán)重危害的雜草有130多種[2]。雜草防控是農(nóng)業(yè)生產(chǎn)中的重要環(huán)節(jié),對(duì)提高作物產(chǎn)量與品質(zhì)至關(guān)重要。當(dāng)前雜草防除方法仍然主要依賴人工除草。人工除草耗時(shí)費(fèi)力,不僅推高了農(nóng)作物的種植成本,同時(shí)也限制了農(nóng)業(yè)產(chǎn)業(yè)的發(fā)展[3, 4]。

      我國(guó)正處于傳統(tǒng)農(nóng)業(yè)向現(xiàn)代農(nóng)業(yè)轉(zhuǎn)型的關(guān)鍵時(shí)期,在人工智能技術(shù)及物聯(lián)網(wǎng)技術(shù)的大背景下,農(nóng)業(yè)將實(shí)現(xiàn)全面自動(dòng)化和智能化。其中,自動(dòng)化精準(zhǔn)除草是未來農(nóng)業(yè)發(fā)展的必然趨勢(shì)[5, 6],而快速精準(zhǔn)的作物和雜草識(shí)別是實(shí)現(xiàn)精準(zhǔn)除草的前提。近年來,眾多科研工作者對(duì)雜草識(shí)別進(jìn)行了廣泛研究[7?9],Herrmann等[10]使用高光譜成像技術(shù)獲取麥田圖像,通過最小二乘法分類器區(qū)分小麥與雜草。Nieuwenhuizen等[11]結(jié)合顏色與紋理特征,采用自適應(yīng)貝葉斯分類器對(duì)固定光照和變化光照條件下的甜菜進(jìn)行分類,識(shí)別率分別為89.8%和67.7%。鄧立苗等[12]通過提取玉米葉片的顏色、形狀和紋理3類共48個(gè)特征,利用支持向量機(jī)SVM(Support Vector Machines)進(jìn)行模型的設(shè)計(jì)和識(shí)別。傳統(tǒng)雜草識(shí)別方法通常根據(jù)顏色、形狀、紋理和空間分布等特征或這些特征的組合使用小波分析、貝葉斯判別模型和支持向量機(jī)等區(qū)分作物和雜草[13, 14],此類方法需要人工選取特征,多依賴設(shè)計(jì)者的經(jīng)驗(yàn),易受小樣本和人為主觀因素的影響。由于光照變化、背景噪聲、目標(biāo)形態(tài)多樣性等因素,難以設(shè)計(jì)出適應(yīng)性好、穩(wěn)定性高的特征提取模型。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,深度卷積神經(jīng)網(wǎng)絡(luò)(Deep Convolutional Neural Network,DCNN)在機(jī)器視覺領(lǐng)域得到廣泛應(yīng)用并取得良好的效果。Adel等[15]利用支持向量機(jī)(Support Vector Machine,SVM)和人工神經(jīng)網(wǎng)絡(luò),以甜菜及其伴生的4種常見雜草為研究對(duì)象,融合多形狀特征實(shí)現(xiàn)雜草識(shí)別,準(zhǔn)確率達(dá)95%。王璨等[16]提出基于移位窗口Transformer網(wǎng)絡(luò)的識(shí)別方法,可用于識(shí)別苗期玉米和雜草。其采用4種模型進(jìn)行實(shí)時(shí)識(shí)別,平均識(shí)別率高達(dá)95.04%。孫哲等[17]采用Faster R-CNN模型對(duì)自然環(huán)境下的西蘭花幼苗進(jìn)行識(shí)別,平均精度為91.73%。基于深度卷積神經(jīng)網(wǎng)絡(luò)的雜草識(shí)別方法需要采集大量不同種類雜草的圖像進(jìn)行模型訓(xùn)練,雜草種類眾多,訓(xùn)練集數(shù)據(jù)庫(kù)搭建成本極其高昂。以往研究表明,即便采用深度學(xué)習(xí)方法,也只能精準(zhǔn)識(shí)別有限種類的雜草[18?20]。

      為降低雜草識(shí)別復(fù)雜度,同時(shí)提高雜草識(shí)別精度,本文提出一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的青菜雜草識(shí)別方法。以苗期青菜及其伴生雜草為研究對(duì)象,首先將相機(jī)采集的原始圖像均勻劃分為若干網(wǎng)格圖像,利用深度卷積神經(jīng)網(wǎng)絡(luò)模型識(shí)別出包含青菜的網(wǎng)格圖像,剩余的網(wǎng)格圖像再根據(jù)圖像處理結(jié)果進(jìn)一步區(qū)分為雜草網(wǎng)格和土壤背景網(wǎng)格。

      1 材料與方法

      1.1 圖像采集

      試驗(yàn)圖像分兩批采集自江蘇省南京市棲霞區(qū)某青菜種植園內(nèi)。圖像采集設(shè)備為佳能EOS600D數(shù)碼相機(jī),采用垂直拍攝方式,相機(jī)距離地面約60 cm,圖像分辨率1 792像素×1 344像素,格式為JPEG。為保證神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練樣本的多樣性,采集了不同播種時(shí)間的青菜田,以及晴天、陰天等不同光線狀態(tài)下的樣本實(shí)體。

      1.2 數(shù)據(jù)集劃分

      將原始圖像數(shù)據(jù)切分成網(wǎng)格子圖像,經(jīng)人工分類共計(jì)12 400張。切分后的網(wǎng)格圖像可歸類為4種類別(圖1):僅包含土壤、僅包含青菜、僅包含雜草、既包含青菜又包含雜草。將僅包含青菜和既包含青菜又包含雜草的網(wǎng)格圖像歸類為正樣本(青菜),將僅包含土壤和僅包含雜草的網(wǎng)格圖像歸類為負(fù)樣本(背景)。采用分離驗(yàn)證法,將數(shù)據(jù)樣本按照比例隨機(jī)分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,劃分后訓(xùn)練集青菜和背景網(wǎng)格圖像各5 000張,驗(yàn)證集青菜和背景網(wǎng)格圖像各600張,測(cè)試集樣本數(shù)量同驗(yàn)證集。

      1.3 試驗(yàn)方法

      不同于以往研究中利用神經(jīng)網(wǎng)絡(luò)模型直接識(shí)別雜草,先將圖像進(jìn)行網(wǎng)格劃分,使用神經(jīng)網(wǎng)絡(luò)模型識(shí)別并排除包含青菜的網(wǎng)格圖像,之后,剩余包含雜草以及不包含綠植的土壤背景網(wǎng)格則使用圖像處理方法,根據(jù)顏色特征進(jìn)行區(qū)分,最終實(shí)現(xiàn)圖像中包含雜草區(qū)域的精準(zhǔn)識(shí)別。雜草識(shí)別流程如圖2所示,共分為3個(gè)階段:(1)網(wǎng)格切分。將采集到的青菜田原始數(shù)據(jù)圖像每張按照6行8列均勻切分成48張網(wǎng)格圖像,每張網(wǎng)格圖像的分辨率為224像素×224像素。(2)青菜識(shí)別。訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò)模型,識(shí)別出所有包含青菜的網(wǎng)格圖像。(3)雜草識(shí)別。利用顏色特征識(shí)別出不含綠色像素的土壤背景圖像,剩余網(wǎng)格圖像即為雜草。

      1.4 神經(jīng)網(wǎng)絡(luò)模型

      當(dāng)前目標(biāo)檢測(cè)算法主要基于深度卷積神經(jīng)網(wǎng)絡(luò)(DCNN),分別選取DenseNet模型、RegNet模型和ShuffleNet模型對(duì)網(wǎng)格圖像中的青菜進(jìn)行識(shí)別并分類。DenseNet模型[21]是一種端到端的網(wǎng)絡(luò)模型,其特點(diǎn)是在網(wǎng)絡(luò)層之間引入“密集連接”(Dense Connections),可以大幅減輕梯度消失問題和模型退化現(xiàn)象,增強(qiáng)了信息的傳遞效率。在DenseNet模型中,每個(gè)層都接收所有來自先前層的特征圖作為輸入,并將自己的特征圖發(fā)送到所有后續(xù)層,因此DenseNet模型從頭到尾始終保持高度連接狀態(tài)。RegNet模型[22]由Facebook AI研究團(tuán)隊(duì)提出,其設(shè)計(jì)旨在通過規(guī)律化結(jié)構(gòu),提高模型的泛化性能和可擴(kuò)展性。RegNet模型采用了一種“通道組合”(Channel Grouping)的結(jié)構(gòu),將每個(gè)層中的通道數(shù)分成多個(gè)細(xì)分組,通過在這些細(xì)分組之間進(jìn)行分組卷積,實(shí)現(xiàn)了網(wǎng)絡(luò)的高效并行計(jì)算。ShuffleNet模型[23]是曠視科技設(shè)計(jì)的高效卷積神經(jīng)網(wǎng)絡(luò)模型,其特點(diǎn)是引入了“通道重排”(Channel Shuffling)操作,利用適當(dāng)?shù)木矸e操作和通道交錯(cuò)結(jié)構(gòu)實(shí)現(xiàn)高效的計(jì)算和較低的模型復(fù)雜度,另外,ShuffleNet模型還引入了“組卷積”(Group Convolution)操作,在減少參數(shù)數(shù)量的同時(shí),增加模型可訓(xùn)練性和魯棒性。各模型的默認(rèn)超參設(shè)置如表1所示。

      1.5 評(píng)價(jià)指標(biāo)

      采用精度([precision])、召回率([recall])、[F1]值以及總體準(zhǔn)確率([Overall?accuracy])作為神經(jīng)網(wǎng)絡(luò)模型識(shí)別的評(píng)價(jià)指標(biāo)。[precision]表示正確檢測(cè)出青菜目標(biāo)與預(yù)測(cè)為青菜目標(biāo)的比值,[recall]表示所有青菜目標(biāo)被正確預(yù)測(cè)的比例。

      [precision=TPTP+FP] (1)

      [recall=TPTP+FN] (2)

      式中: [TP]——被正確劃分為正樣本的數(shù)量;

      [FP]——被錯(cuò)誤劃分為正樣本的數(shù)量;

      [FN]——被錯(cuò)誤劃分為負(fù)樣本的數(shù)量。

      [F1]值是圖像分類中基于精度與召回率的綜合評(píng)價(jià)指標(biāo)。計(jì)算方法為取精度與召回率的調(diào)和平均數(shù)。

      [F1=2×precision×recallprecision+recall] (3)

      總體準(zhǔn)確率([Overall?accuracy])是神經(jīng)網(wǎng)絡(luò)模型預(yù)測(cè)正確的數(shù)量與總體數(shù)量之間的比值。

      [Overall?accuracy=TP+TNTP+FP+FN+TN] (4)

      式中: [TN]——被正確劃分為負(fù)樣本的數(shù)量。

      2 試驗(yàn)結(jié)果與分析

      2.1 神經(jīng)網(wǎng)絡(luò)青菜識(shí)別

      神經(jīng)網(wǎng)絡(luò)模型識(shí)別青菜和背景的驗(yàn)證集評(píng)價(jià)數(shù)據(jù)如表2所示。由表2可知,ShuffleNet模型識(shí)別青菜的精度最高(0.983),精度值越高表示其對(duì)青菜的誤識(shí)別率越低。召回率方面,ShuffleNet模型對(duì)于背景的召回率高達(dá)0.983。進(jìn)一步觀察總體準(zhǔn)確率和F1值,所有模型的總體準(zhǔn)確率與F1值都高于0.971,表明深度卷積神經(jīng)網(wǎng)絡(luò)可以很好地區(qū)分青菜與背景。其中,RegNet模型和ShuffleNet模型的總體準(zhǔn)確率和F1值最高,為0.973。

      表3為神經(jīng)網(wǎng)絡(luò)模型在測(cè)試集的評(píng)價(jià)數(shù)據(jù)。相較于驗(yàn)證集的結(jié)果,測(cè)試集的數(shù)據(jù)都略有下降,但各模型的總體準(zhǔn)確率和F1值仍然高于0.964,表明神經(jīng)網(wǎng)絡(luò)模型識(shí)別青菜具有較高的泛化能力。其中,DenseNet模型對(duì)于青菜識(shí)別的總體準(zhǔn)確率為0.970,展現(xiàn)了最佳的識(shí)別效果。

      圖3為DenseNet模型、RegNet模型和ShuffleNet模型在測(cè)試集的混淆矩陣圖??芍?,DenseNet模型和RegNet模型在識(shí)別青菜時(shí),錯(cuò)誤地將24張青菜圖像識(shí)別為背景圖像,且RegNet模型將18張背景圖像誤認(rèn)為青菜圖像。相比較識(shí)別青菜,ShuffleNet模型更善于識(shí)別背景,僅有11張背景圖片被誤識(shí)別為青菜,而青菜被誤識(shí)別為背景的數(shù)量則有31張。

      表4為DenseNet模型、RegNet模型和ShuffleNet模型的識(shí)別速度。識(shí)別速度取測(cè)試集圖像(1 200張)識(shí)別速度的平均值。由于網(wǎng)格圖像為相機(jī)拍攝的原始圖像按照6行8列均勻切分所得(每張?jiān)瓐D劃分為48張網(wǎng)格圖像),因而在計(jì)算識(shí)別速度時(shí)可將批尺寸設(shè)置為48,如此所得數(shù)值即為原始圖像的識(shí)別速度。

      從表4可知,DenseNet模型和RegNet模型的識(shí)別速度相近,處理一張?jiān)紙D像耗時(shí)均低于18.87 ms,相應(yīng)的識(shí)別幀率高于52.99 fps。相較于DenseNet和RegNet模型,ShuffleNet模型展現(xiàn)了最高的識(shí)別效率,其識(shí)別單張圖像僅需14.12 ms,幀率則高達(dá)70.84 fps。該試驗(yàn)數(shù)據(jù)也驗(yàn)證了ShuffleNet模型兼具識(shí)別精度與速度的架構(gòu)特點(diǎn)。通常情況下,幀率高于30 fps即可認(rèn)為具備實(shí)時(shí)圖像處理的能力[26],因而本研究中,所有模型均擁有實(shí)時(shí)青菜識(shí)別的能力。

      2.2 顏色分割

      雜草與青菜顏色相近,但與土壤背景顏色差異較大。神經(jīng)網(wǎng)格模型識(shí)別出包含青菜的網(wǎng)格圖像后,利用顏色分割技術(shù)將僅包含土壤的圖像和僅包含雜草的圖像進(jìn)行區(qū)分,以實(shí)現(xiàn)最終的雜草識(shí)別。青菜和雜草在圖像中呈綠色,土壤呈黃褐色,研究采用Jin等[24]提出的超綠因子對(duì)綠色植物進(jìn)行分割,并在此基礎(chǔ)上進(jìn)行條件式改造,以進(jìn)一步提升圖像分割效果。如式(5)所示,在RGB顏色空間中,青菜和雜草的G(綠色)分量大于R(紅色)分量或B(藍(lán)色)分量,遍歷網(wǎng)格圖像中的每個(gè)像素點(diǎn),首先判斷其G分量是否小于R分量或B分量,若是,則將其像素值置為0(背景),反之,根據(jù)表達(dá)式[-19R+24G-2B>862]進(jìn)行像素值計(jì)算。

      [index=0if(G<R or G<B)-19R+24G-2B>862otherwise] (5)

      圖像處理過程中,由于背景顏色值的影響,分割后的圖像會(huì)存在若干噪點(diǎn)。本研究采用面積濾波對(duì)分割后的圖像進(jìn)行濾波操作以消除噪點(diǎn),提升分割效果。通過計(jì)算并標(biāo)記像素連通區(qū)域,將低于面積閾值的區(qū)域標(biāo)記為噪點(diǎn),并從圖像中移除。

      2.3 雜草識(shí)別應(yīng)用

      自然環(huán)境下,雜草與青菜顏色相似,極易誤識(shí)別。且兩者之間時(shí)有交錯(cuò)生長(zhǎng),難以準(zhǔn)確定位單顆雜草或青菜植株。本研究另辟蹊徑,將原圖劃分為若干與除草執(zhí)行器作業(yè)范圍相同的網(wǎng)格圖像,通過識(shí)別網(wǎng)格圖像是否包含雜草從而實(shí)現(xiàn)雜草識(shí)別。整體應(yīng)用流程與效果如圖4所示。

      將劃分的網(wǎng)格圖像進(jìn)行逐一識(shí)別,每個(gè)網(wǎng)格圖像可分為4種場(chǎng)景:僅包含青菜、僅包含雜草、既包含青菜又包含雜草,以及僅包含土壤。利用神經(jīng)網(wǎng)絡(luò)模型識(shí)別并排除包含青菜的網(wǎng)格圖像(圖4中第1列和第2列網(wǎng)格圖像),剩余包含雜草和僅包含土壤背景的圖像則進(jìn)一步利用顏色分割技術(shù)進(jìn)行區(qū)分。由圖4可知,顏色因子以極佳的效果分割出包含綠色像素(雜草)的目標(biāo)區(qū)域,而僅包含土壤的網(wǎng)格圖像則無任何分割效果。由此,可判定第3列為包含雜草的網(wǎng)格圖像。

      3 討論

      相較于目標(biāo)檢測(cè)網(wǎng)絡(luò),分類神經(jīng)網(wǎng)絡(luò)通常精度更高,識(shí)別速度更快。但后者只能對(duì)圖像進(jìn)行分類,無法判斷目標(biāo)在圖像中的位置。在雜草識(shí)別中,目標(biāo)檢測(cè)網(wǎng)絡(luò)雖能夠識(shí)別出雜草在圖像中的位置,并在目標(biāo)處繪制邊界框(bounding box),然而該識(shí)別方式難以直接集成至除草執(zhí)行系統(tǒng)。雜草大小不一,故邊界框的尺寸亦變化不定,而除草執(zhí)行器的單位除草范圍往往是固定的,需要進(jìn)一步將識(shí)別位置和尺寸與除草執(zhí)行器的工作范圍相匹配。

      本研究使用分類神經(jīng)網(wǎng)絡(luò)識(shí)別青菜和雜草,通過識(shí)別網(wǎng)格圖像從而間接確定青菜和雜草的位置。每張?jiān)瓐D劃分為若干張網(wǎng)格圖像,網(wǎng)格尺寸確定后,其在圖像中的位置可通過計(jì)算獲取。因此,識(shí)別出所有包含雜草的網(wǎng)格圖像等同于識(shí)別出雜草在原圖中的區(qū)域。換而言之,本研究將雜草在原圖中的位置轉(zhuǎn)換為網(wǎng)格圖像在原圖中的位置,而后者的位置為已知信息。除草設(shè)備移動(dòng)到雜草網(wǎng)格位置即可對(duì)該區(qū)域進(jìn)行除草工作。在實(shí)際應(yīng)用中,可根據(jù)除草機(jī)械執(zhí)行器的工作范圍或噴施器的的覆蓋范圍設(shè)置網(wǎng)格圖像尺寸,使得除草執(zhí)行器單次工作范圍為一個(gè)網(wǎng)格區(qū)域的尺寸。

      查看并分析深度卷積神經(jīng)網(wǎng)絡(luò)模型識(shí)別錯(cuò)誤的圖像,當(dāng)青菜或雜草只占圖像極小部分時(shí)(圖5),模型難以正確區(qū)分其歸屬。

      該場(chǎng)景雖降低了青菜的識(shí)別率,但并不會(huì)對(duì)除草應(yīng)用產(chǎn)生較大影響。若青菜被誤識(shí)別為雜草,因其目標(biāo)區(qū)域極小,除草執(zhí)行器不會(huì)對(duì)青菜產(chǎn)生實(shí)質(zhì)傷害;若雜草被誤識(shí)別為青菜,則該區(qū)域的雜草部分會(huì)被忽略,但處于另一網(wǎng)格的雜草主體部分會(huì)被識(shí)別。另外一方面,可通過提高圖像處理時(shí)的面積濾波閾值,以濾除占比較小的青菜和雜草圖像,統(tǒng)一作為無需除草作業(yè)的網(wǎng)格區(qū)域。

      在利用卷積神經(jīng)網(wǎng)絡(luò)模型識(shí)別青菜時(shí),將網(wǎng)格圖像分為青菜和背景兩類。如此,只需訓(xùn)練模型識(shí)別網(wǎng)格圖像中是否包含青菜,青菜之外的目標(biāo)均為背景。即使圖像中包含種類繁多的雜草或背景物,也不會(huì)影響模型識(shí)別青菜的效果。雜草和背景雖形態(tài)多變,但青菜種類唯一,模型僅需專注并正確識(shí)別青菜即可。通過利用神經(jīng)網(wǎng)絡(luò)模型識(shí)別青菜,而非直接識(shí)別雜草,可有效降低識(shí)別雜草的復(fù)雜度,并能夠提升神經(jīng)網(wǎng)絡(luò)模型的識(shí)別穩(wěn)健性。

      按照本研究的方法,若網(wǎng)格圖像中既包含青菜又包含雜草,該圖像會(huì)被識(shí)別為青菜圖像。青菜,尤其是有機(jī)青菜,通常不使用除草劑噴施除草。在實(shí)際應(yīng)用中,若采用機(jī)械除草方式對(duì)該區(qū)域進(jìn)行除草作業(yè)會(huì)傷害作物。因此,可通過多次作業(yè)、拍攝不同位置的原圖使青菜和雜草處于不同網(wǎng)格中,或設(shè)置更小尺寸的網(wǎng)格圖像以實(shí)現(xiàn)更精細(xì)化的識(shí)別。

      4 結(jié)論

      結(jié)合深度卷積神經(jīng)網(wǎng)絡(luò)和圖像處理技術(shù),提出一種聚焦青菜識(shí)別進(jìn)而間接區(qū)分雜草和青菜的識(shí)別方法。試驗(yàn)表明,提出的雜草識(shí)別方法具有高度的可行性和極佳的應(yīng)用效果,且具有降低雜草識(shí)別復(fù)雜度、減少訓(xùn)練樣本庫(kù)成本和增強(qiáng)識(shí)別穩(wěn)健性三方面的優(yōu)勢(shì)。

      1) DenseNet模型、RegNet模型和ShuffleNet模型均能有效區(qū)分青菜和背景目標(biāo)。其中DenseNet模型在測(cè)試集的總體準(zhǔn)確率最高,為97%。

      2) DenseNet模型和RegNet模型的識(shí)別速度相近,處理一張?jiān)紙D像耗時(shí)均低于18.87 ms。ShuffleNet模型的識(shí)別速度最高,單張圖像耗時(shí)14.12 ms,相應(yīng)幀率為70.84 fps。

      參 考 文 獻(xiàn)

      [ 1 ] 莫開孟, 石麗芬. 新時(shí)代背景下我國(guó)蔬菜產(chǎn)業(yè)發(fā)展策略分析[J]. 農(nóng)村科學(xué)實(shí)驗(yàn), 2019(8): 35-36.

      Mo Kaimeng, Shi Lifen. Analysis of the development strategy of China's vegetable industry in the context of the new era [J]. Scientific Experiment in Countryside, 2019(8): 35-36.

      [ 2 ] 強(qiáng)勝. 我國(guó)雜草學(xué)研究現(xiàn)狀及其發(fā)展策略[J]. 植物保護(hù), 2010, 36(4): 1-5.

      Qiang Sheng. Current status and development strategy for weed science in China [J]. Plant Protection, 2010, 36(4): 1-5.

      [ 3 ] Zhang Y, Staab E S, Slaughter D C, et al. Automated weed control in organic row crops using hyperspectral species identification and thermal micro?dosing [J]. Crop Protection, 2012, 41: 96-105.

      [ 4 ] 李香菊. 近年我國(guó)農(nóng)田雜草防控中的突出問題與治理對(duì)策[J]. 植物保護(hù), 2018, 44(5): 77-84.

      Li Xiangju. Main problems and management strategies of weeds in agricultural fields in China in recent years [J]. Plant Protection, 2018, 44(5): 77-84.

      [ 5 ] 毛文華, 張銀橋, 王輝, 等. 雜草信息實(shí)時(shí)獲取技術(shù)與設(shè)備研究進(jìn)展[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2013, 44(1): 190-195.

      Mao Wenhua, Zhang Yinqiao, Wang Hui, et al. Advance techniques and equipments for real?time weed detection [J]. Transactions of the Chinese Society for Agricultural Machinery, 2013, 44(1): 190-195.

      [ 6 ] Saha D, Cregg B M, Sidhu M K. A review of non?chemical weed control practices in Christmas tree production [J]. Forests, 2020, 11(5): 554.

      [ 7 ] Onyango C M, Marchant J A. Segmentation of row crop plants from weeds using colour and morphology [J]. Computers and Electronics in Agriculture, 2003, 39(3): 141-155.

      [ 8 ] Cho S I, Lee D S, Jeong J Y. AE?automation and emerging technologies: Weed?plant discrimination by machine vision and artificial neural network [J]. Biosystems Engineering, 2002, 83(3): 275-280.

      [ 9 ] 陳樹人, 沈?qū)殗?guó), 毛罕平, 等. 基于顏色特征的棉田中鐵莧菜識(shí)別技術(shù)[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2009, 40(5): 149-152.

      Chen Shuren, Shen Baoguo, Mao Hanping, et al. Copperleaf herb detection from cotton field based on color feature [J]. Transactions of the Chinese Society for Agricultural Machinery, 2009, 40(5): 149-152.

      [10] Herrmann I, Shapira U, Kinast S, et al. Ground?level hyperspectral imagery for detecting weeds in wheat fields [J]. Precision Agriculture, 2013, 14: 637-659.

      [11] Nieuwenhuizen A T, Hofstee J W, Van Henten E J. Adaptive detection of volunteer potato plants in sugar beet fields [J]. Precision Agriculture, 2010, 11: 433-447.

      [12] 鄧立苗, 唐俊, 馬文杰. 基于圖像處理的玉米葉片特征提取與識(shí)別系統(tǒng)[J]. 中國(guó)農(nóng)機(jī)化學(xué)報(bào), 2014, 35(6): 72-75.

      Deng Limiao, Tang Jun, Ma Wenjie. Feature extraction and recognition system of maize leaf based on image processing [J]. Journal of Chinese Agricultural Mechanization, 2014, 35(6): 72-75.

      [13] García?Santillán I D, Montalvo M, Guerrero J M, et al. Automatic detection of curved and straight crop rows from images in maize fields [J]. Biosystems Engineering, 2017, 156: 61-79.

      [14] Bakhshipour A, Jafari A, Nassiri S M, et al. Weed segmentation using texture features extracted from wavelet sub?images [J]. Biosystems Engineering, 2017, 157: 1-12.

      [15] Bakhshipour A, Jafari A. Evaluation of support vector machine and artificial neural networks in weed detection using shape features [J]. Computers and Electronics in Agriculture, 2018, 145: 153-160.

      [16] 王璨, 武新慧, 張燕青, 等. 基于移位窗口Transformer網(wǎng)絡(luò)的玉米田間場(chǎng)景下雜草識(shí)別[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2022, 38(15): 133-142.

      Wang Can, Wu Xinhui, Zhang Yanqing, et al. Recognizing weeds in maize fields using shifted window Transformer network [J]. Transactions of the Chinese Society of Agricultural Engineering, 2022, 38(15): 133-142.

      [17] 孫哲, 張春龍, 葛魯鎮(zhèn), 等. 基于Faster R-CNN的田間西蘭花幼苗圖像檢測(cè)方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2019, 50(7): 216-221.

      Sun Zhe, Zhang Chunlong, Ge Luzheng, et al. Image detection method for broccoli seedlings in field based on Faster R-CNN [J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(7): 216-221.

      [18] Hasan A S M M, Sohel F, Diepeveen D, et al. A survey of deep learning techniques for weed detection from images [J]. Computers and Electronics in Agriculture, 2021, 184: 106067.

      [19] Meeradevi, Sindhu N, Monica R M. Machine learning in agriculture application: Algorithms and techniques [J]. International Journal of Innovative Technology and Exploring Engineering, 2020, 9(6): 1140-1146.

      [20] Osorio K, Puerto A, Pedraza C, et al. A deep learning approach for weed detection in lettuce crops using multispecthsjeHXRT9AxLuv0wPZvJ1Q==ral images [J]. AgriEngineering, 2020, 2(3): 471-488.

      [21] Huang G, Liu Z, Van Der Maaten L, et al. Densely connected convolutional networks [C]. Proceeding of the IEEE Conference on Computer Vision and Pattern Recognition, 2017: 4700-4708.

      [22] 林海濤, 鄭群浩, 林嘉儀, 等. 基于RegNet網(wǎng)絡(luò)的巖石圖像模式識(shí)別[J]. 現(xiàn)代信息科技, 2022, 6(14): 63-66.

      [23] Zhang X, Zhou X, Lin M, et al. ShuffleNet: An extremely efficient convolutional neural network for mobile devices [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018: 6848-6856.

      [24] Jin X, Che J, Chen Y. Weed identification using deep learning and image processing in vegetable plantation [J]. IEEE Access, 2021, 9: 10940-10950.

      [25] Lee R B. Realtime MPEG video via software decompression on a PA-RISC processor [C]. Digest of Papers. COMPCON'95. Technologies for the Information Superhighway. IEEE, 1995: 186-192.

      华宁县| 深圳市| 晋江市| 蕉岭县| 唐山市| 拉萨市| 潼南县| 怀安县| 内黄县| 武川县| 鹤壁市| 淅川县| 永泰县| 姚安县| 诸城市| 曲沃县| 北宁市| 三都| 乳源| 仪征市| 长寿区| 保康县| 体育| 大厂| 乌兰县| 通河县| 靖安县| 鄂伦春自治旗| 淮南市| 金塔县| 迭部县| 辉南县| 黄山市| 包头市| 谷城县| 木里| 安远县| 张北县| 金坛市| 朔州市| 视频|