• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于全卷積神經(jīng)網(wǎng)絡(luò)方法的玉米田間雜草識(shí)別

      2022-04-15 23:20:25李彧余心杰郭俊先
      江蘇農(nóng)業(yè)科學(xué) 2022年6期
      關(guān)鍵詞:深度學(xué)習(xí)

      李彧 余心杰 郭俊先

      摘要:雜草是危害農(nóng)業(yè)和林業(yè)生產(chǎn)的三害之一,對(duì)農(nóng)業(yè)生產(chǎn)、生態(tài)環(huán)境、生物多樣性等均會(huì)造成一定的危害。要解決雜草問題首先需要對(duì)雜草實(shí)現(xiàn)高效準(zhǔn)確的識(shí)別,通過拍攝新疆旱地玉米大苗田間圖像構(gòu)建數(shù)據(jù)集,提取玉米苗與雜草2類標(biāo)簽,使用全卷積神經(jīng)網(wǎng)絡(luò)(FCN)準(zhǔn)確地分割2類目標(biāo)實(shí)現(xiàn)雜草識(shí)別。利用圖像翻轉(zhuǎn)、鏡像、對(duì)比度增強(qiáng)、亮度增強(qiáng)等4種增廣方法擴(kuò)增數(shù)據(jù)集,利用遷移學(xué)習(xí)技巧,對(duì)模型采取非初始參數(shù)訓(xùn)練,提升模型識(shí)別準(zhǔn)確率。結(jié)果表明,選擇的U-Net模型識(shí)別效果最佳,能夠有效地克服陰天光照、地膜等因素干擾,實(shí)現(xiàn)雜草的快速準(zhǔn)確識(shí)別,驗(yàn)證集識(shí)別正確率96.13%,能夠滿足雜草識(shí)別的實(shí)際要求。

      關(guān)鍵詞:雜草識(shí)別;全卷積神經(jīng)網(wǎng)絡(luò);深度學(xué)習(xí);語義分割;U-Net模型;VGG

      中圖分類號(hào):S126;TP391.41 ??文獻(xiàn)標(biāo)志碼: A

      文章編號(hào):1002-1302(2022)06-0093-08

      收稿日期:2021-07-07

      基金項(xiàng)目:國(guó)家自然科學(xué)基金面上項(xiàng)目(編號(hào):61367001);新疆維吾爾自治區(qū)研究生教育創(chuàng)新計(jì)劃科研創(chuàng)新項(xiàng)目(編號(hào):XJ2019G165);新疆維吾爾自治區(qū)教育廳自然科學(xué)重點(diǎn)項(xiàng)目(編號(hào):XJEDU2020I009)。

      作者簡(jiǎn)介:李 彧(1995—),男,河北保定人,碩士研究生,研究方向?yàn)檗r(nóng)業(yè)無損檢測(cè)。E-mail:lxy13109995416@163.com。

      通信作者:郭俊先,博士,教授,研究方向?yàn)檗r(nóng)業(yè)無損檢測(cè)。E-mail:junxianguo@163.com。

      廣義上雜草是指各類生長(zhǎng)在不該長(zhǎng)的地方的草本植物。在農(nóng)業(yè)生產(chǎn)中定義的雜草是指生長(zhǎng)在人工栽培的農(nóng)田上,除了目的栽培作物外的所有植物,即在錯(cuò)誤的地方生長(zhǎng)的植物。雜草不僅與作物競(jìng)爭(zhēng)陽(yáng)光、水分和肥料,同時(shí)也擠壓了作物的生存空間[1]。如果不及時(shí)處理,雜草會(huì)阻礙作物生長(zhǎng),導(dǎo)致農(nóng)作物減產(chǎn),損害產(chǎn)品的質(zhì)量,甚至造成農(nóng)作物絕收,給農(nóng)業(yè)經(jīng)濟(jì)帶來極大的危害[2-3]。目前,農(nóng)作物與雜草的識(shí)別方法主要包括人工識(shí)別、遙感識(shí)別、機(jī)器視覺識(shí)別[4]。人工識(shí)別是通過農(nóng)業(yè)從業(yè)人員的主觀認(rèn)知區(qū)分,不僅耗時(shí)費(fèi)力,而且由于人工易疲勞還存在效率不高的限制。遙感識(shí)別使用空間和光譜信息來區(qū)分雜草,克服了人工識(shí)別的許多缺點(diǎn)。然而,由于遙感圖像的分辨率低,不適合用于小塊農(nóng)田的密集雜草[5]。隨著計(jì)算機(jī)技術(shù)的發(fā)展,快速精確的機(jī)器視覺識(shí)別技術(shù)在雜草識(shí)別的應(yīng)用已經(jīng)越來越廣泛,國(guó)內(nèi)外許多學(xué)者進(jìn)行了相關(guān)研究[6-8]。Rojas等將主成分分析(PCA)降維與支持向量機(jī)(SVM)的識(shí)別算法相結(jié)合,以確定蔬菜作物和雜草之間顏色和質(zhì)地的差異,獲得了超過90%的準(zhǔn)確率[9]。張新明等提出了用于識(shí)別玉米和雜草的改進(jìn)的概率神經(jīng)網(wǎng)絡(luò)(PNN)方法,使用次優(yōu)搜索方法構(gòu)造特征向量,在13個(gè)特征中篩選最有效的特征,提高了識(shí)別性能和速度[10]。上述研究都是基于傳統(tǒng)的機(jī)器學(xué)習(xí)方法進(jìn)行分類或識(shí)別雜草。雖然有一定的成果,但特定特征需要被手動(dòng)選擇和校準(zhǔn),存在諸如難以提取和抗干擾能力差的問題,這使得傳統(tǒng)的機(jī)器視覺方法解決雜草問題時(shí)存在適用性較差的缺陷。

      此外,除草的主要方法是大規(guī)模噴灑農(nóng)藥,這不僅破壞了生態(tài)環(huán)境,消耗資源,而且還影響到農(nóng)作物的食品安全[11-15]。隨著智能農(nóng)業(yè)的提出,農(nóng)藥精密噴撒技術(shù)可以有效地控制雜草的增長(zhǎng),實(shí)現(xiàn)農(nóng)藥利用率最大化,降低藥物殘留[16]。雜草的精確識(shí)別為農(nóng)藥精準(zhǔn)噴灑技術(shù)奠定了理論基礎(chǔ),為實(shí)現(xiàn)精確噴撒提供了技術(shù)指導(dǎo)[17]。綜上,有必要研究在復(fù)雜的自然背景中快速、準(zhǔn)確的雜草識(shí)別方法。

      2014年,Longj等提出改造CNN中的全連接層為卷積層,誕生了全卷積神經(jīng)網(wǎng)絡(luò)(fully convolutional networks,簡(jiǎn)稱FCN),是最常見的語義分割神經(jīng)網(wǎng)絡(luò)[18]。同時(shí)反卷積層[19]的使用,讓FCN可以維持圖片的分辨率,保證了輸入圖片與輸出圖片的大小相等。全卷積神經(jīng)網(wǎng)絡(luò)識(shí)別雜草相對(duì)于人工識(shí)別和傳統(tǒng)的機(jī)器視覺識(shí)別具有以下優(yōu)勢(shì):(1)大田作物種植環(huán)境不適合人工作業(yè),由于大田作物種植面積廣,人工難以長(zhǎng)時(shí)間準(zhǔn)確地識(shí)別雜草,利用攝像頭來代替人眼進(jìn)行測(cè)量和判斷,可有效應(yīng)對(duì)需要長(zhǎng)時(shí)間工作的雜草檢測(cè)條件。(2)系統(tǒng)利用FCN的卷積運(yùn)算自動(dòng)分析各個(gè)目標(biāo)特征,提取圖像的目標(biāo)像素分部特征、顏色特征等,擬合這些特征與雜草目標(biāo)之間的相關(guān)性,建立預(yù)測(cè)模型,比較傳統(tǒng)圖像處理算法人工選取長(zhǎng)度、顏色等特征進(jìn)行分割具有更高的準(zhǔn)確性,并且可以有效地克服地膜等遮蓋物的影響。(3)算法依靠Python程序編寫具有較好的移植性。代碼復(fù)雜程度低,無須后續(xù)圖像處理流程從而提高了識(shí)別的快速性、實(shí)時(shí)性。

      基于FCN開展雜草識(shí)別系統(tǒng)研究,利用FCN構(gòu)建雜草識(shí)別模型進(jìn)行單位面積雜草識(shí)別,結(jié)合數(shù)據(jù)集擴(kuò)增技術(shù)與遷移學(xué)習(xí)方法,使模型具有精確檢測(cè)雜草的能力,并克服地膜、水霧等復(fù)雜背景干擾。

      1 雜草識(shí)別系統(tǒng)地構(gòu)建

      1.1 設(shè)計(jì)目標(biāo)

      基于深度學(xué)習(xí)技術(shù),結(jié)合新疆玉米種植的實(shí)際生產(chǎn)情況,在自然光下拍攝玉米大苗期田間作物圖像,組成數(shù)據(jù)集。以實(shí)現(xiàn)雜草快速識(shí)別為目標(biāo),選擇最合適的FCN模型要根據(jù)雜草識(shí)別效果,為后續(xù)雜草精準(zhǔn)防治和清除奠定前期研究成果。

      1.2 系統(tǒng)結(jié)構(gòu)功能設(shè)計(jì)

      在設(shè)計(jì)系統(tǒng)模塊時(shí),將系統(tǒng)劃分為雜草提取、數(shù)據(jù)集構(gòu)建、雜草識(shí)別3個(gè)模塊,圖1展示了每個(gè)模塊的主要功能。

      首先,雜草提取模塊對(duì)原始雜草圖像完成前期標(biāo)注,從圖像中分別標(biāo)注2類標(biāo)簽:雜草、玉米苗。獲得標(biāo)注圖像后,在數(shù)據(jù)集構(gòu)建過程中對(duì)雜草標(biāo)簽圖像進(jìn)行數(shù)據(jù)擴(kuò)充,包括旋轉(zhuǎn)、亮度增強(qiáng)等。數(shù)據(jù)集擴(kuò)充后按照比例劃分訓(xùn)練集與測(cè)試集,用于后續(xù)FCN模型訓(xùn)練。模型構(gòu)建后,各參數(shù)出于初始狀態(tài),需要依靠算法自適應(yīng)調(diào)整參數(shù)使模型的損失函數(shù)曲線(loss)達(dá)到收斂。雜草檢測(cè)模塊利用構(gòu)建的FCN模型實(shí)現(xiàn)雜草識(shí)別。

      1.3 雜草識(shí)別計(jì)數(shù)方法設(shè)計(jì)

      基于FCN方法的雜草系統(tǒng)將雜草檢測(cè)的流程分為雜草提取、數(shù)據(jù)集構(gòu)建、FCN模型構(gòu)建和雜草識(shí)別等4個(gè)部分。具體流程如圖2所示。

      1.3.1 圖像獲取

      玉米種植中棚內(nèi)種植與露天種植的光照條件、觀測(cè)條件等均存在差異,對(duì)雜草進(jìn)行識(shí)別時(shí)需要克服這些干擾,采集不同光照條件下和不同時(shí)間的大田圖像。試驗(yàn)采集圖像數(shù)據(jù)時(shí),單反相機(jī)需垂直于地面(圖3),調(diào)焦至圖像清晰后進(jìn)行拍攝或錄制(錄制需后期截圖)。將單反相機(jī)拍攝的每張?jiān)紙D像裁剪為320像素×320像素的小幅圖像,方便后期模型處理。針對(duì)采集大田圖像,采用人工方式手動(dòng)分割雜草、玉米苗2類標(biāo)簽。選取特征區(qū)域制備標(biāo)簽圖。

      1.3.2 遷移學(xué)習(xí)

      在實(shí)際試驗(yàn)中,在訓(xùn)練深層神經(jīng)網(wǎng)絡(luò)時(shí)通常是不會(huì)以原始節(jié)點(diǎn)開始訓(xùn)練的。原因有二:(1)深層網(wǎng)絡(luò)一般會(huì)配套一個(gè)數(shù)據(jù)量較大的不容易訓(xùn)練的數(shù)據(jù)集;(2)從原始節(jié)點(diǎn)訓(xùn)練網(wǎng)絡(luò)調(diào)參工作復(fù)雜,模型不容易收斂,拉長(zhǎng)了模型訓(xùn)練時(shí)間。通過研究相關(guān)文獻(xiàn),先導(dǎo)入其他識(shí)別模型的權(quán)重然后開始訓(xùn)練,模型更容易且更快收斂,即遷移學(xué)習(xí)[20]。在訓(xùn)練雜草識(shí)別模型前,用已經(jīng)過CIFAR-10數(shù)據(jù)集訓(xùn)練的模型參數(shù)作為初始參數(shù)訓(xùn)練FCN模型,從而避免了隨機(jī)參數(shù)作為初始參數(shù)傳遞更新??梢源蟠罂s短培訓(xùn)時(shí)間,也可以彌補(bǔ)數(shù)據(jù)不足帶來的影響。

      1.3.3 數(shù)據(jù)集增強(qiáng)

      數(shù)據(jù)集的建立包括數(shù)據(jù)集的擴(kuò)展和劃分。樣本數(shù)據(jù)量是深度學(xué)習(xí)中的關(guān)鍵因素,在訓(xùn)練數(shù)據(jù)只有少量樣本可用時(shí),數(shù)據(jù)增強(qiáng)是FCN的常用方法[21]。參考相關(guān)文獻(xiàn)使用的增強(qiáng)方法后,利用Keras的內(nèi)置ImageDataGenerator實(shí)現(xiàn)圖像增廣:對(duì)原始圖像亮度增強(qiáng)、對(duì)比度增強(qiáng)、旋轉(zhuǎn)角度和翻轉(zhuǎn)圖像等4種處理。這種擴(kuò)展不僅可以提高分類效果,而且提高了模型的泛化能力。

      研究中使用的亮度調(diào)節(jié)和對(duì)比度調(diào)節(jié)方法的數(shù)學(xué)原理如公式(1)所示:

      g(x)=αf(x)+β。(1)

      通常將參數(shù)α>0和β稱為增益和偏置參數(shù),分別控制對(duì)比度和亮度。假定f(x)作為源圖像像素,g(x)輸出圖像像素,上述公式更改為式(2):

      g(i,j)=αf(i,j)+β。(2)

      式中:i、j分別表示像素位于第i行和第j列。

      將原始圖像翻轉(zhuǎn)到一定角度以獲得新圖像。從數(shù)學(xué)原理上,這種轉(zhuǎn)換表示見公式(3)。

      通常認(rèn)為,圖像應(yīng)該繞中心點(diǎn)旋轉(zhuǎn),但圖像的原點(diǎn)在左上角。計(jì)算時(shí),首先將左上角的原點(diǎn)移動(dòng)到圖像的中心。假設(shè)一個(gè)點(diǎn)(X0,Y0),圖像寬度為W,高度為H,原點(diǎn)變換后的點(diǎn)為(X1,Y1),變換如下:

      [X1 Y1 1]=[X0 Y0 1]1000-10-0.5W0.5H1。(3)

      圖像旋轉(zhuǎn)角度為θ,(X1,Y1)經(jīng)旋轉(zhuǎn)θ后換為(X2,Y2),公式(4)如下:

      [X2 Y2 1]=[X1 Y1 1]cosθ-sinθ0sinθcosθ0001。(4)

      旋轉(zhuǎn)后的圖像的寬度為W′,高度為H′,則從笛卡兒原點(diǎn)轉(zhuǎn)換回左上角的公式(5)如下:

      [X3 Y3 1]=[X2 Y2 1]1000-100.5W′0.5H′1。(5)

      于是,可以通過公式(6)將原始圖像的點(diǎn)轉(zhuǎn)換為旋轉(zhuǎn)后的點(diǎn)。

      [X3 Y3 1]=[X0 Y0 1]1000-10-0.5W′0.5H′1

      cosθ-sinθ0sinθcosθ0001

      1000-100.5W′0.5H′1。(6)

      公式(3)鏡像原始圖像以獲得新圖像。在數(shù)學(xué)原理上,此轉(zhuǎn)換表示為公式(7)。

      與翻轉(zhuǎn)原理類似,假設(shè)原始圖像的高度為H,寬度為W,水平鏡像變換后,原始圖像中像素點(diǎn) P(x0,y0) 變?yōu)樾碌膱D像坐標(biāo)P′(W-x0,y0)。如果用 (x0,y0) 表示原始圖像的坐標(biāo),水平鏡像變換后圖像的坐標(biāo)為(x1,y1),則兩者之間的關(guān)系可以表示為:

      x1y11=-10W010001y0x01。(7)

      擴(kuò)展圖像的示例在圖4中顯示。原始圖像數(shù)據(jù)集共有3 600張可用圖像,通過該數(shù)據(jù)集擴(kuò)展方法后共有14 400張圖像。數(shù)據(jù)集增廣后,按照4 ∶1比例組成訓(xùn)練集與測(cè)試集。

      1.3.4 FCN識(shí)別模型

      當(dāng)FCN模型開始訓(xùn)練,輸入層經(jīng)過卷積的多次迭代和池化層降參,提取雜草特征,降噪并減小參數(shù)量,整個(gè)過程為向前傳播。與此同時(shí),在驗(yàn)證組的圖像將反向傳播調(diào)整FCN模型權(quán)重和偏置參數(shù),根據(jù)識(shí)別準(zhǔn)確率不斷優(yōu)化現(xiàn)有網(wǎng)絡(luò)模型。自動(dòng)修正FCN模型識(shí)別雜草正確率。反卷積層將數(shù)據(jù)恢復(fù)成與輸入圖像大小相同的識(shí)別圖像輸出。

      FCN模型大多基于VGG-16結(jié)構(gòu)設(shè)計(jì)。VGG(visual geometry group)是由牛津大學(xué)科研團(tuán)隊(duì)[22]提出并改進(jìn)的一種CNN模型。該團(tuán)隊(duì)提出了多種深度CNN網(wǎng)絡(luò)結(jié)構(gòu),其中之一被提交ImageNet大視覺識(shí)別挑戰(zhàn)(ILSVRC)—2013,因?yàn)樵撃P陀?3卷積層和3個(gè)全連接層。所以也稱為VGG-16。一經(jīng)問世它就立刻成為流行網(wǎng)絡(luò),其的TOP-5測(cè)試精度高達(dá)92.7%。圖5顯示了VGG-16的結(jié)構(gòu)。VGG-16和它的前輩結(jié)構(gòu)之間的主要區(qū)別在于,第1層使用一組具有小的感受域的卷積層,而不是具有大的感受域的卷積核。這樣設(shè)計(jì)可以使用更少的參數(shù)和多個(gè)非線性層,使得決策函數(shù)更有辨別力,同時(shí)使模型更容易收斂。

      U-Net是經(jīng)典的全卷積神經(jīng)網(wǎng)絡(luò)的一種變型,其結(jié)構(gòu)類似于字母U,因此得名U-Net[23]。整個(gè)U形網(wǎng)神經(jīng)網(wǎng)絡(luò)主要由2個(gè)部分組成:搜索路徑和擴(kuò)展路徑。搜索路徑主要用于捕獲在圖片中的上下文信息,相對(duì)稱延伸路徑是準(zhǔn)確地定位圖片被分割的部分。隨著神經(jīng)網(wǎng)絡(luò)深度的不斷增加,訓(xùn)練的結(jié)構(gòu)越發(fā)復(fù)雜,這需要大量的樣本和計(jì)算資源。U-Net 誕生的一個(gè)主要原因是可以對(duì)一些比較少的樣本數(shù)據(jù)進(jìn)行訓(xùn)練。U-Net基于傳統(tǒng)的FCN進(jìn)行改進(jìn),并且利用數(shù)據(jù)增強(qiáng),該模型在醫(yī)學(xué)圖像識(shí)別中有廣泛應(yīng)用,圖6為U-Net模型結(jié)構(gòu)。

      基于以上分析,研究嘗試多種FCN模型,基本結(jié)構(gòu)如圖7所示。經(jīng)過多次卷積操作,F(xiàn)CN會(huì)將圖像展開,充分獲取特征。卷積運(yùn)算部分共設(shè)立4個(gè)池化層,由于卷積操作會(huì)使圖像數(shù)據(jù)量呈現(xiàn)指數(shù)級(jí)增長(zhǎng),給計(jì)算機(jī)運(yùn)算過程造成極大負(fù)擔(dān),池化又稱降采樣過程,通過一定規(guī)則(取平均值或最大值),縮小矩陣規(guī)模,實(shí)現(xiàn)解決計(jì)算成本。通過4次降采樣可以大大降低網(wǎng)絡(luò)結(jié)構(gòu)中的權(quán)重參數(shù)數(shù)量。設(shè)置丟棄層臨時(shí)凍結(jié)一半卷積核,從而抑制過擬合現(xiàn)象。設(shè)置分類函數(shù),通過Softmax函數(shù)實(shí)現(xiàn)雜草與玉米幼苗的語義分割。

      2 結(jié)果與分析

      2.1 硬件需求

      由Python 3.6.5編程實(shí)現(xiàn)基于卷積神經(jīng)網(wǎng)絡(luò)的雜草識(shí)別模型構(gòu)建,計(jì)算機(jī)硬件配置為Inteli 5處理器,8 GB內(nèi)存,NVIDIA RTX 2060(6 GB顯存)。所有的FCN模型訓(xùn)練參數(shù)設(shè)置如下:批處理Batch Size參數(shù)為64,權(quán)重參數(shù)初始學(xué)習(xí)速率為0.001,動(dòng)量因子設(shè)置為0.9,使用L2正則化,正則化參數(shù)λ=0.000 5。

      2.2 雜草提取

      田間采集的原始圖像數(shù)據(jù)包含73幅原始大田圖像。圖像數(shù)據(jù)采集于新疆農(nóng)業(yè)科學(xué)院綜合試驗(yàn)場(chǎng)種植基地。采集時(shí)間為2019年5月20日 09:30—13:00,天氣陰,光照度相對(duì)較低。原始圖像尺寸為4 496像素×3 000像素,雜草種類較單一,主要為旱作物田間常見的藜(灰灰菜),部分雜草圖像如圖8所示。

      將原始圖像裁剪為多張小幅圖像后,剔除無目標(biāo)的空?qǐng)D與模糊圖像。標(biāo)簽提取方法如圖9所示,圖像導(dǎo)入后,圖像標(biāo)注軟件為labelme,軟件會(huì)用不同顏色填充雜草、玉米苗2類標(biāo)簽圖像。預(yù)先設(shè)定images_prepped_test文件夾與annotations_prepped_test文件夾,分別保存所提取的2類標(biāo)簽圖像,標(biāo)注圖像與原圖編號(hào)一一對(duì)應(yīng)[24]。

      2.3 數(shù)據(jù)集構(gòu)建

      提高FCN最后識(shí)別精度的通用方法就是增加輸入數(shù)據(jù),因此應(yīng)盡力豐富數(shù)據(jù)集[25]。采用亮度增強(qiáng)、對(duì)比度增強(qiáng)、方向翻轉(zhuǎn)以及鏡像等方式對(duì)數(shù)據(jù)集進(jìn)行擴(kuò)充。

      在剔除一些低質(zhì)量的無目標(biāo)圖像后本試驗(yàn)數(shù)據(jù)集共6 640張目標(biāo)圖片,數(shù)據(jù)集分組編成訓(xùn)練集、驗(yàn)證集和測(cè)試集。原圖與對(duì)應(yīng)的標(biāo)注圖按照3 ∶1比例組成訓(xùn)練集與測(cè)試集。訓(xùn)練集圖像儲(chǔ)存于 data_images_prepped_train 文件夾,對(duì)應(yīng)標(biāo)簽圖儲(chǔ)存在data_annotations_prepped_train文件夾中。

      2.4 FCN模型構(gòu)建

      在Keras封裝函數(shù)中選擇covn_base=keras.applications.VGG16(weights,include_top),設(shè)置weight=imagenet,由于使用了遷移學(xué)習(xí)技巧,將include_top=False,不引入內(nèi)置分類器。模型損失函數(shù)選擇crossentropy,其計(jì)算公式為:

      L[fω(X),Y]=-1N∑Ni=1yilogfω(xi)。

      式中:yi表示期望輸出;Xi表示原始的實(shí)際輸出;N表示樣本總數(shù)。利用函數(shù)softmax對(duì)雜草與玉米苗目標(biāo)分類,公式為

      yi=exi∑Ck=1exk。

      式中:C為通道數(shù);xi為模型輸出的某個(gè)像素的值;yi為該像素對(duì)應(yīng)的預(yù)測(cè)概率。損失函數(shù)優(yōu)化器采用隨機(jī)梯度下降法。

      mt+1=ρ·mr+Δω;

      ωt+1=ωt-lr·mt+1。

      式中:mt為當(dāng)前動(dòng)量;mt+1為更新后的動(dòng)量;ωt為當(dāng)前參數(shù);ωt+1為更新后的參數(shù);Δω為反向傳播得到的梯度;ρ為取值0到1之間的權(quán)重參數(shù);lr為更新的步長(zhǎng),一般取值在0到1之間。

      訓(xùn)練階段,預(yù)測(cè)后的圖像會(huì)在像素級(jí)別實(shí)現(xiàn)分類,上色功能由Opencv實(shí)現(xiàn),COLORS=np.random.randint(0,255,size=(len(CLASSES)-1,3)與dtype=“uint8”),COLORS=np.vs tack([[0,0,0],COLORS]).astype(“uint8”),將各類目標(biāo)用隨機(jī)顏色填充(圖10)。

      2.5 模型測(cè)試結(jié)果

      系統(tǒng)采用梯度下降算法(SGD)作為模型優(yōu)化器對(duì)FCN進(jìn)行訓(xùn)練。模型訓(xùn)練完成后,系統(tǒng)將驗(yàn)證識(shí)別正確率顯示在線形圖中。玉米田大苗雜草數(shù)據(jù)測(cè)試集共900張圖片,包含玉米苗圖像、雜草圖像與二者混合圖像分別測(cè)試3種網(wǎng)絡(luò)模型,得到玉米大苗期雜草識(shí)別結(jié)果如表1所示。

      經(jīng)過1 000個(gè)epoch訓(xùn)練模型的訓(xùn)練集的損失函數(shù)與準(zhǔn)確率曲線已然收斂,從測(cè)試集的結(jié)果來看,U-Net模型在驗(yàn)證集上的識(shí)別準(zhǔn)確率達(dá)到了96.13%。在陰天場(chǎng)景與地膜等遮擋物的影響下達(dá)到了較高的雜草識(shí)別效果,模型相關(guān)的損失函數(shù)曲線與正確率、交并比圖像如圖11所示。

      由圖12可知,本研究所構(gòu)建的雜草識(shí)別模型對(duì)于陰天和地膜影響下的雜草識(shí)別效果良好,與人眼主觀判斷一致。

      由表1可知,測(cè)試的3種網(wǎng)絡(luò)模型中,U-Net表現(xiàn)性能較好,對(duì)測(cè)試的玉米大苗期雜草正確識(shí)別率達(dá)96.13%。由于U-Net網(wǎng)絡(luò)被廣泛應(yīng)用于醫(yī)學(xué)領(lǐng)域,并且其結(jié)構(gòu)中的跳躍結(jié)構(gòu)可以使分割邊緣更平滑,故而有較好的識(shí)別準(zhǔn)確率。FCN-8s模型識(shí)別邊緣模糊,不利于后續(xù)進(jìn)一步研究,且正確率略低。有研究學(xué)者曾使用更深層的神經(jīng)網(wǎng)絡(luò)進(jìn)行識(shí)別研究,如Deeplab等,但由于樣本豐富度與FCN模型的參數(shù)微調(diào)效果息息相關(guān),雜草數(shù)據(jù)集樣本數(shù)量短時(shí)間內(nèi)難以擴(kuò)大,同時(shí)隨著數(shù)據(jù)的擴(kuò)大,硬件條件又會(huì)有所限制,F(xiàn)CN模型訓(xùn)練的關(guān)鍵是使模型參數(shù)量有足夠的數(shù)據(jù)來微調(diào)。盲目增加模型深度,本研究中有限的數(shù)據(jù)樣本可能導(dǎo)致模型過擬合。由于采集的玉米大苗期雜草樣本圖像有限,深度進(jìn)一步加深的FCN模型,如Deeplab等,兩者之間反而不能很好匹配。

      參考文獻(xiàn):

      [1]黃紅娟,張朝賢,姜翠蘭,等. 北疆棉田雜草多樣性及群落組成[J]. 雜草學(xué)報(bào),2020,38(1):7-13.

      [2]付瑞霞,王俊平,董立堯. 防除稻麥連作小麥田主要雜草的高活性除草劑室內(nèi)篩選[J]. 雜草學(xué)報(bào),2020,38(1):68-73.

      [3]郭云忠,胡 杰,李思娟,等. 陜西關(guān)中灌區(qū)麥田雜草發(fā)生規(guī)律及防治指標(biāo)[J]. 雜草學(xué)報(bào),2021,39(1):38-42.

      [4]毛文華,王一鳴,張小超,等. 基于機(jī)器視覺的田間雜草識(shí)別技術(shù)研究進(jìn)展[J]. 農(nóng)業(yè)工程學(xué)報(bào),2004,20(5):43-46.

      [5]顏秉忠. 機(jī)器視覺技術(shù)在玉米苗期雜草識(shí)別中的應(yīng)用[J]. 農(nóng)機(jī)化研究,2018,40(3):212-216.

      [6]Lottes P,Hrferlin M,Sander S,et al. Effective vision-based classification for separating sugar beets and weeds for precision farming[J]. Journal of Field Robotics,2017,34(6):1160-1178.

      [7]Peteinatos G? G,Reichel P,Karouta J,et al. Weed identification in maize,sunflower,and potatoes with the aid of convolutional neural networks[J]. Remote Sensing.2020,12(24):4185-4185

      [8]Wang Z B,Li H L,Zhu Y,et al. Review of plant identification based on image processing[J]. Archives of Computational Methods in Engineering,2017,24(3):637-654.

      [9]Rojas C P,Guzmán L S,Toledo N F V. Weed recognition by SVM texture feature classification in outdoor vegetable crops images[J]. Ingeniería e Investigación,2017,37(1):68.

      [10]張新明,涂 強(qiáng),馮夢(mèng)清. 基于改進(jìn)概率神經(jīng)網(wǎng)絡(luò)的玉米與雜草識(shí)別[J]. 山西大學(xué)學(xué)報(bào)(自然科學(xué)版),2015,38(3):432-438.

      [11]袁洪波,趙努東,程 曼. 基于圖像處理的田間雜草識(shí)別研究進(jìn)展與展望[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2020,51(增刊2):323-334.

      [12]齊秀杰. 探討水稻病蟲害防治技術(shù)與對(duì)策[J]. 農(nóng)民致富之友,2019(5):66.

      [13]鄭加強(qiáng),徐幼林. 環(huán)境友好型農(nóng)藥噴施機(jī)械研究進(jìn)展與展望[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2021,52(3):1-16.

      [14]寇思榮. 甘肅省玉米產(chǎn)業(yè)現(xiàn)狀及玉米育種方向探討[J]. 甘肅科技,2018,34(4):6-8.

      [15]高立強(qiáng),楊家榮,張彥龍,等. 幾種除草劑減量施用防除玉米田雜草的效果[J]. 雜草學(xué)報(bào),2020,38(4):31-38.

      [16]齊 飛,朱 明,周新群,等. 農(nóng)業(yè)工程與中國(guó)農(nóng)業(yè)現(xiàn)代化相互關(guān)系分析[J]. 農(nóng)業(yè)工程學(xué)報(bào),2015,31(1):1-10.

      [17]劉金浩,王春燕,王宇航,等. 帶農(nóng)作物識(shí)別功能的無人機(jī)農(nóng)藥噴灑系統(tǒng)的研究[J]. 農(nóng)業(yè)災(zāi)害研究,2020,10(7):185-186.

      [18]Shelhamer E,Long J,Darrell T.Fully convolutional networks for semantic segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(4):640-651.

      [19]Zeiler M D,Taylor G W,F(xiàn)ergus R.Adaptive deconvolutional networks for mid and high level feature learning[C]//2011 International Conference on Computer Vision,November 6-13,2011,Barcelona:IEEE,2011:2018-2025.

      [20]Mane D T,Kulkarni U V. Visualizing and understanding customized convolutional neural network for recognition of handwritten marathi numerals[J]. Procedia Computer Science,2018,132:1123-1137.

      [21]Chollet F. Deep learning with Python[M]. 張 亮,譯. 北京:人民郵電出版社,2018:110-111.

      [22]Simonyan K,Zisserman A.Very deep convolutional networks for large-scale image recognition[J]. Computer Science,2014,36(v1):1409-1425.

      [23]Dolz J,Ben Ayed I,Desrosiers C.Dense multi-path U-net for ischemic stroke lesion segmentation in multiple image modalities[M]//Brainlesion:glioma,multiple sclerosis,stroke and traumatic brain injuries. Cham:Springer International Publishing,2019:271-282.

      [24]余心杰,王 昊,李 彧,等. 一種基于全卷積神經(jīng)網(wǎng)絡(luò)的對(duì)蝦養(yǎng)殖殘餌計(jì)數(shù)方法:CN110826592A[P]. 2020-02-21.

      [25]王 琛,徐維超. 人臉識(shí)別準(zhǔn)確率與圖像參數(shù)關(guān)系比較分析[J]. 電子世界,2019(5):89-91.

      猜你喜歡
      深度學(xué)習(xí)
      從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
      面向大數(shù)據(jù)遠(yuǎn)程開放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
      基于自動(dòng)智能分類器的圖書館亂架圖書檢測(cè)
      搭建深度學(xué)習(xí)的三級(jí)階梯
      有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
      電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
      利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
      考試周刊(2016年94期)2016-12-12 12:15:04
      MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
      大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
      深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
      商水县| 重庆市| 大埔县| 堆龙德庆县| 赤峰市| 天柱县| 措勤县| 凤凰县| 铁力市| 玛纳斯县| 永平县| 香格里拉县| 崇义县| 革吉县| 平定县| 兰考县| 江安县| 绥中县| 渝北区| 高碑店市| 桐柏县| 盐源县| 孝义市| 诸城市| 开阳县| 台北县| 海伦市| 德安县| 梧州市| 万载县| 乡宁县| 太仓市| 新乡县| 盐亭县| 德昌县| 乌拉特后旗| 嘉鱼县| 庆云县| 安福县| 积石山| 韶关市|