• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      Ghost-MobileNet v2:一種輕量級玉米田雜草識別新模型

      2024-12-31 00:00:00許爽楊樂劉婷
      江蘇農(nóng)業(yè)科學(xué) 2024年20期
      關(guān)鍵詞:注意力機(jī)制雜草深度學(xué)習(xí)

      doi:10.15889/j.issn.1002-1302.2024.20.021

      摘要:農(nóng)田雜草種類繁多、生命力強(qiáng)、危害作物的各個(gè)生長周期,對現(xiàn)代化農(nóng)業(yè)生產(chǎn)依舊具有極大的影響。為了協(xié)助農(nóng)業(yè)生產(chǎn)中的雜草防治工作,對雜草準(zhǔn)確、無損、高效識別,將深度學(xué)習(xí)與農(nóng)業(yè)結(jié)合,利用深度學(xué)習(xí)技術(shù)對玉米田中的雜草進(jìn)行識別和分類,從而為玉米田雜草治理提供技術(shù)支持。針對經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)計(jì)算量大、準(zhǔn)確率低、訓(xùn)練時(shí)間長等問題,提出了一種基于MobileNet v2輕量級網(wǎng)絡(luò)的玉米田雜草識別新模型Ghost-MobileNet v2。該模型以MobileNet v2為基礎(chǔ),加入Ghost模塊強(qiáng)化信息流動、提升特征表達(dá)能力;再加入SE-CBAM注意力機(jī)制,該注意力機(jī)制由SE注意力機(jī)制和CBAM注意力機(jī)制并聯(lián)組合而成,在通道和空間2個(gè)維度上綜合考慮特征的重要性,更全面地捕捉圖像特征,從而提升網(wǎng)絡(luò)的表達(dá)能力和泛化能力。試驗(yàn)結(jié)果表明,與其他經(jīng)典的模型和先進(jìn)的多尺度模型相比,Ghost-MobileNet v2對玉米田雜草有更好的分類效果,平均準(zhǔn)確率達(dá)到了99.00%,高于原模型的97.58%。通過精確率、召回率、F1分?jǐn)?shù)等3個(gè)評價(jià)指標(biāo),得出Ghost-MobileNet v2具有魯棒性好、穩(wěn)定性高、識別率高等特點(diǎn),將該網(wǎng)絡(luò)與現(xiàn)實(shí)農(nóng)業(yè)生產(chǎn)中玉米田雜草防治工作相結(jié)合,可以有效地提高工作效率。

      關(guān)鍵詞:深度學(xué)習(xí);玉米;雜草;Ghost-MobileNet v2;注意力機(jī)制

      中圖分類號:S126;TP391.41" 文獻(xiàn)標(biāo)志碼:A

      文章編號:1002-1302(2024)20-0173-08

      收稿日期:2023-12-16

      基金項(xiàng)目:國家自然科學(xué)基金(編號:61862032);江西省自然科學(xué)基金(編號:20202BABL202034)。

      作者簡介:許" 爽(1998—),男,湖北孝感人,碩士研究生,主要從事農(nóng)業(yè)信息技術(shù)研究。E-mail:1078828268@qq.com。

      通信作者:楊" 樂,碩士,副教授,碩士生導(dǎo)師,主要從事農(nóng)業(yè)信息技術(shù)、深度學(xué)習(xí)等研究。E-mail:jxnzhyangle@163.com。

      我國是世界上人口最多的國家之一,對農(nóng)產(chǎn)品需求量大,農(nóng)業(yè)是我國的基礎(chǔ)產(chǎn)業(yè),農(nóng)業(yè)的發(fā)展會影響到生活的各個(gè)方面。玉米是世界三大糧食作物之一,種植面積和產(chǎn)量均居世界前列,玉米的種植對全球糧食安全具有重大意義,玉米田雜草一直以來對玉米的產(chǎn)量和質(zhì)量有著不可小覷的影響,確保玉米生產(chǎn)高質(zhì)量和高產(chǎn)量是一項(xiàng)艱巨的任務(wù)。

      圖像識別技術(shù)在農(nóng)業(yè)生產(chǎn)過程中已有非常廣泛的應(yīng)用,特別是在農(nóng)業(yè)病蟲害防治、農(nóng)作物識別、農(nóng)田雜草識別等方面。將深度學(xué)習(xí)技術(shù)用在雜草防治工作中不僅可以提高工作效率,而且有助于保護(hù)農(nóng)田環(huán)境,計(jì)算機(jī)與農(nóng)業(yè)相結(jié)合已成為一條必然之路,雜草圖像識別技術(shù)在農(nóng)業(yè)應(yīng)用中展現(xiàn)出巨大的應(yīng)用前景和價(jià)值[1-11]。彭文等利用深度卷積神經(jīng)網(wǎng)絡(luò)對6種水稻雜草進(jìn)行識別,平均F值高達(dá)0.954[12]。鄧向武等運(yùn)用遷移學(xué)習(xí)與CNN相結(jié)合的方法,對6種稻田苗期雜草進(jìn)行識別,在AlexNet、VGG16和GoogLeNet上識別準(zhǔn)確率分別達(dá)到了96.40%、97.48%和91.01%[13]。Xu等提出了一種基于深度轉(zhuǎn)移學(xué)習(xí)的深度可分離卷積神經(jīng)網(wǎng)絡(luò)雜草識別方法,該模型對9種雜草的識別準(zhǔn)確率達(dá)到99.63%[14]。2023年,姚思雨等在CNN模型中添加Dropout層,對棉花植株和雜草的分類準(zhǔn)確率超過99.95%[15]。當(dāng)前的雜草圖像數(shù)據(jù)集規(guī)模較小,圖像質(zhì)量參差不齊,這將嚴(yán)重限制網(wǎng)絡(luò)模型訓(xùn)練的效果,導(dǎo)致識別準(zhǔn)確率較低。對于一些參數(shù)量較大的模型,即使對雜草識別有很高的準(zhǔn)確率,但是不利于嵌入到移動設(shè)備中,難以運(yùn)用到實(shí)際生產(chǎn)中的雜草防治工作。采用輕量級卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行雜草圖像識別,相比傳統(tǒng)的大型網(wǎng)絡(luò)模型具有明顯的優(yōu)勢。輕量級網(wǎng)絡(luò)參數(shù)量少,計(jì)算量小,更易于在嵌入式和移動設(shè)備上部署,可以實(shí)現(xiàn)實(shí)時(shí)的雜草識別。2022年,陳啟等以ResNet50和MobileNet v3 Large模型為基礎(chǔ),構(gòu)建出一個(gè)輕量級網(wǎng)絡(luò),在模型大小變化不大的情況下,識別準(zhǔn)確率提升1.2百分點(diǎn)[16]。

      本研究以玉米田雜草為主要研究對象,通過多組試驗(yàn),構(gòu)建出高效、可靠、準(zhǔn)確率高且具有泛化能力的新型卷積神經(jīng)網(wǎng)絡(luò)Ghost-MobileNet v2,該網(wǎng)絡(luò)將MobileNet v2網(wǎng)絡(luò)、Ghost模塊以及SE-CBAM注意力機(jī)制融合在一起。Ghost模塊自提出以來被廣泛運(yùn)用于各個(gè)深度學(xué)習(xí)網(wǎng)絡(luò)中,是一個(gè)高效且可以即插即用的模塊,能增強(qiáng)網(wǎng)絡(luò)的表達(dá)能力;SE注意力機(jī)制和CBAM注意力機(jī)制被大量用于圖像分類、目標(biāo)檢測等網(wǎng)絡(luò)中[17-23]。本研究提出的模型與現(xiàn)有模型相比,該模型有以下3個(gè)主要貢獻(xiàn):提出一種用于農(nóng)作物雜草識別的新型輕量級網(wǎng)絡(luò)Ghost-MobileNet v2。在MobileNet v2中加入SE-CBAM注意力機(jī)制,將SE注意力機(jī)制和CBAM注意力機(jī)制并聯(lián)組合,更全面地在通道和空間2個(gè)維度上提取圖像特征,提高網(wǎng)絡(luò)的表達(dá)能力。使用3個(gè)Ghost模塊來替換MobileNet v2網(wǎng)絡(luò)中的第2個(gè)倒殘差塊,使網(wǎng)絡(luò)利用較少的特征生成大量的特征圖,減少訓(xùn)練時(shí)間,提高準(zhǔn)確率。

      1" 材料與方法

      1.1" 圖像收集

      通過互聯(lián)網(wǎng)搜索、收集到一些玉米幼苗和玉米田雜草圖像,并通過專家鑒定以及人工篩選,處理后共計(jì)得到6 000張圖片,其中包括1種玉米幼苗和4種玉米田雜草圖片,每種1 200張圖片,雜草類別分別為早熟禾、灰菜、刺兒草、莎草,部分圖片樣本如圖1所示。

      1.2" 模型構(gòu)建

      1.2.1" MobileNet v2

      MobileNet v2是由Google團(tuán)隊(duì)在2018年提出的,相比于MobileNet v1其準(zhǔn)確率更高,模型更小,該網(wǎng)絡(luò)的優(yōu)點(diǎn)在于使用了大量倒殘差塊和線性瓶頸層,與Resnet網(wǎng)絡(luò)中的殘差結(jié)構(gòu)不同的是,在 MobileNet v2 中,先對輸入到網(wǎng)絡(luò)中的特征進(jìn)行升維再降維,將3×3卷積替換為3×3深度可分離卷積,并且只有當(dāng)步距為1且輸入特征矩陣與輸出特征矩陣相同的時(shí)候才有短接連接[24-25]。使用線性瓶頸層可以使網(wǎng)絡(luò)在大幅減少參數(shù)量和計(jì)算量的同時(shí)能夠保持準(zhǔn)確率,非常適合移動和邊緣場景,倒殘差塊的結(jié)構(gòu)如圖2所示。

      1.2.2" Ghost模塊

      Ghost模塊是一種模型壓縮模塊,常用于輕量級卷積神經(jīng)網(wǎng)絡(luò)中,可以用較少的特征生成大量的特征圖,在模型參數(shù)沒有明顯變化的同時(shí)可以提高模型的準(zhǔn)確率,增強(qiáng)特征表達(dá)能力,減少網(wǎng)絡(luò)的訓(xùn)練時(shí)間,且模塊結(jié)構(gòu)簡單,如圖3所示,第一步使用較小的卷積核進(jìn)行卷積生成部分所需的特征圖,第二步在第一步的基礎(chǔ)上進(jìn)行一些低成本的操作,例如線性變換等,來生成剩下所需要的特征圖,最后,將前兩步所獲得的特征圖進(jìn)行拼接,得到完整的所需的特征圖。

      1.2.3" SE注意力機(jī)制

      SENet是2017年ImageNet競賽的冠軍,結(jié)構(gòu)如圖4所示。主要由壓縮和激勵(lì)2個(gè)部分組成,在壓縮操作中,對C個(gè)通道大小為 H×W的特征圖進(jìn)行全局平均池化,C×H×W的特征圖被壓縮為1個(gè)1×1×C大小的一維向量,獲得了C個(gè)通道的全局信息。在激勵(lì)操作中,將壓縮操作得到的1×1×C一維特征送入全連接層,為每個(gè)特征通道生成權(quán)重,獲取每個(gè)通道的重要性,以此來顯示各個(gè)通道之間的相關(guān)性。最后將激勵(lì)操作輸出的權(quán)重通過乘法逐通道加權(quán)到先前的特征上,完成對原始特征的重標(biāo)定[26]。

      1.2.4" CBAM注意力機(jī)制

      CBAM是一種輕量級的注意力機(jī)制,可以增強(qiáng)卷積神經(jīng)網(wǎng)絡(luò)對特征的關(guān)注能力,該模塊由通道注意力和空間注意力組成。通道注意力機(jī)制首先對輸入的圖像分別進(jìn)行最大池化和平均池化,然后將最大池化和平均池化的結(jié)果送到共享的多層感知機(jī)中進(jìn)行處理,將兩者處理的結(jié)果通過元素相加合并,最后使用Sigmoid函數(shù)生成通道注意力特征Mc,如公式(1)所示。空間注意力機(jī)制將通道注意力模塊輸出的特征圖作為輸入特征圖,首先,進(jìn)行最大池化和平均池化,然后將二者處理的結(jié)果在同一維度上進(jìn)行堆疊,再經(jīng)過一個(gè)卷積操作進(jìn)行降維處理,最后使用Sigmoid函數(shù)生成空間注意力特征Ms,如公式(2)所示。CBAM通過結(jié)合通道和空間2種注意力,可以自動學(xué)習(xí)到對特征表達(dá)更重要的維度,實(shí)現(xiàn)對特征的自適應(yīng)調(diào)節(jié),增強(qiáng)模型的特征表達(dá)能力,其結(jié)構(gòu)圖如圖5所示。

      Mc(F)=σ(MLP[AvgPool(F)+MLP(MaxPool(F))]);(1)

      Ms(F)=σ(f7×7([AvgPool(F);MaxPool(F)]))。(2)

      式中:F是輸入特征圖;AvgPool和MaxPool分別表示全局平均池化和最大池化操作; MLP表示多層感

      知機(jī);σ表示Sigmoid激活函數(shù);f7×7表示一個(gè)7×7的卷積操作。

      1.2.5" SE-CBAM注意力機(jī)制

      本研究所提出的 SE-CBAM 注意力機(jī)制由SE注意力機(jī)制與CBAM注意力機(jī)制并聯(lián)組成,SE注意力機(jī)制主要關(guān)注通道特征的重要性,而CBAM同時(shí)考慮通道和空間的重要性,不同的任務(wù)和數(shù)據(jù)集可能對通道和空間的關(guān)注程度有所不同,結(jié)合使用可以使網(wǎng)絡(luò)更具適應(yīng)性。SE注意力機(jī)制通過全局平均池化學(xué)習(xí)通道的重要性,而CBAM則進(jìn)一步擴(kuò)展了這一點(diǎn),通過結(jié)合通道注意力和空間注意力來分別學(xué)習(xí)通道和空間維度的重要性。兩者的結(jié)合可以使網(wǎng)絡(luò)更加自適應(yīng)地學(xué)習(xí)特征之間的關(guān)系,適應(yīng)不同任務(wù)和數(shù)據(jù)的變化,其結(jié)構(gòu)圖如圖6所示。

      1.2.6" Ghost-MobileNet v2模型

      本研究是以MobileNet v2為基礎(chǔ),加入Ghost模塊,改進(jìn)的模型中用3個(gè)Ghost模塊替換MobileNet v2中原有的第2個(gè)倒殘差模塊,以增強(qiáng)特征表示能力,提高模型的識別準(zhǔn)確率,并將 Ghost 模塊中的步距設(shè)置為 1,有助于網(wǎng)絡(luò)在細(xì)節(jié)層面上進(jìn)行更精細(xì)的特征提取,在最后一個(gè)倒殘差模塊和全局平均池化層之間加入了SE-CBAM模塊,從通道和空間2個(gè)維度上提取特征,加強(qiáng)特征的聚焦,減小網(wǎng)絡(luò)過擬合的風(fēng)險(xiǎn),其結(jié)構(gòu)如圖7所示。

      2" 結(jié)果與分析

      本試驗(yàn)使用的計(jì)算機(jī)配置為AMD Ryzen 7 5800H;頻率為3.20 GHz,24.0 GB內(nèi)存;NVIDIA GeForce RTX 3060 顯卡; CUDA的版本是11.2;Cudnn的版本是8.1;搭載Windows 10,64位操作系統(tǒng)。所使用的軟件主要包括OpenCV圖像處理軟件以及tensorflow 2.5.0深度學(xué)習(xí)框架,使用Python語言進(jìn)行程序編譯,Python版本為3.7,試驗(yàn)于2023年10月在江西南昌進(jìn)行,各參數(shù)如表1所示。

      2.1" 試驗(yàn)結(jié)果與設(shè)計(jì)

      本試驗(yàn)將數(shù)據(jù)集按照6 ∶2 ∶2的比例分為訓(xùn)練集、驗(yàn)證集和測試集,再將圖片統(tǒng)一為224×224的尺寸輸入,圖8和圖9分別為Ghost-MobileNet v2訓(xùn)練的準(zhǔn)確率曲線和損失值曲線。從圖8、圖9可以看出,模型在迭代25次左右開始收斂,且隨著迭代次數(shù)的增加,兩曲線逐漸貼合,說明該模型達(dá)到了擬合狀態(tài),達(dá)到了一個(gè)很好的訓(xùn)練效果。

      為進(jìn)一步驗(yàn)證Ghost-MobileNet v2的泛化能力,本研究還進(jìn)行了其他試驗(yàn),分別為注意力機(jī)制中的不同組合對比試驗(yàn)、不同注意力機(jī)制對比試驗(yàn)、消融試驗(yàn)、模型在其他數(shù)據(jù)集中的驗(yàn)證試驗(yàn)以及與其他模型對比試驗(yàn)。

      2.2" 評價(jià)指標(biāo)

      本研究使用精確率(precision,P)、召回率(recall,R)、準(zhǔn)確率(Accuray)和F1分?jǐn)?shù)來衡量Ghost-

      MobileNet v2在識別玉米田雜草方面的性能,計(jì)算公式如下:

      P=TPTP+FP;(3)

      R=TPTP+FN;(4)

      Accuray=TP+TNTP+FN+FP+TN;(5)

      F1分?jǐn)?shù)=2Recall×PrecisionPrecision+Recall。(6)

      式中:TP表示將正樣本預(yù)測為正樣本的數(shù)量,即預(yù)測正確;FP表示將負(fù)樣本預(yù)測為正樣本的數(shù)量,即預(yù)測錯(cuò)誤;FN表示將正樣本預(yù)測為負(fù)樣本的數(shù)量,即預(yù)測錯(cuò)誤;TN表示將負(fù)樣本預(yù)測為負(fù)樣本的數(shù)量,即預(yù)測正確。

      2.3" 注意力機(jī)制中的不同組合對比試驗(yàn)

      SE注意力機(jī)制側(cè)重于通道間的關(guān)系,而CBAM結(jié)合了通道和空間注意力,它們的組合能夠更全面地捕捉到圖像中的關(guān)鍵特征,提高模型對不同層次特征的感知能力,模型可以在更細(xì)致和全局的層面上理解圖像特征,從而提高對關(guān)鍵信息的捕捉和利用,最終提高網(wǎng)絡(luò)模型的性能。本試驗(yàn)將SE與CBAM進(jìn)行了3種不同的組合,分別為串聯(lián)組合、將SE嵌入到CBAM中組合以及將SE與CBAM進(jìn)行并聯(lián)組合,并分別加入到Ghost-MobileNet v2中。由試驗(yàn)結(jié)果(表2)得出,SE-CBAM組合即二者并聯(lián)組合準(zhǔn)確率最高,達(dá)到99.00%,高于SE+CBAM串聯(lián)組合和CB+SE+AM的嵌入式組合。

      2.4" 不同注意力機(jī)制對比試驗(yàn)

      注意力機(jī)制可以選擇圖像中重要的特征區(qū)域,抑制不重要的區(qū)域,使網(wǎng)絡(luò)更關(guān)注于關(guān)鍵的特征,常用的注意力機(jī)制有CBAM、ECA、SE等3種,本研究將3種注意力機(jī)制分別加入Ghost-MobileNet v2網(wǎng)絡(luò)中,與本研究所提出的注意力機(jī)制進(jìn)行對比,

      保持各參數(shù)相同且激活函數(shù)使用ReLU6。試驗(yàn)結(jié)果(表3)表明,SE-CBAM注意力機(jī)制在該網(wǎng)絡(luò)中表現(xiàn)最出色,對玉米幼苗與雜草的分類效果最好,其識別準(zhǔn)確率高于SE(97.58%)、ECA(98.08%)和CBAM(98.92%)的準(zhǔn)確率。

      2.5" 消融試驗(yàn)

      為驗(yàn)證加入SE-CBAM和Ghost模塊時(shí)模型效果最佳,本研究在同一條件下對各分類網(wǎng)絡(luò)進(jìn)行訓(xùn)練,分別為只加入SE-CBAM的網(wǎng)絡(luò)、只加入Ghost的網(wǎng)絡(luò)、加入SE-CBAM和Ghost的網(wǎng)絡(luò)(本研究提出)以及原MobileNet v2網(wǎng)絡(luò)。結(jié)果(表4)表明,在使用SE-CBAM與Ghost時(shí)的網(wǎng)絡(luò)對玉米幼苗與雜草的分類效果最好,準(zhǔn)確率達(dá)到了99.00%。另外,圖10為上述4種網(wǎng)絡(luò)的混淆矩陣圖。圖10表明,Ghost-MobileNet v2已經(jīng)成功識別每種類型中的大部分樣本圖像,同樣說明了本研究所提出的方法在性能上的優(yōu)越性。

      2.6" 模型在其他數(shù)據(jù)集中的驗(yàn)證試驗(yàn)

      為驗(yàn)證本研究提出的模型的泛化能力,從Plant Village公共數(shù)據(jù)集獲取了葡萄葉片病害數(shù)據(jù)集,通常卷積神經(jīng)網(wǎng)絡(luò)需要大量的數(shù)據(jù)來進(jìn)行訓(xùn)練,鑒于現(xiàn)有的條件,無法收集到更大量的圖像,而現(xiàn)有的數(shù)據(jù)集較少,本研究對原有的數(shù)據(jù)集進(jìn)行擴(kuò)充,擴(kuò)充后的數(shù)據(jù)集包括黑腐病、黑麻疹病、健康、葉枯病圖像各1 500張,數(shù)據(jù)集樣本如圖11所示。與前文中的試驗(yàn)一樣,將數(shù)據(jù)集按照6 ∶2 ∶2的比例分為訓(xùn)練集、驗(yàn)證集和測試集,且保持與前文試驗(yàn)相同的參數(shù),對MobileNet v2和Ghost-MobileNet v2分別進(jìn)行訓(xùn)練。結(jié)果(表5)表明,在葡萄葉片病害的數(shù)據(jù)集中,Ghost-MobileNet v2模型的識別準(zhǔn)確率達(dá)到了96.58%,高于原MobileNet v2模型92.33%的準(zhǔn)確率,說明Ghost-MobileNet v2在其他作物中同樣適用,證明了該模型具有良好的泛化能力。

      2.7" 與其他模型對比試驗(yàn)

      為了進(jìn)一步驗(yàn)證Ghost-MobileNet v2的性能,將Ghost-MobileNet v2模型與其他卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行對比,其中包括MobileNet v3、AlexNet、VGG16、Efficient Net、VGG19,結(jié)果如表6所示。與AlexNet、VGG16、VGG19這些參數(shù)量較大的網(wǎng)絡(luò)相比,Ghost-MobileNet v2的準(zhǔn)確率略高,但參數(shù)量大幅下降,便于嵌入到移動設(shè)備中。與MobileNet v3等輕量級的模型相比,Ghost-MobileNet v2的準(zhǔn)確率比MobileNet v3的高出1.92百分點(diǎn),進(jìn)一步說明了Ghost-MobileNet v2模型性能優(yōu)越。

      3" 討論與結(jié)論

      為解決農(nóng)業(yè)生產(chǎn)過程中雜草防治工作較難的問題,本研究在MobileNet v2網(wǎng)絡(luò)的基礎(chǔ)上引入了Ghost模塊,增強(qiáng)網(wǎng)絡(luò)的表達(dá)能力,提高識別準(zhǔn)確率,對4種玉米田雜草和玉米幼苗進(jìn)行了精準(zhǔn)、 高效的

      分類;采用SE-CBAM注意力機(jī)制,對細(xì)小的雜草特征從通道和空間2個(gè)維度上進(jìn)行提取,以獲得更全面的圖像特征,便于網(wǎng)絡(luò)最后對各個(gè)目標(biāo)進(jìn)行分類。為了驗(yàn)證本研究所提出網(wǎng)絡(luò)的泛化能力,在PlantVillage大型公共數(shù)據(jù)集中獲取了葡萄葉片病害數(shù)據(jù)集進(jìn)行了對比試驗(yàn),并通過多組對比試驗(yàn)從多個(gè)方面驗(yàn)證了本研究模塊的性能,以輕量級網(wǎng)絡(luò)作為載體,方便嵌入到各種移動設(shè)備中,進(jìn)一步提高農(nóng)業(yè)生產(chǎn)過程中雜草防治的效率。

      參考文獻(xiàn):

      [1]Al-Gaashani M S A M,Shang F,El-Latif A A A. Ensemble learning of lightweight deep convolutional neural networks for crop disease image detection[J]. Journal of Circuits,Systems and Computers,2023,32(5):2350086.

      [2]Chen J,Zhang D,Suzauddola M,et al. Identification of plant disease images via a squeeze-and-excitation MobileNet model and twice transfer learning[J]. IET Image Processing,2021,15:1115-1127.

      [3]Senan N,Aamir M,Ibrahim R,et al. An efficient convolutional neural network for paddy leaf disease and pest classification[J]. International Journal of Advanced Computer Science and Applications,2020,11(7):116-122.

      [4]Zhu S,Ma W,Lu J,et al. A novel approach for apple leaf disease image segmentation in complex scenes based on two-stage DeepLab v3+ with adaptive loss[J]. Computers and Electronics in Agriculture,2023,204: 107539.

      [5]Kim H,Kim D. Deep-learning-based strawberry leaf pest classification for sustainable smart farms[J]. Sustainability,2023,15(10):7931.

      [6]Jaiganesh M,SathyaDevi M,Srinivasa Chakravarthy K,et al. Identification of plant species using CNN- Classifier[J]. Journal of Critical Reviews,2020,7(3):923-931.

      [7]Bongulwar D M. Identification of fruits using deep learning approach[J]. IOP Conference Series: Materials Science and Engineering,2021,1049(1):012004.

      [8]Chavan T R,Nandedkar A V. AgroAVNET for crops and weeds classification: a step forward in automatic farming[J]. Computers amp; Electronics in Agriculture,2018,154:361-372.

      [9]Wagle S A,Harikrishnan R. A deep learning-based approach in classification and validation of tomato leaf disease[J]. TS,2021,38(3):699-709.

      [10]Liu Y W,Zhang X,Gao Y X,et al. Improved CNN method for crop pest identification based on transfer learning[J]. Computational Intelligence and Neuroscience,2022(2022):9709648.

      [11]尚建偉,蔣紅海,喻" 剛,等. 基于深度學(xué)習(xí)的雜草識別系統(tǒng)[J]. 軟件導(dǎo)刊,2020,19(7):127-130.

      [12]彭" 文,蘭玉彬,岳學(xué)軍,等. 基于深度卷積神經(jīng)網(wǎng)絡(luò)的水稻田雜草識別研究[J]. 華南農(nóng)業(yè)大學(xué)學(xué)報(bào),2020,41(6):75-81.

      [13]鄧向武,馬" 旭,齊" 龍,等." 基于卷積神經(jīng)網(wǎng)絡(luò)與遷移學(xué)習(xí)的稻田苗期雜草識別[J]. 農(nóng)機(jī)化研究,2021,43(10):167-171.

      [14]Xu Y L,Zhai Y T,Zhao B,et al. Weed recognition for depthwise separable network based on transfer learning[J]. Intelligent Automation amp; Soft Computing,2021,27(3):669-682.

      [15]姚思雨,王" 磊,張宏文. 基于CNN的棉田雜草識別方法[J]. 石河子大學(xué)學(xué)報(bào)(自然科學(xué)版),2023,41(1):21-26.

      [16]陳" 啟,陳慈發(fā),鄧向武,等. 基于移動端輕量模型的雜草分類方法研究[J]. 中國農(nóng)機(jī)化學(xué)報(bào),2022,43(2):163-170.

      [17]Sandler M,Howard A,Zhu M,et al. MobileNet v2: inverted residuals and linear bottlenecks[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).IEEE,2018:4510-4520.

      [18]Han K,Wang Y,Tian Q,et al. GhostNet: more features from cheap operations[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).IEEE,2020:1577-1586.

      [19]Zhang T,Zhang Y N,Xin M L,et al. A light-weight network for small insulator and defect detection using UAV imaging based on improved YOLO v5[J]. Sensors,2023,23(11):5249.

      [20]Zhang X W,Zhao Z X,Ran L Y,et al. FastICENet: a real-time and accurate semantic segmentation model for aerial remote sensing river ice image[J]. Signal Processing,2023,212:109150.

      [21]Zhao Y,Sun C,Xu X,et al. RIC-Net: a plant disease classification model based on the fusion of inception and residual structure and embedded attention mechanism[J]. Computers and Electronics in Agriculture,2022,193:106644.

      [22]Wang Y C,Li J D,Chen Z M,et al. Ships’ small target detection based on the CBAM-YOLOX algorithm[J]. Journal of Marine Science and Engineering,2022,10(12):2013.

      [23]張會敏,謝澤奇. 基于多尺度注意力卷積神經(jīng)網(wǎng)絡(luò)的蘋果葉部病害識別方法[J]. 江蘇農(nóng)業(yè)科學(xué),2023,51(16):154-161.

      [24]Howard A G,Zhu M,Chen B,et al. MobileNets: efficient convolutional neural networks for mobile vision applications[J]. arXiv,2017,1704.04861v1.

      [25]He K,Zhang X,Ren S,et al. Deep residual learning for image recognition[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas,NV,USA,2016: 770-778.

      [26]Hu J,Shen L,Sun G. Squeeze-and-excitation networks[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE,2018:7132-7141.

      猜你喜歡
      注意力機(jī)制雜草深度學(xué)習(xí)
      拔雜草
      基于深度學(xué)習(xí)的問題回答技術(shù)研究
      基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
      基于注意力機(jī)制的雙向LSTM模型在中文商品評論情感分類中的研究
      軟件工程(2017年11期)2018-01-05 08:06:09
      InsunKBQA:一個(gè)基于知識庫的問答系統(tǒng)
      MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
      大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
      深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
      基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
      軟件工程(2016年8期)2016-10-25 15:47:34
      水稻田幾種難防雜草的防治
      台东县| 九台市| 广河县| 文水县| 富平县| 鄂州市| 疏附县| 临桂县| 庆安县| 东乌| 耒阳市| 时尚| 上饶县| 博乐市| 高安市| 白河县| 万全县| 乳山市| 尖扎县| 绍兴县| 彭州市| 新源县| 抚顺市| 通江县| 红河县| 景宁| 兴安县| 宣威市| 思茅市| 姚安县| 班戈县| 舞钢市| 宜都市| 含山县| 厦门市| 临泉县| 萍乡市| 桐乡市| 宁晋县| 新竹县| 吉木乃县|