徐振南 王建坤 胡益嘉 張智聰 趙旭東 楊琳琳 李文峰
摘要:針對傳統(tǒng)卷積神經(jīng)網(wǎng)絡在馬鈴薯葉部病害識別中結構復雜、參數(shù)龐大,難以實現(xiàn)在移動設備上的良好應用的問題,提出一種基于輕量級卷積神經(jīng)網(wǎng)絡和遷移學習的馬鈴薯葉部病害識別方法。首先,采集馬鈴薯葉部病害圖像樣本,再運用GrabCut算法進行圖像分割;再基于 MobileNetV3構建病害識別基礎模型,并通過調(diào)整模型結構及寬度系數(shù)α等方式對模型進行優(yōu)化,最后運用遷移學習的方式將預訓練參數(shù)遷移至優(yōu)化模型進行訓練。結果表明,該方法對馬鈴薯健康、晚疫病、早疫病、炭疽病及其他病害葉部圖像識別準確率為 98.00%,模型權重僅為0.68 MB,識別速率為0.014 s/幅。本研究結果可為馬鈴薯葉部病害識別在移動設備上應用的實現(xiàn)提供理論支持。
關鍵詞:馬鈴薯;葉部病害;GrabCut;MobileNetV3;遷移學習;小樣本
中圖分類號: TP391.41? 文獻標志碼: A
文章編號:1002-1302(2022)10-0176-07
馬鈴薯是我國四大糧食作物之一,目前,已知馬鈴薯病害有100余種,其中晚疫病和早疫病造成的危害最為嚴重,馬鈴薯早疫病發(fā)病嚴重時減產(chǎn)可達30%以上[1],晚疫病則可造成高達80%~100%的減產(chǎn)[2]。傳統(tǒng)馬鈴薯病害識別通常為專家直接對患病部位進行觀察,如晚疫病發(fā)病初期在葉尖或葉緣有水浸狀綠褐色斑點[3]。該方法具有較高的準確率,但效率較低,且受限于專家數(shù)量,難以實現(xiàn)有效推廣。
由于計算機智能識別技術在對農(nóng)業(yè)病害進行檢測識別時,具有無損、快速的特點[4],故被廣泛應用于病害識別。趙建敏等用8層CNN+softmax分層卷積神經(jīng)網(wǎng)絡模型識別了簡單背景單一病斑[5];孫文杰等使用一種基于VGGNet-BiLSTM的算法實現(xiàn)了對桃樹葉部病害圖像的識別[6];謝裕睿等通過構造恒等殘差塊和卷積殘差塊來搭建20層的ResNet模型識別了5種常見煙草病害[7]。上述研究在圖像識別領域取得了良好效果,但其所采用的模型存在深度及參數(shù)過大等不足。目前,農(nóng)業(yè)病害識別趨向于模型結構小型化、實用化,以期更好地實現(xiàn)其在移動端的應用。楊森等提出一種基于輕量卷積網(wǎng)絡的馬鈴薯外部缺陷無損分級方法,識別準確率為96.04%[8]。劉洋等基于MobileNet與IncptionV3提出2種輕量級卷積神經(jīng)網(wǎng)絡作物病害分類模型[9]。以上研究表明,輕量級卷積神經(jīng)網(wǎng)絡模型在減少網(wǎng)絡參數(shù)量的同時,可保證較高的識別準確率,適用于移動端。
本研究提出一種基于MobileNetV3優(yōu)化和遷移學習方法的馬鈴薯葉部病害圖像識別方法,并從訓練、測試準確率及損失函數(shù)、模型權重和識別速率等方面對模型進行評估,為開發(fā)移動端的馬鈴薯害智能識別系統(tǒng)提供模型構建技術支持。
1 圖像數(shù)據(jù)集及預處理
1.1 試驗數(shù)據(jù)
圖像數(shù)據(jù)采集點為云南省昭通市,為體現(xiàn)樣本多樣性,選用不同品牌手機、相機進行拍攝,拍攝角度、時間、地點等多樣化。此外,通過互聯(lián)網(wǎng)公開數(shù)據(jù)集收集部分樣本,收獲馬鈴薯健康葉部圖像39幅、晚疫病61幅、早疫病50幅、炭疽病54幅以及其他病害33幅,總計獲得葉部圖像237幅,部分原始圖像如圖1所示。
1.2 濾波去噪
實際拍攝所得圖像通常會存在不同數(shù)量的噪聲,這些噪聲會對圖像識別造成一定干擾。因此,為有效過濾圖像中椒鹽噪聲等噪聲信息,采用均值濾波、高斯濾波以及中值濾波方式對圖像進行圖像平滑濾波處理,處理后部分圖像示例如圖2所示。
1.3 圖像分割
由于部分圖像拍攝時背景相對復雜,會對病害識別造成一定干擾,因此運用GrabCut算法對部分背景相對復雜的樣本進行圖像分割,提取害病葉片圖像,削弱背景影響。GrabCut算法于2004年由Rother等提出,其通過圖像中所蘊含的紋理(顏色)信息以及邊界(反差)信息,僅需少量的用戶交互操作,再結合圖像處理算法,即可取得良好的分割結果[10],具體如圖3所示。
1.4 圖像增強
在對樣本圖像特征信息進行收集時,通過多種方式對原始數(shù)據(jù)進行數(shù)據(jù)增廣,可提升模型泛化能力,提高模型的魯棒性[11]。對于數(shù)據(jù)集的數(shù)據(jù)分布,擴充后數(shù)據(jù)集中各類訓練樣本數(shù)量相同、分布均勻,這使得模型對于各類別的學習過程不會偏向某一類或某幾類,所得模型泛化能力較強[12]。因此,要對分割后的數(shù)據(jù)集進行一定程度的數(shù)據(jù)擴充。
首先,將分割后數(shù)據(jù)集按照8 ∶2的比例隨機劃分訓練集和測試集。其次,通過旋轉(zhuǎn)、水平翻轉(zhuǎn)、平移、對比度增強、改變色度的方式增強圖像數(shù)據(jù),將劃分后的數(shù)據(jù)集擴充至每類200張,共1 000張圖片,擴充后訓練集和測試集比例仍為8 ∶2。為探究圖像分割對識別效果的影響,不分割原始圖像重復上述操作建立數(shù)據(jù)集。圖像分割并增強后部分示例如圖4所示。
因采集工具多樣,故原始圖像分辨率不統(tǒng)一,在訓練前將圖像進行歸一化、標準化處理。將訓練集圖片隨機大小、隨機長寬比進行裁剪,再重置圖片為224×224像素;重置測試集圖片為256×256像素,再中心裁剪為224×224像素,最后將圖片統(tǒng)一轉(zhuǎn)化成tensor張量并進行標準化處理。
2 馬鈴薯葉部病害識別模型
2.1 MobileNetV3網(wǎng)絡模型
卷積神經(jīng)網(wǎng)絡由AlexNet[13]到VGGNet[14],再到GoogleNet[15]、 ResNet[16],網(wǎng)絡性能不斷提升,但網(wǎng)絡也是不斷加深,由此引發(fā)效率問題,該問題一定程度上決定著CNN在實際生活中的應用。谷歌于2017年提出MobileNets模型[17],于2019年提出MobileNetV3模型[18],其基本網(wǎng)絡單元如圖5所示。
由圖5可知,相較于ResNet模型,該模型運用了MobileNetV2模型[19]中的倒置殘差結構(inverted residuals),該結構先升維,深度可分離卷積后再降維,深度可分離卷積主要起減少網(wǎng)絡參數(shù),加快運行速度的作用[20]。在此之上,還根據(jù)Mnas Net(谷歌提出的一種移動平臺感知神經(jīng)結構搜索)[21]引入基于壓縮獎懲(squeeze and excitation,SE)結構的輕量級注意力模型,SE結構能通過訓練過程在特征圖上自行分配權重,使網(wǎng)絡從全局信息出發(fā)選擇性地放大有價值的特征通道并抑制無用的特征通道[22]。
此外,相較于EfficientNet模型[23],MobileNetV3加入一種新的激活函數(shù)Hard-swish,如公式(1)所示。
h-swish[x]=xReLU(x+3)6。(1)
式中:x為輸入;ReLU為ReLU激活函數(shù)。
MobileNetV3模型識別準確率高、尺寸小,適用于移動端,但目前將其用于作物病害識別研究較少,為實現(xiàn)將馬鈴薯葉部病害識別模型應用于移動端的任務,要對該模型部分網(wǎng)絡結構進行修改。該模型可分為MobileNetV3-Large和Small,因本研究針對小樣本數(shù)據(jù)集進行研究,故選用MobileNetV3-Small網(wǎng)絡,具體結構如表1所示。
2.2 模型改進設計
由于需要識別的葉片類型為5類,因此將表1中最后一個卷積層輸出通道數(shù)由1 000修改為5,將此模型記作MobileNetV3-S0,并以此模型作為后續(xù)改進的基礎模型。
為減少模型參數(shù)并保持其在馬鈴薯葉片數(shù)據(jù)集上的性能,基于MobileNetV3-S0進行修改:將超參數(shù)reduce_divider由1調(diào)整為4,修改后網(wǎng)絡結構如圖6所示,并將該模型命名為MobileNetV3-S1。
由圖6可知,超參數(shù)reduce_divider將影響bneck模塊9的輸出通道數(shù),bneck模塊10、11的輸入、輸出以及bneck內(nèi)倒殘差結構進行升維后的通道數(shù),其表現(xiàn)如下述公式所示。
Final Output=Output/reduce_divider。(2)
式中:Final Output為最終輸出通道數(shù);Output為輸出通道數(shù)。
深度學習的網(wǎng)絡深度過深將帶來梯度不穩(wěn)定,網(wǎng)絡退化等問題。因此,為選擇合適的模型深度,對MobileNetV3-S1進行如下操作:移除bneck模塊6~8,將bneck模塊9的輸入通道數(shù)由48縮減為40,并將bneck模塊9~11的輸出通道數(shù)由96縮減為48,并將改動后模型命名為MobileNetV3-S2,詳見圖7。
圖像輸入分辨率、網(wǎng)絡的深度以及寬度3個參數(shù)的合理化配置對網(wǎng)絡性能具有一定的影響。寬度大而深度較淺的網(wǎng)絡很難學習到更深層次的特征。故在降低網(wǎng)絡深度的同時,有必要進一步調(diào)整網(wǎng)絡寬度。對MobileNetV3-S2進行如下操作:將超參數(shù)寬度系數(shù)α由默認的1改為0.5;為進一步降低網(wǎng)絡深度和計算成本,減少參數(shù)量:移除bneck模塊5,最終將該模型命名為MobileNetV3-S3,詳見圖8。
考慮到數(shù)據(jù)集相對較小,直接用于網(wǎng)絡訓練將產(chǎn)生過擬合或準確率較低等問題。遷移學習可以考慮到大部分數(shù)據(jù)和任務間的相關性,將使用其他大批量數(shù)據(jù)訓練所得模型來訓練新數(shù)據(jù),從而減少訓練步驟,縮短訓練時間,并增加數(shù)據(jù)量,從而降低過擬合程度[24]。故將在公開數(shù)據(jù)集PlantVillage上進行預訓練的模型參數(shù),遷移至馬鈴薯葉部病害識別模型,縮短模型訓練時間,提高模型泛化性。
3 結果與分析
3.1 試驗環(huán)境與相關參數(shù)設置
試驗軟件環(huán)境為Windows10操作系統(tǒng),使用python3.8.5編程語言,以Pytorch作為深度學習開源框架,CUDA11.0編程平臺。試驗硬件環(huán)境為16 GB內(nèi)存,NVIDIA GeForce RTX2060顯卡,搭載IntelCoreTMi7-10875H@5.10 GHz CPU處理器。
在訓練前,將樣本數(shù)據(jù)分為多個批次(Batch),綜合考慮樣本數(shù)量及計算機的硬件環(huán)境,本研究在試驗過程中將Batch大小設置為32,模型迭代次數(shù)(Epoch)設為100次。
3.2 試驗設計
綜合考慮硬件設備性能及訓練效果,在相同條件下對同一模型進行訓練,包括采用2種不同的遷移學習訓練方式(只訓練全連接層與訓練全部層)、不同學習率、3種不同濾波方式對圖像數(shù)據(jù)進行處理以及圖像分割與否等情況進行試驗,同時在相同條件下對不同網(wǎng)絡模型進行訓練對比試驗。
3.3 模型性能的影響因素分析
3.3.1 學習率對模型性能的影響
進行深度學習模型訓練時,學習率是最影響模型性能的超參數(shù)之一[25],學習率過大將導致模型不收斂,過小將導致模型收斂過慢或者無法學習。因此,通過試驗選取適用于MobileNetV3-S0的學習率。試驗選用單純圖像增強后數(shù)據(jù)集,以訓練全部層的遷移學習方式進行,將學習率設置為0.01、0.001和0.000 1進行討論。
由圖9-a可知,相較于0.01和0.000 1的學習率,學習率為0.001時,模型訓練準確率最高。交叉熵損失函數(shù)常用于評估模型預測值與真實值的不一致程度,交叉熵損失函數(shù)越小,模型的魯棒性越好。由圖9-b可知 學習率為0.001訓練時 交叉熵損失函數(shù)均低于其他學習率時的交叉熵損失函數(shù),且模型訓練準確率與交叉熵損失函數(shù)收斂速度最快。因此,綜合考慮訓練時模型平均識別準確率與交叉熵損失函數(shù),后續(xù)試驗中取0.001學習率及未分割增強后數(shù)據(jù)集完成模型訓練與測試。
3.3.2 遷移學習方式對模型性能的影響
MobileNetV3-S0模型,在不采用遷移學習和采用2種不同(只訓練全連接層與訓練全部層)遷移學習方式時,模型訓練準確率和交叉熵損失函數(shù)變化如圖10-a、圖10-b所示。
從圖10可知,MobileNetV3-S0在運用3種不同方式訓練過程中,采用遷移學習訓練的模型收斂速度和訓練準確率明顯高于不采用遷移學習的模型,交叉熵損失函數(shù)則明顯低于不采用遷移學習的模型。
同時,觀察圖10中曲線變化可知,在經(jīng)過50次左右迭代訓練后,訓練準確率和交叉熵損失函數(shù)逐漸趨于穩(wěn)定,其中,采用訓練全部層方式的模型準確率最高,交叉熵損失函數(shù)最小,基本降到0.1以下,且交叉熵損失函數(shù)波動最小。這說明采用訓練全部層的遷移學習方式對模型性能的提升最大。
3.3.3 濾波方式對識別準確率的影響
將原始數(shù)據(jù)集分別經(jīng)過均值濾波、高斯濾波和中值濾波這3種濾波方式處理并通過圖像增強后,依次放入模型中進行訓練與測試,其所得識別準確率如表2所示。
由表2可知,除經(jīng)過中值濾波處理的數(shù)據(jù)集訓練準確率與原始數(shù)據(jù)集一致外,其余濾波方式下的訓練準確率均略有下降。同時,3種經(jīng)濾波處理的數(shù)據(jù)集測試準確率相較于原始數(shù)據(jù)集均有所降低,其中表現(xiàn)最好的中值濾波方式仍降低了1.00百分點。這說明,雖然濾波處理可以去除圖像中干擾識別效果的噪聲,但同時也對圖像本身的部分特征信息造成了一定影響。因此,仍選擇經(jīng)過圖像增強但未濾波圖像數(shù)據(jù)集用于模型的訓練。
3.3.4 模型性能對比
運用ResNet18、EfficientNet-B0和MobileNetV3-S0這3種模型進行對比訓練和測試,結果(表3)表明,MobileNetV3-S0模型的訓練識別準確率分別僅比EfficientNet-B0和 ResNet-18 高出1.26和0.12百分點,測試識別準確率則是比ResNet-18高1.50百分點,比EfficientNet-B0低4.00百分點。
雖然MobileNetV3-S0的測試準確率略低于EfficientNet-B0,但同時由表3可分析出,ResNet18、EfficientNet-B0的權重參數(shù)分別為MobileNetV3-S0的4.60倍和2.08倍,反之MobileNetV3-S0的識別速率則是ResNet18、EfficientNet-B0的18.50倍和18.96倍。
由表4可知,MobileNetV3-S1模型相比較于MobileNetV3-S0模型,權重減小7.39 MB,測試準確率下降1.00百分點,這說明調(diào)整超參數(shù)reduce_divider可以較大程度地減小模型權重,但同時會損失一定準確率。而MobileNetV3-S2相較于MobileNetV3-S1,權重縮減0.51 MB,測試準確率升高2.50百分點,說明基于MobileNetV3-S1降低模型深度,不但能減小模型權重,還有助于提高測試準確率。MobileNetV3-S3的權重比MobileNetV3-S2減少了1.12 MB,測試準確率降低0.50百分點,由此可知,在降低模型深度的同時,減小模型寬度,可進一步減少模型冗余參數(shù),但會損失一定的準確率。
因模型結構不同于MobileNetV3-S0,因此對于MobileNetV3-S3,0.001的學習率可能不是最佳學習率。故再進行對比試驗,由表5可知,在3種學習率中,最適合MobileNetV3-S3的仍是0.001。
綜上可知,相比MobileNetV3-S2,MobileNetV3-S3的識別準確率略有下降,但比MobileNetV3-S0提升了1.00百分點,且MobileNetV3-S3的權重僅為MobileNetV3-S0的7.01%,對單張圖片識別速率也略有提升。因此,以MobileNetV3-S3作為最終的馬鈴薯葉部病害識別模型。
3.3.5 圖像分割對識別效果的影響
將運用GrabCut算法對部分背景相對復雜圖像進行圖像分割,提取圖像后再進行圖像增強,所得數(shù)據(jù)集輸入MobileNetV3-S3中。由表6可知,經(jīng)過GrabCut算法分割后數(shù)據(jù)集訓練準確率降低了0.50百分點,但是測試準確率卻提升了1.50百分點。由此可知,運用GrabCut算法進行圖像分割,有助于進一步提高病害葉片的識別準確率。故最終選用經(jīng)GrabCut算法圖像分割擴充后的數(shù)據(jù)集。
4 結論與討論
本研究針對馬鈴薯病害快速準確實時識別的需求,建立包含馬鈴薯健康、晚疫病、早疫病、炭疽病及其他病害共5種馬鈴薯葉部圖像數(shù)據(jù)集。對該數(shù)據(jù)集運用GrabCut算法進行圖像分割并進行圖像增強操作,在對MobileNetV3-Small模型進行優(yōu)化后,基于優(yōu)化后模型和遷移學習方式進行訓練,并與ResNet18、EfficientNet-b0這2種網(wǎng)絡模型進行對比試驗。根據(jù)試驗結果得出如下結論:(1)采用遷移學習的方式在提高模型的識別準確率的同時降低了模型的交叉熵損失函數(shù),增強了模型穩(wěn)定性。而這2種遷移學習訓練方式,從識別率和損失函數(shù)收斂2個方面來看,訓練全部層的方式更優(yōu)。(2)基于MobileNetV3-Small改進所得模型MobileNetV3-S3,采用0.001的學習率和訓練全部層的遷移學習方式,對僅進行圖像增強的數(shù)據(jù)集訓練后所得測試準確率最高為96.50%,比MobileNetV3-S0高出1.00百分點。在運用GrabCut算法分割圖像后,模型測試準確率提升至98.00%。(3)MobileNetV3-S3權重大小為 0.68 MB,MobileNetV3-S0權重為其14.26倍。MobileNetV3-S3模型測試準確率雖略低于EfficientNet-B0,但其識別速率為后者的70.43倍,且其權重僅為后者的3.37%,有利于馬鈴薯病害識別在移動端的實現(xiàn)。
綜上所述,將基于GrabCut算法分割圖像所建數(shù)據(jù)集,結合基于MobileNetV3-Small改進的模型MobileNetV3-S3,運用遷移學習方式訓練所得識別模型,在馬鈴薯葉部病害識別上,具有準確率高、識別快、權重小等特點。該方法為實現(xiàn)馬鈴薯葉部病害識別在移動端的良好應用提供了可行性。
參考文獻:
[1]肖金鐘. 馬鈴薯生產(chǎn)中的常見病害[J]. 現(xiàn)代園藝,2020,43(18):37-40.
[2]范子耀,王文橋,孟潤杰,等. 7種殺菌劑對馬鈴薯早疫病菌室內(nèi)毒力及田間防效[J]. 農(nóng)藥,2011,50(7):531-533.
[3]王秀鵬. 馬鈴薯常見病害識別及防治技術[J]. 種子科技,2018,36(6):101,103.
[4]邊柯橙,楊海軍,路永華. 深度學習在農(nóng)業(yè)病蟲害檢測識別中的應用綜述[J]. 軟件導刊,2021,20(3):26-33.
[5]趙建敏,李 艷,李 琦,等. 基于卷積神經(jīng)網(wǎng)絡的馬鈴薯葉片病害識別系統(tǒng)[J]. 江蘇農(nóng)業(yè)科學,2018,46(24):251-255.
[6]孫文杰,牟少敏,董萌萍,等. 基于卷積循環(huán)神經(jīng)網(wǎng)絡的桃樹葉部病害圖像識別[J]. 山東農(nóng)業(yè)大學學報(自然科學版),2020,51(6):998-1003.
[7]謝裕睿,苗 晟,張 鑠,等. 基于殘差神經(jīng)網(wǎng)絡的煙草病害識別研究[J]. 現(xiàn)代計算機,2020(30):27-31.
[8]楊 森,馮 全,張建華,等. 基于輕量卷積網(wǎng)絡的馬鈴薯外部缺陷無損分級[J]. 食品科學,2021,42(10):284-289.
[9]劉 洋,馮 全,王書志. 基于輕量級CNN的植物病害識別方法及移動端應用[J]. 農(nóng)業(yè)工程學報,2019,35(17):194-204.
[10]Rother C,Kolmogorov V,Blake A.“GrabCut”:interactive foreground extraction using iterated graph cuts[J]. ACM Transactions on Graphics,2004,23(3):309-314.
[11]鮑文霞,吳 剛,胡根生,等. 基于改進卷積神經(jīng)網(wǎng)絡的蘋果葉部病害識別[J]. 安徽大學學報(自然科學版),2021,45(1):53-59.
[12]賈鶴鳴,郎春博,姜子超. 基于輕量級卷積神經(jīng)網(wǎng)絡的植物葉片病害識別方法[J]. 計算機應用,2021,41(6):1812-1819.
[13]Krizhevsky A,Sutskever I,Hinton G E. ImageNet classification with deep convolutional neural networks[J]. Communications of the ACM,2017,60(6):84-90.
[14]Simonyan K,Zisserman A. Very deep convolutional networks for large-scale image recognition[J]. Computer Science,2014,52(3):1-14.
[15]Szegedy C,Liu W,Jia Y Q,et al. Going deeper with convolutions[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition.June 7-12,2015,Boston,MA.IEEE,2015:1-9.
[16]He K M,Zhang X Y,Ren S Q,et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition,June 27-30,2016,Las Vegas,NV,USA.Las Vegas:IEEE,2016:770-778.
[17]Howard A G,Zhu M L,Chen B,et al. MobileNets:efficient convolutional neural networks for mobile vision applications[EB/OL]. [2021-08-17]. https://arxiv.org/abs/1704.04861.
[18]Howard A,Sandler M,Chen B,et al. Searching for MobileNetV3[C]//Proceeding of the IEEE/CVF International Conference on Computer Vision (ICCV). Seoul:IEEE,2019:1314-1324.
[19]Sandler M,Howard A,Zhu M,et al. MobileNetV2 inverted residuals and linear bottlenecks[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern? Recognition. Salt Lake City:IEEE,2018:4510-4520.
[20]劉夢倫,趙希梅,魏 賓. 基于MobileNet V2-ELM的肝硬化識別[J]. 青島大學學報(自然科學版),2019,32(4):17-21.
[21]Tan M X,Chen B,Pang R M,et al. MnasNet:platform-aware neural architecture search for mobile[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).June 15-20,2019,Long Beach,CA,USA. IEEE,2019:2815-2823.
[22]Hu J,Shen L,Sun G,et al. Squeeze-and-excitation networks[C]//Proceeding of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition Piscataway:IEEE,2018:7132-7141.
[23]Tan M X,Le Q V. EfficientNet:rethinking model scaling for convolutional neural networks[C]//36th International Conference on Machine Learning(ICML 2019).Los Angeles:Proceeding of Machine Learning Research,2019:6105-6114.
[24]米 碩,孫瑞彬,李 欣,等. 遷移學習在卷積神經(jīng)網(wǎng)絡中的應用[J]. 中國新通信,2018,20(7):121.
[25]馮 曉,李丹丹,王文君,等. 基于輕量級卷積神經(jīng)網(wǎng)絡和遷移學習的小麥葉部病害圖像識別[J]. 河南農(nóng)業(yè)科學,2021,50(4):174-180.