黎振 陸玲 熊方康
摘要:針對(duì)有背景干擾的番茄病理葉片,將k-means分割與遷移學(xué)習(xí)相結(jié)合,提出一種基于k-means分割和遷移學(xué)習(xí)的方法對(duì)番茄病害葉片進(jìn)行識(shí)別。首先對(duì)原始圖像進(jìn)行一系列預(yù)處理,再將處理后的圖像進(jìn)行k-means分割,得到葉片邊緣的最小矩陣圖像,之后進(jìn)行去噪處理,簡(jiǎn)化突出圖像特征,再根據(jù)預(yù)處理后的圖像特點(diǎn),優(yōu)化改進(jìn)遷移的VGG16網(wǎng)絡(luò)結(jié)構(gòu),構(gòu)建 CNN 模型對(duì)預(yù)處理后圖像進(jìn)行識(shí)別。結(jié)果顯示,通過分割后訓(xùn)練方式平均精度提升了0.37百分點(diǎn),通過凍結(jié)遷移的VGG16網(wǎng)絡(luò)第1個(gè)卷積模塊并修改全連接層的方法提升了5.4%左右。因此本研究認(rèn)為通過分割、凍結(jié)VGG16第1個(gè)卷積層模塊的參數(shù)并修改全連接層可以提升番茄病理識(shí)別率。
關(guān)鍵詞:農(nóng)作物病蟲害;k-means分割;卷積神經(jīng)網(wǎng)絡(luò);遷移學(xué)習(xí);VGG16
中圖分類號(hào): TP391.41文獻(xiàn)標(biāo)志碼: A
文章編號(hào):1002-1302(2021)12-0156-06
收稿日期:2020-11-07
基金項(xiàng)目:國(guó)家自然科學(xué)基金(編號(hào):61761003)。
作者簡(jiǎn)介:黎 振(1997—),男,江西南城人,碩士,主要從事深度學(xué)習(xí)和圖像處理研究。E-mail:243502783@qq.com。
通信作者:陸 玲,碩士,教授,碩士生導(dǎo)師,研究方向?yàn)橛?jì)算機(jī)圖形學(xué),數(shù)字圖像處理,計(jì)算機(jī)可視化。E-mail:luling@ecit.cn。
農(nóng)作物病蟲害一直是農(nóng)業(yè)領(lǐng)域面臨的巨大挑戰(zhàn)之一,它不僅會(huì)影響農(nóng)業(yè)生產(chǎn),還會(huì)影響食品安全[1] 。根據(jù)相關(guān)統(tǒng)計(jì)和分析,從2015年到2019年,全國(guó)農(nóng)作物病害的受災(zāi)面積從1 926萬hm2到 2 176.98萬hm2 不等。根據(jù)全國(guó)農(nóng)業(yè)技術(shù)推廣服務(wù)中心的預(yù)測(cè),2020 年我國(guó)農(nóng)作物病害的受災(zāi)面積將累計(jì)達(dá)到 3 億 hm2,造成相當(dāng)大的糧食與經(jīng)濟(jì)損失[2]。其中馬鈴薯晚疫病在西南大部、東北北部、華北北部和西北東部產(chǎn)區(qū)偏重流行,風(fēng)險(xiǎn)高,發(fā)生面積2 800萬畝(1 hm2=15畝)。為了更好地預(yù)防番茄病蟲害的發(fā)生,快速檢測(cè)出屬于哪種病蟲害是預(yù)防病蟲害最主要的方法之一。由于病害的癥狀復(fù)雜多變,業(yè)余人員對(duì)病理的診斷往往存在較大偏差,只有專業(yè)人員才能進(jìn)行準(zhǔn)確的識(shí)別;但人工識(shí)別所消耗的時(shí)間也較長(zhǎng),還需要耗費(fèi)大量的人力物力進(jìn)行診斷[3]。因此,研究快速準(zhǔn)確檢測(cè)馬鈴薯病害的診斷系統(tǒng)變得至關(guān)重要。隨著計(jì)算機(jī)視覺與神經(jīng)網(wǎng)絡(luò)的快速發(fā)展,圖像識(shí)別率不斷增高,人工智能技術(shù)正逐步應(yīng)用于農(nóng)作物耕作、采摘、病害檢測(cè)等方面[4]。
隨著圖像處理技術(shù)的發(fā)展,越來越多的研究人員使用數(shù)字圖像處理技術(shù)對(duì)農(nóng)作物進(jìn)行識(shí)別。田海韜等從彩色空間中利用歐式距離直接分割芽眼區(qū)域,在灰度空間中對(duì)圖像進(jìn)行中值濾波后利用模糊技術(shù)對(duì)圖像進(jìn)行增強(qiáng),之后利用動(dòng)態(tài)閾值分割法分割芽眼區(qū)域,結(jié)合2個(gè)空間的分割結(jié)果后利用數(shù)學(xué)形態(tài)學(xué)處理方法標(biāo)記出芽眼,最終得到識(shí)別率為96%左右[5]。郭小清等通過選擇HSV(hue,saturation,value,色相,飽和度,色明度)模型中的4維H分量等量分割波段作為顏色特征,基于灰度差分統(tǒng)計(jì)的均值、對(duì)比度和熵3維特征作為紋理特征,融合7維特征向量作為支持向量機(jī)(SVM)分類器的輸入,用粒子群算法(PSO)優(yōu)化SVM模型參數(shù),最終得到識(shí)別率平均為90%[6]。
上述識(shí)別方法既有優(yōu)點(diǎn)又有缺點(diǎn),傳統(tǒng)的數(shù)字圖像處理方法具有應(yīng)用廣泛、處理精度高、靈活性高等特點(diǎn),但處理后的圖像需要在專業(yè)人員的指導(dǎo)下進(jìn)行觀察與評(píng)估。已有研究證明卷積神經(jīng)網(wǎng)絡(luò)識(shí)別圖像不需要執(zhí)行繁瑣的預(yù)處理、特征提取以及特征分類的步驟。曾偉輝等提出了一個(gè)高階殘差卷積神經(jīng)網(wǎng)絡(luò),包含5層卷積層,4個(gè)殘差模塊,1個(gè)全局平均池化層和1個(gè)Softmax層對(duì)農(nóng)作物病害進(jìn)行識(shí)別[7]。張建華等利用卷積神經(jīng)網(wǎng)絡(luò)直接從輸入數(shù)據(jù)的原始表示中學(xué)習(xí)有用的葉片特征,證明使用深度學(xué)習(xí)的混合局部-全局特征學(xué)習(xí)方法可以提高識(shí)別性能[8]。經(jīng)過訓(xùn)練的模型可以很快地對(duì)圖像進(jìn)行分類,但訓(xùn)練大型神經(jīng)網(wǎng)絡(luò)是非常耗時(shí)的,且需要大量的數(shù)據(jù)集對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。遷移學(xué)習(xí)通過遷移在大型數(shù)據(jù)集上訓(xùn)練過的模型參數(shù),來對(duì)現(xiàn)有數(shù)據(jù)集進(jìn)行訓(xùn)練。Lee等在VGG-16網(wǎng)絡(luò)模型基礎(chǔ)上,優(yōu)化全連接層層數(shù),并用6標(biāo)簽SoftMax分類器替換原有VGG-16網(wǎng)絡(luò)中的SoftMax分類器,優(yōu)化了模型結(jié)構(gòu)和參數(shù),通過微型遷移學(xué)習(xí)共享預(yù)訓(xùn)練模型中卷積層與池化層的權(quán)值參數(shù)[9]。余小東等采用遷移學(xué)習(xí)方式并結(jié)合深度學(xué)習(xí)提出了一種基于殘差網(wǎng)絡(luò)(ResNet 50)的 CDCNNv2 算法,通過對(duì)農(nóng)作物進(jìn)行病害識(shí)別,最終識(shí)別率在91%左右[10]。Lee等使用遷移VGG16并搭配Adam優(yōu)化器來對(duì)大豆豆莢進(jìn)行識(shí)別,識(shí)別率高達(dá)98.41%[9]。
結(jié)合上述的研究方法,本研究提出了一種基于 k-means 分割和遷移學(xué)習(xí)的方法對(duì)番茄病理進(jìn)行識(shí)別,可以在減少訓(xùn)練時(shí)間的同時(shí),加快模型的收斂速度。首先對(duì)數(shù)據(jù)集進(jìn)行k-means分割等預(yù)處理方法簡(jiǎn)化突出數(shù)據(jù)特征,根據(jù)處理后的數(shù)據(jù)特點(diǎn)改進(jìn)遷移的VGG16模型,構(gòu)建識(shí)別遷移學(xué)習(xí)模型識(shí)別番茄病害,最后通過試驗(yàn),驗(yàn)證了本方法的有效性。
1 圖像數(shù)據(jù)集
本研究采用公開數(shù)據(jù)集AI Challenger 2018 所提供的11 494張馬鈴薯病理圖像作為數(shù)據(jù)集,此數(shù)據(jù)集共包含9類病害圖像(白粉病、早疫病、晚疫病、葉霉病、斑點(diǎn)病、斑枯病、紅蜘蛛損傷、黃花曲葉病病毒、花葉病病毒)和1種健康圖像(圖1)。
2 數(shù)據(jù)預(yù)處理
為了減小背景、光照等其他干擾因素的影響,首先對(duì)原始圖像進(jìn)行去噪,再對(duì)圖像進(jìn)行分割,選取葉片的最小矩陣區(qū)域,簡(jiǎn)化突出圖像的特征,便于神經(jīng)網(wǎng)絡(luò)模型能夠更加準(zhǔn)確的對(duì)葉片病理特征進(jìn)行識(shí)別。圖像預(yù)處理的整體流程如圖2所示。
2.1 去噪和k-means分割
由于原始圖像中有些斑點(diǎn)狀的噪聲,為了減少這些噪聲對(duì)選取葉片邊界的影響,使用高斯濾波對(duì)圖像進(jìn)行去噪。本研究主要采用的高斯核是3×3的高斯核:
116121
242
121
由于高斯核中的數(shù)值滿足高斯分布,所以更加重視中心的像素點(diǎn),能在好的去噪情況下,將特征更好地顯現(xiàn)出來(圖3)。
k-means算法:先從樣本集中隨機(jī)選取K個(gè)樣本作為簇中心,并計(jì)算所有樣本與這K個(gè)簇中心的距離,對(duì)于每一個(gè)樣本,將其劃分到與其距離最近的簇中心所在的簇中,對(duì)于新的簇計(jì)算各個(gè)簇的新的簇中心。對(duì)于圖像數(shù)據(jù)而言,可將圖像的像素值進(jìn)行聚類,顏色即像素值相近的像素會(huì)形成一類。
根據(jù)聚類中心,將所有樣本點(diǎn)分為最相似的類別。這需要一個(gè)有效的盤踞,平方差是最常用的度量方式,如下:
c(i)=minj‖x(i)-μj‖;(1)
μj=1|ci|∑X∈ciX。(2)
式中:x(i)為像素點(diǎn),i=1,2,…,n,共n個(gè)像素點(diǎn);c(i)為x(i)最相似的類別,即x(i)被分至該類,j=1,2,…,K,共K個(gè)類別。
通過k-means聚類算法,將相同像素值聚為一類,聚類后結(jié)果如圖4所示。
根據(jù)聚類后的圖像,發(fā)現(xiàn)前景的像素值更低,為了更好地區(qū)分前后景,之后將聚類后圖像進(jìn)行閾值處理(圖5)。
由于閾值處理后有些背景也被算法當(dāng)成是葉片的邊界,所以先通過中值去噪的方法將圖像中的干擾因素降低,再通過形態(tài)學(xué)操作將背景中的干擾因子去除,使得葉片的邊界能清晰地顯現(xiàn)(圖6)。
此時(shí),背景部分就沒有干擾因素對(duì)葉片的邊界發(fā)生干擾了,然后筆者所在課題組通過OPENCV中的FindContours函數(shù)找到葉片的最小外界矩陣。通過最小外界矩陣對(duì)原彩色圖像進(jìn)行分割,截圖到葉片區(qū)域,減少了背景對(duì)葉片特征提取的干擾。截取結(jié)果如圖7所示。
由于神經(jīng)網(wǎng)絡(luò)的輸入圖像大小一般為256×256且為了防止出現(xiàn)模型過擬合,將分割后像素值小于256的圖像進(jìn)行像素值重新調(diào)整操作,使圖像的像素值大于或等于256。
2.2 數(shù)據(jù)增強(qiáng)
卷積神經(jīng)網(wǎng)絡(luò)可能會(huì)由于數(shù)據(jù)不足存在過擬合問題,過擬合使模型泛化能力變差,不能很好地運(yùn)用在新的數(shù)據(jù)集檢測(cè)上,為了防止出現(xiàn)過擬合問題,本研究采取數(shù)據(jù)增強(qiáng)的方法來防止模型過擬合。將分割后的圖片進(jìn)行隨機(jī)旋轉(zhuǎn)、平移、加光照、人工加噪和鏡像等操作對(duì)圖像數(shù)據(jù)進(jìn)行增強(qiáng)。使得神經(jīng)網(wǎng)絡(luò)能更好和更多地學(xué)習(xí)到數(shù)據(jù)特征。為了作比較,本研究將原圖像數(shù)據(jù)集進(jìn)行同樣的數(shù)據(jù)增強(qiáng)操作,以此來與分割后再增強(qiáng)的數(shù)據(jù)集作對(duì)比。將11 494張?jiān)紙D像增強(qiáng)到24 551張圖片,按照 9 ∶1 的比例劃分訓(xùn)練集和測(cè)試集。
3 遷移學(xué)習(xí)模型
3.1 遷移學(xué)習(xí)
近幾年,遷移學(xué)習(xí)[10]逐漸成為深度學(xué)習(xí)中的一個(gè)熱門領(lǐng)域。由于從頭訓(xùn)練一個(gè)新的高性能的卷積神經(jīng)網(wǎng)絡(luò)所需要耗費(fèi)的時(shí)間很長(zhǎng),而且需要大量的數(shù)據(jù)對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,過程顯得十分漫長(zhǎng)。在實(shí)際應(yīng)用中往往擁有的數(shù)據(jù)無法對(duì)一個(gè)全新的網(wǎng)絡(luò)進(jìn)行訓(xùn)練,但又想利用深度學(xué)習(xí)的高性能分析能力,所以遷移學(xué)習(xí)應(yīng)運(yùn)而生。遷移學(xué)習(xí)是運(yùn)用已有的知識(shí)對(duì)不同相關(guān)領(lǐng)域問題進(jìn)行求解的一種機(jī)器學(xué)習(xí)方法,其目標(biāo)是完成知識(shí)在相關(guān)領(lǐng)域之間的遷移[11-13]。本研究利用遷移預(yù)訓(xùn)練網(wǎng)絡(luò)模型的方法進(jìn)行試驗(yàn)[這些預(yù)訓(xùn)練模型已在大型數(shù)據(jù)集(ImageNet)大賽上訓(xùn)練好,具有很強(qiáng)的魯棒性和泛化能力][14]。本研究遷移的是VGG16網(wǎng)絡(luò)模型,VGG16是由牛津大學(xué)計(jì)算機(jī)視覺組開發(fā)的一個(gè)卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),至今仍被認(rèn)為是一個(gè)具有較強(qiáng)性能的圖像識(shí)別模型,該網(wǎng)絡(luò)主要特點(diǎn)是網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)單并且易于實(shí)現(xiàn),使得其具有研究?jī)r(jià)值。
VGG網(wǎng)絡(luò)中通過堆疊2個(gè)3×3的卷積核替代5×5的卷積核,堆疊3個(gè)3×3的卷積核替代7×7的卷積核,一方面減少了參數(shù)的數(shù)量,另一方面通過這種方法進(jìn)行了更多的非線性映射,提高了模型的擬合能力。
3.2 模型構(gòu)建
卷積神經(jīng)網(wǎng)絡(luò)直接用原始圖像的全部像素作為輸入,進(jìn)行卷積池化等操作,找尋使特征表達(dá)最優(yōu)的參數(shù)。結(jié)合卷積神經(jīng)網(wǎng)絡(luò)的知識(shí),卷積神經(jīng)網(wǎng)絡(luò)的前幾層主要提取圖像的邊框特征[15],研究圖像經(jīng)過VGG16神經(jīng)網(wǎng)絡(luò)每卷積模塊后的特征圖(圖8)。
通過特征圖的觀察,發(fā)現(xiàn)經(jīng)過第1個(gè)卷積層模塊后的圖像,背景部分還比較清晰,下一次卷積層模塊還會(huì)繼續(xù)提取圖像背景的特征,但隨著卷積模塊的深入,所提取的特征更傾向于葉片的特征。由于遷移學(xué)習(xí)遷移的是網(wǎng)絡(luò)的權(quán)重,對(duì)于提取圖片邊緣特征的卷積層模塊,可以凍結(jié)模塊的權(quán)重,對(duì)于提取圖像內(nèi)部關(guān)鍵特征的卷積層模塊,可以重新訓(xùn)練權(quán)值。首先筆者所在課題組對(duì)遷移的VGG16模型進(jìn)行微調(diào),將在Image數(shù)據(jù)集上訓(xùn)練好的VGG16網(wǎng)絡(luò)模型進(jìn)行遷移,然后對(duì)其全連接層進(jìn)行修改,并在最后一層后接上一個(gè)改進(jìn)的softmax邏輯分類器[16]。
然后,在修改后的VGG16網(wǎng)絡(luò)結(jié)構(gòu)(圖9)中,凍結(jié)第1個(gè)卷積層模塊的權(quán)重[17],訓(xùn)練剩下卷積層模塊的權(quán)重,讓模型能更好地對(duì)圖像的核心特征進(jìn)行提取,減少一些邊緣特征對(duì)最后準(zhǔn)確率的影響。
4 試驗(yàn)與結(jié)果分析
4.1 試驗(yàn)環(huán)境
本試驗(yàn)均在Window10中實(shí)現(xiàn),運(yùn)行環(huán)境是Jupyter Notebook,使用開源深度學(xué)習(xí)框架Pytorch作為開發(fā)環(huán)境,設(shè)置初始學(xué)習(xí)率為0.001,并隨著網(wǎng)絡(luò)的收斂程度進(jìn)行下降,使用Adam優(yōu)化器對(duì)網(wǎng)絡(luò)的評(píng)估和參數(shù)進(jìn)行優(yōu)化[18-20]。試驗(yàn)過程中采用NIVIDIA GTX2060GPU對(duì)模型訓(xùn)練進(jìn)行加速,存儲(chǔ)采用 16 G 的內(nèi)存,CPU采用i5-10400F。
4.2 試驗(yàn)方法與結(jié)果
本研究主要設(shè)置了4組試驗(yàn),比較普通數(shù)據(jù)增強(qiáng)和使用k-means分割后的數(shù)據(jù)增強(qiáng)的識(shí)別率以及只修改訓(xùn)練全連接層和凍結(jié)1個(gè)模塊訓(xùn)練剩下模塊的識(shí)別率。首先設(shè)置試驗(yàn)1,比較使用k-means分割和未使用k-means分割進(jìn)行數(shù)據(jù)增強(qiáng)后兩者的差異,同時(shí)設(shè)置一個(gè)未使用任何數(shù)據(jù)增強(qiáng)用來做對(duì)照。結(jié)果見表1。
其中Data1表示普通數(shù)據(jù)增強(qiáng),Data2表示先對(duì)原有圖像進(jìn)行k-means分割后,再進(jìn)行數(shù)據(jù)增強(qiáng),Data3表示未進(jìn)行任何數(shù)據(jù)增強(qiáng)。
表1結(jié)果顯示,使用k-means分割后的識(shí)別率和損失值都要優(yōu)于使用k-means分割。在識(shí)別率上提升了0.37百分點(diǎn)。同時(shí)可以看出,使用任何方式的數(shù)據(jù)增強(qiáng)都要比不做數(shù)據(jù)增強(qiáng)的方法識(shí)別率高。使用通過k-means分割后再增強(qiáng)的數(shù)據(jù)集比較只訓(xùn)練全連接層和凍結(jié)第1個(gè)模塊訓(xùn)練其他模塊的識(shí)別率,結(jié)果見表2。
其中VGG16表示凍結(jié)全部卷積層,只訓(xùn)練全連接層,N-VGG16表示凍結(jié)第1個(gè)卷積層模塊,訓(xùn)練其他層,A-VGG16表示重新開始訓(xùn)練一個(gè)新的VGG16模型。訓(xùn)練過程中只訓(xùn)練全連接層和凍結(jié)第1個(gè)模塊訓(xùn)練其他模塊的準(zhǔn)確率變化曲線如圖10所示。
由表2和圖10可以看出,迭代訓(xùn)練10次后,凍結(jié)卷積層訓(xùn)練全連接層和凍結(jié)第1個(gè)卷積層模塊訓(xùn)練其他層的準(zhǔn)確率均逐漸趨于穩(wěn)定,且凍結(jié)第1個(gè)卷積層模塊訓(xùn)練其他層準(zhǔn)確率均優(yōu)于只訓(xùn)練全連接層的VGG16網(wǎng)絡(luò),說明本研究通過凍結(jié)第1個(gè)模塊訓(xùn)練其他模塊的方法有效提升了網(wǎng)絡(luò)的性能;訓(xùn)練完成后,凍結(jié)第1個(gè)模塊訓(xùn)練其他模塊在驗(yàn)證集上的準(zhǔn)確率為97.92%,相比只訓(xùn)練全連接層提高了約4%。
5 結(jié)論
本研究提出一種將圖像預(yù)處理與遷移學(xué)習(xí)相結(jié)合的方法,實(shí)現(xiàn)了對(duì)番茄病理的有效識(shí)別。
對(duì)于獲取的原始圖像,首先通過k-means分割、去噪等預(yù)處理操作簡(jiǎn)化突出其特征,再根據(jù)預(yù)處理后的圖像特點(diǎn)對(duì)遷移的VGG16網(wǎng)絡(luò)做出微調(diào),并凍結(jié)第1個(gè)模塊的權(quán)重,提升網(wǎng)絡(luò)性能,構(gòu)建改進(jìn)遷移學(xué)習(xí)模型對(duì)番茄病理進(jìn)行識(shí)別。
試驗(yàn)結(jié)果表明,本研究的方法對(duì)番茄病理的識(shí)別效果較好,并通過數(shù)據(jù)增強(qiáng)的方式,使其擁有較好的魯棒性??蔀楹罄m(xù)研發(fā)番茄病理識(shí)別程序提供技術(shù)支持。下一步工作考慮如何提高對(duì)批量圖像數(shù)據(jù)進(jìn)行分割時(shí),能較好地滿足所有圖片的需求,達(dá)到精準(zhǔn)分割,并且能減少一些干擾因素如背景和前景相似時(shí),能更好地對(duì)背景前景進(jìn)行分割。
參考文獻(xiàn):
[1]Tai A P K,Martin M V,Heald C L. Threat to future global food security from climate change and ozone air pollution[J]. Nature Climate Change,2014,4(9):817-821.
[2]姜玉英,劉萬才,黃 沖,等. 2020 年全國(guó)農(nóng)作物重大病蟲害發(fā)生趨勢(shì)預(yù)報(bào)[J]. 中國(guó)植保導(dǎo)刊,2020,40(2):37-39.
[3]張 琦,張榮梅,陳 彬. 基于深度學(xué)習(xí)的圖像識(shí)別技術(shù)研究綜述[J]. 河北省科學(xué)院學(xué)報(bào),2019,36(3):28-36.
[4]Swietojanski P,Ghoshal A,Renals S. Convolutional neural networks for distant speech recognition[J]. IEEE Signal Processing Letters,2014,21(9):1120-1124.
[5]田海韜,趙 軍,蒲富鵬. 馬鈴薯芽眼圖像的分割與定位方法[J]. 浙江農(nóng)業(yè)學(xué)報(bào),2016,28(11):1947-1953.
[6]郭小清,范濤杰,舒 欣. 基于圖像融合特征的番茄葉部病害的識(shí)別[J]. 湖南農(nóng)業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)版),2019,45(2):212-217,224.
[7]曾偉輝,李 淼,張 健,等. 面向農(nóng)作物病害識(shí)別的高階殘差卷積神經(jīng)網(wǎng)絡(luò)研究[J]. 中國(guó)科學(xué)技術(shù)大學(xué)學(xué)報(bào),2019,49(10):781-790.
[8]張建華,孔繁濤,吳建寨,等. 基于改進(jìn)VGG卷積神經(jīng)網(wǎng)絡(luò)的棉花病害識(shí)別模型[J]. 中國(guó)農(nóng)業(yè)大學(xué)學(xué)報(bào),2018,23(11):161-171.
[9]Lee S H,Chan C S,Mayo S J,et al. How deep learing extracts and learns leaf features for plant classification[J]. Pattren Recognition,2017,71:1-13.
[10]余小東,楊孟輯,張海清,等. 基于遷移學(xué)習(xí)的農(nóng)作物病蟲害檢測(cè)方法研究與應(yīng)用[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2020,51(10):252-258.
[11]Tan C,Sun F,Kong T,et al. A survey on deep transfer learning[C]//27 International Conference on Artificial Neural Networks and Machine Learning-ICANN 2018. Rhodes,Greece,2018:270-279.
[12]閆壯壯,閆學(xué)慧,石 嘉,等. 基于深度學(xué)習(xí)的大豆豆莢類別識(shí)別研究[J]. 作物學(xué)報(bào),2020,46(11):1771-1779.
[13]劉嘉政. 基于深度遷移學(xué)習(xí)模型的花卉種類識(shí)別[J]. 江蘇農(nóng)業(yè)科學(xué),2019,47(20):231-236.
[14]龍明盛. 遷移學(xué)習(xí)問題與方法研究[D]. 北京:清華大學(xué),2014:34-89.
[15]Krizhevsky A,Sutskever I,Hinton G E. ImageNet classification with deep convolutional neural networks[M]. Hinton E. Communications of the ACM,2017:6
[16]Jang Y H,Lee H,Hwang S J,et al. Learning what and where to transfer[C]. Proceeding of the 36th International Conference on Machine Learning,2019:3030-3039.
[17]白 潔,張金松,劉倩宇. 基于卷積網(wǎng)絡(luò)特征遷移的小樣本物體圖像識(shí)別[J]. 計(jì)算機(jī)仿真,2020,37(5):311-316.
[18]Huang G,Liu Z,Maaten L D,et al. Densely connected convolutional networks[C]//IEEE Conference on Computer Vision and Pattern Recognition.Hawaii,USA,2017:2261-2269.
[19]趙建敏,李 艷,李 琦,等. 基于卷積神經(jīng)網(wǎng)絡(luò)的馬鈴薯葉片病害識(shí)別系統(tǒng)[J]. 江蘇農(nóng)業(yè)科學(xué),2018,46(24):251-255.
[20]梁萬杰,曹宏鑫. 基于卷積神經(jīng)網(wǎng)絡(luò)的水稻蟲害識(shí)別[J]. 江蘇農(nóng)業(yè)科學(xué),2017,45(20):241-243,253.