張會(huì)敏 謝澤奇 張善文
摘要:因病害葉片圖像的復(fù)雜多變性,較難準(zhǔn)確分割病斑圖像和提取到魯棒的病害分類特征?,F(xiàn)有的基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的作物病害識(shí)別方法通過擴(kuò)展訓(xùn)練樣本來增加大量不同角度、方向的訓(xùn)練樣本,從而增強(qiáng)模型的魯棒性和泛化能力,但需要較長的訓(xùn)練數(shù)據(jù)和較大的算力,并且對(duì)于一些少見的病斑不能準(zhǔn)確識(shí)別,因此提出一種基于注意力膠囊網(wǎng)絡(luò)(ACapsNet)的作物病害識(shí)別方法。ACapsNet中的注意力機(jī)制用于提高CapsNet的訓(xùn)練能力。ACapsNet中的膠囊由多個(gè)神經(jīng)元組成,每個(gè)神經(jīng)元表示圖像中特定病斑的各種屬性,這些屬性能夠表達(dá)不同類型病斑的形狀、顏色、紋理、位置、大小和方向等特征,在復(fù)雜黃瓜病害葉片圖像數(shù)據(jù)集上進(jìn)行交叉驗(yàn)證試驗(yàn)。結(jié)果表明,ACapsNet能夠有效表達(dá)不同病害葉片圖像的各種特征,加快網(wǎng)絡(luò)的訓(xùn)練速度,能夠應(yīng)用于田間復(fù)雜場景的作物病害識(shí)別系統(tǒng)。
關(guān)鍵詞:作物病害識(shí)別;注意力機(jī)制;膠囊網(wǎng)絡(luò);注意力膠囊網(wǎng)絡(luò)
中圖分類號(hào): TP391.41? 文獻(xiàn)標(biāo)志碼: A
文章編號(hào):1002-1302(2022)06-0101-06
收稿日期:2021-06-05
基金項(xiàng)目:國家自然科學(xué)基金(編號(hào):62072378);河南省教育廳高等學(xué)校重點(diǎn)科研項(xiàng)目(編號(hào):20A520045)。
作者簡介:張會(huì)敏(1981—),女,河南漯河人,碩士,副教授,研究方向?yàn)槟J阶R(shí)別應(yīng)用。E-mail:zhm0413@163.com。
通信作者:張善文,博士,教授,研究方向?yàn)槟J阶R(shí)別及應(yīng)用研究。E-mail:wjdw716@163.com。
作物病害會(huì)嚴(yán)重影響作物的產(chǎn)量和質(zhì)量,因此作物病害的識(shí)別研究是作物病害防治工作中一個(gè)重要的研究方向[1-3]。目前,作物病害識(shí)別方法主要分為兩大類[4]:基于特征提取的識(shí)別方法[5-8]和基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的識(shí)別方法[9-11]。傳統(tǒng)方法需要對(duì)病害葉片圖像進(jìn)行分割,然后提取人為設(shè)計(jì)的病斑圖像的分類特征,最后利用訓(xùn)練集中樣本的分類特征向量訓(xùn)練分類器,利用測試集中樣本的分類特征向量進(jìn)行病害識(shí)別。事實(shí)上,由于病害葉片圖像及其背景的復(fù)雜性、多樣性(圖1)以及病斑分割、特征提取和分類器依賴于人為選擇和設(shè)計(jì),所以傳統(tǒng)方法實(shí)現(xiàn)流程較復(fù)雜,并且病斑圖像分割存在較大冗余性,分割的病斑圖像和提取的特征存在很大的主觀性,在病害識(shí)別的精度和泛化能力方面難以滿足大規(guī)模大田作物病害防治需求。
多年來,CNN在圖像識(shí)別、分割、檢測和檢索等多種任務(wù)中取得了成功應(yīng)用,并得到了顯著的識(shí)別效果,其主要優(yōu)點(diǎn)是可直接從輸入圖像中學(xué)習(xí)“端到端”的分類特征,大大消除了主觀性或物理模型等技術(shù)的依賴[12-13]。CNN通過不斷卷積操作提取更深層次的特征,通過池化操作極大地加速了網(wǎng)絡(luò)模型的收斂,增加更深層次神經(jīng)元的感受野,允許它們檢測更深層次的特征。CNN卷積核的大小對(duì)病害識(shí)別結(jié)果有很大影響,若卷積核太小,包含的病害類別信息太少,不利于病害類型識(shí)別;若卷積核太大,則網(wǎng)絡(luò)模型的參數(shù)過大,對(duì)算力要求就很高,因此選擇合適的卷積核大小非常重要。為了克服CNN模型的不足,Sabour等提出了一種膠囊網(wǎng)絡(luò)(CapsNet)[14]。CapsNet中的信息以矢量形式進(jìn)行存儲(chǔ),主要封裝識(shí)別目標(biāo)特征狀態(tài)的所有關(guān)鍵信息,膠囊將目標(biāo)的檢測概率編碼為矢量長度,同時(shí)將檢測目標(biāo)特征的姿勢(shì)信息,包括目標(biāo)的形狀、顏色、紋理、位置、方向、旋轉(zhuǎn)角度等編碼為矢量方向[15-17]。注意力機(jī)制以高權(quán)重聚焦目標(biāo)的重要分類信息,以較低權(quán)重忽略與分類不相關(guān)的信息,并且不斷調(diào)整權(quán)重,從而在不同情況下均可以選取重要的分類信息,可見將注意力機(jī)制應(yīng)用于CNN,有望加速模型收斂,增強(qiáng)模型的可擴(kuò)展性和魯棒性[18]。針對(duì)大田作物病害葉片圖像的干擾信息較多,早期病害葉片存在病斑較小,病斑形狀、圖像像素及其分布復(fù)雜、無規(guī)律,顏色變化多端,且不同類病斑差異較小等問題,充分結(jié)合膠囊網(wǎng)絡(luò)與注意力機(jī)制的優(yōu)勢(shì),提出一種基于注意力膠囊網(wǎng)絡(luò)的作物病害識(shí)別方法,并進(jìn)行大量試驗(yàn),驗(yàn)證該模型的有效性。
1 膠囊網(wǎng)絡(luò)(CapsNet)
CapsNet利用膠囊取代神經(jīng)網(wǎng)絡(luò)的神經(jīng)元表示特征,以膠囊的輸出為特征向量,其模長用于預(yù)測待識(shí)別目標(biāo)是否存在,特征向量各維的參數(shù)用于表示目標(biāo)的空間位置關(guān)系。CapsNet由編碼器和解碼器組成,其中編碼器由卷積層、主膠囊層和數(shù)字膠囊層組成。主膠囊使用1個(gè)卷積操作提取輸入圖像的特征,然后封裝成膠囊,數(shù)字膠囊是類別膠囊層,它的作用是將特征膠囊層的特征膠囊映射到類別膠囊中去。在經(jīng)典的CapsNet模型中,卷積層包含256個(gè)大小為9×9且步長為2的卷積核,輸出20×20×256維的特征圖;主膠囊層包含32組卷積核,每組由8個(gè)大小為9×9且步長為2的卷積核組成,該層對(duì)卷積層的輸出進(jìn)行卷積操作,得到1 152個(gè)8維膠囊;再輸入到擠壓激活函數(shù),該函數(shù)將大范圍輸入擠壓到較小區(qū)間,通常采用Sigmoid函數(shù),可將較大范圍的輸入擠壓到(0,1)區(qū)間內(nèi);輸入到數(shù)字膠囊層,假設(shè)該層有10個(gè)數(shù)字膠囊,則表示10個(gè)類別。膠囊層對(duì)主膠囊層的輸出進(jìn)行路由操作,得到16×10維分類向量;解碼器由3個(gè)全連接層組成,接收數(shù)字膠囊層輸出10×16維分類向量,輸出為10個(gè)16維向量;然后計(jì)算這10個(gè)16維向量的長度,輸出10維向量,最后計(jì)算其與標(biāo)簽值的損失。編碼器和解碼器的結(jié)構(gòu)見圖2和圖3。膠囊與神經(jīng)元差異見表1。
與CNN相比,CapsNet利用動(dòng)態(tài)路由算法代替池化層,對(duì)輸入特征進(jìn)行分類,等同于特征選擇過程。動(dòng)態(tài)路由算法通過獲取所有子膠囊預(yù)測結(jié)果來預(yù)測父膠囊的參數(shù),當(dāng)所有子膠囊預(yù)測結(jié)果一致時(shí),激活父膠囊并輸出特征向量,其計(jì)算流程如下。
1.1 非線性函數(shù)對(duì)輸入向量進(jìn)行壓縮,輸出特征向量
uj|i=wijui,sj=∑iciju^j|i,vj=‖sj‖21+‖sj‖2×sj‖sj‖。(1)
式中:ui為第i個(gè)膠囊的輸出,與轉(zhuǎn)化矩陣wij相乘得向量 u^j|i;cij為子膠囊層中第i個(gè)膠囊到父膠囊層中第j個(gè)膠囊的路由參數(shù);sj為父膠囊層中第j個(gè)膠囊;vj為父膠囊層中第j個(gè)膠囊的輸出,與對(duì)應(yīng)的閾值先相減、再平方、最后取平均值,相當(dāng)于預(yù)測結(jié)果與閾值的歐式距離的誤差。
1.2 路由參數(shù)cij用于實(shí)現(xiàn)膠囊層之間的動(dòng)態(tài)路由選擇
cij=exp(bij)∑kexp(bik)。(2)
式中:bij為子膠囊層中i膠囊連接到父膠囊層中j膠囊的概率。
bij通過低層膠囊中與高層膠囊對(duì)應(yīng)位置的特征的匹配程度來更新,計(jì)算如下:
bij+u^j|i·vj=bij。(3)
為了估計(jì)參數(shù)更新后的膠囊向量代表的預(yù)測值與真實(shí)結(jié)果之間的誤差,以便在動(dòng)態(tài)路由算法中更好地對(duì)參數(shù)進(jìn)行更新,在最后1層的數(shù)字膠囊層中,vj的個(gè)數(shù)與模型輸出類別的個(gè)數(shù)一致,求出向量vj的模長,是分類目標(biāo)為第j類別的概率值。正確類別和錯(cuò)誤類別分別為1和0,若判斷正確,則使用前半部分來計(jì)算損失;若判斷不正確,則使用后半部分來計(jì)算損失。本研究對(duì)應(yīng)的閾值分為合格的上限閾值和不合格的下限閾值,使用間隔損失作為損失函數(shù):
MLoss=∑k∈CNumTkmax(0,m+-‖vk‖2)+λ(1-Tk)max(0,‖vk‖-m-)2。(4)
式中:m+和m-分別為類別預(yù)測閾值;默認(rèn)m+=09,m-=0.1;λ=0.5為平衡系數(shù);Tk為數(shù)據(jù)類別標(biāo)簽;CNum為數(shù)據(jù)集的類別數(shù);k為類別序號(hào)。MLoss越小,則輸出向量的預(yù)測值與輸入向量的真實(shí)值之差越小,即膠囊網(wǎng)絡(luò)分類的效果越好。
2 注意力機(jī)制與膠囊網(wǎng)絡(luò)
2.1 注意力機(jī)制
CapsNet中的注意力機(jī)制旨在從眾多信息中通過運(yùn)算篩選出對(duì)識(shí)別目標(biāo)更關(guān)鍵的特征信息。其中,通道信息注意力網(wǎng)絡(luò)主要利用建模卷積特征通道之間的相互依賴關(guān)系來提高分類識(shí)別率。CapsNet通過學(xué)習(xí)全局信息來選擇性地強(qiáng)調(diào)特征信息實(shí)現(xiàn)特征通道的校準(zhǔn)。假設(shè)1個(gè)數(shù)據(jù)集a={a1,a2,…,aL},ai∈LD,其中:L是特征向量的數(shù)量;D是維度空間。使用注意力機(jī)制計(jì)算每個(gè)樣本ai在當(dāng)前時(shí)刻t的權(quán)重αt,i如下:
αt,i=exp(eti)/∑Lk=1exp(etk)。(5)
式中:eti=fatt(ai,ht-1)為多層感知器;fatt(L)為中間變量;ht-1為最后時(shí)刻的隱藏狀態(tài)。通過權(quán)值的測量,可以使網(wǎng)絡(luò)聚焦于最具分類性的區(qū)域和特征圖。
2.2 注意力膠囊網(wǎng)絡(luò)(ACapsNet)
ACapsNet由編碼模塊、重構(gòu)模塊、注意力模塊和分類模塊組成。其中,編碼模塊用于提取病害葉片圖像的分類特征;重構(gòu)模塊用于對(duì)編碼模塊的輸出特征進(jìn)行采樣,輸出重構(gòu)圖像;分類模塊用于病害類別識(shí)別。為了有效提取特征和降低噪聲對(duì)網(wǎng)絡(luò)的影響,在編碼模塊中引入自注意力機(jī)制,在膠囊層之間利用局部動(dòng)態(tài)路由算法,從而減少網(wǎng)絡(luò)的計(jì)算量和加快網(wǎng)絡(luò)訓(xùn)練;利用Swish激活函數(shù)來替代ReLU激活函數(shù),避免網(wǎng)絡(luò)退化問題。ACapsNet網(wǎng)絡(luò)的結(jié)構(gòu)見圖4。
ACapsNet的編碼模塊由2個(gè)卷積層conv1和conv2、自注意力層、主膠囊層、次膠囊層構(gòu)成,主膠囊層對(duì)conv2的輸出特征用32個(gè)步長為2的5×5卷積核進(jìn)行8次卷積操作,實(shí)現(xiàn)卷積層與膠囊層的轉(zhuǎn)換,次膠囊層與自注意力層使用的卷積核步長均為1,其他層卷積核的步長均為2。重構(gòu)模塊由卷積層conv3、反卷積層(deconv)和卷積層conv4組成,conv3進(jìn)行膠囊層與卷積層的轉(zhuǎn)化,反卷積層用于對(duì)conv3的輸出進(jìn)行上采樣,再通過conv4下采樣
得到重構(gòu)圖像。分類模塊由數(shù)字膠囊層組成,ACapsNet的參數(shù)見表2。
ACapsNet采用基于梯度下降算法進(jìn)行優(yōu)化,梯度下降的權(quán)值更新為:
Wnew=Wold-ηEWold。(6)
式中:Wold和Wnew分別為更新前和更新后的權(quán)值;η為學(xué)習(xí)率;損失E為權(quán)值W的復(fù)合函數(shù)。
Adam是典型的隨機(jī)梯度下降優(yōu)化算法,并廣泛用于學(xué)習(xí)率自適應(yīng)約束控制優(yōu)化,使得參數(shù)的更新比較穩(wěn)定,適用于求解帶有大規(guī)模數(shù)據(jù)或參數(shù)的優(yōu)化問題,表示為:
Δw=-ut/(1-α)vt/(1-β)+ε·η。(7)
式中:Δw為權(quán)值更新;η為學(xué)習(xí)率;α和β為超參數(shù);vt=βvt-1+(1-β)gt為有偏一階矩估計(jì);ut=αut-1+(1-α)gt為有偏二階矩估計(jì);gt為當(dāng)前時(shí)刻的梯度;ut-1、vt-1分別為上一時(shí)刻的有偏一階矩估計(jì)和有偏二階矩估計(jì)。
學(xué)習(xí)率對(duì)網(wǎng)絡(luò)模型的優(yōu)化算法收斂起著決定作用,學(xué)習(xí)率設(shè)置過小則收斂速度慢;反之,設(shè)置過大則模型可能無法收斂到最優(yōu)解。通常在迭代訓(xùn)練開始時(shí)將學(xué)習(xí)率設(shè)置較大,隨著模型逐漸收斂而不斷變小,使得模型更好收斂。在ACapsNet迭代過程中,利用Adam算法進(jìn)行優(yōu)化,初始選擇一個(gè)較大的學(xué)習(xí)率,設(shè)置為0.9,隨著數(shù)據(jù)集訓(xùn)練完成的次數(shù),按照指數(shù)函數(shù)進(jìn)行衰減。
基于ACapsNet的作物病害識(shí)別主要包括3個(gè)部分,數(shù)據(jù)集預(yù)處理、ACapsNet模型訓(xùn)練和利用訓(xùn)練好的ACapsNet進(jìn)行病害圖像分類,主要過程描述如下:
(1)對(duì)每幅圖像進(jìn)行擴(kuò)展;
(2)對(duì)擴(kuò)展后的每一幅圖像進(jìn)行歸一化,然后將所有圖像劃分為訓(xùn)練集和測試集;
(3)利用訓(xùn)練集訓(xùn)練ACapsNet模型,在每次迭代過程中按照“公式(7)”計(jì)算權(quán)值更新,判斷Δw是否小于閾值,若小于閾值,迭代終止;否則繼續(xù)訓(xùn)練。閾值默認(rèn)設(shè)置為0.001;
(4)利用測試數(shù)據(jù)集測試ACapsNet模型對(duì)作物病害葉片圖像樣本的平均識(shí)別率。
3 試驗(yàn)環(huán)境與結(jié)果
在黃瓜病害葉片圖像數(shù)據(jù)集上進(jìn)行試驗(yàn),并與2種深度學(xué)習(xí)方法和2種傳統(tǒng)方法進(jìn)行比較,說明基于ACapsNet的作物病害識(shí)別方法的有效性。2種深度學(xué)習(xí)方法為VGG16[12]和CapsNet[15],2種傳統(tǒng)方法為基于顯著區(qū)域和PHOG(SRPHOG)[8]、基于圖像處理技術(shù)和人工神經(jīng)網(wǎng)絡(luò)(IPANN)[19]。4種方法都是在原始圖像及其擴(kuò)展圖像上進(jìn)行訓(xùn)練和識(shí)別的,沒有對(duì)圖像進(jìn)行增強(qiáng)和病斑分割等預(yù)處理。
3.1 試驗(yàn)環(huán)境及參數(shù)設(shè)置
為了驗(yàn)證AcapsNet算法的有效性,試驗(yàn)于2021年5月在IBM服務(wù)器上運(yùn)行,網(wǎng)絡(luò)模型訓(xùn)練與測試的軟件環(huán)境為 Win10+CUDA+VS+Anaconda+keras配置GPU,開發(fā)環(huán)境為Pycharm、CUDA Toolkit10.0、CUDNN V7.6.5、Windows10 64 bit操作系統(tǒng)、Pytorch深度學(xué)習(xí)框架。網(wǎng)絡(luò)訓(xùn)練與測試硬件環(huán)境為Intel Xeon E5-2643v3 @3.40 GHz CPU;GTX2080TI 11 GB GPU;64 GB內(nèi)存。學(xué)習(xí)率過大可能導(dǎo)致AcapsNet易過擬合,采用指數(shù)函數(shù)衰減學(xué)習(xí)率進(jìn)行網(wǎng)絡(luò)訓(xùn)練,本試驗(yàn)過程中學(xué)習(xí)率初始化為0001,衰減率設(shè)置為0.9,并在訓(xùn)練和測試過程通過GPU加速。批次樣本數(shù)設(shè)置為32,最大迭代次數(shù)為3 000。
3.2 數(shù)據(jù)集
白粉病、霜霉病、炭疽病、細(xì)菌性角斑病和斑點(diǎn)病是黃瓜上5種常見的葉部病害。數(shù)據(jù)集主要使用各種移動(dòng)設(shè)備,如iPhone7、華為P10、索尼wifi控制攝像頭和物聯(lián)網(wǎng),采集地點(diǎn)在在陜西省寶雞市農(nóng)業(yè)研究所作物試驗(yàn)基地,采集時(shí)間為2018年6—8月,采集的圖像分辨率約為4 928×3 264像素,構(gòu)建1個(gè)原始的圖像數(shù)據(jù)集,包含1 000幅在不同場景、不同自然光背景、不同傳感器類型、不同圖像分辨率下的多樣性圖像,每一種病害200幅葉片圖像。部分作物害蟲圖片見圖5。從圖5可以看出,同類病害葉片圖像的形狀、顏色、病斑大小、紋理變化多端。所以,采用傳統(tǒng)方法很難分割病斑、提取魯棒性的分類特征。為了更方便查看圖像集的處理結(jié)果,圖像名稱統(tǒng)一采用“類型+編號(hào)+(擴(kuò)展角度或剪切).jpg”。
由于所收集的數(shù)據(jù)集較小,每類病害葉片只有200幅圖像,為了增強(qiáng)病害識(shí)別方法的泛化能力和避免深度學(xué)習(xí)模型的過擬合問題,利用旋轉(zhuǎn)、裁剪和縮放等操作,就每幅圖像擴(kuò)充10幅,得到10 000幅圖像。1幅圖像的10幅擴(kuò)展圖像見圖6。將擴(kuò)展后的圖像集制作成TFRecord格式的數(shù)據(jù)文件。
3.3 結(jié)果與分析
ACapsNet采用Adam算法進(jìn)行整個(gè)模型的參數(shù)優(yōu)化,使之可以在增加收斂速度的同時(shí)獲得最優(yōu)解,本研究通過梯度的一階矩和二階矩更新學(xué)習(xí)率,初始學(xué)習(xí)率為1×10-5。作物病害識(shí)別識(shí)別率是一次測試的樣本中正確的數(shù)量除以所有樣本的數(shù)量,平均識(shí)別率即所有類別識(shí)別率的平均值。主要是對(duì)作物的5種病害進(jìn)行識(shí)別,需要輸出的為5類分類結(jié)果,因此需要將數(shù)字膠囊層中的參數(shù)進(jìn)行替換,變?yōu)檩敵鰹?6×5的膠囊,實(shí)現(xiàn)膠囊對(duì)應(yīng)到5個(gè)類別,從而獲取分類結(jié)果。在試驗(yàn)前對(duì)數(shù)據(jù)集進(jìn)行預(yù)處理,將每一幅圖像大小變換為224×224圖像,即根據(jù)最長的一邊縮小為224的比例做長寬等比例縮小,再剪切一個(gè)包含病斑的區(qū)域并旋轉(zhuǎn)角度以擴(kuò)充數(shù)據(jù)集,背景采用黑色填充。
基于VGG16、CapsNet和ACapsNet等3種作物病害識(shí)別方法的訓(xùn)練效果對(duì)比見圖7。從圖7可以看出,與VGG16和CapsNet的訓(xùn)練效果比較,ACapsNet具有較好的魯棒性,訓(xùn)練經(jīng)過2 000次迭代后,其損失值降到約0.13,已基本趨于收斂。其原因是ACapsNet利用了注意力機(jī)制,有效提高了訓(xùn)練收斂速度。
按7 ∶3比例將擴(kuò)展后的原始圖像及其擴(kuò)展圖像隨機(jī)劃分為訓(xùn)練集和測試集,訓(xùn)練集用于訓(xùn)練模型,測試集用于算法識(shí)別。重復(fù)進(jìn)行該試驗(yàn)50次,計(jì)算作物病害的平均識(shí)別率。從表3可以看出,2種傳統(tǒng)方法的識(shí)別率很低,主要是由于原始圖像很難提取到高魯棒性的分類特征;3種基于VGG16、CapsNet和ACapsNet等方法的識(shí)別率較高,CapsNet的識(shí)別率比VGG16高,因?yàn)槟z囊網(wǎng)絡(luò)可以通過保留圖像特征的位置信息達(dá)到提升病斑圖像和病害圖像識(shí)別率的效果;基于ACapsNet方法的識(shí)別率最高,因?yàn)锳CapsNet利用了膠囊網(wǎng)絡(luò)和注意力機(jī)制的優(yōu)勢(shì)。結(jié)果表明,ACapsNet能夠自動(dòng)提取更具區(qū)分性的特征,進(jìn)一步提高作物病害的識(shí)別率,進(jìn)而能夠有效解決人工選擇復(fù)雜病害葉片圖像的特征提取與選擇問題。
4 結(jié)論
針對(duì)傳統(tǒng)基于特征提取的作物病害葉片圖像分類方法的精度不高且過分依賴人工選擇特征的問題,以及現(xiàn)有卷積神經(jīng)網(wǎng)絡(luò)對(duì)復(fù)雜自然背景下作物病害識(shí)別率低等問題,提出一種用于作物病害識(shí)別的注意力膠囊網(wǎng)絡(luò)(ACapsNet)。ACapsNet以膠囊網(wǎng)絡(luò)為基礎(chǔ),通過引入動(dòng)態(tài)路由算法降低網(wǎng)絡(luò)計(jì)算量,以適應(yīng)深度特征提取網(wǎng)絡(luò)訓(xùn)練,引入自注意力機(jī)制提高網(wǎng)絡(luò)特征表達(dá)與特征提取能力,并降低噪聲對(duì)網(wǎng)絡(luò)識(shí)別性能的影響。在黃瓜病害葉片圖像集上的結(jié)果表明,ACapsNet能夠應(yīng)用于作物病害自動(dòng)識(shí)別系統(tǒng)。未來考慮在大規(guī)模數(shù)據(jù)上進(jìn)行試驗(yàn),嘗試ACapsNet的動(dòng)態(tài)路由算法進(jìn)行優(yōu)化,以進(jìn)一步完善ACapsNet的結(jié)構(gòu),使其能夠更加高效、準(zhǔn)確地進(jìn)行作物病害識(shí)別。
參考文獻(xiàn):
[1]李成陽. 黃瓜病蟲害檢測儀關(guān)鍵技術(shù)研究[D]. 銀川:寧夏大學(xué),2018.
[2]阮 超. 冬小麥赤霉病和白粉病多尺度遙感監(jiān)測[D]. 合肥:安徽大學(xué),2019.
[3]丁 蓮. 溫室黃瓜病害圖像識(shí)別方法研究及應(yīng)用[D]. 成都:電子科技大學(xué),2020.
[4]Barbedo J G A.A review on the main challenges in automatic plant disease identification based on visible range images[J]. Biosystems Engineering,2016,144:52-60.
[5]Patil J K,Kumar R.Analysis of content based image retrieval for plant leaf diseases using color,shape and texture features[J]. Engineering in Agriculture,Environment and Food,2017,10(2):69-78.
[6]Singh V,Misra A K.Detection of plant leaf diseases using image segmentation and soft computing techniques[J]. Information Processing in Agriculture,2017,4(1):41-49.
[7]馬慧琴. 基于多源數(shù)據(jù)的小麥白粉病遙感監(jiān)測與預(yù)測模型研究[D]. 南京:南京信息工程大學(xué),2017.
[8]張?jiān)讫?,張?huì)敏,謝澤奇,等. 基于顯著區(qū)域和PHOG的黃瓜病害識(shí)別方法研究[J]. 江蘇農(nóng)業(yè)科學(xué),2018,46(22):246-250.
[9]姚群力,胡 顯,雷 宏. 基于多尺度融合特征卷積神經(jīng)網(wǎng)絡(luò)的遙感圖像飛機(jī)目標(biāo)檢測[J]. 測繪學(xué)報(bào),2019,48(10):1266-1274.
[10]黃守志. 基于多特征多尺度卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測算法研究[D]. 北京:北京郵電大學(xué),2019.
[11]呂昊宇,方 睿. 基于多尺度融合的卷積神經(jīng)網(wǎng)絡(luò)的雜草幼苗識(shí)別[J]. 計(jì)算機(jī)科學(xué)與應(yīng)用,2020(12):2406-2418.
[12]馬浚誠,杜克明,鄭飛翔,等. 基于卷積神經(jīng)網(wǎng)絡(luò)的溫室黃瓜病害識(shí)別系統(tǒng)[J]. 農(nóng)業(yè)工程學(xué)報(bào),2018,34(12):186-192.
[13]孫 俊,譚文軍,毛罕平,等. 基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的多種植物葉片病害識(shí)別[J]. 農(nóng)業(yè)工程學(xué)報(bào),2017,33(19):209-215.
[14]Sabour S,F(xiàn)rosst N,Hinton G E. Dynamic routing between capsules[J/OL]. Neural Information Processing Systems,2017:121-130.(2017-11-07)[2021-03-20].https://proceedings.neurips.cc/paper/2017/file/2cad8fa47bbef282badbb8de5374b894-Paper.pdf#:~:text=Dynamic%20routing%20can%20be%20viewed%20as%20a%20parallel,make%20higher-level%20segmentation%20decisions%20inthe%20domain%20of%20pixels.
[15]Gritsevskiy A,Korablyov M. Capsule networks for low-data transfer learning[J/OL]. Computer Science·ArXiv, 2018. (2018-04-26)[2021-03-20].https://math.mit.edu/research/highschool/primes/materials/2018/Gritsevskiy.pdf.
[16]Tobing E,Murtaza A,Han K,et al. EP-CapsNet:extending capsule network with inception module for electrophoresis binary classification[C]//18th International Conference on Bioinformatics and Bioengineering.Taichung,2018:327-333.
[17]Xiang C Q,Zhang L,Tang Y,et al. MS-CapsNet:a novel multi-scale capsule network[J]. IEEE Signal Processing Letters,2018,25(12):1850-1854.
[18]侯金秀,李 然,鄧紅霞,等. 融合通道信息注意力網(wǎng)絡(luò)的葉片病害識(shí)別[J]. 計(jì)算機(jī)工程與應(yīng)用,2020,56(23):124-129.
[19]劉 娜,趙 慧,包思圓,等. 基于圖像處理的黃瓜葉子病害識(shí)別系統(tǒng)的研究[J]. 山東工業(yè)技術(shù),2018(5):138.